Wirtschaftsinformatik 2005 eEconomy, eGovernment, eSociety
Otto K. Ferstl ´ Elmar J. Sinz Sven Eckert ´ Tilman Isselhorst (Herausgeber)
Wirtschaftsinformatik 2005 eEconomy, eGovernment, eSociety Mit 493 Abbildungen und 118 Tabellen
Physica-Verlag Ein Unternehmen von Springer
Professor Dr. Otto K. Ferstl Professor Dr. Elmar J. Sinz Dipl.-Wirtsch.Inf. Sven Eckert Dipl.-Wirtsch.Inf. Tilman Isselhorst Otto-Friedrich-Universitåt Bamberg Lehrstuhl fçr Wirtschaftsinformatik, insb. Industrielle Anwendungssysteme und Lehrstuhl fçr Wirtschaftsinformatik, insb. Systementwicklung und Datenbankanwendung Feldkirchenstraûe 21 96045 Bamberg
[email protected] [email protected] [email protected] [email protected]
ISBN 3-7908-1574-8 Physica-Verlag Heidelberg Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet çber abrufbar. Dieses Werk ist urheberrechtlich geschçtzt. Die dadurch begrçndeten Rechte, insbesondere die der Ûbersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfåltigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfåltigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulåssig. Sie ist grundsåtzlich vergçtungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Physica-Verlag ist ein Unternehmen von Springer Science+Business Media GmbH springer.de ° Physica-Verlag Heidelberg 2005 Printed in Germany Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wåren und daher von jedermann benutzt werden dçrften. Umschlaggestaltung: Erich Kirchner, Heidelberg SPIN 11375364
42/3135-5 4 3 2 1 0 ± Gedruckt auf såurefreiem und alterungsbeståndigem Papier
Grußwort Herzlich grüße ich die Teilnehmer und die Veranstalter der 7. Internationalen Tagung Wirtschaftsinformatik in Bamberg. Gern habe ich die Schirmherrschaft übernommen. Ich möchte mit dieser Geste meine ideelle Unterstützung für diese Veranstaltung zum Ausdruck bringen. Sie wendet sich einem Thema zu, das für die Zukunft der deutschen Wirtschaft von wesentlicher Bedeutung ist. Besonders freut es mich, dass dieses Treffen, das alle zwei Jahre stattfindet, heuer bereits zum zweiten Mal nach Bayern kommt: Der Weg führt von Augsburg (2001) über Dresden (2003) nach Bamberg! An der dortigen Universität, einem der bedeutenden Standorte für Wirtschaftsinformatik in Deutschland, will die Tagung das Gewicht dieser jungen Disziplin unter Beweis stellen. Mir liegt viel daran, dass der Nutzen für unsere Volkswirtschaft, der in der angewandten Informationswissenschaft liegt, wahrgenommen und aufgegriffen wird. Ich erwarte mir von der Tagung ein Zeichen des Optimismus für Deutschland. Derzeit werden wir mit guten Nachrichten nicht unbedingt verwöhnt: Während die Chancen der Globalisierung oft nur unzureichend diskutiert werden, treten beunruhigende Begleiterscheinungen in den Vordergrund. Weil ich die Sorgen der Deutschen ernst nehme, will Bayern es besser machen. Ich möchte zeigen, wie unsere Strukturpolitik eine gültige Antwort auf die Herausforderung der Globalisierung formulieren kann. Deshalb liegt mir die Wirtschaftsinformatik am Herzen. Ich wünsche der Tagung in Bamberg viel Erfolg und eine ermutigende Breitenwirkung! Dr. Edmund Stoiber Ministerpräsident des Freistaates Bayern
Vorwort Informations- und Kommunikationssysteme (IuK-Systeme) in Wirtschaft und Verwaltung bilden den klassischen Gegenstandsbereich der Wirtschaftsinformatik, die mittlerweile auf eine ca. 35-jährige Historie zurückblicken kann. Dank innovativer IuK-Systeme sind Visionen der Automatisierung von Geschäfts- und Verwaltungsprozessen sowie der zeit- und ortsunabhängigen globalen Informationsvernetzung von Wirtschaftssubjekten Realität geworden oder in greifbare Nähe gerückt. Konzepte des Electronic Business (eBusiness), wie eCommerce und SupplyChain-Management, bilden die Grundlage für umfassende und flexible Wertschöpfungsnetze. Die Koordination dieser Wertschöpfungsnetze erfolgt zunehmend über moderne Enterprise-Resource-Planning-Systeme sowie elektronische Marktplätze. Die Unterstützung aller Wirtschaftsbereiche mit IuK-Systemen führt schließlich zur eEconomy. Integrierte IuK-Systeme bilden mittlerweile auch das Rückgrat einer modernen und serviceorientierten öffentlichen Verwaltung. Im eGovernment geht es nicht nur darum, Verwaltungsprozesse computergestützt durchzuführen und Dienstleistungen der Verwaltung elektronisch bereit zu stellen, sondern durch Vernetzung von Wirtschaft und Verwaltung neue Kooperationsformen zwischen privater und öffentlicher Hand zu ermöglichen. Die Durchdringung aller Lebensbereiche mit IuK-Systemen wirkt sich damit auf die Gesellschaft insgesamt aus. In der eSociety führen neue Kommunikationsformen zwischen Mensch und Maschine sowie mobile Anwendungssysteme zu gravierenden Veränderungen der Lebens- und Arbeitswelt. Informationsdienstleistungen aller Art sind für Konsumenten und Bürger über mobilen Online-Zugriff verfügbar. Das lebenslange Lernen wird durch virtuelle, zeit- und ortsunabhängige Aus- und Weiterbildungsangebote neu gestaltet. Die Schlagwörter eEconomy, eGovernment und eSociety kennzeichen die Durchdringung von Wirtschaft, öffentlicher Hand und Gesellschaft mit vernetzten IuKSystemen. Sie charakterisieren Auftrag und Programm für das Fachgebiet Wirtschaftsinformatik und bilden das Rahmenthema für die 7. Internationale Tagung Wirtschaftsinformatik 2005 (WI2005), die vom 23.- 25. Februar 2005 an der Universität Bamberg stattfindet. Aus 270 eingereichten Beiträgen wurden in einem dreifach doppelt-blinden Begutachtungsverfahren 84 Beiträge ausgewählt und den 19 Tracks aus den Bereichen x
eEconomy,
x
eGovernment,
VIII
Vorwort
x
eSociety sowie
x
Technologien
zugeordnet. Das Programm wird bereichert durch ausgewählte Hauptvorträge herausragender Persönlichkeiten aus Wissenschaft und Praxis sowie durch Podiumsdiskussionen zu aktuellen Themen der Wirtschaftsinformatik. Mit dem entstandenen Tagungsprogramm sollte es der im zweijährigen Turnus stattfindenden Internationalen Tagung Wirtschaftsinformatik erneut gelingen, den aktuellen Stand von Wissenschaft und Praxis aufzuzeigen und gleichzeitig die Brücke zwischen Wissenschaft und Praxis zu schlagen. Am Zustandekommen der Tagung ist eine Vielzahl von Personen und Institutionen beteiligt, denen an dieser Stelle Dank gebührt. Dank geht zunächst an die Autorinnen und Autoren, die durch eine beeindruckende Zahl von Beitragseinreichungen die Aktivität des Fachgebiets Wirtschaftsinformatik und gleichzeitig das anhaltende Interesse an der „großen WI-Tagung“ dokumentieren. Dank auch an die Track-Chairs, die mit der Ausarbeitung der einzelnen Themenbereiche das Programm der Tagung wesentlich mitgestaltet haben. Ein herzliches Dankeschön gilt den über 170 beteiligten Gutachtern (Mitglieder des Programmkomitees, Mitglieder der Track-Programmkomitees und weitere Gutachter), die insgesamt 826 Gutachten fristgerecht erstellt und damit die Zusammenstellung des Tagungsprogramms ermöglicht haben. Ein spezieller Dank schließlich an das Programmkomitee für die konstruktive Unterstützung bei der Auswahl der Beiträge. Großer Dank geht an alle Förderer der Tagung, ohne deren Unterstützung die Durchführung nicht möglich wäre. Gerade in wirtschaftlich schwierigeren Zeiten ist diese Unterstützung besonders hervorzuheben. Schließlich gebührt den Mitarbeiterinnen und Mitarbeitern der Lehrstühle für Wirtschaftsinformatik, insbesondere Industrielle Anwendungssysteme, und Wirtschaftsinformatik, insbesondere Systementwicklung und Datenbankanwendung, Dank für ihre tatkräftige Unterstützung in der Schlussphase der Tagungsvorbereitung und bei der Durchführung der Tagung. In diesen Dank eingeschlossen sind alle studentischen Hilfskräfte. Schließlich gebührt Frau Gabriele Keidel und Frau Barbara Feß vom PhysicaVerlag ein herzlicher Dank für die angenehme und stets konstruktive Zusammenarbeit. In den Dank eingeschlossen sind schließlich alle nicht genannten Personen und Institutionen, die die Vorbereitung und Durchführung der Tagung mit Rat und Tat begleitet haben. Bamberg, im Dezember 2004 Otto K. Ferstl, Elmar J. Sinz, Sven Eckert, Tilman Isselhorst
Inhaltsübersicht Grußwort Vorwort
V VII
Themen des wissenschaftlichen Programms eEconomy
1
eGovernment
707
eSociety
765
Technologien
1.165
Hauptvorträge Potenziale einer Integration von Enterprise Resource Planning und Innovationsprozess-Management Tom Sommerlatte
1.683
Sourcing von Finanzprozessen – Ein Modell zur simultanen Bewertung von Economies of Scale und Scope Wolfgang König et al.
1.691
Grid Computing, E-Science and Applications in Industry Hans Hoffmann
1.715
Gefahren für die Wirtschaftinformatik – Risikoanalyse eines Faches Peter Mertens
1.733
Autorenverzeichnis
1.755
Inhaltsverzeichnis
Grußwort Vorwort
V VII
eEconomy Wandlungsfähige Wertschöpfungsnetzwerke Track-Chairs: Norbert Gronau, Michael Müller-Wünsch
1
Realisierung ubiquitärer Supply Networks auf Basis von Auto-ID- und Agenten-Technologien – Evolution oder Revolution? Frank Teuteberg
3
Flexible Wertschöpfungsnetzwerke in der kundenindividuellen Massenfertigung – Ein service-orientiertes Modell für die Schuhindustrie Andreas J. Dietrich, Stefan Kirn
23
Architektur für die kooperative Auftragsabwicklung Dimitrios Gizanis, Christine Legner, Hubert Österle
43
Ableitung von IT-Strategien durch Bestimmung der notwendigen Wandlungsfähigkeit von Informationssystemarchitekturen Katja Andresen, Norbert Gronau, Simone Schmid
63
Wandlungsfähige Auftragsabwicklung als Voraussetzung für effizientes Produzieren in Netzwerken Horst Wildemann, Michael F. Zäh, Nils Müller, Ulrich Krauß, Markus Loth
83
Adaptive Design of Cross-Organizational Business Processes Using a Model-Driven Architecture Bernhard Bauer, Jörg P. Müller, Stephan Roser
103
XII
Inhaltsverzeichnis
Gridbasierte Wertschöpfung Track-Chairs: Manfred Grauer, Hans Hoffmann, Elmar Hahn
123
Wertschöpfung im Produktlebenszyklusmanagement (Extended Abstract) Elmar Hahn
125
Eine ökonomische Bewertung der Dienstauswahlverfahren in serviceorientierten Overlaynetzen Michael Reinicke
129
SettleBot: A Negotiation Model for the Agent Based Commercial Grid Florian Lang
149
Customer Relationship Management (CRM) und Supplier Relationship Management (SRM) Track-Chairs: Jörg Becker, Heinz Lothar Grob, Thomas Klug
169
Strategic Channel Alignment – Perspectives on the Combination of Physical and Virtual Distribution Channels Claas Müller-Lankenau, Kai Wehmeyer, Stefan Klein
171
Potenziale und Grenzen der internetgestützten Datenerhebung im Rahmen des Customer Relationship Management Horst Treiblmaier, Astrid Dickinger
191
Verbreitung, Anwendungsfelder und Wirtschaftlichkeit von XML in Verlagen – Eine empirische Untersuchung Alexander Benlian, Monica Reitz, Thomas Wilde, Thomas Hess
209
Internet-Ökonomie Track-Chairs: Christoph Weinhardt, Oliver Günther, Frank Leymann
229
Flexible Software-Architektur für Prognosemärkte Arina Soukhoroukova
231
Market Engineering am Beispiel elektronischer Immobilienmärkte Andrea Krause, Matthias Kunzelmann
251
Flexible Generierung neuer Geschäftsprozesse am Beispiel der ShopLab Toolbox Karim Khakzar, Joachim Salmann, Thomas Berger, Thomas Jöckel, Hans-Martin Pohl, Wolfgang Frank
271
An Auction Reference Model for Describing and Running Auctions Daniel Rolli, Andreas Eberhart
289
Inhaltsverzeichnis
XIII
RPXML – Standardisierung von Reverse-Pricing-Mechanismen Martin Bernhardt, Oliver Hinz
309
Information Feedback in Iterative Combinatorial Auctions Alexander Pikovsky, Martin Bichler
329
eBusiness auf dem Weg zum Mobile und Ubiquitous Business Track-Chairs: Karl Kurbel, Susanne Leist, Jörg Heistermann
349
Key Factors for a Better Understanding of Mobile Java Games Customers Mitra Arami, David Meyer, Antje Sester
351
Service-Oriented Architecture Supporting Mobile Access to an ERP System Anna Maria Jankowska, Karl Kurbel
371
A Concept for Modelling and Validation of Web Based Presentation Templates Daniel Fötsch, Andreas Speck, Wilhelm R. Rossak, Jörg Krumbiegel
391
Outsourcing und Managed Services Track-Chairs: Gerhard Knolmayer, Armin Heinzl, Stefan Leser
407
Strategien und Erfolgsfaktoren von Anbietern im IT und Business Process Outsourcing in Deutschland Alexander Georgius, Armin Heinzl
409
Der Einfluss der Spezifität des Humankapitals auf die Frage des Sourcings von Anwendungssoftware-Dienstleistungen Jens Dibbern
429
Einfach besser? Zur Anwendbarkeit des industriellen Komplexitätsmanagements auf variantenreiche IT-Dienstleistungen Tilo Böhmann, Helmut Krcmar
449
eFinance Track-Chairs: Hans Ulrich Buhl, Wolfgang König, Hermann-Josef Lamberti
469
Integration of Electronic Foreign Exchange Trading and Corporate Treasury Systems with Web Services Hong Tuan Kiet Vo, Remigiusz Wojciechowski, Christof Weinhardt
471
Individualisierte Anlageberatung: Axiomatische Fundierung von Zielfunktionen zur Bewertung von Anlagealternativen Hans Ulrich Buhl, Stefan Volkert, Veronica Winkler
489
XIV
Inhaltsverzeichnis
Erfolgreicher Einsatz von EAI-Produkten und Servicebasierten Architekturen im Retail Banking Matthias Tomann, Werner Steck
509
Von der Industrie lernen – Steuerung der IT nach industriellen Maßstäben Klaus Rausch, Andreas Rothe
527
Vertical Integration and Bank Performance Tom Gellrich, Andreas Hackethal, Markus Holzhäuser
547
Die Financial Chain im Supply Chain Management: Konzeptionelle Einordnung und Identifikation von Werttreibern Jochen Franke, Donovan Pfaff, Ralf Elbert, Moritz Gomm, Erik Hofmann
567
Management von Geschäfts- und IS-Architekturen Track-Chairs: Robert Winter, Reto Knecht
585
Entwicklung von Zielen und Messgrößen zur Steuerung der Applikationsintegration Alexander Schwinn, Robert Winter
587
Indikatoren zur Bewertung der Nachhaltigkeit von Unternehmensarchitekturen Stephan Aier, Turgut Dogan
607
Vorgehensmodell für das Management der unternehmensweiten Applikationsarchitektur Martin Hafner, Robert Winter
627
Umsetzung eines ITIL-konformen IT-Service-Support auf der Grundlage von Web-Services Gerrit Tamm, Rüdiger Zarnekow
647
Integration von Anwendungssystemen für die Materialwirtschaft – Anwendung einer Entwicklungsmethodik im Bereich des Kraftwerkbaus Sven Eckert, Christian Suchan, Otto K. Ferstl, Martin Schissler
667
Model-Driven Process Configuration of Enterprise Systems Alexander Dreiling, Michael Rosemann, Wil M. P. van der Aalst, Wasim Sadiq, Sana Khan
687
Inhaltsverzeichnis
XV
eGovernment eGovernment – Auf dem Weg von eAdministration zu eDemocracy Track-Chairs: Helmut Krcmar, Göttrik Wewer, Dieter Klumpp
707
Steuerungsmodell zur kundenorientierten Entwicklung von E-Government-Dienstleistungen Wolf-Gideon Bleek, Ralf Klischewski, Heike Stach
709
Referenzmodellierung in öffentlichen Verwaltungen am Beispiel des prozessorientierten Reorganisationsprojekts Regio@KomM Jörg Becker, Lars Algermissen, Patrick Delfmann, Björn Niehaves
729
Wirtschaftlichkeit von E-Government am Beispiel des elektronischen Bauantragsprozesses Petra Wolf, Helmut Krcmar
747
eSociety eLearning @work, @move, @home Track-Chairs: Freimut Bodendorf, Dieter Euler, Richard Straub
765
Learning from Experience: Towards a Formal Model for Contextualization of Experiences for Quality Development Markus Bick, Ulf-D. Ehlers, Jan M. Pawlowski, Heimo H. Adelsberger
767
E-Collaboration: A Problem-Based Virtual Classroom Approach to International E-Business Qualification Eric Schoop, Kay-Uwe Michel, Dalia Kriksciuniene, Rasa Brundzaite, Agnieszka Miluniec
787
Entwicklung von Experimentierumgebungen für den Erwerb von Problemlösefähigkeit Christian Ullrich, Otto K. Ferstl
807
Revenue Models for E-Learning at Universities Jan Mendling, Gustaf Neumann, Andreas Pinterits, Bernd Simon
827
Building an Adaptive Infrastructure for Education Service Providing Matthias Mohr, Tobias Simon, Helmut Krcmar
847
Erfolgsfaktoren des kundenorientierten E-Learning im E-Commerce Susanne Robra-Bissantz, Kai-Uwe Götzelt
861
XVI
Inhaltsverzeichnis
A Procedural Model for the Production of Reusable and StandardCompliant E-Learning Offerings Claudia Müller, Matthias Trier
881
Transaktionsautomatisierung im E-Learning Markus Schmees
901
Effektive Content-Produktion für selbstgesteuerten, polymorphen Wissenstransfer Andreas Auinger, Christian Stary
921
Wissensmanagement – Vom Intra- zum Interorganisationalen Lernen in der eSociety Track-Chairs: Eric Schoop, Uwe Hoppe, Joachim Niemeier
941
Prozessorientiertes Wissensmanagement durch kontextualisierte Informationsversorgung aus Geschäftsprozessen Karsten Böhm, Jörg Härtwig
943
A Tool for IT-supported Visualization and Analysis of Virtual Communication Networks in Knowledge Communities Matthias Trier
963
Integration von Business Software – Eine Studie zum aktuellen Stand in Schweizer KMU Uwe Leimstoll, Petra Schubert
983
A Comparison of Paradigmatic Views in Knowledge Management: An Empirical Case Study on Shortcomings in KM Bertolt Meyer, Wolfgang Scholl
1.003
Erfahrungswissen sichern und aufbereiten – Zur effizienten Gestaltung von Wissensmanagementprozessen bei der BMW AG im Projekt „Werksaufbau Leipzig“ Bärbel Fürstenau, Johanna Langfermann, Fritz Klauser, Volker Born
1.023
Corporate Management Education – Untersuchung zum Lernverhalten von Führungskräften Frank Habermann
1.041
Electronic / Mobile Private Services Track-Chairs: Udo Winand, Tom Sommerlatte
1.059
Mobile Datendienste für Privatkunden (Extended Abstract) Arno Wilfert
1.061
Inhaltsverzeichnis
XVII
Evaluation der Akzeptanz und des Nutzens einer systematisch entwickelten Virtuellen Community für Krebspatienten Jan Marco Leimeister, Helmut Krcmar
1.063
Tourismus-Communities als Informationssysteme Marco Prestipino, Gerhard Schwabe
1.083
Anwendungen des Pervasive und Ubiquitous Computing Track-Chairs: Elgar Fleisch, Orestis Terzidis
1.103
An Integrated Platform for Mobile, Context-Aware, and Adaptive Enterprise Applications Gerald Hübsch, Thomas Springer, Axel Spriestersbach Thomas Ziegert
1.105
Wahrnehmung und Management RFID-bezogener Risiken für die informationelle Selbstbestimmung Frédéric Thiesse, Elgar Fleisch
1.125
RFID als Technik des Ubiquitous Computing – Eine Gefahr für die Privatsphäre? Jürgen Müller, Matthias Handy
1.145
Technologien IT-Sicherheit und Security Management Track-Chairs: Günther Pernul, Dieter Bartmann, Alfred Büllesbach
1.165
Geschäftsmodelle für signaturgesetzkonforme Trust Center Silvia Lippmann, Heiko Roßnagel
1.167
Die qualifizierte elektronische Signatur –Vertrauensbonus vom Gesetzgeber, Schaffung von Vertrauen bei den Bürgern durch das deutsche Signaturbündnis? Susanne Schreiber
1.187
Ein Steuerungsmodell für das Management von IV-Sicherheitsrisiken bei Kreditinstituten Christian Locher
1.207
Security Awareness Management – Konzeption, Methoden und Anwendung Jan vom Brocke, Christian Buddendick
1.227
Sicherheitsmodelle für Kooperationen Robert Schmaltz, Philipp Goos, Svenja Hagenhoff
1.247
XVIII
Inhaltsverzeichnis
Effizienter unbeobachtbarer Datenbankzugriff Oliver Berthold
1.267
Semantic Web – Web-Infrastruktur für die nächste Generation von eBusiness Track-Chairs: Rudi Studer, Wolfgang Nejdl, Jürgen Angele
1.287
Practical Aspects of Semantic Web Technologies (Extended Abstract) Hans-Peter Schnurr
1.289
Ontology Evolution: MEDLINE Case Study Andreas Abecker, Ljiljana Stojanovic
1.291
Semiautomatische Annotation von Textdokumenten mit semantischen Metadaten Torsten Priebe, Jan Kolter, Christine Kiss
1.309
On the Query Refinement in Searching a Bibliographic Database Nenad Stojanovic
1.329
How Similar Is It? Towards Personalized Similarity Measures in Ontologies Abraham Bernstein, Esther Kaufmann, Christoph Bürki, Mark Klein
1.347
The Impact of Semantic Web Technologies on Job Recruitment Processes Christian Bizer, Ralf Heese, Malgorzata Mochol, Radoslaw Oldakowski, Robert Tolksdorf, Rainer Eckstein
1.367
Enterprise Information Warehousing Track-Chairs: Peter Chamoni, Hans-Georg Kemper, Bernd-Ulrich Kaiser
1.383
Integration von Subsystemen in einem Active Data Warehouse Carsten Felden
1.385
Mehrstufige Entscheidungsunterstützung durch Active Data Warehouses Markus Gelhoet, Bodo Rieger
1.405
Benutzerorientierter Entwurf von unternehmensweiten Data-WarehouseSystemen Lars Burmester, Matthias Goeken
1.421
Inhaltsverzeichnis
XIX
Enterprise Application Architecture Track-Chairs: Hermann Krallmann, Marten Schönherr, Uwe Bath, Reinhardt Eschbach
1.441
Softwarekartographie: Systematische Darstellung von Anwendungslandschaften Josef Lankes, Florian Matthes, André Wittenburg
1.443
Entwicklungsmethodiken zur Integration von Anwendungssystemen in überbetrieblichen Geschäftsprozessen – ein Überblick über ausgewählte Ansätze Martin Schissler, Stephan Mantel, Sven Eckert, Otto K. Ferstl, Elmar J. Sinz
1.463
Strategie-, Prozess- und IT-Management: Ein Pattern-orientierter Integrationsansatz Harald Kühn, Dimitris Karagiannis
1.483
Realization of Service-Oriented Architecture (SOA) Using Enterprise Portal Platforms Taking the Example of Multi-Channel Sales in Banking Domains Rainer von Ammon, Wolfgang Pausch, Markus Schimmer
1.503
Nutzen-orientiertes Management einer Service-orientierten Unternehmensarchitektur Andreas Dietzsch, Thomas Goetz
1.519
WS-Specification: Ein Spezifikationsrahmen zur Beschreibung von Web-Services auf Basis des UDDI-Standards Sven Overhage, Peter Thomas
1.539
Mobilität und Mobile Systeme Track-Chairs: Franz Lehner, Klaus Turowski, Christoph Schaffer, Jens-Thomas Pietralla
1.559
Approaches for Device-Independent Content Delivery to Mobile Devices BoĪena Jankowska
1.561
Individualising M-Commerce Services by Semantic User Situation Modelling Stefan Figge, Andreas Albers
1.581
The Emerging WLAN-Infrastructure: Complement or Substitute? Kilian Plank
1.599
XX
Inhaltsverzeichnis
Softwareagenten und Multiagentensysteme Track-Chairs: Stefan Kirn, Bernhard Bauer, Jörg Müller
1.619
Multiagentensystem zur Wissenskommunikation in der Produktentstehung – Rapid Product Development Stavros Dalakakis, Michael Diederich, Dieter Roller, Joachim Warschat
1.621
Standardisierte Mikrosimulation eines Kapitalmarktes mit scale-free Netzwerken und Informationsansteckung Oliver Hein, Michael Schwind
1.641
Drivers and Impediments of Consumer Online Information Search: Self-controlled versus Agent-assisted Search Sarah Spiekermann, Dirk Temme, Martin Strobel
1.661
Hauptvorträge
1.681
Potenziale einer Integration von Enterprise Resource Planning und Innovationsprozess-Management Tom Sommerlatte
1.683
Sourcing von Finanzprozessen – Ein Modell zur simultanen Bewertung von Economies of Scale und Scope Wolfgang König, Daniel Beimborn, Jochen Franke, Tim Weitzel
1.691
Grid Computing, E-Science and Applications in Industry Hans Hoffmann
1.715
Gefahren für die Wirtschaftinformatik – Risikoanalyse eines Faches Peter Mertens
1.733
Autorenverzeichnis
1.755
7. Internationale Tagung Wirtschaftsinformatik 2005 Otto-Friedrich-Universität Bamberg Lehrstuhl für Wirtschaftsinformatik, insb. Systementwicklung und Datenbankanwendung Lehrstuhl für Wirtschaftsinformatik, insb. Industrielle Anwendungssysteme in Zusammenarbeit mit dem Fachbereich Wirtschaftsinformatik der Gesellschaft für Informatik e. V. und der Wissenschaftlichen Kommission Wirtschaftsinformatik im Verband der Hochschullehrer für Betriebswirtschaft e. V.
Tagungsleitung Elmar J. Sinz Otto K. Ferstl
Organisationskomitee Sven Eckert Tilman Isselhorst
XXII
Programmkomitee Prof. Dr. Elmar J. Sinz, Universität Bamberg (Vorsitzender) Prof. Dr. Otto K. Ferstl, Universität Bamberg (Vorsitzender) Prof. Dr. Jürgen Angele, ontoprise GmbH Prof. Dr. Dieter Bartmann, Universität Regensburg Dr. Uwe Bath, Deutsche Post AG Prof. Dr. Bernhard Bauer, Universität Augsburg Prof. Dr. Jörg Becker, Universität Münster Prof. Dr. Martin Bichler, Technische Universität München Prof. Dr. Freimut Bodendorf, Universität Erlangen-Nürnberg Prof. Dr. Hans Ulrich Buhl, Universität Augsburg Prof. Dr. Alfred Büllesbach, DaimlerChrysler AG Prof. Dr. Peter Chamoni, Universität Duisburg-Essen Prof. Dr. Wilhelm Dangelmaier, Universität Paderborn Monika Elschner, Beschaffungsamt des Bundesministerium des Inneren Reinhardt Eschbach, HypoVereinsbank AG Prof. Dr. Dieter Euler, Universität St. Gallen Prof. Dr. Elgar Fleisch, Universität St. Gallen Prof. Dr. Ulrich Frank, Universität Duisburg-Essen Prof. Dr. Reinhard Gillner, Fachhochschule Fulda Prof. Dr. Manfred Grauer, Universität Siegen Prof. Dr. Heinz Lothar Grob, Universität Münster Prof. Dr. Norbert Gronau, Universität Potsdam Prof. Oliver Günther, Ph.D., Humboldt Universität Berlin Dr. Elmar Hahn, UGS/PLM Solutions Prof. Dr. Armin Heinzl, Universität Mannheim Dr. Jörg Heistermann, KarstadtQuelle New Media AG Prof. Dr. Thomas Hess, Ludwig-Maximilians-Universität München Dr. Hans Hoffman, CERN Prof. Dr. Uwe Hoppe, Universität Osnabrück Dr. Bernd-Ulrich Kaiser, Bayer AG Prof. Dr. Dimitri Karagiannis, Universität Wien Prof. Dr. Hans-Georg Kemper, Universität Stuttgart Prof. Dr. Stefan Kirn, Universität Hohenheim Thomas Klug, PA Consulting Group Dr. Dieter Klumpp, Alcatel-SEL Stiftung Reto Knecht, UBS AG Prof. Dr. Gerhard Knolmayer, Universität Bern Prof. Dr. Wolfgang König, Universität Frankfurt am Main
WI 2005
WI 2005
Prof. Dr. Hermann Krallmann, Technische Universität Berlin Prof. Dr. Helmut Krcmar, Technische Universität München Prof. Dr. Karl Kurbel, Europa-Universität Viadrina Frankfurt (Oder) Hermann-Josef Lamberti, Deutsche Bank AG Prof. Dr. Franz Lehner, Universität Passau Dr. Susanne Leist, Europa-Universität Viadrina Frankfurt (Oder) Dr. Stefan Leser, EDS Prof. Dr. Frank Leymann, IBM Deutschland Prof. Dr. Heinrich C. Mayr, Universität Klagenfurt Prof. Dr. Günter Müller, Universität Freiburg Dr. Jörg Müller, Siemens AG Dr.-Ing. Michael Müller-Wünsch,TNT Logistics GmbH Prof. Dr. Wolfgang Nejdl, Universität Hannover Dr. Joachim Niemeier, T-Systems Multimedia Solutions GmbH Prof. Dr. Günther Pernul, Universität Regensburg Jens-Thomas Pietralla, Siemens Mobile Prof. Dr. Christoph Schaffer, Fachhochschule Hagenberg Prof. Dr. Detlef Schoder, Universität zu Köln Dr. Marten Schönherr, Competence Center für EAI Prof. Dr. Eric Schoop, Technische Universität Dresden Prof. Dr. Matthias Schumann, Universität Göttingen Prof. Dr. Gerhard Schwabe, Universität Zürich Prof. Dr. Tom Sommerlatte, Arthur D. Little Dr. Richard Straub, IBM Prof. Dr. Rudi Studer, Universität Karlsruhe Dr. Orestis Terzidis, SAP AG Prof. Dr. Klaus Turowski, Universität Augsburg Prof. Dr. Christof Weinhardt, Universität Karlsruhe Dr. Göttrik Wewer, Staatssekretär im Bundesministerium des Inneren Prof. Dr. Udo Winand, Universität Kassel Prof. Dr. Robert Winter, Universität St. Gallen
Weitere Gutachter Alle Mitglieder der Track-Programmkomitees, sowie Prof. Dr. Michael H. Breitner, Universität Hannover Prof. Dr. Bogaschewsky, Universität Würzbung Prof. Dr. Walter Brenner, Universität St. Gallen Prof. Dr. Hans Czap, Universität Trier Ao Univ. Prof. Dr. Christian Huemer, Universität Wien
XXIII
WI 2005
XXV
Partner
Die Organisation und Durchführung der 7. Internationalen Tagung Wirtschaftsinformatik 2005 in Bamberg wird weiterhin großzügig unterstützt durch:
DaimlerChrysler AG IBM Deutschland GmbH Oberfrankenstiftung
Weitere Förderer
Finanzgruppe Wissenschaftsförderung
Stand Januar 2005
Einführung in den Track Wandlungsfähige Wertschöpfungsnetzwerke Norbert Gronau Universität Potsdam
Michael Müller-Wünsch TNT Logistics GmbH Technologischer und methodischer Fortschritt folgt vermehrt dem Gestaltungsparadigma, Systeme flexibel und wandlungsfähig auszulegen und somit einen neuen Typus von IT-Anwendungen zu gestalten, mit dem die orts-, zeit- und plattformunabhängige Zusammenarbeit innerhalb und zwischen Unternehmen dauerhaft realisiert werden kann. Gegenstand des Tracks “Wandlungsfähige Wertschöpfungsnetzwerke” ist die Informationsverarbeitung von unternehmensübergreifenden, dynamischen Supply Chain Prozessen. Wandlungsfähigkeit in den Auftragsabwicklungssystemen steht in diesem Zusammenhang für die zeitnahe Anpassung von innerbetrieblichen und logistischen Informationssystemen sowie -architekturen an veränderte Rahmenbedingungen. Dazu zählen insbesondere Veränderungen der Organisation und Kooperation, des Unternehmensumfeldes und des Wettbewerbs allgemein. Ziel dieses Tracks ist es, Interessenten aus allen Bereichen von Industrie und Forschung zusammenzubringen, um Konzepte, Probleme und Ergebnisse aktueller Projekte und Forschungstätigkeiten in diesem Bereich zu diskutieren und Richtlinien aufzuzeigen. Im Fokus der folgenden Beiträge stehen unter anderem technologische Konzepte, Algorithmen und Praxisbeispiele der Integration von innerbetrieblichen und logistischen Informationssystemen, die einerseits zu Wandlungsfähigkeit von Informationssystemen führen und andererseits den Wertschöpfungsprozess von Unternehmensnetzwerken verbessern. Das betrifft beispielsweise die Analyse und Gestaltung von IT-Architekturen sowie die Ableitung von essentiellen Eigenschaften. Ein weiterer Schwerpunkt liegt auf der Berücksichtigung selbstorganisierender Netzwerkarchitekturen logistischer und wertschöpfender Netzwerke.
2
Wandlungsfähige Wertschöpfungsnetzwerke
Track-Programmkomitee Prof. Dr.-Ing. Norbert Gronau, Universität Potsdam (Chair) Dr.-Ing. Michael Müller-Wünsch, TNT Logistics GmbH (Chair) Prof. Dr. Manfred Grauer, Universität Siegen Prof. Dr. Axel Hahn, Universität Oldenburg Prof. Dr. Hermann Krallmann, Technische Universität Berlin Dr. Marten Schönherr, Technische Universität Berlin Prof. Dr.-Ing. Bernd Scholz-Reiter, Universität Bremen
Realisierung ubiquitärer Supply Networks auf Basis von Auto-ID- und Agenten-Technologien – Evolution oder Revolution? Frank Teuteberg Universität Osnabrück
Zusammenfassung: Der Erfolg des Supply Chain Management (SCM) hängt entscheidend davon ab, dass relevante Informationen zeit- und kontextgerecht den Entscheidungsträgern zur Verfügung stehen. Nicht zuletzt aufgrund zunehmend kürzerer Produktlebenszyklen sind Lieferanten-Abnehmer-Netzwerke ständigen Veränderungen ausgesetzt. Bestehende Geschäftsprozesse müssen häufig an wechselnde Anforderungen und Partner angepasst werden. Dies führt zu einem hohen Aufwand für die Koordination von Aktivitäten innerhalb des Lieferanten-Abnehmer-Netzwerks. Mit der Agententechnologie und Auto-ID-Systemen (Auto-ID = Automatische Identifikation) auf der Basis von RFID (= Radio Frequency Identification) zum Tracking und Tracing von Ressourcen entlang von Lieferanten-Abnehmer-Netzwerken können wesentliche Beiträge zur Effektivierung des SCM geleistet werden. Im Rahmen dieses Beitrags wird der Status Quo der AgentenTechnologie zur Koordination von Lieferanten-Abnehmer-Netzwerken aufgearbeitet. Einsatzpotentiale eines agentenbasierten Tracking und Tracing auf der Basis von RFID werden dargestellt. Herausforderungen und zukünftige Entwicklungstrends im agentenbasierten SCM werden aufgezeigt. Eine Rahmenarchitektur eines Multi-Agenten-Systems (MAS) zur Koordination und Realisierung von ubiquitären Lieferanten-Abnehmer-Netzwerken wird vorgestellt. Schlüsselworte: Auto-ID, Multi-Agenten-Systeme, RFID, Supply Chain Event Management, Tracking & Tracing , Ubiquitäre Supply Networks
1
Einleitung
Die in der Praxis eingesetzten Planungssysteme zur Effektivierung des Supply Chain Management (SCM) werden dem Anspruch an eine zeitnahe Steuerung eines Lieferanten-Abnehmer-Netzwerks nur eingeschränkt gerecht, da bei kurzfristigen Änderungen jeweils ein neuer Gesamtplan generiert wird. Die Gesamtplanung ist somit störanfällig und inflexibel [Grol+01, S. 143 ff; Dang+04, S. 10 ff]. Die derzeit auf dem Markt verfügbaren Planungssysteme eignen sich daher hauptsächlich für die mittel- und langfristige Planung von Leistungsprozessen entlang eines Lieferanten-Abnehmer-Netzwerks. Jedoch sind diese Systeme nicht a-
4
F. Teuteberg
daptiv und erfordern ein umfangreiches Customizing bei Änderungen des Lieferanten-Abnehmer-Netzwerks [Bode+01, S. 13 f]. Ziel des vorliegenden Beitrags ist es, den Status Quo der Agententechnologie zur informationstechnischen Koordination von Lieferanten-Abnehmer-Netzwerken darzustellen sowie Möglichkeiten zur Effektivierung des SCM, die aus dem Einsatz der Agententechnologie in Lieferanten-Abnehmer-Netzwerken resultieren können, aufzuzeigen. Dabei wird insbesondere auf die potentiellen Möglichkeiten eines agentenbasierten Tracking & Tracing (T & T) entlang von LieferantenAbnehmer-Netzwerken auf der Basis von RFID eingegangen.
2
Supply Networks
Die Vernetzung der Unternehmen auf der Basis von Internet-Technologien sowie die zunehmende Auslagerung von betrieblichen Funktionen (Outsourcing) an externe Unternehmen wie z. B. 3rd Party Logistics Provider begünstigt die Entwicklung und den Ausbau von unternehmensübergreifenden Lieferanten-Abnehmer-Netzwerken. Nach einer Studie von Cap Gemini Ernst & Young werden westeuropäische Unternehmen in den Jahren 2005 bis 2007 74 % ihres LogistikBudgets für Leistungen externer Dienstleister verausgaben [Lang+02, S. 9]. Wertschöpfungsnetzwerke wie Lieferanten-Abnehmer-Netzwerke werden auch als Supply Chains bezeichnet [PaVa98, S. 1]. Aufgrund ihrer zumeist netzwerkartigen Struktur wird jedoch zunehmend der Begriff Supply Network bzw. Supply Web [Grol+01, S. 143] verwendet. Der hohe Grad an Komplexität und die hohe Anzahl der Beziehungen zwischen den Unternehmen führt zu einem hohen Kommunikationsaufwand und erschwert es, kurzfristig entscheidungsrelevante Informationen beim Eintreten von Störereignissen bei den jeweiligen Netzwerkpartnern einzuholen. Supply Chain Event Management (SCEM) kann hierbei Abhilfe schaffen [Niss02]. SCEM ist ein Konzept zur unternehmensübergreifenden Erfassung, Überwachung und Bewertung von zufällig auftretenden Störereignissen entlang eines Supply Network. Im Vordergrund stehen der Informationsaustausch zwischen den von einem Störereignis (wie z. B. Verkehrsstau, Maschinenausfall) betroffenen Unternehmen sowie die schnelle Einleitung von Maßnahmen, um die Folgeauswirkungen der Störereignisse in Grenzen zu halten [Niss02]. Die Informationssammlung entlang des Supply Network kann durch sog. Tracking & Tracing (T & T) erfolgen. Beim Konzept des T & T zur Sendungsverfolgung erhebt das Tracking zeitpunktorientierte Daten zum jeweils aktuellen Status der untersuchten Ressource (z. B. Auftrag, Auslieferungsfahrzeug), während das Tracing zeitraumorientierte Tracking-Daten zu einer Historie (Zeitreihendaten) verdichtet und auf diese Weise langfristige Entwicklungen verdeutlicht. Die heutigen T & T-Systeme beleuchten häufig nur einen Ausschnitt eines Supply Network, da sie häufig auf
Realisierung ubiquitärer Supply Networks
5
zentralen Konzepten basieren und die beteiligten Unternehmen nicht bereit sind, alle entscheidungsrelevanten Informationen ungefiltert an Partnerunternehmen entlang des Supply Network weiterzuleiten [Bode+01, S. 15 f].
2.1
Problemaspekte bei der Realisierung von Supply Networks
Nachfolgend werden wesentliche Problemaspekte aufgeführt, mit denen die Beteiligten eines Supply Network konfrontiert werden [Grol+01, S. 143 f; KeKr04; ScHö03; Dang+02b; Dang+04, S. 19 f; Bode+01, S. 14]: x Bullwhip-Effekt: Unter dem sog. Bullwhip-Effekt ist das Phänomen zu verstehen, dass signifikante Nachfrageschwankungen entlang der Wertschöpfungsstufen eines Supply Network zu beobachten sind, obwohl eine stabile Endnachfrage zu verzeichnen ist. Diese Nachfrageschwankungen resultieren aus einem Informationsdefizit der einzelnen Mitglieder eines Supply Network und führen letztendlich zu einem Koordinationsverlust, der mit einem Anstieg von Bestandskosten verbunden ist. x Komplexität und Dynamik: Aufgrund immer kürzerer Produktlebenszyklen oder nur kurzfristig eingegangener Unternehmenskooperationen sind Supply Networks oftmals nur von temporärer Dauer und müssen daher häufig rekonfiguriert werden. x Vertrauen und Kooperationsbereitschaft der Unternehmen: Mitglieder eines Supply Network sind oftmals Mitglieder mehrerer Supply Networks, die wiederum untereinander in Konkurrenz stehen können. Das gegenseitige Vertrauen der Mitglieder ist begrenzt, da ein zu großer Einfluss anderer Mitglieder auf das eigene Unternehmen bzw. Zugriff auf eigene Datenbestände mit Risiken verbunden ist. Mangelnde Kooperationsbereitschaft und Vertrauensverlust führen jedoch zu zunehmender Informationsintransparenz bzw. zum Zurückhalten entscheidungsrelevanter Informationen. x Sicherheit: Sensible Unternehmensdaten, die per Internet oder sogar per Mobilfunk entlang des Supply Network übertragen werden, müssen vor Angriffen und Ausspähen durch Dritte durch geeignete Maßnahmen (wie z. B. Verschlüsselung oder digitale Signaturen) geschützt werden. x Integrationsprobleme: Aufgrund von auf unterschiedlichen Datenformaten und Schnittstellen aufbauenden monolithischen Planungssystemen der einzelnen Netzwerkpartner wird zudem der überbetriebliche Informationsaustausch erschwert.
2.2
Ubiquitäre Supply Networks
Traditionelle Supply Chains sind den zuvor skizzierten Problemaspekten nicht mehr gewachsen. In Forschung und Praxis wird daher seit einigen Jahren die Rea-
6
F. Teuteberg
lisierung sog. adaptiver Supply Networks diskutiert. Im Rahmen dieses Beitrags wird der Begriff des ubiquitären Supply Network neu eingeführt. Tabelle 1 (in Anlehnung an [SAP02, S. 7]) führt die wesentlichen Charakteristika von “traditionellen” Supply Chains, adaptiven Supply Networks sowie ubiquitären Supply Networks auf. Charakteristika
“Traditionelle” Supply Chains (Phase bis 2000)
Informationsaustausch Planungshorizont Planung
Parallel + dynamisch Stunden/Tage Dynamisch
Steuerung Event Management
Sequentiell + langsam Tage/Wochen Batch-Betrieb/ Zentraler Plan Tage/Stunden Sammlung und Berechnung historischer Daten Zentral Zentral/Manuell
Integration
Insellösungen
Standardisierung Zugriff
Proprietär Applikationen/ Web-Browser
Unternehmensübergreifend Offen Web-Browser/ Applikationen
Rückkopplung und Lernen
Keine Rückkopplung/kein Lernen
Auto-ID auf der Basis von RFID Basis-Technologien
Nicht eingesetzt
Antwortzeiten Berechnungen
Planungssysteme in Teilbereichen
Adaptive Supply Networks (Phase ab 2000)
Stunden Interpretation in Realzeit Verteilt Dynamisch/Verteilt
Automatische Rückkopplung und Lernen In Teilbereichen Agenten
Ubiquitäre Supply Networks (Phase ab 2006) Ubiquitär (“allgegenwärtig”) Minuten/Stunden Dynamisch/Portfolio an Alternativplänen Minuten Interpretation gefilterter und kontextsensitiver Daten in Realzeit Verteilt Dynamisch/Verteilt/ Fokus auf kritische Ausnahmen Unternehmensübergreifend Offen Multimodal (Web, Mobil, Voice, externe Applikationen) Automatische Rückkopplung und kontinuierliches Lernen Unternehmensübergreifend Agenten, Web Services, RFID, VoiceXML, Semantic Web, P2P-Netzwerke, Mobile Computing
Tabelle 1: Traditionelle, adaptive und ubiquitäre Supply Networks
Traditionelle Supply Chains sind insbesondere durch eine zentrale Steuerung und Inflexibilität gekennzeichnet. Adaptive Supply Networks zeichnen sich dagegen durch Flexibilität und Lernfähigkeit aus. Ubiquitäre Supply Networks ermöglichen darüber hinaus zu jeder Zeit und an jedem Ort einen multimodalen Zugriff (Voice, Web, mobil) auf entscheidungsrelevante Daten, die in Realzeit gefiltert den jeweiligen Entscheidungsträgern zur Verfügung gestellt werden. Im Hinblick auf den Untertitel des vorliegenden Beitrags „Evolution oder Revolution?“ sind nach Auffassung des Autors ubiquitäre Supply Networks die nächste konsequente Evolutionsstufe nach adaptiven Suppy Networks. Sie erweitern diese insbesondere um die Möglichkeiten von Web Services, des Mobilfunks sowie der Auto-ID-Technologie RFID zum ubiquitären Informationszugriff und -austausch.
Realisierung ubiquitärer Supply Networks
3
3.1
7
Basistechnologien zur Realisierung ubiquitärer Supply Networks Softwareagenten und Multi-Agenten-Systeme
In der Literatur existieren unterschiedliche Definitionen von Softwareagenten [Wool99, S. 25 f]. Dies liegt vor allem in der Vielzahl unterschiedlicher Anwendungsgebiete begründet. Nach einer Definition von Maes sind Softwareagenten „…computational systems that inhabit some complex dynamic environment, sense and act autonomously in this environment, and by doing so realize a set of goals or tasks for which they are designed“ [Maes95, S. 108]. Häufig werden verschiedene Charakteristika zur Abgrenzung von Softwareagenten zu anderen Softwareparadigmen herangezogen. Ein Software-Agent ist demnach eine SoftwareEinheit, die insbesondere mehrere der folgenden Charakteristika aufweist: Interaktions- und Kommunikationsfähigkeit, Autonomie, Proaktivität, Mobilität, Intelligenz, Rationalität sowie Adaptivität [Wool99]. Softwareplattformen, auf denen mehrere autonome Software-Agenten als eigenständige Einheiten miteinander kommunizieren und kooperieren werden als MultiAgenten-Systeme (MAS) bezeichnet [Ferb99]. MAS bieten die Möglichkeit zur Konzeptualisierung und Modularisierung. Auf der Basis der aufgeführten Charakteristika ist somit eine realitätsnahe Modellierung von verteilten Problemlösungsprozessen in Supply Networks möglich [Grol+01, S. 144 f], indem die einzelnen Entitäten eines Supply Network wie bspw. Maschinen, Auslieferungsfahrzeuge, Kunden, Aufträge, etc. durch Softwareagenten repräsentiert werden. Einführungen zu den Forschungsgebieten Softwareagenten und MAS finden sich bspw. in [Ferb99; Wool99].
3.2
Auto-ID-Infrastruktur
Gemeinsam mit mehr als 100 Untenehmen aus der produzierenden Industrie, der IT sowie Dienstleistern und Handelskonzernen (wie z. B. IBM, SUN, Gilette, Wal-Mart) hat das Auto-ID Center, eine unabhängige Non-Profit-Organisation mit Hauptsitz in Massachussets, von 1999 bis Oktober 2003 an der Entwicklung von Industriestandards und Technologien zum nahtlosen Tracking und Tracing von Ressourcen entlang von Supply Networks gearbeitet. Nach der Überführung des Auto-ID Center in die EPCglobal Organization (www.EPCglobalinc.org) sowie die Auto-ID Labs (http://www.Auto-IDlabs.org), einem Forschungsverbund von 6 führenden Universitäten (MIT, University of Cambridge, University of Adelaide, Keio University, Fudan University und Universität von St. Gallen) auf dem Gebiet Auto-ID, werden derzeit die Arbeiten des Auto-ID Center von der EPCglobal Organization und den Auto-ID Labs nahtlos fortgesetzt.
8
F. Teuteberg
Eine Auto-ID-Infrastruktur zum T & T von Objekten entlang von Supply Networks setzt sich aus den nachfolgenden Komponenten zusammen [Melo03]: x RFID-Tags und Lesegeräten: RFID-Tags sind wenige Quadratmillimeter große Datenträger, die mit einer integrierten Antenne versehen per Funk innerhalb einer Distanz von bis zu einigen Metern durch spezielle Lesegeräte, sog. RFID-Reader, fernabgefragt werden können. Gegenüber traditionellen AutoID-Systemen auf der Basis von Barcode bieten RFID-Tags u. a. den Vorteil, dass bei einer schnelleren Datenübertragung wesentlich mehr Informationen zu mehreren Objekten gleichzeitig (sog. „Multitagging“) ausgelesen und gespeichert werden können und zudem kein direkter Kontakt zwischen Lesegerät und RFID-Tag erforderlich ist. x EPC: Der EPC (= Electronic Product Code) dient zur eindeutigen Identifikation beliebiger Objekte der physischen Welt und erlaubt auf der Basis einer 96-Bit Darstellung die eindeutige Vergabe von über 68 Milliarden Seriennummern (z. B. für 268 Millionen Hersteller, die jeweils über 16 Millionen Produkte verfügen). Der EPC setzt sich wie folgt zusammen (vgl. Abbildung 1): 1. Header (8 Bit): Spezifiziert die EPC-Versionsnummer, 2. EPC Manager (28 Bit): Spezifiziert den Namen des Anbieters (i. d. R. der Hersteller eines Produkts), 3. Object Class (24 Bits): Spezifiziert die Objektklasse (bei Produkten typischerweise die Lagerhaltungseinheit), 4. Serial Number Field (36 Bits): Spezifiziert die eindeutige Identifikationsnummer des Objekts .
01.0000B87.00016G.000168DB0 Header EPC Manager
Object Class
Serial Number
Abbildung 1: Electronic Product Code (96 Bit)
x Object Name Service (ONS): Mittels ONS-Server werden die per RFID identifizierten EPC-Nummern der jeweiligen Objekte über IP-Adressen den auf einem Server hinterlegten Beschreibungen der Objekte zugeordnet. x Physical Markup Language/PML-Server: PML (Physical Markup Language) ist eine XML-basierte Auszeichnungssprache zur Beschreibung physischer Objekte [Floe+03]. Bspw. können Informationen wie Produktzusammensetzung, Losnummer, Herstellungsdatum, etc. in PML beschrieben und auf einem PML-Server hinterlegt werden. x Savant: Savant ist „Middleware-Software“, die quasi als „zentrales Nervensystem“ der Auto-ID-Architektur fungiert. Die Middleware-Software inter-
Realisierung ubiquitärer Supply Networks
9
agiert mit Lesegeräten, externen Applikationen sowie ONS- und PML-Server mittels spezieller Schnittstellen. x Sensor-Technologien: Optional können thermische, akustische, magnetische, seismische oder auf der Infrarot-Technologie basierende Sensoren zum Einsatz kommen. Die Sensoren können dann bspw. per RFID-Technologie zusätzlich zu allgemeinen Produktdaten Informationen zur Temperatur, dem Geräuschpegel, Erschütterungen, Maße oder Geschwindigkeiten von Objekten per Mobilfunk übermitteln. Folgende Schritte werden typischerweise bei der automatischen Identifikation von Ressourcen entlang von Supply Networks auf Basis der RFID-Technologie durchlaufen (vgl. Abbildung 2): 1. Electronic Product Code ist in einen RFID-Tag einzubetten, der wiederum an einem physischen Objekt (z. B. an einem T-Shirt) angebracht wird. 2. RFID-Reader scannen den entsprechenden RFID-Tag und senden den EPC zu einem Savant-Server. 3. Der Savant-Server sendet eine Anfrage an die Datenbank eines ONS-Server. Der ONS-Server ordnet den EPC einer IP-Adresse zu (sog. „Mapping“), die auf alle relevanten Informationen (in PML) zum entsprechenden Objekt verweist und sendet diese zurück an den Savant-Server. 4. Die entsprechenden Informationen wie z. B. Produktdaten, Hersteller, Abnehmer sowie andere relevante Daten sind auf einem PML-Server hinterlegt und werden in PML nach Übermittlung der URL an den Savant-Server zurück übertragen. Auto-ID-Infrastruktur
Object Name Service Server Schaue unter Deluxe T-Shirt AG nach
Savant Produkt mit RFID-Tag
RFID-Reader
3
EPC URL
EPC
1
2 EPCTM: 01.0000A34. 00016B.00016912DC0
Physical Markup Language Server
URL PML
4
Deluxe T-Shirt XXL, produziert in Osnabrück, Auslieferung nach Berlin, ...
Abbildung 2: Auto-ID-Infrastrukur [In Anlehnung an: Melo03, S. 7]
10
F. Teuteberg
4 Einsatzgebiete der Agententechnologie in Supply Networks – Status Quo Im Rahmen einer Literaturrecherche für diesen Beitrag wurde untersucht, in welchen Bereichen MAS im SCEM zum Einsatz kommen können und welche Herausforderungen auf dem Weg zur Realisierung ubiquitärer Supply Networks noch zu lösen sind. Einsatzgebiete von MAS im SCEM sind insbesondere die folgenden [Grol+01, S. 147]: x Beschaffungslogistik: Im Bereich der Beschaffungslogistik und elektronischer Märkte können Agenten im Auftrag der Marktteilnehmer Informationen beschaffen, Geschäfte anbahnen sowie Angebot und Nachfrage zusammenführen. x Produktionslogistik: Im Bereich der Produktionslogistik können Agenten die verteilte Planung in der Fertigung unterstützen. Eine gemeinsame Lösungsfindung wird i. d. R. durch Kooperation der planenden Agenten untereinander gesteuert. x Distributionslogistik: Im Bereich der Distributionslogistik können Agenten eingehende Aufträge disponieren. Ziel ist zumeist, zum einen die gesamte zugrunde liegende Wegstrecke der Auslieferungsfahrzeuge zu minimieren und zum anderen die Anzahl der Leerfahrten zu reduzieren. x Tracking und Tracing: Im Bereich des T & T können Agenten die Überwachung von geplanten und ungeplanten Ereignissen (Supply Chain Event Management) unterstützen sowie auf der Basis von RFID die Auslieferung von Produkten verfolgen (Sendungsverfolgung) und Handlungsempfehlungen beim Eintreten von Störereignissen geben. x Unternehmensübergreifende Supply Networks: Im Bereich der Supply Networks können Agenten die Koordination des unternehmensübergreifenden Informationsaustausches zwischen den beteiligten Unternehmen unterstützen. Eine Auswahl der in der Literatur beschriebenen MAS-Implementierungen bzw. Rahmenarchitekturen zur Effektivierung von Supply Networks bzw. isolierter Teilbereiche kann Tabelle 2 entnommen werden. Zur Klassifizierung der identifzierten MAS wurden die im Hinblick auf die Realisierung von ubiquitären Supply Networks (vgl. Tabelle 1) wichtigen Charakteristika „multimodaler Zugriff“, Integration von Web Services zum Datenaustausch, Abstützung auf Peer-to-Peer (P2P)-basierte Netzwerkstrukturen verteilter Agentenplattformen und T & T ergänzt. In der Spalte „Typ“ wird klassifiziert, ob es sich um einen Forschungsprototypen (FP) oder ein MAS handelt, das bereits über die Phase eines Forschungsprototypen hinaus ist und sich bereits im Praxiseinsatz (PE) befindet. Chronologisch betrachtet zeigt sich (vgl. Tabelle 2, Spalte Autoren/Jahr), dass im Bereich des SCEM Agentensysteme seit Beginn der neunziger Jahre zunächst in den Bereichen Produktionslogistik und Distributionslogistik eingesetzt wurden.
Realisierung ubiquitärer Supply Networks
11
Agentenbasierte elektronische Märkte sind Mitte der neunziger Jahre zum Forschungsgegenstand geworden. Anschließend folgten Ende der 90er Jahre Arbeiten im Bereich unternehmensübergreifender Supply Networks. Forschungsarbeiten zur Realisierung agentenbasierter, ubiquitärer Supply Networks, insbesondere unter Einsatz von Auto-ID-Technologien (RFID), stehen dagegen noch ganz am Anfang und rücken erst in den letzten drei Jahren in den Mittelpunkt der Forschung. Domäne
MAS/Projekt
Typ
P2P
Mobiler/ Sprachbasierter Zugriff
Beschaffungslogistik
MAGMA Kasbah
FP FP
Nein Nein
Produktionslogistik Distributionslogistik Tracking & Tracing Unternehmensübergreifende Supply Networks
T&T mittels RFID
Autoren/ Jahr
Nein Nein
Integration von Web Services Nein Nein
Nein Nein
[Tsve 97] [ChMa96]
+
MARTIN
FP
Nein
Nein
Nein
Nein
[Hens98]
Planet-AS
FP
Nein
Nein
Nein
Nein
[Mann95]
MAS-MARS TRAMPAS-Z PAMAS DIALOG
FP FP FP PE
Nein Nein Ja Ja
Nein Nein Nein Nein
Nein Nein Nein Nein
Nein Nein Ja Ja
[Fisc 95] [Falk95] [ZiPa03] [Främ 03]
+
+
PROVE
FP
Nein
Nein
Nein
Nein
[Szir02]
CoagenS
PE
Ja
Nein
Ja
Nein
[Dang 02b]
DISPOWEB Macroscope DASCh
FP FP FP
Nein Nein Nein
Nein Nein Nein
Nein Nein Nein
Nein Nein Nein
[Groli 01] [Wind01] [PaVa98]
+
+
Tabelle 2: Ausgewählte MAS-Architekturen zur Effektivierung von Supply Networks
Die in der Literatur vorgestellten agentenbasierten Ansätze zur Effektivierung des SCEM unterstützen zumeist nur isolierte Teilbereiche eines Supply Network. Ansätze, die auf das gesamte Supply Network fokussieren sind seltener zu finden. Zudem handelt es sich zumeist um Rahmenarchitekturen bzw. Forschungsprototypen, die sich noch nicht im Praxiseinsatz (wie bspw. das MAS CoagenS) befinden. Multimodale Eingabegeräte, insbesondere ein sprachbasierter Zugriff, sowie agentenbasiertes T & T auf der Basis von RFID oder die Integration von Web Services zum automatischen Datenaustausch werden von den derzeitigen MAS zumeist noch nicht unterstützt (vgl. Tabelle 2). Der Stand auf dem Weg zur Realisierung ubiquitärer Supply Networks auf der Basis der Agententechnologie lässt sich somit derzeit (Stand: Oktober 2004) wie folgt zusammfassend charakterisieren: x Isolierte Teilbereiche: Bei den bisher im Bereich des SCEM zum Einsatz kommenden agentenbasierten Systemen handelt es sich zumeist um zentralisierte bzw. isolierte und monolithische Systeme, die auf die Optimierung der Geschäftsprozesse nur eines Unternehmens innerhalb des Supply Network beschränkt sind bzw. nur Teilbereiche des SCEM adressieren. Innerhalb des Agent.Enterprise-Szenarios [Frey+03] wird aus diesem Grund in einem Ver-
12
F. Teuteberg
bundprojekt eine Architektur entwickelt, die eine Integration verschiedener MAS im Bereich des SCEM ermöglicht. Agent.Enterprise umfasst die MAS IntaPS, KRASH und FABMAS im Bereich der Produktionslogistik, ATT/SCC zum Tracking sowie DISPOWEB zur unternehmensübergreifenden Koordination. x Adaptivität: Agentensysteme, die eine automatische Rückkopplung, d. h. eine kontinuierliche Bewertung getroffener Entscheidungen und Auswertung vergangener Daten als Grundvoraussetzung für die Realisierung adaptiver Supply Networks unterstützen, stehen erst am Anfang. x Dynamik: Die heutigen Agentensysteme im SCEM sind noch zu statisch. Da es sich bei Supply Networks um „lebende“ Organisationsstrukturen handelt, sind MAS im SCM zu entwickeln, die wie „lebende Organismen“ sich selbst rekonfigurieren können. Grafische Modellierungswerkzeuge zur benutzerfreundlichen Abbildung und Rekonfiguration adaptiver bzw. ubiquitärer Supply Networks wären hierbei von Vorteil und wünschenswert. x Akzeptanzforschung: Derzeit liegen noch kaum Erfahrungswerte aus dem täglichen Praxiseinsatz bzw. zur Praxistauglichkeit von MAS zur Effektivierung von Supply Networks vor. Aufgrund hoher Sicherheitsanforderungen und dem Zugriff auf sensible Unternehmensdaten durch Agenten fehlt in der Praxis oftmals das notwendige Vertrauen in den Einsatz von MAS im SCEM. x Grad der Kooperation: Ein MAS im SCEM sollte die Möglichkeit bieten, den Datenzugriff sowie die Verhandlungstaktik in Abhängigkeit von der Kooperationsbereitschaft bzw. dem Vertrauen zum jeweiligen Netzwerk-Partner individuell zu regeln. Entsprechende Verhandlungstaktiken, insbesondere zur Unterstützung multiattributiver, multilateraler Verhandlungen, werden von den derzeitigen MAS im SCEM jedoch noch nicht unterstützt. x Mobiler, multimodaler Zugriff: Durch den Einsatz mobiler Endgeräte ergeben sich neue Anwendungsbereiche. Bspw. auf Baustellen, in schlecht beleuchteten Lagerhallen sowie im Straßenverkehr ist es von Vorteil, wenn wichtige Informationen auch sprachbasiert abgerufen werden können und nicht umständlich über eine kleine Handy-Tastatur. Der PDA mit integrierter Kamera und RFID-Reader eines Auslieferungsfahrers kann bspw. beschädigte Ware direkt aufnehmen, durch die RFID-Technologie automatisch identifizieren und die Schadensmeldung (inkl. Videosequenz zur Schadenserfassung) per Mobilfunk zur weiteren Verarbeitung an das MAS senden.
5
Rahmenarchitektur CoS.MA
In diesem Abschnitt wird die Rahmenarchitektur des MAS CoS.MA (= Cooperative and Ubiquitous Supply-Network Monitoring Agents) zur Realisierung ubiquitärer Supply Networks (vgl. Tabelle 1) vorgestellt.
Realisierung ubiquitärer Supply Networks
5.1
13
Zielsetzung
Mit CoS.MA wird das Hauptziel verfolgt, die Effizienz des gesamten Supply Network zu steigern, so dass prinzipiell alle Partner des Supply Network Wettbewerbsvorteile erlangen können. Das MAS CoS.MA soll den Mitgliedern des Supply Network Handlungsempfehlungen, insbesondere zu den folgenden Fragestellungen der Beschaffungs-, Produktions-, und Distributions-Logistik geben können: x Wie kann ich trotz momentaner Lieferengpässe meines Hauptlieferanten die Nachfrage erfüllen? x Wie kann ich trotz meiner niedrigen Lagerbestände in angemessener Weise auf den kurzfristigen Nachfrageanstieg meines Hauptabnehmers reagieren? x Wie kann ich die Durchlaufzeiten von Produkt A innerhalb des Supply Network weiter verkürzen? x Wie kann ich gemeinsam mit meinen Zulieferern die Produktionsplanung von Produkt B aufgrund momentaner Fertigungsengpässe kurzfristig ändern? x Wie kann ich die Auslastung meiner Auslieferungsfahrzeuge erhöhen und Leerfahrten vermeiden? x In welchem Auftragsstatus befindet sich momentan Produkt C? Die zum Teil sehr heterogen gestalteten PPS-/ERP-/SCM-Systeme der in einem Supply Network beteiligten Akteure sollen durch CoS.MA dem Ziel einer unternehmensübergreifenden Informationsverarbeitung entlang des Supply Network näher gebracht werden sowie sinnvoll in die CoS.MA-Rahmenarchitektur zur Effektivierung des SCEM integriert werden. CoS.MA soll daher auf Planungsalgorithmen und Daten der bereits in den Unternehmen eingesetzten PPS-/SCMsowie ERP-Systeme zurückgreifen können. Die Mitglieder eines Supply Network können durch CoS.MA mit den benötigten Informationen versorgt werden, so dass bspw. jederzeit von jedem Ort ersichtlich ist, wo welche Bestände, Produkte, oder Auslieferungsfahrzeuge vorhanden sind. Hauptziel ist es hierbei, schnell auf veränderte Bedingungen innerhalb des Supply Network reagieren zu können und sowohl die Entscheidungsträger in den Unternehmen als auch mobile Mitarbeiter (Außendienstmitarbeiter, Baustellenleiter, Auslieferungsfahrer, etc.) mit den für ein erfolgreiches Wirtschaften innerhalb des Supply Network notwendigen Informationen zu versorgen.
5.2
Anforderungen
Da in der betrieblichen Realität nicht von statischen sondern nur von temporär statischen Supply Networks ausgegangen werden kann, ist es notwendig, ein offenes, adaptives und dynamisches MAS zu entwickeln.
14
F. Teuteberg
Mit der Rahmernarchitektur CoS.MA wird ein dezentraler Planungsansatz verfolgt, da hierdurch flexiblere Reaktionszeiten im Hinblick auf unvorhergesehene Ereignisse bzw. Störungen innerhalb des Netzwerks erzielt werden können. Der lokale Planungsaufwand ist bei verteilter Planung zudem geringer als bei zentraler Planung [Grol+01, S. 143 f]. Ein dezentraler Ansatz entspricht darüber hinaus dem natürlichen Bedürfnis einzelner Unternehmen nach Unabhängigkeit und Entscheidungsautonomie. Die Bereitschaft, unternehmensinterne Daten ungefiltert an ein dominantes Unternehmen weiterzuleiten ist eher begrenzt. Eine zentrale Koordination erfordert zudem einen immensen Datenerfassungs- und Übertragungsaufwand. Darüber hinaus sind Störfälle innerhalb des Supply Network eher in kollaborativer Zusammenarbeit und unter Einsatz dezentraler Koordinationsformen zu lösen. Jedes Unternehmen des Supply Network soll daher ein lokales CoS.MA-MAS zum Initialisieren von Agenten erhalten, das andere Agenten wiederum aufnehmen kann oder deren Agenten wiederum zu anderen Agentenplattformen migrieren kann, um relevante Planungsdaten einzuholen. Der Ausfall einer Agentenplattform innerhalb eines Supply Network wäre letztendlich weniger kritisch als der Ausfall einer zentralen Agentenplattform, die den gesamten Informationsaustausch koordiniert. Weitere wichtige Anforderungen an das MAS sind die Skalierbarkeit sowie Robustheit, d. h. das MAS muss beliebig erweitert werden können, wenn neue Mitglieder in das Netzwerk aufgenommen werden sollen. Des Weiteren müssen jederzeit auch Mitglieder wieder ausgeschlossen werden können.
5.3
Rahmenarchitektur
Das Multi-Agenten-System CoS.MA soll mit den vorhandenen Enterprise Resource Planning (ERP-)Systemen und SCM-Systemen der beteiligten Unternehmen interagieren und relevante Planungsinformationen wie z. B. Stammdaten einzelner Produkte, Fertigungsstrukturdaten sowie prognostizierte Absatzdaten austauschen können. Daten vorhandener ERP-Systeme können dadurch zur Planung, Optimierung und Informationsversorgung herangezogen werden. CoS.MA setzt somit auf die bestehende IT-Landschaft auf. Die Implementierung soll auf Basis einer FIPA-konformen Agentenplattform (JADE) erfolgen. Als Schnittstellen zum Informationsaustausch sollen FIPA-ACL, XML, PML, Web-EDI, VDA, (Mobile) Web Services, SQL sowie ODBC dienen. Die Multi-Agenten-Systeme der beteiligten Uunternehmen können somit auch unternehmensübergreifend Daten aus den verschiedenen ERP-Systemen zur Generierung von Handlungsempfehlungen nutzen. Die MAS-Rahmenarchitektur (vgl. Abbildung 3) ist in Form eines Peer-to-Peer (P2P)-Netzwerks aufgebaut, und beliebig erweiterbar, d. h. sukzessive können neu hinzukommende Lieferanten, Produzenten, Abnehmer oder 3rd Party Logistics Provider integriert werden. Die Grundidee des P2P-Ansatzes ist eine dezentrale
Realisierung ubiquitärer Supply Networks
15
Netzwerkstruktur zwischen flexibel und direkt miteinander verbundenen Knoten [ScFi02]. Die Knotenpunkte sollen als gleichberechtigte Partner (Peers) die Netzwerkstruktur zur Duchführung kollaborativer und adaptiver Prozesse bilden. Die einzelnen Knoten des P2P-Netzwerks (d. h. die einzelnen CoS.MA-Agentenplattformen) sind dabei sowohl in der Lage Server- als auch Client-Funktionalität zu leisten. Agententechnologie und P2P-Ansatz können in der CoS.MA-Rahmenarchitektur wechselseitig voneinander profitieren: Durch den verfolgten P2P-Ansatz mit offenen XML-basierten Standards sowie Web Services zum Informationsaustausch entsteht ein dynamisches und flexibles Netzwerk, das trotz seiner Komplexität aufgrund seiner Dezentralität für die einzelnen Unternehmen noch administrierbar bleibt. Daten können individuell vor Zugriff gesichert werden (je nach Kooperationsbereitschaft), so dass sensible Firmendaten von den Agenten anderer Unternehmen nur sofern erwünscht einsehbar sind. Der Zugriff auf CoS.MA soll sowohl über Web-Browser als auch über multimodale mobile Endgeräte und insbesondere auch sprachbasiert (VoiceXML) erfolgen (vgl. Abbildung 3). Um den Überwachungs- und Kommunikationsaufwand einzugrenzen, sollen gezielt diejenigen Aufträge und potentiellen Störereignisse entlang des Supply Network überwacht werden, die aufgrund historischer Erfahrungswerte und Experteninterviews als potentiell kritisch eingestuft werden müssen. Hierzu werden zur Klassifizierung der potentiell gefährdeten Aufträge und Störereignisse „Risikoprofile“ [ZiPa03] erstellt (vgl. Abbildung 3). Bestehende Risikoprofile können durch Rückkopplung und Analyse historischer Daten (Tracing) automatisch und kontinuierlich an sich verändernde Störungsschwerpunkte innerhalb des Supply Network angepasst werden. CoS.MA überprüft auf der Basis der Risiko- und Personenprofile, ob Entscheidungsträger benachrichtigt sowie Workflows angestoßen werden müssen. Zu unterscheiden ist zwischen geplanten Ereignissen wie z. B. Eingang einer Ware am Lager, Rückmeldung vom Spediteur bei Auslieferung einer Ware, Standortmeldungen, Messwertmeldungen sowie ungeplanten Ereignissen wie z. B. Schadensmeldungen oder Unfälle. Letztere sind als kritisch anzusehen. Über geplante Ereignisse sollen die Agenten nur dann informieren, sofern dies in den Personenprofilen der Entscheidungsträger als gewünscht hinterlegt wurde. Ein ContentKonvertierer (vgl. Abbildung 3) soll auf Basis von XSL(T) helfen, die Informationen in die Auszeichnungssprachen (HTML, VoiceXML, WML, dHTML, etc.) der jeweiligen (mobilen) Endgeräte der Entscheidungsträger zu konvertieren.
16
F. Teuteberg
Benutzerschnittstelle
CoS.MA-Rahmenarchitektur Mobile Endgeräte
Internetbrowser
Ressourcen-Agent i Ressourcen-Agent i
Unterstützende Dienste
HTTP/XML
Monitoring-Agent i Monitoring-Agent i
Content-Konvertierer
Zugriffs- und Sicherheitsmanagement
Externe Anwendungen
HTTP/HTML/XML
VoiceXML WAP/WML/SMS/MMS
Daten zur Personalisierung
Planungsmodell
Simulationsmodell
Prozessmodell
Risikoprofile
Netzwerkmodell
Berichtsmanagement
Ausnahmeprotokolle
Service Repository
Kommunikation
Verhandlungsmodell
Personalisierungsdaten
Schnittstellenmanagement
Lokalisierungsdienst
Metadaten
Lernmodell
Ontologien
CoS.MA-Agentenplattform Lieferant i
Tracing
Simulation und EventHandling
XML, PML
Simulations-Testbed
Event-Handler SQL, XML, PML
Externe Applikationen
CoS.MA-Agentenplattform Spediteur i
Auto-ID- und Sensor-Systeme
ERP-Systeme ERP-
PPS-/SCMSysteme WebEDI
Auftrags-Agent i Auftrags-Agent i
Web Services
T & T- Systeme ODBC, SQL, XML
Sonstige Applikationen Wrapper-Agent i Wrapper-Agent i
Agenten plattform
Data Warehouse, Datenbanken
CoS.MA-Agentenplattform Abnehmer i
FIPA-konforme Agentenplattform
Betriebssysteme, Netzwerke
CoS.MA-Agentenplattform Hersteller Mobiler Agent (Wrapper-, Ressourcen-Agent) Nachrichtenaustausch
CoS.MA-Agentenplattform 3rd Party Logistics Provider i
Abbildung 3: CoS.MA -Rahmenarchitektur
Realisierung ubiquitärer Supply Networks
5.4
17
Agentenrollen
Die CoS.MA-Rahmenarchitektur umfasst sowohl stationäre als auch mobile, in Java implementierte Agenten, die zu den Quellen der von ihnen benötigten Informationen sowie den mobilen Endgeräten der Entscheidungsträger entlang des Supply Network migrieren können. Die Agenten repräsentieren dabei organisatorische Einheiten auf unterschiedlichen Hierarchieebenen wie z. B. Unternehmensverbund, Unternehmen, Werk, Lager, Arbeitsplätze, Maschinen, Transportaufträge oder Auslieferungsfahrzeuge, d. h. Entitäten des Supply Network, die zur Effektivierung eines Supply Networks als planungsrelevante Grundlage für Handlungsempfehlungen dienen. Jeder Agent soll die zu einem bestimmten Zeitpunkt vorhandenen Informationen, mit Ausnahme der von Unternehmen zum Zugriff durch Agenten gesperrten Informationsbestände, im gesamten Netzwerkverbund einholen können. Alle Agenten sind lernfähig und erhalten Rückkopplung zu den von ihnen getroffenen Entscheidungen. Die Lernfähigkeit der Agenten soll eine ständige Anpassung an den Wettbewerb der durch die Agenten repräsentierten Organisationseinheiten sowie deren Beziehungsgeflechten innerhalb des Supply Network ermöglichen. Jeder Agent soll über eine Rückkopplung der erzielten Planungsergebnisse lernen, indem bspw. Entscheidungsträger ein kurzes Feedback zu erteilten Handlungsempfehlungen geben und auf diese Weise Soll-Ist-Vergleiche durch die Agenten durchgeführt werden können. Mittels Tracing gesammelte und verdichtete Daten sollen als zusätzliche Planungsgrundlage dienen. Auf der Basis dieser Daten können dann Algorithmen eingesetzt werden, die ein Lernen der beteiligten Agenten durch Rückkopplung ermöglichen und helfen, ein adaptives Kompetenznetzwerk zwischen den Beteiligten des Supply Network aufzubauen. Im Netzwerkmodell, einer der unterstützenden Dienste von CoS.MA, wird das gesamte inner- und zwischenbetriebliche Supply Network abgebildet; es dient damit jedem Agenten als Hilfe (sog. „Yellow-Pages“), den richtigen Agenten der jeweils nachgelagerten Stufe finden und kontaktieren zu können. Die in CoS.MA integrierte Simulations-Testumgebung (vgl. Abbildung 3) soll es den Agenten erlauben, noch bevor den Entscheidungsträgern (Produktionsplaner, Auslieferungsfahrer, etc.) konkrete Handlungsempfehlungen erteilt werden, für unerprobte Störereignisse Maßnahme-Ergebnis-Kombinationen in Form von Vorab-Simulationen „durchspielen“ zu können. Folgende Agentenrollen sind in CoS.MA vorgesehen: x Monitoring-Agenten: Handeln proaktiv und überwachen kritische Größen entlang des Supply Network. Entscheidungsträger können Monitoring-Agenten initialisieren und angeben, in welcher Form und über welche (mobilen) Endgeräte sie beim Unter- oder Überschreiten bestimmter Werte alarmiert werden wollen.
18
F. Teuteberg
x Auftrags-Agenten: Auftrags-Agenten geben Auskunft über den Stand der Aufträge entlang des Supply-Network. x Ressourcen-Agenten: Agenten mit Verhandlungskompetenz, die im Auftrag der Disponenten von Ressourcen wie z. B. Unternehmenseinheiten, Lagerhallen, Arbeitsplätzen, Maschinen, Auslieferungsfahrzeugen, etc. im Supply Network mit anderen Ressourcen-Agenten verhandeln. x Wrapper-Agenten: Extrahieren relevante Informationen aus den Datenbanken der Netzwerk-Mitglieder.
5.5
Nachrichtenkommunikation in CoS.MA
Für die Agentenkommunikation ist ein standardisiertes Nachrichtenformat erforderlich. Hierzu ist die Agentenkommunikationssprache FIPA-ACL vorgesehen, deren wesentliche Potentiale in einer hohen Verbreitung sowie ihrer Erweiterbarkeit liegen [FIPA04]. Verhandlungen sollen in CoS.MA auf der Basis von XML-Standards, eingebettet in das FIPA-ACL-Nachrichtenformat, sowie Web Service-Technologien erfolgen. Abbildung 4 stellt exemplarisch die XML-basierte Physical Markup Language PML integriert in das FIPA-ACL Nachrichtenformat dar. Im Beispiel aus Abbildung 4 informiert ein Ressourcen-Agent einen Auftrags-Agenten über das Ereignis, dass eine Palette an einem bestimmten Sensor um 5 Uhr 44 am 06. Juni 2004 (vgl. Abbildung 4, Timestamp-Tag) am Hafenlager-Tor 15 bei Unternehmen A1 in Hamburg lokalisiert wurde. (inform : sender
[email protected]:8900/1 : receiver
[email protected]:8900/33 : language PML : interaction-protocoll anfrage_auftragsstatus : ontology monitoring_ontology : conversation-id [Kunden-ID] : reply-with acknowledge-1_status : content
Abbildung 6: Implementierung des Service-Anliegens "Eintritt neuer Mitarbeiter"
ITIL-konformer IT-Service-Support auf der Grundlage von Web-Services
663
Innerhalb des WSDL-Dokumentes werden zunächst vorhandene Definitionen berücksichtigt, indem z. B. Schemata für XML, WSDL und SOAP integriert werden. Eine Berücksichtigung von Namenskonventionen und spezifischen Datentypen für das ITIL-Referenzmodell kann über die Importfunktion realisiert werden. Die Definition der Input- und Output-Nachrichtentypen und der jeweils zu verwendenden Attribute innerhalb des aggregierten Web-Services „Service-RequestManagement“ erfolgt im nächsten Teil des Dokumentes. Die „IncidentRequestMessage“ wird von dem Web-Service „Service-Request-Manager“ über die Transaktion „Request – multiple Responds“ an alle verfügbaren Web-Services innerhalb des aggregierten Web-Services "Service-Request-Management-Service" versendet. Die einzelnen atomaren Web-Services, z. B. „E-Mail-Configuration“, „Hardware Purchase“ und „Hardware Installation“, nutzen dann die Nachrichtentypen „IncidentRespondEmailConfiguration“, „IncidentRespondHardwarePurchase“ und „IncidentRespondHardwareInstallation“, um auf die Anfrage des WebServices „Service-Request-Manager“ zu antworten. Hierbei werden die verfügbaren Qualitäten und Ressourcen an den „Service-Request-Manager“ übertragen. Dieser wählt passende Web-Services mit Hilfe geeigneter Matchingfunktionen aus und bündelt diese zu einem aggregierten Web-Service. Die spezifische Ausprägung des aggregierten Web-Services „Eintritt neuer Mitarbeiter“ wird dann als Nachrichtentyp „IncidentRespondMessage“ vom Web Service „Service-RequestManager“ an den aggregierten Web-Service "Service-Request-ManagementService" versendet. Dort kann z. B. eine abschließende Qualitätssicherung mit Hilfe einer geeigneten Funktion erfolgen, bevor die Nachricht an den Web-Service „Incident abschließen“ versendet wird. Mit Hilfe der Nachrichtenattribute „HelpDeskCommunicationPolicy“ und „CustomerCommunicationPolicy“ kann schliesslich vorab die Kommunikationsart mit dem Service-Nachfrager und dem HelpDesk-Mitarbeiter festgelegt werden.
5
Praktische Erkenntnisse
Aus den Fallstudien konnten eine Reihe praktischer Erkenntnisse gewonnen werden. Interessant sind in diesem Zusammenhang vor allem Erkenntnisse zu den Nutzeneffekten und kritischen Erfolgsfaktoren. Der Nutzen eines ITIL-konformen IT-Service-Support ist aus Sicht der betrachteten Unternehmen vor allem in drei Punkten begründet: x Es konnte eine Steigerung der Kunden- und Serviceorientierung des ITDienstleisters erreicht werden. Störungen, Fehler und Probleme wurden schneller behoben und Service-Anliegen zügiger bearbeitet. Die Kunden- bzw. Anwenderzufriedenheit ließ sich nachweislich verbessern.
664
G. Tamm, R. Zarnekow
x Die Effizienz der IT-Leistungserstellung nahm zu. Grund hierfür waren vor allem Standardisierungsbemühungen und Prozessoptimierungen. So konnten beispielsweise die Support-Prozesse konsequent an den ITIL "Best Practices" ausgerichtet werden. x Die Transparenz der Service-Support-Prozesse erhöhte sich aus Sicht der Kunden. Eine genaue Leistungsdefinition und der Einsatz von Kennzahlensystemen ermöglichte eine service-orientierte Ausgestaltung der Leistungsbeziehung zwischen Kunde und IT-Dienstleister. Die Motivation zur Nutzung von Web-Services für die Umsetzung eines ITILkonformen IT-Service-Support liegt vor allem in der Steigerung der Interoperabilitäts- und Integrationsfähigkeit zwischenbetrieblicher und innerbetrieblicher Geschäftsprozesse auf der Grundlage standardisierter Technologien. Die dynamische Aggregation (Kopplung) und der Datenaustausch von Web-Services kann, z. B. mit Hilfe der Web-Services Choreography Description Language (WS-CDL), gesteuert und überwacht werden. Web-Services können in öffentlichen und privaten Verzeichnissen (z. B. UDDI, WS-Discovery) strukturiert beschrieben, gesucht und bewertet werden. Schließlich werden Sicherheit, Vertrauen und Privatsphäre durch die eingesetzten Standards für Web-Services gefördert. Durchgeführte Praxisprojekte haben gezeigt, dass die nur zögerliche Akzeptanz bei der Nutzung von webbasierten Diensten nicht in erster Linie technologisch begründet ist, sondern primär auf Wissens- und Vertrauensdefiziten der Anbieter und Nachfrager von webbasierten Diensten beruht. Kataloge für webbasierte Dienste (z. B. asperado2) können zur Überwindung bestehender Kommunikationsund Vertrauensdefizite eingesetzt werden. Durch eine transparente Darstellung und Kommunikation der angebotenen webbasierten Dienste werden bestehende Informationsasymmetrien reduziert. Die folgenden Maßnahmen erwiesen sich in den betrachteten Unternehmen als kritisch für den Projekterfolg: x Aufzeigen kurzfristiger Erfolge (Quick-Wins), die durch ITIL-konforme ITService-Support-Prozesse erzielt werden können. x Transformation vom projekt- zum produktorientierten Ansatz. x Kontinuierliche Verbesserungen anstreben. x Internes Marketing zur Schaffung von Akzeptanz und Verständnis. x Top-Management-Support. x Flächendeckende ITIL-Schulungen durchführen.
2
http://www.asperado.com
ITIL-konformer IT-Service-Support auf der Grundlage von Web-Services
6
665
Zusammenfassung und Ausblick
Der vorliegende Beitrag stellt auf der Basis des ITIL-Referenzmodells einen generischen Prozess für das Incident-Management vor und zeigt beispielhaft eine technische Implementierung auf der Grundlage einer Service-orientierten-Architektur. Der generische Incident-Management-Prozess wurde aus sechs Fallstudien abgeleitet. Für die Implementierung wurden atomare und aggregrierte Web-Services definiert und die Interaktion zwischen den Web-Services über Transaktionen abgewickelt. Am Beispiel eines Service-Anliegens wurde konkret gezeigt, wie die einzelnen Elemente eines XML-Elementes eines ITIL-konformen Web-Services ausgeprägt sind. Für eine vollständige Implementierung sind die im Modell enthaltenen WebServices zu spezifizieren und mit Funktionalität zu füllen. Darüber hinaus müssen die Interaktionsprozesse zwischen den Web-Services eindeutig definiert werden.
Literatur [BöKr04] Böhmann, T.; Krcmar, H.: Grundlagen und Entwicklungstrends im ITServicemanagement. In: HMD - Praxis der Wirtschaftsinformatik, 41(2004)237, S. 721 [BPEL03] Specification: Business Process Execution Language for Web Services Version 1.1. IBM developerWorks, http://www-106.ibm.com/developerworks/library/WS bpel, Aufruf am 12. Juli 2004 [Giso01] Gisolfi, D.: Is Web services the reincarnation of CORBA? IBM developer Works, 1. Juli 2001, http://www-106.ibm.com/developerworks/webservices/library/WS arc3/, Aufruf am 12 Juli 2004 [He03] He, H.: What is Service-Oriented Architecture? O’REILLY webservices.xml.com, September 2003, http://webservices.xml.com/pub/a/ws/2003/09/30/soa.html, Aufruf am 12 Juli 2004 [HoHo98] Holst, H.; Holst, J.: IT-Produkt und Klientenmanagement. In: Information Management, Nr. 2, 1998, S. 56-65 [HoHu03] Hochstein, A.; Hunziker, A.: Service-orientierte Referenzmodelle des ITManagements. In: HMD - Praxis der Wirtschaftsinformatik, 40(2003)232, S. 45-56 [HoZa04] Hochstein, A.; Zarnekow, R.; Brenner, W.: ITIL als Common-PracticeReferenzmodell für das IT-Service-Management. In: Wirtschaftsinformatik, 46(2004)5 [ITSM04] IT Service Management Forum: What is the itSMF? http://www.itsmf.com/about/whatis.asp, Auruf am 12 Juli 2004
666
G. Tamm, R. Zarnekow
[LeDi04] Lehner, F.; Dirmeyer, J.; Lindner, O.: Softwarewerkzeuge zum ITServivemanagement. In: HMD - Praxis der Wirtschaftsinformatik, 41(2004)237, S. 6779 [OASIS 2003] Organization for the Advancement of Structured Information Standards, UDDI Version 3.0.1., Committee Specification, 14. Oktober 2003, http://uddi.org/pubs/uddi-v3.0.1-20031014.htm, Aufruf am 12. Juli 2004 [OGC00] Office of Government Commerce: ITIL Best Practice for Service Support. The Stationary Office, Norwich, 2004 [QuWi03] Quantz, J., Wichmann T.: Basisreport Integration mit Web Services. Berlecon Research, August 2003 [Stal02] Stal, M.: Web Services - Beyond Component-Based Computing. In: Communications of the ACM, 45(2002)10, S. 71-76 [Stev02] Stevens, M.: The Benefits of a Service-Oriented Architecture. developer.com, April 2002, http://www.developer.com/tech/article.php/1041191, Aufruf am 12. Juli 2004 [TaWu03] Tamm, G., Wuensche M.: Strategies to reduce information asymmetry in web service market, Proceedings 11th European Conference on Information Systems (ECIS), Neapel, Italien, 2003 [W3C00] World Wide Web Consortium: Simple Object Access Protocol (SOAP) 1.1. W3C Note, 8. Mai 2000, http://www.w3.org/TR/soap, Aufruf am 12. Juli 2004 [W3C01] World Wide Web Consortium: Web Services Description Language (WSDL) 1.1. W3C Note, 28. März 2001, http://www.w3.org/TR/wsdl, Aufruf am 12. Juli 2004 [W3C03] World Wide Web Consortium: SOAP Version 1.2 Part 1: Messaging Framework, 24. Juni 2003, http://www.w3.org/TR/soap12-part1, Aufruf am 12. Juli 2004 [Zarn04] Zarnekow, R.: Produktorientiertes Informationsmanagement. In: Zarnekow, R.; Brenner, W.; Grohmann, H. H. (Hrsg.) Informationsmanagement - Konzepte und Strategien für die Praxis. Dpunkt, Heidelberg, 2004, S. 41-56
Integration von Anwendungssystemen für die Materialwirtschaft – Anwendung einer Entwicklungsmethodik im Bereich des Kraftwerkbaus Sven Eckert, Christian Suchan, Otto K. Ferstl, Martin Schissler Otto-Friedrich-Universität Bamberg
Zusammenfassung: Der Gestaltung überbetrieblicher Geschäftsprozesse und der damit verbundenen unternehmensübergreifenden Integration von Anwendungssystemen (AwS) kommt im Kontext aktueller Entwicklungen in der Praxis eine immer größere Bedeutung zu. Eine solche Integration erfordert leistungsfähige Kopplungssysteme, die aufgrund der besonderen Anforderungen eine hohe Komplexität aufweisen. Für ihre Entwicklung werden spezifische Methoden und Werkzeuge benötigt, die alle Entwicklungsphasen von der Anforderungsanalyse bis hin zur Implementierung unterstützen. Im vorliegenden Beitrag wird eine Entwicklungsmethodik für die überbetriebliche Integration von Anwendungssystemen beschrieben und in einer Fallstudie aus der betrieblichen Praxis im Bereich des Kraftwerkbaus angewendet. Schlüsselworte: Entwicklungsmethodik, Integration, Fallstudie, Anwendungssystem, Kopplungssystem, Kraftwerkbau
1
Einleitung
Unternehmen agieren heute in globalen, vernetzten Märkten. Neben den innerbetrieblichen Geschäftsprozessen kommt zunehmend der Gestaltung überbetrieblicher Geschäftsprozesse eine große Bedeutung zu. Sie sind aufeinander abzustimmen und hinsichtlich der Unternehmensziele der beteiligten Unternehmen zu optimieren. Aktuelle betriebswirtschaftliche Konzepte wie die Virtuelle Unternehmung, das Supply-Chain-Management (insb. Collaborative Planning, Forecasting and Replenishment (CPFR) und das Vendor-Managed-Inventory (VMI)) zeigen die wachsende Bedeutung von aufeinander abgestimmten Zielsystemen der beteiligten Unternehmen. Eine isolierte Betrachtung innerbetrieblicher Geschäftsprozesse ist vor dem Hintergrund solcher Entwicklungen nicht mehr ausreichend. Die Wirtschaftsinformatik bezieht neben den betriebswirtschaftlichen Konzepten insb. geeignete Informations- und Kommunikationssysteme in die Betrachtung mit ein
668
S. Eckert, C. Suchan, O. K. Ferstl, M. Schissler
[WKWI94, S. 80]. Anwendungssysteme (AwS) unterstützen Geschäftsprozesse und treten in der Praxis z. B. in Form von Altanwendungssystemen (legacysystems) und modernen Standard-AwS wie z. B. SAP® R/3®1 auf. AwS inner- und überbetrieblich zu koppeln, erfordert geeignete Entwicklungsmethoden. Ganzheitliche Methodiken, die mehrere Betrachtungsebenen von der Geschäftsprozessebene bis zur technischen Implementierung einschließen, wurden bisher kaum entwickelt. Zu erwähnen sind hier z. B. der Ansatz von Juric et al. [Jur+01] und die Entwicklungsmethodik des Projekts „Modellierung einer verteilten Architektur für die Entwicklung unternehmensübergreifender Informationssysteme und ihre Validierung im Handelsbereich“ (MOVE) [Fis+98; Fis+99]. Der vorliegende Beitrag beschreibt eine Entwicklungsmethodik für die überbetriebliche Integration von AwS und deren Einsatz in einer Fallstudie im Kraftwerkbau. Die eingesetzte Entwicklungsmethodik ist im Rahmen des Forschungsprojekts „Offene Anwendungssystem-Architekturen in überbetrieblichen Wertschöpfungsketten“ (OASYS) im Bayerischen Forschungsverbund Wirtschaftsinformatik (FORWIN) entstanden. Das zweite Kapitel geht auf die einzelnen Entwurfsebenen und Schritte der Methodik ein. Im folgenden, dritten Kapitel wird die Methodik auf ein Fallbeispiel der Framatome ANP GmbH angewandt. Im abschließenden, vierten Kapitel erfolgt eine Zusammenfassung, und es wird ein Ausblick gegeben.
2
Entwicklungsmethodik für die Integration von Anwendungssystemen
Die OASYS-Entwicklungsmethodik zielt insbesondere auf die überbetriebliche Integration von AwS, kann aber ebenso für die innerbetriebliche Integration genutzt werden, wenn vergleichbare Anforderungen z. B. bezüglich Sicherheit und Heterogenität vorliegen. Die Entwicklungsmethodik bietet eine durchgängige methodische Unterstützung des Integrationsprozesses von AwS. Ausgangspunkt sind die für die Integration relevanten Geschäftsprozesse. Davon ausgehend wird in neun Schritten ein Kopplungssystem spezifiziert und implementiert. Für die Abgrenzung des Kopplungssystems wird jedes der beteiligten AwS in die Teilsysteme Anwendungsfunktionen, Datenhaltung und Kommunikation mit anderen AwS differenziert. Anwendungsfunktionen und Datenhaltung werden gemeinsam als AwS-Kern bezeichnet. Das Teilsystem für die Kommunikation mit anderen AwS wird als KopplungsTeilsystem bezeichnet. Bei der Implementierung des Kopplungs-Teilsystems kann 1
Alle verwendeten Markennamen und Produktbezeichnungen unterliegen warenzeichen-, marken- oder patentrechtlichem Schutz der jeweiligen Firmen.
Integration von Anwendungssystemen für der Materialwirtschaft
669
auf Kopplungsmechanismen zurückgegriffen werden, die Dienste und Kommunikationsprotokolle für die Kopplung bereitstellen. Der Bauplan eines Kopplungssystems wird in einer Kopplungsarchitektur spezifiziert [Sch+01, S. 2]. Entsprechend der Differenzierung zwischen Anwendungsfunktionen, Datenhaltung und Kommunikation mit anderen AwS wird zwischen datenorientierten, ereignisorientierten und funktionsorientierten Kopplungsarchitekturen unterschieden [Sch+04, S. 15ff]. Die Kommunikation zwischen AwS kann in Form einer losen oder einer engen Kopplung realisiert werden. Unter einer engen Kopplung wird hierbei die Kommunikation über die Verwendung eines gemeinsamen Speichers verstanden, wohingegen bei einer losen Kopplung die Kommunikation in Form eines Nachrichtenaustausches erfolgt [FeSi01, S. 225]. Im Folgenden werden die drei Arten von Kopplungsarchitekturen genauer spezifiziert [Sch+02, S. 461ff; Sch+04, S. 15ff]: 1. Datenorientierte Kopplungsarchitekturen dienen der Manipulation gemeinsamer Daten von mehreren AwS in Form einer engen Kopplung der auf den Daten operierenden Funktionen [Sch+04, S. 15]. 2. Ereignisorientierte Kopplungsarchitekturen zielen auf die Übertragung von Ereignissen und zugehörigen Daten zwischen AwS durch den Austausch von Nachrichten in Form einer losen Kopplung der entsprechenden Funktionen ab. Die Kopplung erfolgt hierbei in Form einer meldungsorientierten Kommunikation [Webe98, S. 68]. 3. Funktionsorientierte Kopplungsarchitekturen beschäftigen sich mit der gemeinsamen Nutzung von Funktionen und ggf. zugehörigen Daten durch mehrere AwS. Die Aktivierung der Funktionen erfolgt typischerweise in Form einer losen Kopplung, die durch eine auftragsorientierte Kommunikation realisiert wird [Webe98, S. 69]. Die Entwicklungsmethodik für die Integration von AwS unterscheidet sechs Modellebenen sowie neun korrespondierende Vorgehensschritte [Man+02; Man+04]. Die Schritte werden grundsätzlich sequenziell durchlaufen. Ein Rücksprung auf bereits bearbeitete Schritte ist jederzeit möglich. Abbildung 1 visualisiert die Beziehungen zwischen Ebenen und korrespondierenden Vorgehensschritten. Die erste Modellebene umfasst die Modellierung des Geschäftsprozesses anhand der SOM-Methodik (Semantisches Objektmodell) (vgl. Abschnitt 4.1) [FeSi95; FeSi01, S. 179f.]. Diesem Ansatz liegt die Metapher eines verteilten Systems von eng oder lose gekoppelten Aufgaben zugrunde. Eine enge Kopplung von Aufgaben erfolgt in betrieblichen Objekten durch ein gemeinsam bearbeitetes Aufgabenobjekt, eine lose Kopplung von Aufgaben durch Interaktion mittels Transaktionen [FeSi01, S. 181f.]. Bei der nachfolgenden Kartierung der AwS-Kerne werden zunächst die Automatisierungsgrade der Aufgaben in den Geschäftsprozessen bestimmt und anschließend die AwS-Kerne den durch sie unterstützten Aufgaben zugeordnet (vgl. Abschnitt 4.2). Im nächsten Schritt werden kopplungsrelevante
670
S. Eckert, C. Suchan, O. K. Ferstl, M. Schissler
Integrationsbereiche im Geschäftsprozessmodell abgegrenzt und die Art der zu erfolgenden Kopplung anhand von Aufgabenintegrations-Mustern (AIM) klassifiziert (vgl. Abschnitt 4.3). Ein AIM beinhaltet eine Menge zusammengehöriger Transaktionen, einschließlich der zugehörigen Aufgaben, und ist durch ein Kopplungssystem zu unterstützen. Nach der Erfassung der funktionalen Anforderungen an das Kopplungssystem (vgl. Abschnitte 4.1-4.3), erfolgt die Spezifikation der nicht-funktionalen Anforderungen an die AwS-Integration (vgl. Abschnitt 4.4) [Somm01, S. 109ff]. Diese bilden die Formalziele der Aufgabe „Integration von AwS“ und werden anhand eines strukturierten Anforderungskatalogs erfasst. Ebene
Name
1
Geschäftsprozess-Ebene
Vorgehensschritte Modellierung GP Abschnitt 4.1
Kartierung AwS-Kerne Abschnitt 4.2
Identifikation AIM Abschnitt 4.3 Spezifikation nicht-funkt.Anf. Abschnitt 4.4
2
AwS-Kern-Ebene
3
Funktionen-Ebene des Kopplungssystems
Erfassung Funktionskomp. Abschnitt 4.5
4
Subsystem-Ebene des Kopplungssystems
Erfassung Subsysteme Nicht betrachtet
5
Prozess-Ebene des Kopplungssystems
Erfassung Prozesse Nicht betrachtet
6
Implementierungs-Ebene des Kopplungssystems
Implementierung Nicht betrachtet
GP: Geschäftsprozess Funktionskomp.: Funktionskomponenten
AIM: Aufgabenintegrations-Muster Koppl.-Mech.: Kopplungsmechanismen
Auswahl Koppl.-Mech. Nicht betrachtet
nicht-funkt. Anf.: nicht-funktionale Anforderungen
Abbildung 1: Modellebenen und Vorgehensschritte der OASYS-Entwicklungsmethodik
Auf der dritten Modellebene wird die benötigte Funktionalität des Kopplungssystems in Form von objektorientierten Funktionskomponenten modelliert (vgl. Abschnitt 4.5). Im sechsten Schritt erfolgt die Auswahl der Basismechanismen (Kopplungsmechanismen), um die im vorherigen Schritt modellierten Funktionskomponenten des Kopplungssystems umzusetzen. Unter Berücksichtigung der ausgewählten Kopplungsmechanismen wird dann ein Subsystemmodell erstellt, das die Realisierung der Funktionskomponenten beschreibt. Auf der ProzessEbene erfolgt eine Beschreibung des Kopplungssystems als System kommunizierender Prozesse, z. B. Betriebssystemprozesse. Abschließend wird das Kopplungssystems entsprechend der in den vorhergehenden Schritten modellierten Kopplungsarchitektur implementiert. Die Vorgehensschritte sechs bis neun wurden im Rahmen dieser Fallstudie nicht untersucht. Sie sind Gegenstand einer weiteren Zusammenarbeit des Projektes OASYS mit dem Praxispartner Framatome ANP GmbH.
Integration von Anwendungssystemen für der Materialwirtschaft
3
671
Fallstudie Framatome ANP GmbH
Die Framatome ANP GmbH ist Teil des deutsch-französischen Gemeinschaftsunternehmens Framatome ANP und erstellt für das finnische Versorgungsunternehmen Teollisuuden Voima Oy das Kraftwerk „Finnland 5“ in Olkiluoto, Finnland [Kübe04, S. 1]. Im Bereich der Materialwirtschaft werden im Projekt „Finnland 5“ im Wesentlichen zwei verschiedene AwS genutzt. Einerseits wird zur Unterstützung der technischen Entwicklung des Kraftwerks ein AwS des Herstellers Aveva Group PLC namens VANTAGE Project Ressource Management (VPRM) eingesetzt, das speziell auf die Anforderungen der Materialwirtschaft und der Projektunterstützung im Anlagenbau zugeschnitten ist [Avev04]. Andererseits wird das Modul MM (Material-Management) des SAP R/3 Systems verwendet, um die kaufmännische Seite der Materialwirtschaft zu unterstützen und einen Anschluss der Materialwirtschaft an die im übrigen Unternehmen verwendeten SAP R/3 Systeme zu gewährleisten. So wird z. B. ein Zugriff des Controlling auf die Daten der Materialwirtschaft ermöglicht. Da z. B. Materialstammdaten sowohl bei VPRM als auch im SAP R/3 gehalten werden müssen, ist eine Integration der beiden Systeme notwendig. Im Rahmen einer Kooperation des Projektes OASYS mit der Framatome ANP GmbH wurde die Anwendbarkeit der erarbeiteten Entwicklungsmethodik in der Praxis geprüft und gleichzeitig ein Lösungsvorschlag in Form einer Kopplungsarchitektur für Integrationsprobleme im Bereich der Materialwirtschaft der Framatome ANP GmbH entwickelt. Die Entwicklungsmethodik wird hierbei folglich auf innerbetriebliche Integrationsprobleme angewendet. Es werden nicht mehrere Unternehmen, sondern Organisationseinheiten eines Unternehmens, hier die technische und die kaufmännische Materialwirtschaft, integriert.
4
Anwendung der Entwicklungsmethodik
Die folgenden Abschnitte erläutern die Anwendung der Entwicklungsmethodik auf das vorgestellte Fallbeispiel und die Ergebnisse der einzelnen Schritte.
4.1
Modellierung des Geschäftsprozesses
Ausgangspunkt der Methodik ist die Erfassung des zu unterstützenden Geschäftsprozesses unter Verwendung der SOM-Methodik [FeSi95; FeSi01, S. 180ff]. Zunächst wird der für den betrachteten Anwendungsfall relevante Ausschnitt des Geschäftsprozesses abgegrenzt. Kern der Betrachtung ist die Materialwirtschaft des Projekts „Finnland 5“. Die Diskurswelt umfasst sowohl den technischen als auch
672
S. Eckert, C. Suchan, O. K. Ferstl, M. Schissler
den kaufmännischen Anteil der Materialwirtschaft. Weiterhin sind an dem Geschäftsprozess verschiedene betriebliche Objekte beteiligt, die nicht näher untersucht werden sollen. Sie gehen als Umweltobjekte in die Betrachtung ein. Es handelt sich u. a. um die Terminplanung. Sie ermittelt für die im Rahmen des Projektes benötigten Materialien die jeweils erforderlichen Fertigstellungs- bzw. Bedarfstermine. Im Rahmen der Konstruktion werden benötigte Anlagenteile in Form von drei dimensionalen Modellen konstruiert. Weiterhin sind im Rahmen dieses Geschäftsprozesses die Lieferanten von Interesse. Gemäß der SOM-Methodik wird ein Geschäftsprozess anhand zweier korrespondierender Sichten, dem Interaktionsschema (IAS) für die Strukturbeschreibung des Prozesses und dem Vorgangs-Ereignis-Schema (VES) für die Erfassung des Prozessablaufs, modelliert. Der Beitrag fokussiert die für das Kopplungsproblem relevante Struktursicht. Das IAS des vorliegenden Geschäftsprozess-Ausschnitts zeigt Abbildung 2. Die beiden einzubeziehenden Teilbereiche der Materialwirtschaft unterscheiden sich deutlich hinsichtlich ihrer Kompetenzen und Verantwortung. Die technische Materialwirtschaft ist u. a. für die Aufgaben Bedarfsermittlung (z. B. durch Stücklistenauflösung), Materialstammverwaltung sowie Ermittlung geeigneter Lieferanten, die in der Lage sind, die geforderten Qualitätskriterien einzuhalten, zuständig. Dahingegen werden die betriebswirtschaftlichen Aufgaben, z. B. Zahlungsabwicklung, Lieferantenstammverwaltung sowie die Abwicklung der eigentlichen Bestellung, durch die kaufmännische Materialwirtschaft durchgeführt. Die Bedarfsermittlung erhält von der Konstruktion über die Transaktion D: MTO (Material-Take-Off) Informationen über die erforderlichen Materialien für die konstruierten Anlagenteile. Darauf aufbauend werden Stücklisten erstellt und durch die Terminplanung die notwendigen Bedarfstermine (Required-on-Site (ROS)) ermittelt. Diese werden an die Bedarfsermittlung übergeben (D: ROSTermine). Die Verwaltung der Materialstammdaten erfolgt durch die technische Materialstammverwaltung. Die kaufmännische Materialstammverwaltung greift über die Transaktion D: Materialstammdaten auf die Materialstammdaten zu. Es können weitere, kaufmännisch relevante Informationen, z. B. über den jeweiligen Buchungskreis, durch die kaufmännische Materialstammverwaltung zu den Stammdaten hinzufügt, nicht aber neue Materialstammsätze anlegt werden. Das Löschen von Materialstammsätzen ist generell nicht zulässig. Die konkreten Materialbedarfsmengen und -termine (Material-Requests (MRQ)) werden von der Bedarfsermittlung an die Angebotseinholung übergeben (D: MRQ). Aufgabe der Angebotseinholung ist es, geeignete potenzielle Lieferanten zu identifizieren. Hierfür fragt sie die Lieferantendatenbereitstellung nach relevanten Bezugsquellen für die benötigten Materialien an. Die Antwort erfolgt über die Transaktion D: Lieferantenstammdaten. Neben rein sachlichen Kriterien (z. B. Listung des Materials im Produktkatalog des Lieferanten) werden auch Fragestellungen hinsichtlich der Zuverlässigkeit und Qualität des Lieferanten berück-
Integration von Anwendungssystemen für der Materialwirtschaft
673
sichtigt. Weiterhin werden durch die Angebotseinholung verbindliche Angebote von den identifizierten Lieferanten eingeholt (A: Anfrage, V: Angebot) und bewertet. Ergebnis dieser Aufgabendurchführung sind „Material-Requisitions-forPurchase“ (MRP), die für jedes benötigte Material den bevorzugten Lieferanten sowie die ausgehandelten Konditionen enthalten. Diese MRP wird an die Bestellgenerierung übermittelt (D: MRP). Hier wird aus der MRP ein Bestellvorschlag erstellt und an die Einkaufsabwicklung auf der kaufmännischen Seite der Materialwirtschaft übergeben. Weitere Aufgabe der technischen Materialwirtschaft ist die Lieferverfolgung, also u. a. die Kontrolle des rechtzeitigen Eingangs der bestellten Materialien im Lager. Hierfür wird sie von der Bestellgenerierung über die tatsächlich von der Einkaufsabwicklung bestellten Mengen informiert. Eine weitere Aufgabe der Lieferverfolgung ist es, bei den Lieferanten unangemeldete Qualitätskontrollen durchzuführen, um so eine hohe Qualität der beschafften Materialien sicherzustellen (D: Qualitätsaudits). Darüber hinaus erfolgt auch die eigentliche physische Lagerverwaltung (Lager) durch die technische Materialwirtschaft.
Technische Materialwirtschaft
Terminplanung
V: Anfrage
Konstruktion
Kaufm. Mat.Wi.Management
Z: Ziele
D: ROSTermine
Z: Ziele
Z: Ziele
Technische Materialstammverwaltung
D: Materialstammdaten
V: Anfrage
Z: Ziele
Z: Ziele V: Anfrage
Bedarfsermittlung
D: MTO
Kaufmännische Materialwirtschaft
Technisches Mat.-Wi.Management
D: Materialstammdaten
D: Materialstammdaten
Z: Ziele Lieferantendatenbereitstellung
D: MRQ
V: Anfrage Z: Ziele Angebotseinholung
V: Anfrage
Bestellgenerierung
D: MRP
Z: Ziele D: Bestellvorschlag D: Bestellmeldung
D: Belieferungsinformationen
D: Lieferantenstammdaten
Einkaufsabwicklung D: Bestellinformationen
Z: Ziele
Z: Ziele V: Anfrage
Rechnungsprüfung
Lieferverfolgung
D: Wareneingangsmeldung
Z: Ziele
Lager
D: Materialbewegungen
Z: Ziele
Bestandsführung
V: Beantragung Audit D: Lieferung
V: Angebot Lieferant
V: Bestellung D: Rechnung D: Bezahlung
Legende:
Abkürzungen:
Name
Diskursweltobjekt Typ: Name
Name
Umweltobjekt
Name
Z: Ziele Lieferantenstammverwaltung
Z: Ziele
D: Bestellvorschlag
A: Anfrage
V: Anfrage
D: Lieferantenstammdaten
D: Lieferantenstammdaten
D: Qualitätsaudits
Kaufmännische Materialstammverwaltung
Betriebliche Transaktion Organisationseinheit
A - Anbahnung V - Vereinbarung D - Durchführung Z - Ziel
MRQ - Material-Request MTO - Material-To-Order ROS - Required-On-Site
Abbildung 2: Interaktionsschema des Geschäftsprozesses
D: Lieferantenstammdaten
674
S. Eckert, C. Suchan, O. K. Ferstl, M. Schissler
Die Einkaufsabwicklung hat nun die Aufgabe, die Bestellvorschläge hinsichtlich kaufmännischer Gesichtspunkte zu prüfen und so z. B. die Einhaltung von Budgetgrenzen zu gewährleisten. Entspricht der Bestellvorschlag den geltenden Regelungen, wird eine Bestellung erstellt und an die betroffenen Lieferanten übermittelt. Dabei dürfen weitere Bestellpositionen zu der Bestellung hinzugefügt werden. Dies können z. B. zusätzlich benötigte Dienstleistungen sein, da durch die technische Materialwirtschaft nur die benötigten Materialien, nicht aber damit verbundene Hilfsleistungen bestellt werden. Die Informationen über die getätigten Bestellungen werden an die Bestellgenerierung übermittelt, die diese insbesondere der Lieferverfolgung zur Verfügung stellt. Die Rechnungsprüfung wird ebenfalls über die Bestellungen informiert und ist für die Rechnungsabwicklung zuständig. Sie wird durch die Bestandsführung über Zugänge im Lager in Kenntnis gesetzt und kann so nach erfolgtem Wareneingang die Rechnung (D: Rechnung) bezahlen (D: Bezahlung). Die Bestandsführung operiert dabei auf Informationen über den Lagerbestand, der durch das betriebliche Objekt Lager der technischen Materialwirtschaft verwaltet wird. Die Lieferantenstammverwaltung ist für die Verwaltung der Lieferantenstammdaten zuständig. Neben den obligatorischen Angaben wie Adresse und Ansprechpartner werden auch Informationen über das Leistungsspektrum eines Lieferanten sowie Konditionen und bisherige Erfahrungen mit dem Lieferanten verwaltet und der technischen Materialwirtschaft zur Verfügung gestellt (D: Lieferantenstammdaten). Die technische Materialwirtschaft darf aufgrund der aktuellen Firmenpolitik nur lesend auf diese Stammdaten zugreifen und keine eigenen Lieferantenstämme anlegen. Gelenkt werden sowohl die betrieblichen Objekte der technischen als auch die der kaufmännischen Materialwirtschaft durch Zielvorgaben des jeweiligen Managements.
4.2
Kartierung der Anwendungssystem-Kerne
Ausgehend vom Geschäftsprozessmodell erfolgt im zweiten Schritt der Methodik die Kartierung der AwS-Kerne. Hierunter wird „die Beschreibung einer Anwendungssystemzuordnung zu Geschäftsprozessen durch Einordnung der Anwendungssysteme in Geschäftsprozeßmodelle“ [Krum97, S. 137] verstanden. Jedem betrieblichen Objekt mit teil- oder vollautomatisierten Aufgaben wird derjenige AwS-Kern zugeordnet, welcher die entsprechenden Aufgaben unterstützt [Man+04]. Im Rahmen der Fallstudie sind alle Aufgaben der betrachteten betrieblichen Objekte zumindest teilautomatisiert. Die zur technischen Materialwirtschaft gehörenden Aufgaben werden durch das speziell für den Anlagenbau entwickelte VPRM der Firma Aveva Group PLC unterstützt. Bei VPRM handelt es sich um eine um-
Integration von Anwendungssystemen für der Materialwirtschaft
675
fassende Lösung zur Unterstützung von Materialwirtschaft und Projektverwaltung [Avev04]. Alle Aufgaben, die der kaufmännischen Materialwirtschaft zuzuordnen sind, werden durch das Modul MM (Material-Management) des SAP R/3 Systems unterstützt. Das SAP R/3 System dient insbesondere auch der Anbindung der Materialwirtschaft an das betriebliche Rechnungswesen und Controlling, da dort ebenfalls SAP-Systeme eingesetzt werden. Weiterhin sind die Automatisierungsgrade der Transaktionen an der Schnittstelle zwischen technischer und kaufmännischer Materialwirtschaft zu bestimmen. Im Fallbeispiel sind an dieser Schnittstelle alle Transaktionen zu automatisieren.
4.3
Identifikation von Aufgabenintegrations-Mustern im Geschäftsprozessmodell
In Schritt 3 werden innerhalb des erstellten Geschäftsprozessmodells Teilstrukturen abgegrenzt, die aus einer Menge von Transaktionen einschließlich zugehöriger Aufgaben bestehen und durch ein Kopplungssystem zu integrieren sind. Diese Teilstrukturen werden Aufgabenintegrations-Muster (AIM) genannt, da sie häufig in ähnlicher Form auftreten. Es wird zwischen elementaren und zusammengesetzten AIM unterschieden [Man+04, Eck+04]. Ein elementares AIM kann nicht weiter zerlegt werden und steht in typisierter Form zur Verfügung. Zusammengesetzte AIM umfassen mehrere elementare AIM. Im Rahmen des vorliegenden Fallbeispiels können an der Schnittstelle zwischen der technischen und kaufmännischen Materialwirtschaft vier AIM identifiziert werden. x AIM 1: Elementares AIM „Bereitstellung Materialstammdaten“ vom Typ: „Gemeinsame Nutzung von Aufgabenobjekt-Instanzen“. Ein Aufgabenobjekt beschreibt die zu einer Aufgabe gehörenden Attribute (Aufgabenobjekt-Typen) und deren Attributwerte (Aufgabenobjekt-Instanzen) eines betrieblichen Systems. Ein Muster des Typs „Gemeinsame Nutzung von Aufgabenobjekt-Instanzen“ liegt vor, wenn Aufgabenobjekt-Instanzen von Aufgaben unterschiedlicher betrieblicher Objekte gemeinsam genutzt werden. Die in dem Muster enthaltenen Transaktionen legen u. a. semantische Integritätsbedingungen bezüglich der Gleichheit der Zustände der beteiligten Aufgabenobjekt-Instanzen fest. Unterstützt werden Muster dieser Art durch datenorientierte Kopplungsarchitekturen. Im vorliegenden AIM ist die Transaktion D: Materialstammdaten einschließlich der beteiligten sendenden und empfangenden Aufgaben enthalten. Es wird der Integrationsbedarf bezüglich der gemeinsamen Nutzung der Material-
676
S. Eckert, C. Suchan, O. K. Ferstl, M. Schissler
stammdaten durch die technische und die kaufmännische Materialwirtschaft abgegrenzt. x AIM 2: Elementares AIM „Bereitstellung Lieferantenstammdaten“ vom Typ: „Gemeinsame Nutzung von Aufgabenobjekt-Instanzen“. Dieses Muster enthält die Transaktion D: Lieferantenstammdaten und zugehörigen Aufgaben. Hierdurch wird die gemeinsame Nutzung der Lieferantenstammdaten durch die beiden Teilbereiche der Materialwirtschaft ausgedrückt. x AIM 3: Zusammengesetztes AIM „Übermittlung Bestellvorschlag, -meldung“, bestehend aus zwei elementaren AIM des Typs: „Reihenfolgebeziehung zwischen Aufgabendurchführungen“. Bei einem AIM des Typs „Reihenfolgebeziehung zwischen Aufgabendurchführungen“ stößt die Durchführung einer Transaktion im empfangenden betrieblichen Objekt die Verrichtung einer Aufgabe an, die über die reine Eingangsverarbeitung hinausgeht. Ein solches AIM wird durch ereignisorientierte Kopplungsarchitekturen unterstützt. Das zusammengesetzte Muster besteht aus zwei elementaren AIM des Typs „Reihenfolgebeziehung zwischen Aufgabendurchführungen“. Das erste elementare AIM umfasst die Transaktion D: Bestellvorschlag und beschreibt den Zusammenhang zwischen der Generierung eines Bestellvorschlages, der Übermittlung an die kaufmännische Materialwirtschaft und der dortigen Weiterbearbeitung. Es wird deutlich, dass die Übermittlung eines Bestellvorschlages beim empfangenden betrieblichen Objekt, der Einkaufsabwicklung, eine sofortige Weiterbearbeitung anstößt. Analog beschreibt das zweite elementare AIM die Übermittlung der entsprechenden Bestellmeldung. x AIM 4: Elementares AIM „Bereitstellung Bestandsdaten“, vom Typ: „Gemeinsame Nutzung von Aufgabenobjekt-Instanzen“. Diese Musterinstanz enthält nur die Transaktion D: Materialbewegungen und die zugehörigen Aufgaben. Durch dieses AIM wird die gemeinsame Nutzung der Lagerbestandsdaten durch die betrieblichen Objekte Lager und Bestandsführung ausgedrückt. Das AIM 2 wird im Folgenden aufgrund der Ähnlichkeit zum AIM 1 nicht weiter betrachtet. Über das AIM 4 können zur derzeitigen Projektphase noch keine detaillierten Aussagen bzgl. Zielsetzung und Ausgestaltung getroffen werden, sodass auch dieses AIM im Folgenden nicht berücksichtigt wird. Für die AIM 1 und 3 werden im folgenden Schritt exemplarisch die nichtfunktionalen Anforderungen erfasst.
Integration von Anwendungssystemen für der Materialwirtschaft
4.4
677
Spezifikation von nicht-funktionalen Anforderungen an die Anwendungssystem-Integration
Durch die Erfassung des Geschäftsprozesses in Form eines SOM-Modells wurden die funktionalen Anforderungen an die Integration der beteiligten AwS spezifiziert. Im vierten Schritt der Methodik werden nun für jedes identifizierte AIM die nicht-funktionalen Anforderungen anhand eines strukturierten Anforderungskataloges erfasst (zur Unterscheidung funktionaler und nicht-funktionaler Anforderungen siehe [Somm01, S. 109ff]). Je nach Typ des AIM variiert dieser Katalog, da nicht alle Ausprägungen bei jedem AIM-Typ relevant sind. Die erfassten Anforderungen orientieren sich u. a. an den in der ISO-Norm 9126-1 aufgeführten Merkmalen [ISO01] und sind in die vier Kategorien Flexibilität, Echtzeitverhalten, Integration und Korrektheit unterteilt [Fers92, S. 11]. Eine ausführliche Beschreibung des Anforderungskataloges einschließlich einer umfangreichen Darstellung von Beispielen findet sich in [Eck+03]. Abbildung 3 zeigt einige wesentliche Anforderungen, die im Rahmen der Fallstudie erhoben worden sind. Die Einordnung der jeweiligen Anforderung in den oben beschriebenen Anforderungskatalog ist in Klammern angegeben.
AIM Bereitstellung Materialstammdaten • Pro Tag müssen etwa 5.000 - 6.000 Datensätze übertragen werden (Echtzeitverhalten/Last).
AIM Übermittlung Bestellvorschlag, -meldung
• Die durchschnittliche Größe eines Materialstammsatzes beträgt weniger als 50 KB (Echtzeitverhalten/Last).
• Pro Tag können bis zu 200 Bestellvorschläge mit maximal 1.000 Bestellpositionen auftreten (Maximalwerte). Pro Jahr ist mit insgesamt 10.000 Bestellungen und insgesamt 45.000 Bestellpositionen zu rechnen (Echtzeitverhalten/Last).
• Eine redundante Datenhaltung der Materialstammdaten ist gewünscht (Integration/Redundanz).
• Die maximale Größe eines Bestellvorschlages beträgt 200 KB (Echtzeitverhalten/Last).
• Hinsichtlich der Materialstammdaten ist eine Verfügbarkeit von mindestens 99% erforderlich. Dennoch sind nach Absprache auch Wartungsfenster (bis zu 3 Tage) vertretbar (Echtzeitverhalten/Verfügbarkeit).
• Je Vorgang müssen die Übermittlungs- und Verarbeitungszeiten unter 5 Minuten liegen (Echtzeitverhalten/Aktualität).
• Änderungen an den Stammdaten müssen spätestens nach einem Tag übermittelt sein. Bei Bedarf muss eine sofortige Verfügbarkeit von Änderungen ermöglicht werden (Echtzeitverhalten/Aktualität).
• Hinsichtlich der übermittelten Bestellvorschläge muss auch eine Konsistenz bezüglich der referenzierten Material- und Lieferantenstammdaten gewährleistet werden (Integration/Konsistenz).
• Eine Verfügbarkeit von mindestens 99% ist erforderlich (Echtzeitverhalten/Verfügbarkeit).
• Die verwendeten Übertragungsformate müssen veränderbar bleiben (Flexibilität/Anpassbarkeit). • Integration und Vertraulichkeit der Übermittlung muss durch den Einsatz von Verschlüsselungstechniken sichergestellt werden (Integration/Verknüpfung). • Der Datenaustausch muss unabhängig von der Verfügbarkeit der Anwendungssysteme erfolgen können (Integration/Verknüpfung). • Sämtliche Datentransfers müssen rückverfolgbar protokolliert werden (Integration/Zielorientierung). • Die Verwendung von Standards für Übertragungsformate und Protokolle ist erforderlich (Integration/Aufgabenträgerunabhängigkeit). • Da sich die Anforderungen hinsichtlich der Last in Zukunft noch stark verändern können, muss das Kopplungssystem skalierbar sein (Flexibilität/Skalierbarkeit).
Abbildung 3: Identifizierte nicht-funktionale Anforderungen
678
4.5
S. Eckert, C. Suchan, O. K. Ferstl, M. Schissler
Erstellung des Funktionskomponentenmodells
Ausgehend von den bisher erhobenen Anforderungen und Rahmenbedingungen werden in diesem Schritt für die einzelnen identifizierten AIM je ein Funktionskomponentenmodell erstellt, welche die benötigte Funktionalität des zu erstellenden Kopplungssystems spezifizieren und somit einen Lösungsvorschlag für das betrachtete Integrationsproblem beschreiben. 4.5.1
Funktionskomponentenmodell zur Unterstützung der gemeinsamen Nutzung von Materialstammdaten
AIM vom Typ „Gemeinsame Nutzung von Aufgabenobjekt-Instanzen“ werden durch ein Kopplungssystem mit einer datenorientierten Kopplungsarchitektur unterstützt. Datenorientierte Kopplungsarchitekturen zielen auf die gemeinsame Nutzung von Daten durch mehrere AwS ab. Z: Ziele Technische Materialstammverwaltung
Z: Ziele D: Materialstammdaten
Kaufmännische Materialstammverwaltung
Abbildung 4: Ausschnitt des Geschäftsprozessmodells (AIM 1)
Das AIM „Bereitstellung Materialstammdaten“ behandelt die gemeinsame Nutzung der Materialstammdaten durch die beiden AwS SAP R/3 MM und VPRM (vgl. Abbildung 4). Gemäß den erfassten nicht-funktionalen Anforderungen erfolgt eine redundante Haltung der Materialstammdaten in beiden AwS. In Abbildung 5 ist die benötigte Funktionalität zur Realisierung des AIM „Bereitstellung Materialstammdaten“ in Form eines Funktionskomponentenmodells angegeben. Die Funktionskomponente Ereignisfeststellung realisiert die beiden möglichen Auslösungsformen einer Replikation der Materialstammdaten. Laut Anforderungen ist eine tägliche Übermittlung der Daten erforderlich. In Ausnahmefällen muss aber auch eine, zu einem beliebigen Zeitpunkt, manuell angestoßene Übermittlung möglich sein. Der AwS-Kern überträgt über die Operation Ausgeben ID die IDs von den Materialstammsätzen, die sich entweder geändert haben oder neu angelegt wurden, an die Funktionskomponente Extraktion. Da durch die technische Materialwirtschaft keine Materialstammsätze gelöscht werden dürfen, ist keine entsprechende Funktionalität erforderlich. Sobald von der Ereignisfeststellung ein Auslöse-Ereignis registriert und an die Extraktion übergeben wurde, extrahiert diese die zu den bis dahin gespeicherten IDs gehörenden Materialstammsätze aus dem VPRM-Kern und übergibt sie gebündelt an die Konvertierung. Dort werden die Stammsätze von dem im VPRM-System genutzten fachlichen Format in das bei SAP genutzte Format umgesetzt. Anschließend werden die Material-
Integration von Anwendungssystemen für der Materialwirtschaft
679
stammsätze an die Kommunikation übermittelt. Da der Datenaustausch unabhängig von der Verfügbarkeit der beiden AwS erfolgen soll, enthält die Funktionskomponente Kommunikation einen Puffer, in dem Nachrichten bis zum endgültigen Versenden gespeichert werden. Wenn Materialstammdatensätze übertragen werden müssen, erfolgt zunächst eine Pufferung und eine Überprüfung der Verfügbarkeit des empfangenden Systems. Ist das Zielsystem empfangsbereit, können die Materialstammsätze übertragen werden. Die Funktionskomponente Kommunikation auf der Seite der kaufmännischen Materialwirtschaft nimmt die übertragenen Materialstammsätze entgegen. Die Aufspaltung zerlegt die gebündelt übermittelten Materialstammsätze in einzelne Sätze und prüft, ob es sich um neu anzulegende oder zu ändernde Datensätze handelt. Neu anzulegende Datensätze werden der Vervollständigung übergeben. Da Materialstammsätze nur durch die technische Materialwirtschaft angelegt werden können, enthalten diese Datensätze zunächst nur die technisch relevanten Informationen. Durch die Vervollständigung werden weitere, kaufmännisch relevante Informationen, wie z. B. Buchungskreisinformationen, hinzugefügt. Hierbei handelt es sich um weitestgehend unveränderliche Daten, sodass diese automatisch generiert und ergänzt werden können. Durch Mitarbeiter der kaufmännischen Materialwirtschaft können die zusätzlichen Informationen nachträglich geändert werden. Um eventuelle manuelle Änderungen nicht durch die automatisch generierten Informationen zu überschreiben, durchlaufen nur neu anzulegende Materialstammsätze die Vervollständigung. Zu ändernde Stammsätze werden direkt an die Aktualisierung übergeben. Diese Funktionskomponente hat die Aufgabe, die neuen bzw. geänderten Materialstammdatensätze in den AwS-Kern des SAP-Systems einzufügen. Wenn im Rahmen der Übermittlung der Bestellvorschläge (vgl. Abschnitt 4.5.2) Fehler in der dort durchzuführenden Konsistenzprüfung festgestellt werden, die darauf zurückzuführen sind, dass die referenzierten Materialstammdaten in den beiden AwS sich nicht mehr in einem konsistenten Zustand befinden, wird dies durch die Ereignisfeststellung registriert und eine Übermittlung der benötigten Materialstammsätze ausgelöst. Der darauf folgende Ablauf entspricht dem bisher beschriebenen. Ein Aufruf der entsprechenden Funktionskomponente erfolgt durch die Konsistenzprüfung in Abbildung 7. Analog wird auch eine Übermittlung der Lieferantenstammdaten ausgelöst (nicht im Modell abgebildet). Nach erfolgter Übermittlung wird die Konsistenzprüfung informiert und kann mit ihrer Arbeit fortfahren. Aufgrund der Anforderung nach einer durchgängigen Archivierung des Übertragungsprozesses werden alle Übermittlungsergebnisse zwischen den beiden zu koppelnden Bereichen dauerhaft durch die Archivierung gespeichert (vgl. Abbildung 3). Ebenfalls erfolgt eine Speicherung der auftretenden Fehler beim Einfügen oder Ändern eines Datensatzes.
680
Archivierung
Archivierung
Auslösen
Archivieren
Archivieren
Archiv
Archiv
Ergebnis
Trigger
Mat.Stamm.verwaltung VPRM Ausgeb. St. Ausg. ID Mat. Stämme
IDs
Konvertierung
Ermitteln
Mat.Stämme Extrahieren VPRM
Puffern ID
Mat.StammPuffer ID ID
Ergebnis
Ergebnis
Extraktion
Transform.
Mat.Stämme SAP
Kommunikation Senden Empfangen
Mat.Stämme VPRM
Kommunikation
Aufspaltung
Mat. Empfangen Mat.Stämme Stämme SAP SAP Senden IDs
Puffer
Mat.Stammsatz SAP - geändert
IDs IDs
Ereignisfeststellung
Legende : Operation
Funktionskomponente AwS-Kern
Speicher
Kommunikationsbeziehung zur Lenkung
Org.Einheit (Ausschnitt)
Vervollständigung
Vervollst.
Puffer
Technische Materialwirtschaft (Materialstammverwaltung)
Funktionskomponente Kopplungs-Teilsystem
Aufspalten
Mat.Stammsatz SAP neu
IDs Bestätigung
Kommunikationsbeziehung zum Leistungsaustausch
Auslösen Bestätigen
Mat.Stammsatz SAP - neu - vervollst.
Mat.Stamm.verwaltung
Aktualisierung Anlegen
Mat.Stammsatz SAP SAP R/3 MM
Ändern
Ändern
Anlegen Mat.Stammsatz SAP
Mat. Stämme
Ergebnis Konsistenz-FK (Abb. 5)
Kaufmännische Materialwirtschaft (Materialstammverwaltung)
S. Eckert, C. Suchan, O. K. Ferstl, M. Schissler
Abbildung 5: Funktionskomponentenmodell zum AIM "Bereitstellung Materialstammdaten"
Ereignisfeststellung (man./zeitge.)
Integration von Anwendungssystemen für der Materialwirtschaft
4.5.2
681
Funktionskomponentenmodell zur Übermittlung der Bestellvorschläge und Bestellmeldungen
Das AIM „Übermittlung Bestellvorschlag, -meldung“ (vgl. Abbildung 6) besteht aus zwei elementaren AIM des Typs „Reihenfolgebeziehung zwischen Aufgabendurchführungen“ und wird durch eine ereignisorientierte Kopplungsarchitektur unterstützt (siehe Abbildung 7). Ereignisorientierte Kopplungsarchitekturen zielen im Wesentlichen auf die Übermittlung von Ereignissen und zugehörigen Daten zwischen den zu integrierenden AwS ab. Im vorliegenden Fall müssen die Ereignisse „Bestellvorschlag liegt vor“ sowie „Bestellmeldung liegt vor“ zwischen den beiden AwS ausgetauscht werden. Z: Ziele Bestellgenerierung
Z: Ziele D: Bestellvorschlag D: Bestellmeldung
Einkaufsabwicklung
Abbildung 6: Ausschnitt des Geschäftsprozessmodells (AIM 3)
Sobald ein Bestellvorschlag durch die technische Materialwirtschaft erstellt worden ist, muss er an die kaufmännische Materialwirtschaft übertragen werden. Der AwS-Kern des VPRM-Systems generiert ein entsprechendes Ereignis „Bestellvorschlag liegt vor“ und übermittelt dieses an das Kopplungs-Teilsystem (Operation Bestellvorschlag ausgeben). Dort wird der Bestellvorschlag durch die Konvertierung entgegengenommen und das im VPRM-System verwendete fachliche Format des Bestellvorschlags in ein SAP-konformes fachliches Format umgesetzt. Anschließend erfolgt die Übergabe an die Funktionskomponente Kommunikation. Nach einer Überprüfung der Empfangsbereitschaft des Zielsystems wird der Bestellvorschlag übertragen, empfangen und an die Konsistenzprüfung übergeben. Jeder Bestellvorschlag enthält pro Bestellposition eine Angabe über den jeweiligen Lieferanten. Es werden dabei nicht die vollständigen Material- und Lieferantenstammdatensätze angegeben, sondern nur eine Referenz auf den entsprechenden Datensatz mit Angabe der zum Zeitpunkt der Erstellung der Bestellmeldung aktuellen Versionsnummer. Da Fehler in Bestellvorschlägen weitreichende Auswirkungen haben können (wie z. B. die Lieferung eines nicht dem Sicherheitsstandard entsprechenden Materials), muss bei jedem Bestellvorschlag überprüft werden, ob die im Bestellvorschlag übermittelten Referenzen und Versionsnummern mit den im SAP-AwS-Kern gespeicherten Daten übereinstimmen. Diesbezüglich wird durch die Extraktion aus dem AwS-Kern (Materialstammverwaltung und Lieferantenstammverwaltung) die Versionsnummer der in dem Bestellvorschlag referenzierten Material- und Lieferantenstammdaten extrahiert. In der Konsistenzprüfung findet ein Abgleich der entsprechenden Versionsnummern statt. Liegt eine Abweichung vor, so wird die Operation Auslösen der Ereignisfeststellung (siehe Abbildung 5) aufgerufen und eine Aktualisierung der entsprechenden Material- und Lieferantenstammdatensätze ausgelöst. Nach der Aktualisierung er-
682
S. Eckert, C. Suchan, O. K. Ferstl, M. Schissler
folgt eine erneute Überprüfung. Ist der Bestellvorschlag korrekt, wird er an die Vervollständigung weitergegeben. Hier werden analog zum oben beschriebenen Funktionskomponentenmodell kaufmännisch relevante Informationen zu dem Bestellvorschlag hinzugefügt. Diese Vervollständigung muss je nach Attribut des Bestellvorschlages sowohl inhaltsabhängig als auch nach statischen Regeln erfolgen können. Beispielsweise können für Informationen bezüglich Kontierung und Einkäufergruppe statische Informationen ergänzt werden, während bezüglich der Warengruppennummer inhaltsabhängige Regeln verwendet werden [Kübe04, S. 100]. Anschließend wird über die Funktionskomponente Aufruf die entsprechende Operation im SAP-AwS-Kern aufgerufen, die für die Weiterbearbeitung des Bestellvorschlages im SAP-R/3 zuständig ist. Dort erfolgt im Anschluss z. B. eine inhaltliche Prüfung der Bestellung hinsichtlich einzuhaltender Budgets. Weiterhin werden evtl. zusätzliche Positionen, z. B. Dienstleistungen, zu dem Bestellvorschlag hinzugefügt (s. o.). Nach der Bearbeitung versendet die kaufmännische Materialwirtschaft die Bestellmeldung an die technische Materialwirtschaft. Die Bestellmeldung enthält Informationen über die tatsächlich bestellten Materialien und Dienstleistungen und wird benötigt, um im späteren Verlauf der Lieferverfolgung den Eingang der bestellten Artikel zu überwachen. Zu einer Bestellmeldung erzeugt der AwS-Kern ein entsprechendes Ereignis „Bestellmeldung liegt vor“ und übergibt dieses direkt an die Kommunikation. Nach einer Prüfung der Verfügbarkeit des empfangenden Systems wird die Bestellmeldung übertragen. Durch die Konvertierung werden die Unterschiede in den fachlichen Formaten von SAP und VPRM überwunden. Abschließend erfolgen der Aufruf der für die Entgegennahme der Bestellmeldung im VPRM-AwS-Kern zuständigen Operation und die Übergabe der Bestellmeldung an den AwS-Kern. Auch bei diesem Funktionskomponentenmodell ist eine umfassende Archivierung der Übertragungsergebnisse notwendig. Die beiden entwickelten Funktionskomponentenmodelle beschreiben die Funktionalität, die von dem zu entwickelnden Kopplungssystem zur Verfügung gestellt werden muss, um alle Anforderungen bezüglich der beiden betrachteten AIM zu erfüllen. Einige der spezifizierten nicht-funktionalen Anforderungen können allerdings in den Modellen nicht visualisiert werden und fließen erst zu einem späteren Zeitpunkt in die weitere Entwicklung ein. Es handelt sich dabei z. B. um Anforderungen bezüglich der Skalierbarkeit, die sich erst in späteren Vorgehensschritten auswirken.
Archivierung
Archivierung
Anlegen
Archivieren
Archivieren
Archiv
Archiv
Meld. VPRM Meld. VPRM
Ergebnis
Ergebnis
Bestellverwaltung VPRM
Best.ausg. Best. ann.
Konvertierung Vorschl. VPRM
Trans. V->S
Ergebnis
Ergebnis
Ergebnis
IDs
Kommunikation
Konsistenzprüfung
Senden
Senden
Auslösen
Vorschl. SAP
Daten ausg.
Bestätigung ID + Version Material
Prüfen Trans. S->V
Vorschl./ Meld.
Meld. SAP
Empfangen
Empfangen
Puffer
Puffer
Technische Materialwirtschaft (Bestellgenerierung)
Meld. Vorschlag SAP SAP
Mat. Stämme
AuslösungsFK. in Abb. 4
Kommunikation
Anfragen
Mat.Stamm.verwaltung SAP R/3 MM
ID
Extraktion
Vorschlag SAP
Lief.Stamm.verwaltung SAP R/3 MM
Ermitteln VM Übergeben Ermitteln VL
ID + Version Lieferant
ID+Version
Übergeben
ID
Daten ausg. ID+ Version
Meld. SAP
Vervollständigung
Aufruf
Vervollst.
Anlegen
Bestellverwaltung SAP R/3 MM
Vorschlag SAP
Legende : Funktionskomponente Kopplungs-Teilsystem
Operation
Funktionskomponente AwS-Kern
Speicher
Kommunikationsbeziehung zur Lenkung
Org.Einheit (Ausschnitt)
Kommunikationsbeziehung zum Leistungsaustausch
Liefer. Stämme
Integration von Anwendungssystemen für der Materialwirtschaft
B.Meld.ausg. Vorschl. SAP
Vorschl. SAP
Anlegen Vorschl./ Meld.
Kaufmännische Materialwirtschaft (Einkaufsabwicklung)
683
Abbildung 7: Funktionskomponentenmodell zum AIM „Übermittlung Bestellvorschlag, -meldung“
Ergebnis Aufruf
684
5
S. Eckert, C. Suchan, O. K. Ferstl, M. Schissler
Zusammenfassung und Ausblick
Von den Software-Herstellern werden zahlreiche Plattformen für die Kopplung von AwS angeboten. Dieser Fülle stehen erstaunlich wenig methodische Ansätze für die Gestaltung von Kopplungssystemen gegenüber. Im Projekt OASYS wurde ein methodischer Ansatz, der sechs Ebenen sowie ein korrespondierendes Vorgehensmodell umfasst, erarbeitet. Mit diesem Ansatz wird eine durchgängige methodische Unterstützung der Integration von AwS ermöglicht. Ausgehend von der Spezifikation funktionaler Anforderungen durch die Modellierung der Geschäftsprozesse, der Erfassung der nicht-funktionalen Anforderungen und unter Nutzung der von den jeweiligen Plattformen zur Verfügung gestellten Kopplungsmechanismen können leistungsfähige und bedarfsgerechte Kopplungssysteme entwickelt werden. Die Eignung des Ansatzes und seine Vorteile hinsichtlich Transparenz und Vollständigkeit konnten in mehreren Fallstudien geprüft werden. Auch in der vorliegenden Fallstudie, der Integration von zwei Materialwirtschaftssystemen, konnten der Integrationsbedarf rasch lokalisiert und hierfür geeignete Kopplungssysteme spezifiziert werden. Es hat sich gezeigt, dass die entwickelte Methodik zum einen praxistauglich und zum anderen bei der Lösung des vorliegenden Integrationsproblems hilfreich ist. Die im Rahmen der Anwendung der Methodik erarbeiteten Ergebnisse, insbesondere in Form von Modellen, erleichterten die Kommunikation der Projektbeteiligten, die Erfassung aller relevanten Anforderungen und sorgten darüber hinaus für eine kritische Analyse des zu unterstützenden Geschäftsprozesses. Der zukünftige Einsatz des Ansatzes in der Praxis erfordert eine weitergehende Werkzeugunterstützung sowie zusätzliche Feldstudien, die den Aufbau eines Katalogs unterschiedlicher Aufgabenintegrations-Muster sowie von Mustern auf der Ebene der Funktionskomponentenmodelle unterstützen. Solche Kataloge werden sowohl eine Reduzierung der Entwicklungsdauer und –kosten der zu erstellenden Kopplungssysteme als auch die Ergebnisqualität fördern. Neben der Integration von Standard-AwS untereinander oder mit Satellitensystemen kann damit auch die Einbeziehung von Legacy-Systemen behandelt werden.
Literatur [Avev04] Aveva Group plc. http://www.aveva.com, Abruf am 2004-06-15. [Eck+03] Eckert, S.; Schissler, M.; Mantel, S.; Schäffner, C.: Entwicklung von Kopplungsarchitekturen – Evaluierung einer Methodik anhand eines Beispiels aus der Automobilzulieferindustrie. In: Sinz, E.J.; Plaha, M.; Neckel, P. (Hrsg.): Modellierung betrieblicher Informationssysteme – MobIS 2003. Gesellschaft für Informatik, Bonn, 2003, S. 87-107.
Integration von Anwendungssystemen für der Materialwirtschaft
685
[Eck+04] Eckert, S.; Schissler, M.; Ferstl, O. K.: Einsatz einer Entwicklungsmethodik für die überbetriebliche Integration von Anwendungssystemen im Rahmen einer Fallstudie aus der Automobilzulieferindustrie. In: Bartmann, D. et al. (Hrsg.): Überbetriebliche Integration von Anwendungssystemen – FORWIN-Tagung 2004. Aachen, 2004, S. 41-59. [Fers92] Ferstl, O. K.: Integrationskonzepte Betrieblicher Anwendungssysteme. Fachberichte Informatik der Universität Koblenz-Landau, Nr. 1/1992. [FeSi01] Ferstl, O. K.; Sinz, E. J.: Grundlagen der Wirtschaftsinformatik, 4. Auflage, Oldenbourg, München 2001. [FeSi95] Ferstl, O. K.; Sinz, E. J.: Der Ansatz des Semantischen Objektmodells (SOM) zur Modellierung von Geschäftsprozessen. In: Wirtschaftsinformatik, 37 (1995) 3, S. 209220. [Fis+98] Fischer, J.; Hammer, G.; Kern, U.; Rulle, A.; Städler, M.; Steffen, T.: Verbundprojekt MOVE - Modellierung einer verteilten Architektur für die Entwicklung unternehmensübergreifender Informationssysteme und ihre Validierung im Handelsbereich. In: Projektträger Informationstechnik des BMBF beim DLR e.V.: Statusseminar des BMBF Softwaretechnologie, Bonn, 23-24. März 1998. [Fis+99] Fischer, J.; Atzberger, M.; Städler, M.; Kambergs, P.; Hluchy, R.; Hoos, J.; Pauls, M.; Walter, F.; Steffen, T.; Dresing, H.; Rulle, A.; Brentano, F.: MOVE - Objektorientierte Modelle und Werkzeuge für unternehmensübergreifende Informationssysteme im Rahmen des Electronic Commerce. Sammelband, Paderborn, 1999. [Fram04] Framatome ANP GmbH, http://www.framatome.de, Abruf am 2004-05-25. [ISO01] ISO: Software engineering – product quality – Part 1: Quality Model ISO/EIC 9126-1:2001. ISO, 2001. [Jur+01] Juric, M. B.; Basha, S. J.; Leander, R.; Nagappan, R.: Professional J2EE EAI. Wrox, Birmingham 2001. [Krum97] Krumbiegel, J.: Integrale Gestaltung von Geschäftsprozessen und Anwendungssystemen in Dienstleistungsbetrieben. Deutscher Universitäts-Verlag, Wiesbaden 1997, zugl. Bamberg, Univ., Diss., 1997. [Kübe04] Kübel, M.: Kopplung von Anwendungssystemen für eine integrierte Materialwirtschaft im Kraftwerksbau, Diplomarbeit an der Universität Bamberg, Bamberg, 2004. [KuHe02] Kuhn, A.; Hellingrath, B.: Supply Chain Mangement: Optimierte Zusammenarbeit in der Wertschöpfungskette. Springer-Verlag, Berlin, Heidelberg, 2002. [Man+02] Mantel, S; Eckert, S.; Schissler, M.; Ferstl, O. K.; Sinz, E. J.: Entwicklungsmethodik für überbetriebliche Kopplungsarchitekturen von Anwendungssystemen. In: Bartmann, D. (Hrsg.): Kopplung von Anwendungssystemen - Forwin-Tagung 2002, Shaker, Aachen 2002, S. 183-202. [Man+04] Mantel, S.; Eckert, S.; Schissler, M.; Schäffner, C.; Ferstl, O. K.; Sinz, E. J.: Eine Entwicklungsmethodik für die überbetriebliche Integration von Anwendungssystemen.
686
S. Eckert, C. Suchan, O. K. Ferstl, M. Schissler In: Bartmann, D. et al. (Hrsg.): Überbetriebliche Integration von Anwendungssystemen– FORWIN-Tagung 2004. Aachen, 2004, S. 21-39.
[Sch+01] Schissler, M.; Mantel, S.; Ferstl, O. K.; Sinz, E. J.: Unterstützung von Kopplungsarchitekturen durch SAP R/3. FORWIN-Bericht Nr. FWN-2001-008, Nürnberg 2001. [Sch+02] Schissler, M.; Mantel, S.; Ferstl, O. K.; Sinz, E. J.: Kopplungsarchitekturen zur überbetrieblichen Integration von Anwendungssystemen und ihre Realisierung mit SAP R/3. In: Wirtschaftsinformatik 44 (2002) 5, S. 459-468. [Sch+04] Schissler, M.; Zeller, T.; Mantel, S.: Überbetriebliche Integration von Anwendungssystemen: Klassifikation von Integrationsproblemen und –lösungen. In: Bartmann, D. et al. (Hrsg.): Überbetriebliche Integration von Anwendungssystemen– FORWIN-Tagung 2004. Aachen, 2004, S. 1-20. [Sch+05] Schissler, M.; Mantel, S.; Eckert, S.; Ferstl, O. K.; Sinz, E. J.: Entwicklungsmethodiken zur Integration von Anwendungssystemen in überbetrieblichen Geschäftsprozessen – ein Überblick über ausgewählte Ansätze. In: Ferstl, O.K., Sinz, E.J., Eckert, S., Isselhorst, T.: Wirtschaftsinformatik 2005 – eEconomy, eGovernment, eSociety. Physica-Verlag, Heidelberg 2005. [Somm01] Sommerville, I.: Software Engineering. 6.Aufl., Pearson, München 2001. [Webe98] Weber, M.: Verteilte Systeme. Heidelberg, 1998. [WKWI94] Wissenschaftliche Kommission Wirtschaftsinformatik im Verband der Hochschullehrer für Betriebswirtschaft: Profil der Wirtschaftsinformatik. In: Wirtschaftsinformatik 36 (1994) 1, S. 80-81.
Model-Driven Process Configuration of Enterprise Systems* Alexander Dreiling, Michael Rosemann Queensland University of Technology
Wil M. P. van der Aalst Eindhoven University of Technology
Wasim Sadiq SAP Research (SAP Australia Pty Ltd)
Sana Khan BP Oil UK Limited
Abstract: The configuration of comprehensive enterprise systems to meet the specific requirements of an organisation up to today is consuming significant resources. The results of failing or delayed enterprise system implementation projects are severe and may even threaten the organisation’s existence. One of the main drivers for implementing comprehensive enterprise systems is to streamline business processes. However, an intuitive conceptual support for business process configuration is insufficiently addressed by enterprise system vendors and inadequately researched in academia. This paper presents a model-driven approach to target this problem and proposes several configuration patterns that describe generic patterns of configuration alternatives, in order to understand what situations can occur during business process configuration. Based on these configuration patterns, a configuration notation is introduced that allows for visually highlighting configuration alternatives. Finally, we will sketch how configurable Event Driven Process Chains and the configuration of business processes can be supported using relational databases. Keywords: Configuration, Customising, Configuration Patterns, Business Processes, Enterprise Systems
*
The research results presented in this paper have been funded by SAP Research and Queensland University of Technology with the project “Modelling Configurable Business Processes”. SAP is a trademark of SAP AG, Walldorf, Germany.
688
1
A.Dreiling, M. Rosemann, W.M.P. van der Aalst, W. Sadiq, S. Khan
Introduction – Enterprise Systems and Business Processes
Business as a science, implicitly or explicitly formulates requirements for businesses supporting computer-based information systems. Since the 1920s, when Business as a science was put forward as a separation from Economics [Donh22], there have been several major shifts in business requirements which often resulted in changing requirements for information systems. One of these heavily impacting shifts in business requirements is business process orientation which has become a major topic in academia and for most companies since the 1990’s [DaSh90]. Process orientation and thinking originated even earlier with one of the early examples provided by Taylor, when he revolutionised industrial engineering with ideas on work organisation, task decomposition, and job measurement [Tayl11]. Later examples were provided by Nordsieck who argued in 1934 that the structure of a company should be process-oriented [Nord34, p. 77] and compared the structure of a company to a stream, because it is an “uninterrupted value chain” [translated from Nord72]. Based on these ideas, Business Process Reengineering (BPR) became a popular management approach [Dave93, Gait83, HaCh93, Hamm97, Port85]. The main objective was a radical organisation-wide optimisation. Thus, BPR focused on enabling improvements in work processes and outputs [DaBe95]. Whereas BPR improves work processes in a bounded timeframe, Business Process Management (BPM) can be seen as a continuous approach [DaBe95]. Only since the notion of BPR and BPM emerged, has process orientation managed to significantly impact on the Information Systems field. The term enterprise system came into fashion somewhat recently, but the concept behind it has been subject to academic discussion for a long time now and has evolved from an historic development in Business, Computer Science, and Information Systems. Computer-based systems became available for commercial use some decades after Business as a science had been developed. The idea of corporate wide integrated information systems was then developed [Beer66]. After massive technological and conceptual development, Enterprise Resource Planning (ERP) Systems seemed to have made this vision possible Examples of contributions to the ERP field cover, amongst others, the definition of ERP [KlRG00], configuration of ERP Systems [ArAn03, BrHM01, SoGD03], critical success factors of ERP Systems [HoLi99], modelling within the context of ERP [DKKS04], and possible developments of ERP in the future [MaPA00]. ERP focuses on the technical integration of different parts of the business such as financials, production, human resources, procurement, and distribution. ERP projects may vary in size and structure, each requiring careful management decisions during implementation [MaTv00]. In addition to size and structure of an ERP implementing organisation, its cultural background can dramatically influence an ERP project, as the typical Western understanding of conducting business is not valid in every part of the world [SoKT00].
Model-Driven Process Configuration of Enterprise Systems
689
Since the first discussions of ERP, several developments made a modification of the original ERP idea necessary. Although positive effects of inter-organisational information systems had been discussed before the notion of ERP emerged [JoVi88], the continuously increasing need for integrating not only internal functional departments but also ERP systems of organisations along the value chain hadn’t been acknowledged until later. A good example of an inter-organisational business process would be the so-called vendor-managed inventory concept where stock replenishment is outsourced to the vendor of an organisation, and even demand forecasting is done by the vendor [SAP04]. Such scenarios require for effective behavioural integration [LeSH03] as opposed to a purely technical integration as traditional ways of conducting business are changed significantly. Today, the term enterprise system is a label for what has been previously called an ERP system. The developments within Business, Computer Science, and Information Systems, out of which some have been highlighted above, led to a massive amount of requirements driving the complexity of enterprise systems. Accordingly, the scope and applicability of business areas that are supported by enterprise systems like SAP have been growing significantly over the past few years. Enterprise systems nowadays need to offer a lot of functionality in order to cope with a large amount of business requirements. This functionality needs to be aligned with the business in order to create value for the organisation, confronting the organisation with the options of either configuring the enterprise system, the organisation, or a combination of both. Especially the first option is very important because an organisation may not wish to change their processes, and also requirements may change over time making an adaptation of the enterprise system necessary. To support expectations that customers place on enterprise systems, these systems need to cater for a large number of diversified requirements. Generally, a customer is interested in deploying a subset of available features to support their specific needs. In order to be able to react to these customer demands it is of paramount importance to understand what generic configuration situations occur during process configuration and to explicitly address configuration in process modelling languages. SAP targets configuration with its Implementation Guide (IMG), a comparatively large tool resulting in projects that consume significant resources. But even if the business process management hype peaked years ago [DaSh90, Dave93, HaCh93], process configuration within SAP is not intuitively modeldriven. Apart from SAP’s inability to react adequately to some of the implications of the current BPM trend (as one practical example amongst many), academia has also not yet addressed process configuration within enterprise systems sufficiently. Our paper is a first step towards overcoming this situation. We will first elaborate on the research methodology used in the underlying research. We then discuss configuration as a concept and highlight the configuration patterns that have been developed within our research. Subsequently, Configurable Event Driven Process Chains (CEPCs) will be introduced as an extension to Event Driven Process Chains (EPCs) [Aals99, Sche00] which is based on the configuration patterns. We
690
A.Dreiling, M. Rosemann, W.M.P. van der Aalst, W. Sadiq, S. Khan
also elaborate on how the configuration patterns can be realised using relational database technology. Finally, the paper concludes with a short summary and future prospects will be discussed.
2
Research Methodology
The research findings presented in this paper result from a design science approach. Design science in contrast to behavioural science creates a different type of artefacts. Whereas the latter is concerned with explaining and predicting behaviour in human-computer interaction [HMPR04], the former produces artefacts in a more engineering or construction-like approach. Hevner et al. [HMPR04] defined seven guidelines for design science in information systems research. We addressed each of them in the following way [citations obtained from HMPR04]: 1. Design as an Artefact (“must produce a viable artifact”): We provide configuration patterns based on a language for highlighting configuration alternatives as an extension to a commonly known process modelling language. 2. Problem Relevance (“develop technology-based solutions to important and relevant business problems”): The underlying business problem has been described in the introduction as an insufficient support for process configuration in order to align enterprise systems to the organisational requirements. 3. Design Evaluation (“utility, quality, and efficacy of a design artifact must be rigorously demonstrated”): The presented research results have been derived involving a number of researchers and practitioners. However, empirical validation is still outstanding and remains to be delivered during the last part of this research project. We plan to conduct focus groups and surveys in order to validate the results. 4. Research Contributions (“must provide clear and verifiable contributions in the areas of the design artifact”): This research is (to our knowledge) the first systematic approach to construct a configurable business process modelling language which is its main contribution. 5. Research Rigor (“Design-science research relies upon the application of rigorous methods in both the construction and evaluation of the design artifact”): The configuration patterns have been rigorously derived from workflow patterns [AHKB03]. They are supposed to support as many requirements for a configurable reference modelling language as possible [RoAa03]. However, the evaluation of the design artefact is still to be evaluated in future research. 6. Design as a Search Process (“requires utilizing available means to reach desired ends while satisfying laws in the problem environment”): The research conducted was validated several times with researchers, practitioners and SAP
Model-Driven Process Configuration of Enterprise Systems
691
as the industry partner of this project. Some additional configuration patterns to the ones presented in this paper were discussed and abandoned again. In that, the research could be described as a generate-and-test-for-appropriateness approach. 7. Communication of Research (“must be presented effectively both to technology-oriented as well as management-oriented audiences”): This paper presents part of this aim as well as regular presentations and discussions at SAP and within SAP’s environment.
3 3.1
Configuration of Business Process Models What is Configuration?
Configuration of software in order to meet requirements of organisations has been subject to academic discussion for a significant period of time as early examples suggest [GSSD84, LSWG88]. Davenport [DaHC98] describes the process of configuration as a methodology performed to allow a business to balance their IT functionality with the requirements of their business. More specifically, Soffer et al. [SoGD03] describe configuration as an alignment process of adapting the enterprise system to the needs of the enterprise. Especially, if an organisation achieved competitive advantages in enacting a business process in a certain way, they usually will not wish to change this business process in order to fit into an enterprise system. In this case, the reference process within the enterprise system needs to be changed according to the real-world business process. Soffer et al.’s approach [SoGD03] allows for implementing process variants based on the values of certain attributes. Enterprise system configuration involves setting all the usage options available in the package to reflect organisational features [DaHC98]. Brehm et al. [BrHM01] define nine different change options for enterprise systems from predefined alterations (e.g. by marking checkboxes) within the enterprise system to alterations of the program code. Holland and Light [HoLi99] argue that a critical success factor of enterprise system implementation is to avoid program code changes and wherever possible using predefined change options. In terms of model configuration Becker et al.’s approach is one of the most advanced [BDKK02]. It features several mechanisms for transforming a reference model into a build time model. Becker et al.’s approach is very generic and differs from our research in that we, first, seek generic patterns that arise during model configuration and, second, that we propose a configurable modelling language with the CEPC. Configuration and customisation are often used interchangeably MerriamWebster's Collegiate Dictionary defines configuration as the “relative arrangement
692
A.Dreiling, M. Rosemann, W.M.P. van der Aalst, W. Sadiq, S. Khan
of parts or elements” whereas customising is defined as “to build, fit, or alter according to individual specifications” [Merr03]. With these definitions in mind we can only perform reconfiguration (alteration of relative arrangement of parts or elements within enterprise systems) or customisation (alteration of enterprise systems in order to meet the specification of the enterprise). The latter includes alterations of program code which, we do not pursue in our research. We are rather concerned with the configuration of enterprise systems. For the purpose of this paper, we define (re-)configuration of an enterprise system as the process of aligning business aspects such as functions, information, processes, or organisation with generic enterprise systems in order to meet the business requirements of the enterprise in the most efficient way. For the sake of simplicity we will use the term configuration instead of reconfiguration from here on. Especially during process configuration, a simple configuration approach that can be described as switching on or off functionality [BaSS98], seems to be inappropriate. In SAP’s IMG there are several thousand configuration tables. They define how the system should function, what a transaction screen looks like, how many transaction screens there are, or what kinds of information a process will require [BhRa00]. Some of the configuration decisions within SAP’s IMG affect processes within SAP’s enterprise system landscape. However, there is no explicit support on how the processes are altered, which is imperative for answering questions such as to how and when should a function be configured, and what configuration time inter-relations a function has with another function. Correspondingly, there is a lack in configurable reference process modelling languages in academia to highlight configuration alternatives and to understand situations in which configuration occurs. We argue that the configuration process needs to be guided with a configurable reference model in order to avoid scenarios where non-configurable models are provided that can be freely altered. Apart from the inability to make configuration decisions explicit, free alterations of process models may also lead to semantically bad process models as described by Kindler [Kind04]. In order to analyse how configuration occurs, configuration patterns were developed. These patterns are discussed in the following section.
3.2
Configuration Patterns
Configuration patterns are defined as patterns which depict a configuration scenario and highlight the potential implementation alternatives that are available. A configuration pattern shows the options that are available at configuration time. Configuration time is defined as the moment in time where configuration decisions need to be made. At configuration time, there may be a number of potential build time process alternatives. Configuration patterns capture the configuration time choices and the total subset of build time options.
Model-Driven Process Configuration of Enterprise Systems
693
Configuration patterns were developed using workflow patterns [for more information please refer to AHKB03] by analysing how they could be configured and examining all the possible build time scenarios. This research examined the configuration scenarios that may occur on a process, in particular focusing on configuration of functions, connectors, and control flow. Configuration of organisational and data structures is not part of the scope of this research. Configuration patterns were specified from workflow patterns. The workflow patterns served as a benchmark for completeness and accuracy. The configuration patterns developed served as a basis to derive a configuration notation. Of the twenty workflow patterns only eight could be used to derive configuration patterns because of two reasons: Firstly, the EPC modelling notation restricted the accurate expression of the workflow patterns. Mainly, the workflow patterns that are concerned with process instances (i.e. workflow cases) cannot be expressed by EPCs because EPC models are at type level (e.g., a workflow pattern expressing a variation of the amount of instances at one point in a process cannot be considered here). Secondly, the subsequent expression of the workflow pattern in EPC models caused an overlap with some of the other existing configuration patterns and therefore, they were not identified as configuration patterns. 3.2.1
Configuration Pattern 1: Optionality (Table 1)
A function in an EPC can be configured during configuration time by switching it on, off or optional. Table 1 illustrates this pattern. It contains the two functions Function 1 and Function 2 and three events. Both functions can be switched off in order to remove them from the build time model. In order to establish syntactical integrity of the build time model either the preceding or succeeding event of, for example Function 1, needs to be removed from the model as well or both events need to be substituted by a new event. This decision should be based on the semantic meaning of the events in relation to this function. If a function is deemed optional, the decision about its execution is postponed to run time where it is made on a case-by-case basis. The naming of the events in this case will be based on the semantic meaning and relation of the configurable function. If a function remains optional, an additional function needs to be included in the model that makes the decision to perform it or not at run time. Furthermore, extra connectors and extra events have been included for syntactic correctness. This configuration pattern requires for a configurable function within a configuration notation.
694
A.Dreiling, M. Rosemann, W.M.P. van der Aalst, W. Sadiq, S. Khan
Configuration Pattern Optionality
Build time Configuration Possibilities Conditionally Combination Partial Skipped (Switched ON) (Switched OFF) (Switched OPT) Syntactically, events A
A
A
1
1
B
B
2
2
C
C
A
and B can trigger the
0
process. The semantic
XOR
assumption here is that
aa
event A triggers it.
1
A
Artificial Function for Decision at Run Time bb
B XOR
2
2
C
C
Table 1: Configuration Pattern of Optionality
3.2.2
Configuration Pattern 2: Parallel Split (Table 2)
The Parallel Split comprises of the AND connector. This pattern captures the configuration alternatives that may exist if an AND split is configurable. This connector signifies a point where a single workflow splits into multiple workflows which must be executed in synchronisation. It is important to note that this configuration alternative implies that a configurable AND can only be configured into an AND. The only choice can be to reduce the amount of incoming or outgoing branches. 3.2.3
Configuration Pattern 3: Exclusive Choice (Table 2)
This pattern depicts a configuration case involving a configurable XOR connector in a split. If an XOR is configurable at configuration time it can support itself, a combination of XOR sequences (if there is more than one branch) and the individual sequences that either branch or merge into the XOR connector. 3.2.4
Configuration Pattern 4: Multi Choice (Table 2)
The Multi Choice configuration pattern captures the configuration alternatives present in a configurable OR split. This pattern potentially supports an OR, AND, XOR, and individual sequences at build time. In summary, these patterns can be set up to: (1) support a separate individual sequence of the branch; (2) allow a function at run time to exclusively choose between branches (XOR connector); (3) execute all branches after the split at run time (AND connector); and (4) allow a function to decide upon the execution of at least one branch after the split (OR connector).
Model-Driven Process Configuration of Enterprise Systems Configuration Pattern
Depiction of Configuration Pattern
Build Time Configuration Possibilities Sequence XOR
OR
AND
1
1
AND
AND
B
D
2
3
C
Exclusive Choice
Multi Choice
n.a.
n.a.
E
A
A
1
1
XOR
XOR
B
D
B
D
2
3
2
3
C
Sequence 1
Sequence 2
n.a.
n.a.
A
A
A
A
Parallel Split
695
E
C
B
D
2
3
C
E
n.a.
n.a.
E
1
1
B
D
2
3
C
E A
A
A
A
A
A
1
1
1
1
1
1
OR
XOR
OR
AND
B
D
B
D
B
D
B
D
B
2
3
2
3
2
3
2
D 3
2
3
C
E
C
E
C
E
C
E
C
E
Table 2: Configuration Patterns of Parallel Split, Exclusive Choice and Multi Choice
3.2.5
Configuration Pattern 5: Synchronisation
This pattern is similar to the Parallel Split configuration pattern, except this captures the number of alternatives that may exist in an AND join. Similar to the Parallel Split, it offers only limited configuration alternatives. Configuration pattern 5 is depicted as Configuration pattern 2 with at least two branches being joined instead of one being split. 3.2.6
Configuration Pattern 6: Simple Merge
Similar to the Exclusive Choice pattern, this pattern depicts a configuration case involving a configurable XOR connector in the merger of two or more processes. This configuration pattern has the same number and types of alternatives as present in the Exclusive Choice configuration pattern. Hence, as for configuration patterns 5 its depiction corresponds to configuration pattern 3, with the difference being that paths are joined instead of split. 3.2.7
Configuration Pattern 7: Synchronising Merge
Synchronising Merge configuration pattern captures the configuration alternatives present in a configurable OR merge. This pattern supports an OR, AND, XOR,
696
A.Dreiling, M. Rosemann, W.M.P. van der Aalst, W. Sadiq, S. Khan
and individual sequences at build time. Its representation is similar to configuration pattern 4. 3.2.8
Configuration Pattern 8: Interleaved Parallel Routing
It may also be possible to configure the order of execution for a number of functions in a process. This configuration scenario is captured in the Interleaved Parallel Routing configuration pattern. According to this pattern, Function 1 and 2 both have to be executed in an arbitrary order but not at the same time. Hence, at configuration time the decision is left open (denoted by the box around the EPC blocks; these EPC blocks must lead to at least syntactically correct EPCs). Table 3 identifies the configuration alternatives that would exist in this scenario with emphasis on the functions involved in the sequence. Configuration Pattern Interleaved Parallel Routing
Build Time Configuration Possibilities Assuming semantic definition of Event A is to initiate the process and either Event B or C terminates the process. build time model for Sequence 1 fixed at Sequence 2 fixed at decision made at build time build time run time A0 A
A
0
A
XOR
1
2
1
2
B
C
B
C
2
1
C
B
A
A
1
2
B
C
2
1
C
B
Table 3: Configuration Pattern of Interleaved Parallel Routing
3.2.9
Configuration Pattern 9: Sequence Inter-relationships
This pattern is comprised of two sequence workflow patterns. This configuration pattern is founded on the principle that two or more functions which can exist in isolation may be dependent on each other during configuration. This interdependency may enforce an ON, OFF or OPTIONAL status on another function or connector. This inter dependency is described as a relationship. There are many forms in which a relationship may occur: Equivalence or Conditional. Optionality levels [SoGD03] may also be employed to describe inter-relationships. Table 4 illustrates how two different functions 2 and 6 which occur in separate sequences have an underlying interdependency (in this case they are mutually dependent: if one of them is switched-off, then the other one needs to be switched-off as well. They can also be setup as mutually exclusive: switching-off one function means switching on the other and vice versa).
Model-Driven Process Configuration of Enterprise Systems
Configuration Pattern Sequence Inter-relationships
697
Build Time Configuration Possibilities Assuming that semantically Events C and V are output events of Function 2 and 6. Sequences 1 Sequences 2
A
T
A
1
6
1
T 6
A
B
V
B
V
1
5
2
5
2
5
B
Z
C
Z
C
Z
T
Table 4: Configuration Pattern of Sequence Inter-relationships
3.3
Configuration Notation – Configurable Event Driven Process Chains (CEPCs)
To describe configuration alternatives the EPC notation [Sche00] was manipulated with some extensions. In total this research proposes thirteen new notation constructs. These extensions can be classified as configurable nodes and as configuration attributes. A configurable node is a point where configuration alternatives may exist [RoAa03]. It can be described as a variation point [HaPo03]. Configurable nodes are described in Table 5 (the lines of the notation symbols are thicker than their non-configurable counterparts which becomes obvious if a CEPC contains both configurable and non-configurable functions or connectors). Name
Description
Configurable Function**
The Function can be either turned on, off, or optional.
Configurable XOR**
Implications: It can remain the same, or consist of one sequence. Implications: It can support an: OR, AND, XOR or a sequence. Implications: It can only remain the same (AND).
Configurable OR** Configurable AND**
Notation Configurable Function
Configuration Pattern that captures the build time alternatives of a decision Pattern 1 Optionality
Pattern 3 Exclusive Choice and Pattern 6 Simple Merge Pattern 4 Multiple Choice and Pattern 7 Synchronising Merge Pattern 2 Parallel Split and Pattern 5 Synchronisation
Table 5: Configurable Nodes (** Specified in [RoAa03])
A configuration attribute describes the potential set of build time alternatives that may exist at a configurable node. The aim of the configurable attribute is primarily to describe the configurable node. For an overview of the notation used to describe configurable nodes refer to Table 6.
698
A.Dreiling, M. Rosemann, W.M.P. van der Aalst, W. Sadiq, S. Khan
Name
Description
Notation
Configuration Pattern or Configuration Requirement
[RoAa03] Guideline**
Requirement**
Specification Level
Routing Container
Non-Critical Configurable Function / Connector Critical Configurable Function / Connector Default
Optional Node
Soft Recommendation: guides possible configuration decisions Hard Recommendation: used to describe a system constraint This notation element is used to specify the level at which a configurable node needs to be specified. This can be either at System, Object or Occurrence Level Order of configurable functions can be changed arbitrarily at configuration time. However, a decision can be made at runtime to specify which order the functions can be executed in The manner in which the Node is configured is a noncritical decision (by default) The manner in which the Function is configured is a critical decision. The configuration decision is only hardly reversible A configurable connector can have a default like a particular sequence If no explicit configuration decision was made a configurable function is switched on or off by by default. Connectors can have default configuration values as well.
Guideline 1 A = ON ļ X= Y
Pattern 9 Sequence Inter-relationships
Requirement 1 A = ON ļ B = OFF Specified 1 Object Level = Material
Pattern 8 Interleaved Parallel Routing
Configurable Function
Configuration Requirement: Critical and Non-Critical Decisions
Configurable Function
e.g., default= ON or default= seq 1
Configuration Requirement: Mandatory and Optional Decisions
e.g., opt, default= ON or opt, default=seq1
Table 6: Configuration Attributes Used to Describe Configurable Nodes (** Specified in [RoAa03])
Model-Driven Process Configuration of Enterprise Systems
4
699
Business Example Invoice Verification
The introduced configurable EPC will now be used to briefly outline a business example. Figure 1 depicts a generic application reference model for invoice verification. In our scenario, we assume that a company acquires this application reference model and configures it to the company’s specific needs. The reference model includes three configurable functions, Evaluated Receipt Settlement (ERS), Invoicing Plan Settlement, and Consignment/Pipeline Settlement and three configurable connectors. Purchase order created
Service is accepted
Goods receipt posted
Consignment/ pipeline liabilities are to be settled
Consignment/ pipeline liability is created
Invoice received
V
V V
G/R to be settled automatically Evaluated Receipt Settlement (ERS)
Process Invoice
V
XOR
Invoicing Plan Settlement
REQUIREMENT IPS = ON ERS = ON
Consignment/ Pipeline Settlement
V
GUIDELINE ERS = ON, if long term contract with suppliers and goods and conditions are specified
Invoicing plans require settlement
Invoice transmitted for vendor’s records
XOR
XOR
Invoice posted and blocked for release
Material is released
Invoice posted (not blocked for release)
Consignment/ pipeline settlement document transmitted
V Release Invoice automatically
Release Invoice manually XOR
Invoice released
Figure 1: Invoice Verification (derived and adapted from SAP’s application reference models for SAP R/3 version 4.6c)
Our example company identified Consignment/Pipeline Settlement as not necessary since they do not run any consignment warehouses. The guideline for ERS recommends keeping ERS in case there are long-term contracts with suppliers and goods and conditions are specified. The organisation identified some suppliergoods combinations where this is the case and keep ERS. Additionally, the organisation identified Invoicing Plan Settlement as necessary and keeps it which in itself already would have led to keeping ERS since a requirements for Invoicing Plan Settlement is that ERS must remain in the model if Invoicing Plan Settlement
700
A.Dreiling, M. Rosemann, W.M.P. van der Aalst, W. Sadiq, S. Khan
remains in the model. The three configurable connectors are accepted as they are delivered in the reference model. The configured model is depicted in Figure 2. Purchase order created
Service is accepted
Goods receipt posted
Invoice received
V V G/R to be settled automatically Evaluated Receipt Settlement (ERS)
Invoicing plans require settlement
Process Invoice
Invoicing Plan Settlement
V XOR
Invoice transmitted for vendor’s records
XOR
Invoice posted and blocked for release
Material is released
Invoice posted (not blocked for release)
V Release Invoice automatically
Release Invoice manually XOR
Invoice released
Figure 2: Configured Invoice Verification Process
5
Realisation of Reference Model Configuration
Within the project, we used relational database technology to perform the configuration of business process models. In order to do so, first a meta model was created that was able to capture the notation introduced in the previous section. This design process started with a simple meta model for EPCs, and later the requirements for a configurable reference modelling technique (nine requirements from [RoAa03]) led to extensions of the base meta model. We tried to minimise changes to the meta model and added attributes to existing constructs wherever this was possible (for seven requirements, attribute discussion will follow after the meta model introduction). However, adding new meta model constructs was unavoidable (for example the relationship type Process Object Interrelationship (POI) in Figure 3). The last remaining requirement (consideration of the impact on the perceived model complexity) is out of scope at this stage of the research and
Model-Driven Process Configuration of Enterprise Systems
701
has been considered during the design of the configuration notation. Additional requirements are posed by the configuration notation introduced in the last section. Some of them go beyond the requirements which led to the extensions described so far, and again we tried to minimise the impact on the meta model by extending it mainly in terms of attributes. However, the configuration notation element Routing Container required the introduction of a new entity type and a relationship type for assigning process objects to a routing container. The current meta model for CEPCs is shown in Figure 3. (0,n) (0,n)
Process (P)
Connector (C)
(0,n) (0,n)
(0, n)
C-E-As
P consists of PO (PcoPO ) (0, n)
Process Object Interrelationship (POI)
(0,n)
Process Object (PO )
(0,n) (0,n)
Event ( E)
C-F-As
(0,n) (0,n)
F-C-As
(0,n)
E -F-As (0, n)
E -C- As
F-E-As
D,T
RC consists of PO (RCcoPC)
(0,n) (0,n)
Function (F)
(0,n) (0,n)
(0, n)
Routing Container (RC)
Figure 3: Meta Model of Configurable Event Driven Process Chains
We chose to introduce a relation for each entity type and for each (0,n)-(0,n)relationship type. By this design choice, the specialisations of Process Object become relations as well. However, we can avoid NULL-Values for attributes that are defined for the specialisations only. Generally every relation resulting from the transformation of the meta model includes the three generic attributes Primary Key, Name, Version and may include the attribute (group) Foreign Key(s). Foreign Keys, apart from expressing relationship types, were used to point from the specialised process object (function, event, and connector) to the process object itself. The version attribute allows for reflecting an element’s point in the life cycle (e.g., configured after business analysis, configured after technical analysis). For seven of the requirements from [RoAa03] we introduced attributes and assigned them to the appropriate relations. Certain attribute values imply others. E.g., if Configurability is set as ‘no’ then all others discussed in this section necessarily will be ‘NULL’. Configurability refers to the question as to whether the element can be switched on or off (for Functions) or transformed into a build time construct (for connectors). By setting Importance to ‘mandatory’ a user has to make a decision at configuration time whereas ‘optional’ does not require a decision at configuration time (in case of no decision the value from the attribute Default will be accepted for the build time model). Scope lets a reference modeller
702
A.Dreiling, M. Rosemann, W.M.P. van der Aalst, W. Sadiq, S. Khan
highlight if, e.g., the configuration decision impacts locally (subsidiary level) or globally (company level). Criticality makes a statement on how easy it is to change a certain configuration decision. Level allows for making statements about whether the configuration will be done at, e.g., company level or subsidiary level. The configuration of business processes will impact certain parts of the system. VariationPoint includes references to these parts, e.g., transaction codes within SAP’s IMG. Finally, Guideline and Requirement are attributes for recommending configuration decisions, in terms of soft and hard recommendations respectively. The configuration notation introduced in the last section additionally requires for introducing the attribute Type for expressing that a function can be configurable or not, or that a connector can be either XOR, OR, AND, cXOR, cAND, or cOR. The first set of relations captures the meta model constructs for Process, Process Object, Routing Container and directly connected relationship types. As for the requirements posted so far, Process and Process Object, in particular, do not need to be configurable. However, adding the configurability attribute to these relations enables us to state that, e.g., an entire process is not configurable, instead defining this for all of its components. The fact that Process Object Interrelationship and Routing Container feature the configurability attribute refers to the necessity to express that a reference model which allows for highlighting configuration decisions must be configurable before it is transformed into a build time model during configuration time (e.g., for adopting a reference model to the company needs). We have defined the following relations for this part of the meta model: x
P
x
PO
x
POI
x
RC ( rcID,rcName,rcConfigurability , rcVersion) RCcoPO ( rccopoID,rcID, poID, rccopoName,rccopoConfigurability,
x
x
( pID, pName,pConfigurabili ty,pVersion) ( poID,poName,poType,poConfigurabili ty,poVersion)
( poiID,poiName,poiType,poiConfigurability,poiVersion)
rccopoVersion) PcoPO ( pcopoID,pID,poID,pcopoName,pcopoConfigurability, pcopoVersion)
Regarding the requirements that have been discussed above, we have introduced the following relations for Connector, Event, and Function (Event is not configurable): C
(cID, poID, cName, cType, cConfigurability , cImportance, cDefault ,
x
cScope, cCriticality, cLevel , cVariationPoint , cGuideline, cRequirement , cVersion)
x
E
( eID,poID,eName,eVersion)
Model-Driven Process Configuration of Enterprise Systems
F
x
703
( fID, poID, fName, fType, fConfigurability , fImportance, fDefault ,
fScope, fCriticality, fLevel , fVariationPoint , fGuideline, fRequirement , fVersion)
Finally, the relations for connections among events, functions, and connectors are introduced below. Adding the configurability attribute to each of them makes it possible to state, e.g., which event, i.e. the preceding or the succeeding event of a function, will be switched-off in case this function is switched-off by defining that either the incoming or outgoing connector of the function is configurable (can be switched-off). If both incoming and outgoing connectors of a function are configurable, the user that switches-off the function has to make a decision as to which event to switch-off with this function. x
CEAs
(ceasID, cID, eID, ceasConfigurability , ceasVersion)
x
ECAs
(ecasID, eID, cID, ecasConfigurability , ecasVersion)
x
EFAs
(efasID, eID, fID, efasConfigurability , efasVersion)
x
FEAs
( feasID, fID, eID, feasConfig urability , feasVersion)
x
CFAs
(cfasID, cID, fID, cfasConfigurability , cfasVersion)
x
FCAs
( fcasID, fID, cID, fcasConfigurability , fcasVersion)
6
Summary and Outlook
Enterprise systems’ processes need to be configured in order to meet requirements of organisations, but process configuration lacks a sound conceptual foundation that supplies established modelling techniques. We have tried to overcome this problem by introducing configuration patterns which aim at highlighting generic situations that occur during process model configuration. We also introduced a configuration notation based on the configuration patterns and sketched how this notation together with business process configuration can be supported using relational databases. We consider this work only as the starting point towards mature configuration languages and thus a stepping stone for the next generation of truly configurable process driven ERP systems. Therefore, we envision many extensions and future research building upon it. Firstly, the configuration patterns themselves need to be extended in order to highlight different aspects such as data or organisational units within processes. Secondly, process configuration needs to be integrated into the configuration process of contemporary enterprise systems, since process configuration cannot be separated from structural configuration of the organisation or required data. Thirdly, different user groups such as management, business analysts
704
A.Dreiling, M. Rosemann, W.M.P. van der Aalst, W. Sadiq, S. Khan
or technical analysts have different perspectives on business processes. These perspectives need to be addressed and configuration needs to be supported in an integrated way amongst them. We will address some of these issues in our further research. We will also empirically test the proposed notation.
References [Aals99] Aalst, W. M. P. v. d.: Formalization and Verification of Event-driven Process Chains. Information & Software Technology 41(10), 1999: pp. 639-650. [AHKB03] Aalst, W. M. P. v. d.; Hofstede, A. H. M. t.; Kiepuszewski, B.; Barros, A. P.: Workflow Patterns. Distributed and Parallel Databases 14(1), 2003: pp. 5-51. [ArAn03] Arinze, B.; Anandarajan, M.: A Framework for Using OO Mapping Methods to Rapidly Configure ERP Systems. Communications of the ACM 46(2), 2003: pp. 61-65. [BaSS98] Bancroft, N.; Seip, H.; Sprengel, A.: Implementing SAP R/3: How to introduce a large system into a large organisation. 2nd ed. Manning Inc: Greenwich, 1998. [BDKK02] Becker, J.; Delfmann, P.; Knackstedt, R.; Kuropka, D.: Konfigurative Referenzmodellierung. In: Becker, J.; Knackstedt, R. (Hrsg.) Wissensmanagement mit Referenzmodellen. Konzepte für die Anwendungssystem- und Organisationsgestaltung. Heidelberg, 2002, pp. 25-144. [Beer66] Beer, S.: Decision and control: the meaning of operational research and management cybernetics. Wiley: London, 1966. [BhRa00] Bhattacharjee, S.; Ramesh, R.: Enterprise Computing Environments and Cost Assessment. Communications of the ACM 43(10), 2000: pp. 75-82. [BrHM01] Brehm, L.; Heinzl, A.; Markus, M. L.: Tailoring ERP Systems: A Spectrum of Choices and their Implications. In: Proceedings of the 34th Hawaii International Conference on System Sciences (HICSS). IEEE: Hawaii, USA, 2001. [DaBe95] Davenport, T. H.; Beers, M. C.: Managing information about processes. Journal of Management Information Systems 12(1), 1995: pp. 57-80. [DaHC98] Davenport, T.; Harris, J.; Cantrell, S.: Putting the Enterprise into the Enterprise System. Harvard Business Review 76, 1998: pp. 121-131. [DaSh90] Davenport, T. H.; Short, J. E.: The New Industrial Engineering: Information Technology and Business Process Redesign. Sloan Management Review 31(4), 1990: pp. 11-27. [Dave93] Davenport, T. H.: Process Innovation: Reengineering Work Through Information Technology. Harvard Business School Press: Boston, MA, USA, 1993. [DKKS04] Dalal, N. P.; Kamath, M.; Kolarik, W. J.; Sivaraman, E.: Toward an Integrated Framework for Modeling Enterprise Processes. Communications of the ACM 47(3), 2004: pp. 83-87.
Model-Driven Process Configuration of Enterprise Systems
705
[Donh22] Donham, W. B.: Essential Groundwork for a Broad Executive Theory. Harvard Business Review 1(1), 1922: pp. 1-10. [Gait83] Gaitanides, M.: Prozessorganisation. Entwicklung, Ansätze und Programme prozessorientierter Organisationsgestaltung. Vahlen: München, 1983. [GSSD84] Gibson, C. F.; Singer, C. J.; Schnidman, A. A.; Davenport, T. H.: Strategies for making an information system fit your organization. 1984. [HaCh93] Hammer, M.; Champy, J.: Reengineering the Corporation. A Manifesto for Business Revolution. HarperBusiness: New York, NY, USA, 1993. [Hamm97] Hammer, M.: Beyond Reengineering: How the Processed-Centered Organization is Changing Our Work and Our Lives. HarperBusiness: New York, NY, USA, 1997. [HaPo03] Halmans, G.; Pohl, K.: Communicating the Variability of a Software-Product Family to Customers. Software and System Modeling 2(1), 2003: pp. 15-36. [HMPR04] Hevner, A. R.; March, S. T.; Park, J.; Ram, S.: Design Science in Information Systems Research. MIS Quarterly 28(1), 2004: pp. 75-105. [HoLi99] Holland, C. P.; Light, B.: A Critical Success Factors Model For ERP Implementation. IEEE Software 16(3), 1999: pp. 30-36. [JoVi88] Johnston, H. R.; Vitale, M. R.: Creating Competitive Advantage With Interorganizational Information Systems. MIS Quarterly 12(2), 1988: pp. 152-165. [Kind04] Kindler, E.: On the Semantics of EPCs: A Framework for Resolving the Vicious Circle. In: Proceedings of the Business Process Management: Second International Conference (Lecture Notes in Computer Science, Vol. 3080 / 2004). Springer: Potsdam, Germany, 2004, pp. 82-97. [KlRG00] Klaus, H.; Rosemann, M.; Gable, G. G.: What is ERP? Information Systems Frontiers 2(2), 2000: pp. 141-162. [LeSH03] Lee, J.; Siau, K.; Hong, S.: Enterprise Integration with ERP and EAI. Communications of the ACM 46(2), 2003: pp. 54-60. [LSWG88] Lucas Jr., H. C.; Stern, L. N.; Walton, E. J.; Ginzberg, M. J.: Implementing Packaged Software. MIS Quarterly 12(4), 1988: pp. 536-549. [MaPA00] Markus, M. L.; Petrie, D.; Axline, S.: Bucking the Trends: What the Future May Hold for ERP Packages. Information Systems Frontiers 2(2), 2000: pp. 181-193. [MaTv00] Markus, M. L.; Tanis, C.; van Fenema, P. C.: Multisite ERP implementations. Communications of the ACM 43(4), 2000: pp. 42-46. [Merr03] Merriam-Webster: Merriam-Webster's Collegiate Dictionary (online version available under http://www.m-w.com). 11th ed. Merriam-Webster: Springfield, MA, USA, 2003. [Nord34] Nordsieck, F.: Grundlagen der Organisationslehre. Poeschel: Stuttgart, 1934. [Nord72] Nordsieck, F.: Betriebsorganisation. Lehre und Technik. Schäffer Verlag: Stuttgart, Germany, 1972.
706
A.Dreiling, M. Rosemann, W.M.P. van der Aalst, W. Sadiq, S. Khan
[Port85] Porter, M. E.: Competitive Advantage. The Free Press: New York, NY, USA, 1985. [RoAa03] Rosemann, M.; Aalst, W. M. P. v. d.: A Configurable Reference Modelling Language. Technical Report, Queensland University of Technology, Brisbane, Australia, 2003. [SAP04] SAP AG: Collaborative Business Scenario "Vendor Managed Inventory". http://www.sap.com/businessmaps/459B5C21A96411D3870B0000E820132C.htm, 2004, Download 2004-03-24. [Sche00] Scheer, A.-W.: ARIS - Business Process Modeling. 3 ed. Springer: Berlin, 2000. [SoGD03] Soffer, P.; Golany, B.; Dori, D.: ERP modeling: a comprehensive approach. Information Systems 28(6), 2003: pp. 673-690. [SoKT00] Soh, C.; Kien, S. S.; Tay-Yap, J.: Cultural fits and misfits: is ERP a universal solution? Communications of the ACM 43(4), 2000: pp. 47-51. [Tayl11] Taylor, F. W.: Principles of Scientific Management. Harper and Row: New York, NY, USA, 1911.
Einführung in den Track eGovernment – Auf dem Weg von eAdministration zu eDemocracy Helmut Krcmar Technische Universität München
Göttrik Wewer Bundesministerium des Inneren
Dieter Klumpp Alcatel-SEL Stiftung Die eGovernment-Bewegung befindet sich aktuell an einem Wendepunkt: Die ersten euphorischen Projekte und Konzepte müssen sich heute mehr denn je einer kritischen Überprüfung im Hinblick auf die Erreichung der gesteckten Ziele und der Erwirtschaftung eines Returns on Invest stellen. Über die enge Verknüpfung von Verwaltungsreform, Prozessreorganisation und eGovernment herrscht heute weitgehend Einigkeit, allein die Entwicklung und Umsetzung von entsprechend integrierten Konzepten steht vielerorts noch aus. Auch die Akteurskonstellationen für die Umsetzung von eGovernment werden im Augenblick erneut diskutiert. Die Erfolgs- und Misserfolgsmeldungen bereits implementierter eGovernment-Ansätze deuten darauf hin, dass die Beteiligung der jeweiligen Zielgruppe am Design von elektronischen Behördendienstleistungen ausschlaggebend ist für deren spätere Nutzung. Public-Private-Partnerships gewinnen so eine neue Qualität. eGovernment wurde lange Zeit auf den Teilbereich eAdministration, d. h. die Unterstützung von Verwaltungsprozessen im Sinne von Bürger- und Unternehmensdienstleistungen verkürzt. Auf dem Weg zur eDemocracy gilt es, die Unterstützungspotenziale von IKT auch im Hinblick auf die politische Arbeit in Gremien oder neue Bürgerpartizipationsmodelle auszuloten und nutzbar zu machen. Hier gibt es nicht nur technische Fragestellungen zu lösen, sondern auch Aufgaben wie die Definition von Standards oder auch die Neugestaltung von Organisationsformen anzugehen. Oft lohnt sich ein Blick über den deutschen Tellerrand, um von den Erfahrungen anderer zu profitieren.
708
eGovernment – Auf dem Weg von eAdministration zu eDemocracy
Track-Programmkomitee Prof. Dr. Helmut Krcmar, Technische Universität München (Chair) Dr. Göttrik Wewer, Staatssekretär im Bundesministerium des Inneren (Chair) Dr. Dieter Klumpp, Alcatel-SEL Stiftung (Chair) Prof. Dr. Norbert Gronau, Universität Potsdam Dr. Ralf Klischewski, German University in Cairo Prof. Dr. Klaus Lenk, Universität Oldenburg Prof. Dr. Markus Nüttgens, Hamburger Universität für Wirtschaft und Politik Prof. Dr. Christoph Reichard, Universität Potsdam Prof. Dr. Roland Traunmüller, Universität Linz Dr. Maria Wimmer, Universität Linz Dr. Martin Wind, Universität Bremen Petra Wolf, M.A., Technische Universität München
Steuerungsmodell zur kundenorientierten Entwicklung von E-GovernmentDienstleistungen Wolf-Gideon Bleek Universität Hamburg
Ralf Klischewski German University in Cairo
Heike Stach Bundesministerium des Innern
Zusammenfassung: Damit Investitionen in Online-Angebote der Verwaltung zeitnah zu den erwarteten Qualitätsverbesserungen und Einsparungseffekten führen, richtet sich der Fokus bei der E-Government-Entwicklung zunehmend auf die Abnehmer der Dienstleistungen und deren Anliegen, z. B. von Bürgerinnen und Bürger oder Unternehmen im jeweiligen Zuständigkeitsbereich. Um diese Herangehensweise zu unterstützen, skizziert der vorliegende Beitrag ein neues Steuerungsmodell zur kundenorientierten Entwicklung von E-Government-Dienstleistungen, das zentral auf der Auswertung von Anwenderfeedback beruht. Dieses Modell basiert auf den Erkenntnissen und Erfahrungen der anwendungsorientierten Entwicklung von Web-Anwendungen, die sich aus der jahrzehntelangen Forschung und Praxis der partizipativen Softwareentwicklung ableiten. Darüber hinaus werden die besonderen Bedingungen von E-Government-Projekten (wie z. B. BundOnline 2005) berücksichtigt, um zu einer den Möglichkeiten der Verwaltung gerechten Verfahren und Steuerungsmöglichkeiten zu gelangen. Schlüsselworte: E-Government, Dienstleistungsentwicklung, Kundenorientierung, Neues Steuerungsmodell, Partizipation, Softwareentwicklung, Entwicklungsprozess, evolutionär, zyklisch
1
Einleitung
Nachdem E-Government-Angebote im World Wide Web mittlerweile als Selbstverständlichkeit gelten, tritt die Entwicklung dieser Dienstleistungen in eine neue Phase: der Fokus richtet sich zunehmend auf die Abnehmer der Dienstleistungen
710
W.-G. Bleek, R. Klischewski, H. Stach
und deren Anliegen, z. B. von Bürgerinnen und Bürger oder Unternehmen im jeweiligen Zuständigkeitsbereich. Mit Hilfe des Schlagworts „Kundenorientierung“, das schon seit einigen Jahren auch das Verwaltungsdenken beflügelt, soll sicher gestellt werden, dass Investitionen in Online-Angebote zeitnah zu den erwarteten Qualitätsverbesserungen und Einsparungseffekten führen. Gesucht sind Herangehensweisen und Verfahren, die bei Entwicklung von E-Government-Dienstleistungen systematisch und nachhaltig die Anliegen der potenziellen Nutzer einbeziehen und somit zu gesicherter Akzeptanz der Online-Angebote und zu in ihrer KostenNutzen-Relation erfolgreichen E-Government-Projekten führen. Vor diesem Hintergrund skizziert der vorliegende Beitrag ein neues Steuerungsmodell zur kundenorientierten Entwicklung von E-Government-Dienstleistungen. Es basiert zum einen auf den Erkenntnissen und Erfahrungen der anwendungsorientierten Entwicklung von Web-Anwendungen, die sich aus der jahrzehntelangen Forschung und Praxis der partizipativen Softwareentwicklung ableiten. Zum anderen werden die besonderen Bedingungen von E-Government-Projekten berücksichtigt, um zu einer den Möglichkeiten der Verwaltung gerechten Verfahren und Steuerungsmöglichkeiten zu gelangen. Mit dem bewussten Rekurs auf die Konzepte des New Public Management soll dabei die Perspektive der beteiligten Akteure in den Vordergrund gestellt werden. Gleichzeitig ist damit die These verbunden, dass eine Orientierung am „neuen Steuerungsmodell“ auch die Professionalisierung der Entwicklung von E-Government-Dienstleistungen befördert. Im nachfolgenden Abschnitt wird am Beispiel der Initiative BundOnline 2005 diskutiert, worin der Handlungsbedarf bei der Dienstleistungsentwicklung besteht. Im dritten Abschnitt wird die kundenorientierte Entwicklung von Web-Anwendungen aus softwaretechnischer Perspektive hergeleitet und deren Herangehensweise im Hinblick auf die Übertragung in die Verwaltung diskutiert. Der vierte Abschnitt skizziert dann das neue Steuerungsmodell für E-Government-Projekte, welches die bisherige Dienstleistungsentwicklung mit ein Bündel von „kundenorientierten“ Maßnahmen zyklisch integriert und auf der Ebene des Projektmanagements eine professionelle und kooperative Steuerung etabliert.
2
E-Government ohne Kundenbindung?
Das Kundenverhältnis im E-Government ist signifikant verschieden von dem allgemein bei Behörden zugrunde gelegten Verhältnis zum Abnehmer ihrer Leistungen: es ist labiler und bedarf einer aktiven Pflege. Erstens ist der elektronische Kanal ein zusätzliches Angebot, von dem bei Nichtgefallen jederzeit auf einen anderen Kanal gewechselt werden kann. Während die Kunden an Service-Verbesserung interessiert sind, streben die Anbieter nach Wirtschaftlichkeitsverbesserung sowie (politischem) Erfolg des Angebots. Die Rückkehr zu einem anderen Medium wäre in jedem Fall für beide Seiten ein Verlust und die Rückkehr zum Status
Neues Steuerungsmodell für E-Government-Dienstleistungen
711
quo. Zweitens wird durch den elektronischen Kanal stärker als bei anderen Kanälen die Art und Weise, in der Dienstleistungen angeboten werden, zum Diskussionsgegenstand. Während klassische Behördendienstleistungen in der Art, wie sie erbracht werden meist nicht mehr infrage gestellt bzw. ertragen werden, gibt es insbesondere bei Web-Dienstleistungen einen hohen Grad an Innovation und Vergleichbarkeit mit einer Vielzahl von anderen Web-Dienstleistungen, die nur ein oder zwei Mausklicks entfernt sind – auch im Bereich E-Government. Drittens ist die Wahrscheinlichkeit groß, dass Drittanbieter auf absehbare Zeit Alternativen für ungenügende E-Government-Services anbieten. Die Entwicklung von E-Government-Dienstleistungen stand in den ersten Jahren unter dem Primat der angebotsorientierte Strategie. Dadurch konnten relativ schnell eine Vielzahl von Angeboten online gestellt werden, jedoch blieb in vielen Fällen die Ungewissheit im Hinblick auf die Akzeptanz und Zufriedenheit der Nutzer. Da zudem verlässliche Instrumente für eine nachfrageorientierte Strategie bisher kaum entwickelt bzw. erprobt sind, können viele Projekte nicht sicher feststellen, ob bzw. in welchem Maße eine Online-Dienstleistung tatsächlich Bedürfnisse und Interessen der Zielgruppen bedient. Die Risken einer unzureichenden Kundenbindung können für Verwaltungen in ihrer Rolle als Online-Dienstleister auf Dauer aber durchaus bedrohlich werden: x Take-up und Akzeptanz der Nutzer bleibt hinter den Erwartungen zurück, x stattdessen weiterhin Nutzung von nicht-internetbasierten Kanälen bzw. von konkurrierenden Angeboten (z. B. auch von privaten Anbietern), x die Wirtschaftlichkeit (d. h. angestrebtes Kosten-Nutzen-Verhältnis) von E-Government-Projekten ist nicht zufrieden stellend, x Gefährdung von E-Government-Programmen insgesamt durch nachlassendes Interesse und geringere Förderung. Befürchtungen und empirische Befunde im Hinblick auf diese Aspekte finden sich national und international, wobei E-Government in Deutschland im internationalen Vergleich ein noch stärkerer Handlungsbedarf bei der Kundenorientierung attestiert wird (vgl. [Acce04], [Zwic04]). Im Folgenden wird auf BundOnline 2005 fokussiert als herausragendes Beispiel einer bundespolitisch gewollten Initiative, die nicht nur eine Reihe von Leistungen des Bundes ins Internet bringen will, sondern sich auf einer übergeordneten Ebene um die Unterstützung des Entwicklungsprozesses von E-Government-Dienstleistungen bemüht.
2.1
Fallbeispiel: BundOnline 2005
Mit der Initiative BundOnline hat sich die Bundesregierung verpflichtet, die internetfähigen Dienstleistungen der Bundesverwaltung bis 2005 online bereit zu stellen. Die Online-Bereitstellung der Dienstleistungen des Bundes wird dezentral
712
W.-G. Bleek, R. Klischewski, H. Stach
durch die für die jeweiligen Dienstleistungen zuständigen Behörden realisiert. Die Projektgruppe BundOnline unterstützt dabei, indem sie die Gesamtinitiative koordiniert, Synergieeffekte erschließt und so Kosten spart. Zusätzlich fördert sie den Aufbau der erforderlichen Qualifikationen in der Bundesverwaltung z. B. durch die Einrichtung von Kompetenzzentren und Beratung vor Ort. Für die OnlineDienstleistungen werden Softwarelösungen und IT–Dienste als Basiskomponenten zentral bereitgestellt. Perspektivisch sollen sie im Rahmen der übergreifenden Initiative Deutschland-Online auch den Ländern und Kommunen zur Nutzung angeboten werden. Ziel ist es, Mehrfachimplementierungen zu vermeiden. Gleichzeitig wird eine hohe Qualität des angebotenen Dienstleistungsangebots gefördert. Im Rahmen der E-Government-Initiative BundOnline (vgl. [BMI04]) sollen sechs Basiskomponenten bereitgestellt werden. Diese Basiskomponenten bieten zentral technische Funktionalitäten an, die durch unterschiedliche Dienstleistungen und Behörden genutzt werden können. Sie liefern Technologieplattformen, die – einmal entwickelt – teils identisch oder bedarfsgerecht konfiguriert zur breiten Anwendung in der Bundesverwaltung kommen. Eine wesentliche Eigenschaft der Basiskomponenten ist, dass sie Dienstleistungen unterstützen, selbst aber keine Dienstleistung im Portfolio der Bundesverwaltung darstellen. Vielmehr stellen sie Funktionalitätsblöcke bereit, die Bestandteil sehr vieler Dienstleistungen sind. Dadurch vermindern sie den Realisierungsaufwand und Kosten bei der Umsetzung der BundOnline-Dienstleistungen. Bei der Umsetzung der Basiskomponenten konnten bereits große Fortschritte erzielt werden. Im Jahr 2003 wurde die Entwicklung der Zahlungsverkehrsplattform abgeschlossen und die erste Version des Government Site Builders (Basiskomponente Content Management System) fertig gestellt und eingesetzt. Für die Basiskomponente Datensicherheit / Virtuelle Poststelle wurde 2004 der Pilotbetrieb aufgenommen. Das Portal www.bund.de und das Formularcenter sind bereits seit der CeBIT 2001 bzw. 2002 online. Mit dem Formular Management System soll künftig auch die medienbruchfreie Verwendung von Online-Formularen ermöglicht werden. Verschiedene Kompetenzzentren, insbesondere die Kompetenzzentren „Datensicherheit“, „Content Management“ und „Zahlungsverkehr“ beraten die Behörden im Vorfeld des Einsatzes von Basiskomponenten und stellen Dokumentationen für die Anwender bereit. Das Kompetenzzentrum „Vorgangsbearbeitung, Prozesse und Organisation“ hilft bei der Prozessanalyse und -optimierung sowie bei der Einführung von Vorgangsbearbeitungssystemen. BundOnline steht für eine Bundesverwaltung, die sich flächendeckend modernisiert, um so den veränderten Erwartungen von Wirtschaft und Gesellschaft gerecht zu werden. Über 100 Bundesbehörden aller Ressorts sind dabei umzuschalten (vom Verwalter zum Dienstleister), so dass Bürgerinnen und Bürger, Wirtschaft, Wissenschaft und auch die Verwaltung selbst entlastet werden, indem sie die Dienstleistungen des Bundes einfacher und schneller in Anspruch nehmen können.
Neues Steuerungsmodell für E-Government-Dienstleistungen
713
Zu Beginn des Projekts lag der Fokus vor allem darauf, Dienstleistungen des Bundes nach vorangegangener Prozessoptimierung in Anlehnung an die Art und Weise, wie sie bis dahin offline angeboten wurden, online zu stellen. In dem Maße, in dem dies gelungen ist, besteht nun die Möglichkeit, ohne großen Zusatzaufwand zu den Online-Angeboten Nutzer-Feedback einzuholen und die Weiterentwicklung verstärkt am Nutzen der „Kunden“ auszurichten. Ziel ist dabei, mit Hilfe der zur Verfügung stehenden Mittel das Optimum an Qualität für die dienstleistenden Verwaltungseinheiten und deren Klienten zu erreichen.
2.2
Handlungsbedarf
„Kundenorientierung“ von E-Government-Dienstleistungen als Problem bzw. Zielsetzung umfasst vielfältige Aspekte, entsprechend ist der Handlungsbedarf mehrdimensional. Nicht selten müssen in der betroffenen Behörde Verwaltungsleistungen signifikant umgestaltet werden, um die vollen technischen Möglichkeiten eines Online-Service (bzw. E-Service) auszuschöpfen. Der Entwicklungsprozess bezieht sich also nicht nur auf technische Artefakte, sondern auch auf bereits bestehende Verwaltungsprozesse und die sie bereitstellenden Organisationen: x organisatorisch / technisch: Wie können Verwaltungen ihre Angebote im Hinblick auf den Kundennutzen verbessern? Wie müssen organisatorische und technische Maßnahmen ineinander greifen? x projektbezogen / institutionell: Welche Initiativen sind auf Ebene der einzelnen Projekte notwendig? Wie kann bzw. muss institutionell die Basis für eine kundenorientierte Entwicklung nachhaltig unterstützt werden? x Forschung / Praxis: Wie kann, bei knappen Ressourcen, die Verwaltung ihre eigene Praxis besser in Richtung Kundenorientierung steuern? Welches Wissen ist bei wem notwendig? Was kann die Forschung dabei leisten? Zwar werden Anliegen und Interessen von E-Government-Kunden mittlerweile stärker untersucht (z. B. [Acce02], [BoFl03], [Gare04]). Jedoch ist eine systematische Vorgehensweise zur kundenorientierten Entwicklung der E-Services bzw. ein entsprechendes Modell zur Projektsteuerung unseres Wissens bisher noch nicht entwickelt und erprobt. Dies wäre jedoch notwendig, um über die Bereitstellung von technischen Basiskomponenten hinaus auch organisatorisch die Entwicklung bzw. Verbesserung von E-Government-Dienstleistungen flächendeckend anleiten zu können. Der vorliegende Beitrag stellt deshalb ein für die Verwaltung geeignetes Modell vor, das beispielsweise im Rahmen der Initiative BundOnline 2005 implementiert werden kann.
714
3
W.-G. Bleek, R. Klischewski, H. Stach
Kundenorientierte Entwicklung von WebAnwendungen
Wie bei der anwendungsorientierten Systementwicklung generell, stellt sich auch in den meisten Web-Projekten das Problem, wie die Nutzeranliegen bereits effektiv im Entwicklungsprozess berücksichtigt werden können. Nach Sherrell & Chen [ShCh01] lassen sich internetbasierte Applikationen in vier Kategorien unterscheiden: (1) Intranets, firmeninterne Netzwerke, (2) Web-Präsenzen oder konventionelle Webauftritte, öffentliche Firmen-Webauftritte als Marketinginstrument, PR und andere Zwecke, (3) Electronic Commerce Systeme, transaktionsorientierte Business-to-Consumer-Webauftritte sowie (4) Extranets, dedizierte Business-to-Business-Netzwerke. Wir konzentrieren uns hier auf die zweite Kategorie, welche die Entwicklung von Web-Portalen einschließt. Diese Systeme bieten eine Sammlung von thematisch zusammengestellten Dienstleistungen. Die meisten EGovernment-Angebote fallen in diese Kategorie, aber auch die mittlerweile nicht mehr überschaubare Zahl von kommerziellen Angeboten, bei denen einzelne Dienstleistungen, wie z. B. Suchmaschinen (Altavista, Google, Yahoo) oder WebMail (Hotmail, Web.de, GMX), zu vollwertigen Portalen aufgebaut wurden. Im Folgenden leiten wir die kundenorientierte Entwicklung von Web-Anwendungen aus softwaretechnischer Perspektive her und diskutieren deren Herangehensweise im Hinblick auf die Übertragung in die Verwaltung.
3.1
E-Prototyping
Im Forschungsgebiet Softwaretechnik steht seit langem die Frage im Mittelpunkt, wie bei anwendungsorientierter Software Benutzer geeignet beteiligt werden können. Evolutionäre und zyklische Entwicklungsmodelle [Flo+89], [Somm01], [Abr+02]) bieten hierfür wiederkehrende Zeitpunkte an, in denen der aktuelle Entwicklungsstand mit den zukünftigen Anwendern diskutiert wird. Die systematische Einbeziehung von Anwendern wird in diesem Zusammenhang unter dem Stichwort Partizipation diskutiert [ScNa93]. Prototypen haben sich dabei als gutes Hilfsmittel erwiesen, an dem Entwicklungsentscheidungen und deren Auswirkungen diskutiert werden können [Floy84], um so einen Lernprozess auf beiden Seiten zu befördern. Der damit in Zusammenhang stehende Entwicklungsprozess wird als Prototyping bezeichnet. Bei der Entwicklung von web-basierten Anwendungen stellt sich eine Reihe von Problemen anders bzw. neu, und Annahmen aus dem „traditionellen“ Prototyping sind nicht zwingend richtig für die e*-Welt. Der weiterentwicklete Ansatz des EPrototyping ([Ble+02a], [Ble+02b], [Jee+03]) trägt den Besonderheiten der Entwicklung von Web-Anwendungen Rechnung. Dabei stützen wir uns auf einen zyklischen Entwicklungsprozess nach Floyd, der aus den Schritten „Projekt/ Versionsetablierung“, „Konstruktion“, „Versionsfreigabe“ und „Nutzung“ besteht.
Neues Steuerungsmodell für E-Government-Dienstleistungen
715
Diese haben wir integriert mit den Prototyping-Schritten „Auswahl des Funktionsumfangs“, „Konstruktion“, „Evaluation“ und „Entscheidung über weitere Verwendung“ (Abb. 1). Interessengruppen Arena
Entwickler Arena Revisionsetablierung D1/P1 Steuerungsgruppe
weitere Verwendung P4
E-Mail
Konstruktion
(inhouse and external) Developers
Call Center ...
P3
D2/P2
Foren
Bug Tracker
AnwenderGruppen Anwender
iMac
Versionsfreigabe D3
Anwendung D4
Anwender Arena D1-D4: Entwicklungsschritte in jedem Zyklus (nach STEPS) P1-P4: Prototyping Schritte
Entwicklungszyklus 1
Enwicklungszyklus 2
Entwicklungszyklus n
Zeit
Abbildung 1: Der E-Prototyping-Prozess
Die teilnehmenden Organisationen und Personen betrachten wir mit Hilfe eines Akteursmodell, in dem wir Rollen genauer herausstellen, die im Setting einer
716
W.-G. Bleek, R. Klischewski, H. Stach
Web-Anwendung auftreten. Das Feld, in dem die Akteure agieren, unterteilen wir in die folgenden Arenen: x In der Entwickler-Arena sind die Akteure zusammengefasst, die mit der Entwicklung der späteren Web-Anwendung beschäftigt sind. Hierzu zählen neben klassischen Software-Entwicklern nun zusätzlich z. B. Screen-Designer, die grafische Gestaltung liefern, und Redakteure, die dem Medium angemessene Texte produzieren. Andere Mitglieder dieser Arena sind Vertreter der Organisationen, deren Produkte eingesetzt werden, wie z. B. Datenbanken, Applikations- und Webserver. Die Aufgabe der Akteure in der Entwickler-Arena ist es, eine geeignete Version für die spätere Anwendung zu konstruieren. Im Entwicklungsprozess für Web-Anwendungen treten neue Rollen in Erscheinung, die bei klassischen Software-Projekten bisher nicht im Vordergrund standen. Dazu zählen z. B. Designer und Lieferanten von Inhalten (Content), aber auch freiwillige Nutzer. Eine wichtige neue Rolle nimmt der Bereitsteller (Provider) von Hardware, Standard-Software und Internet-Anbindung ein, der bei WebAnwendungen im Allgemeinen unumgänglich ist. x In der Anwender-Arena sind die verschiedenen Gruppen von Personen zusammengefasst, die die bereitgestellte Applikation anwenden. Die von außen an die Organisation herantretenden Anwender von Web-Dienstleistungen lassen sich als eine sehr heterogene Gruppe charakterisieren, d. h. in vielen Anwendungskontexten müssen Personen bedient werden, die sowohl sehr wenig Fachwissen über die Anwendung haben als auch solche, die sich besser als professionelle Anwender charakterisieren lassen. Im Allgemeinen sind diese Anwender eine Gruppe von unbekannten Personen, die trotz ihrer Nutzung nur teilweise bekannt werden. Die Anwender haben die Eigenschaft von Kunden, d. h. sie nutzen eine Dienstleistung nur so lange, wie sie ihren Ansprüchen gerecht wird. Gibt es einen anderen Anbieter, der eine ähnliche Anwendung zur Verfügung stellt, wird verglichen, gefordert und ggf. gewechselt. Darüber hinaus gibt es die Anwender in der bereitstellenden Organisation. Diese sind alle bekannt und erreichbar. Aber auch hier liegen unterschiedliche Profile in der Nutzung zugrunde. In der Anwender-Arena finden wir deshalb typischerweise eine sehr heterogene Personengruppe vor. „Stille“ Anwender, institutionelle Anwender, Anwender unterschiedlicher Aus- und Vorbildung, sowie aktive Anwender sind Beispiele für die Verschiedenartigkeit dieser Gruppe. Im Zentrum dieser Arena steht die Nutzung der Web-Anwendung. Je nach Charakter der konkreten Anwender kann Feedback über unterschiedliche Kanäle gesammelt werden. Bewährt haben sich insbesondere: Help-Desk, E-Mail, Diskussionsforen, Call-Center sowie die statistische Auswertung des IT-Betriebs (Seitenabrufe etc.). Für das E-Prototyping entscheidend ist, die Möglichkeiten zur Rückmeldung vielfältig, einfach und möglichst unmittelbar an der Nutzungssituation bereitzustellen. x In der Interessengruppen-Arena finden sich Vertreter aus den verschiedenen beteiligten Organisationen wieder, die für die Entwicklung einer Web-
Neues Steuerungsmodell für E-Government-Dienstleistungen
717
Anwendung relevant sind. Hierzu zählt das Management der initiierenden Organisation, Vertreter der Vertragspartner (z. B. Inhaltslieferanten), Vertreter der zukünftigen Nutzergruppen (z. B. Betriebsrat). Ihre Aufgabe ist es, über den Umfang einer ersten bzw. folgenden Version zu entscheiden. Im Folgenden fließen dann Erfahrungen aus der Nutzung in die Bewertung der aktuellen Version ein und werden als Grundlage für die Entscheidung in der Interessengruppen-Arena weiter verwendet, wenn es um eine Folge-Version geht. Die Mitglieder der drei Arenen nehmen eine jeweils eigene Sicht auf die Software ein. So sind z. B. die Software-Entwickler häufig daran interessiert, ihre bevorzugte Technologie einzusetzen oder die Screen-Designer legen Wert auf ein ausgefallenes Design. Aus der Gruppe der Anwender wird vielfach die Erwartung geäußert, dass neue Versionen und speziell Fehlerbehebungen zügig verfügbar gemacht werden. Ganz anders sind die Zielsetzungen von Vertretern der Interessengruppen-Arena. Dem Auftraggeber und dem Management steht ein Return-onInvestment im Vordergrund, dem Benutzervertreter womöglich die Benutzbarkeit der Software und die damit verbundenen Freiheitsgrade. Das Vorgehensmodell des E-Prototypings sieht folgenden Prozess vor: In der Steuerungsgruppe wird über den Funktionsumfang der Software entschieden. Für eine erste Version wird eine Teilmenge der Funktionen als „Kernsystem“ [Kra+97] bestimmt. Der Auftrag an die Entwickler wird erteilt, dieses Kernsystem mit den angemessenen Technologien zu konstruieren. Innerhalb eines kurzen Zeitraums (ca. 3-6 Monate) wird eine Version erstellt und für die Anwendung freigegeben. In der Anwender-Arena findet die Nutzung der Software-Version statt und Feedback über die Nutzung wird über verschiedene Kanäle gesammelt. Die Auswertung des Feedbacks wird in einem nächsten Schritt der Steuerungsgruppe zugeführt. Diese befindet bei der nächsten Version darüber, welche Teilvorhaben in der nächsten Version zusammengefasst werden. Die Vorteile des E-Prototyping-Prozesses für die Entwicklung von Web-Anwendungen sind vor allem folgende: x Systematisch gesammeltes Feedback ermöglicht, aktuelle und stimmige Anforderungen zu ermitteln und an die Gestalter und Konstrukteure zu übermitteln. x Kurze Entwicklungszyklen unterstützen die Berücksichtigung der gerade bei Web-Projekten häufigen Änderungen der Anforderungen und ihre Umsetzung in regelmäßige Releases. x Wissenslücken aufzeigt und Know-how unter den Akteuren verbreiten. Mit Hilfe dieses Vorgehensmodells kann ein besonderes Problem, nämlich dass Anforderungen der Web-Anwender erst im Verlauf deutlich werden, frühzeitig und kontinuierlich adressiert werden. Von einem Modell, das bereits in der Praxis genutzt wurde, um insbesondere die Effektivität der Softwareentwicklung zu verbessern (vgl. [Pap+01], [Flo+04]), wird im Folgenden ausgegangen, damit ein
718
W.-G. Bleek, R. Klischewski, H. Stach
angemessener Prozess für die kundenorientierte Entwicklung von E-GovernmentDienstleistungen konzipiert werden kann.
3.2
Übertragung auf Verwaltungsdienstleistungen
Beim Perspektivenwechsel von der Softwaretechnik zur Entwicklung von EGovernment-Angeboten ist vor allem zu beachten, dass die Verwaltungsakteure als Adressaten der Vorgehensweise sich nicht primär als Entwickler verstehen, sondern vielmehr von der Perspektive von Projektmanagement und Interessengruppen aus Anstöße zur Verbesserung liefern wollen. Aus diesem Grund ist der oben eingeführte Begriff E-Prototyping (der bei IT-Experten unmittelbar eine Reihe von Assoziationen weckt) nicht weiter hilfreich, und im nachfolgenden Abschnitt wird diesem Perspektivenwechsel entsprechend Rechnung getragen. Bei der Entwicklung einer E-Government-spezifischen Vorgehensweise sind im Vergleich zum Web-Engineering darüber hinaus weitere Besonderheiten zu berücksichtigen (zu den Besonderheiten der Verwaltung siehe z. B. [Lenk99], [Len+02]): x Der Fokus liegt nicht auf der Entwicklung von funktionsorientierten Softwarekomponenten, sondern von internetbasierten Softwareanwendungen, die einen aus der sozialen Welt begründbaren Nutzen für Anwender darstellen. x E-Government-Services müssen (jeweils abhängig von Gegenstand und Art der Leistung) das gesamte Spektrum zwischen kleineren Zielgruppen mit bekannten Nutzern und nicht näher eingrenzbaren Nutzergruppen (ggf. Gesamtbevölkerung) abdecken. x Der Inhalt von E-Government-Leistungen ist nur in den wenigsten Fällen einfach standardisierbar: sachgerechte Information und Bearbeitung (Transaktion) erfordert häufig individuelle Fallunterscheidungen bzw. Einzelfallentscheidungen, weswegen sich mehr oder weniger große Prozessanteile bei der Bearbeitung von Bürgeranliegen nicht automatisieren lassen. x Im Vergleich zu E-Services im kommerziellen Bereich unterliegen Dienstleistungen im E-Government höheren Anforderungen hinsichtlich Sicherheit, Datenschutz und Gesetzeskonformität. x Die Anwendungswelt von E-Government-Services ist durch eine vergleichsweise hohe Regelungsdichte und eine große Zahl organisierter Akteure (Verbände) gekennzeichnet. x Die vielfältigen Nutzendimensionen des Verwaltungshandelns bei gleichzeitig fehlender Tradition der wirtschaftlichen Bewertung erschweren die Ausrichtung der Dienstleistungsentwicklung an Wirtschaftlichkeitsüberlegungen. x Die technischen Grundlagen für E-Services werden in hohem Maß durch Outsourcing von IT-Dienstleistungen entwickelt und bereitgestellt, wodurch die Steuerungsfähigkeit der Verwaltung zusätzlich erschwert ist.
Neues Steuerungsmodell für E-Government-Dienstleistungen
719
Vor diesem Hintergrund skizzieren wir im Folgenden eine Vorgehensweise, die die Steuerungsfähigkeit von E-Government-Projekten verbessert und dabei eine systematische Ausrichtung auf die Nutzer der Online-Angebote ermöglicht.
4
Neues Steuerungsmodell für E-GovernmentProjekte
Der Begriff „neues Steuerungsmodell“ verweist sowohl auf die Ebene der Steuerung von Einzelprojekten als auch auf die Ebene der institutionellen Verankerung von E-Government-Projektsteuerung. Basierend auf den Erkenntnissen und Erfahrungen der Softwaretechnik sowie unter Berücksichtung der Besonderheiten der Verwaltung skizzieren wir eine Vorgehensweise für die Entwicklung von EGovernment-Dienstleistungen, die neben den bisher Beteiligten darüber hinaus den Dienstleistungsnehmern eine aktive Rolle einräumt. Mit dem bewussten Rekurs auf die Konzepte des New Public Management soll betont werden, dass eine Orientierung am Neuen Steuerungsmodell notwendig ist, um die Professionalisierung der Entwicklung von E-Government-Dienstleistungen sowohl auf der Projektebene als auch auf der Ebene der Institutionen zu befördern.
4.1
Vom New Public Management zur Kundenorientierung
Die Prinzipien des Neuen Steuerungsmodells (NSM) sind im Wesentlichen (vgl. [KGSt93], [KGSt94], zitiert nach www.olev.de/n/nsm.htm): x Steuern statt Rudern: Leistungen sind zu gewährleisten und zu kontrollieren, nicht alles ist selber zu machen. x Resultate statt Regeln: Orientierung an Ergebnissen und Kosten statt Fixierung auf Verfahren und Regeln. x Eigenverantwortlichkeit statt Hierarchie: klare Zuweisung und ungeteilte Verantwortung für die Ressourcen. x Wettbewerb statt Monopol: Ermittlung von Kosten und Qualitäten öffentlicher Leistungen im Vergleich zu anderen Anbietern. x Motivation statt Alimentation: Neubestimmung der „Ressource Personal“, die weit über eine Änderung des Dienstrechts hinausgeht. In diesen Prinzipien ist von Kundenorientierung noch keine Rede, was auf die primäre Motivation des NSM zur Verbesserung der Leistungsfähigkeit der Verwaltung bei gleichzeitiger Kostenreduktion zurückzuführen ist. In der Verwaltungsliteratur wird jedoch übereinstimmend die „Einbeziehung der Bürger in den Modernisierungsprozess“ als wesentliches Element dargestellt, dessen Umsetzung
720
W.-G. Bleek, R. Klischewski, H. Stach
in die Praxis aber (zunächst) stark vernachlässigt wurde [BoKi97a]. Die Charakterisierung der Verwaltung als Dienstleister greift zu kurz, verstünde man darunter nur einen Akteur, der seine Leistung am Bedürfnis des Kunden ausrichtet – schließlich tritt die Verwaltung dem Bürger z. B. auch als Ordnungsmacht gegenüber und verfolgt zudem weitere Ziele, die sich am Gemeinwohl orientieren (das dem Anliegen des Einzelnen ggf. widersprechen kann). Dennoch ist der Zusammenhang von (Dienst-)Leistung, Kundenorientierung und NSM essentiell: die Orientierung an Ergebnissen und Kosten (statt Fixierung auf Verfahren und Regeln) sowie die Ermittlung von Kosten und Qualitäten öffentlicher Leistungen (gerade auch im Vergleich zu anderen Anbietern) sind nur sinnvoll und möglich, wenn die Verwaltung den Bürgern, Unternehmen und anderen Interaktionspartnern auf „Augenhöhe“ [BoKi97b] begegnet – ein Perspektivenwechsel, der nicht nur bei Verwaltungsmitarbeitern, sondern auch bei den Adressaten ihrer Leistungen ein Lernprozess erfordert (vgl. ebd.). Ziel der hier skizzierten Vorgehensweise ist deshalb, alle Beteiligten bei der Entwicklung und Nutzung von E-Government-Dienstleistungen als Partner in einen systematischen Zusammenhang zu bringen, der den technischen Entwicklern und Prozessgestaltern aktuelle nachfrageorientierte Vorgaben liefert, den Nutzern umfangreiche Möglichkeiten zur Artikulation ihrer Nutzungsanliegen bietet und der Verwaltung eine strategische und gleichzeitig kleinschrittige Steuerung der internet-basierten Dienstleister-Kunden-Beziehung sowie der entsprechenden Allokation von Ressourcen ermöglicht.
4.2
Vorgehen bei der Entwicklung von web-basierten E-Government-Dienstleistungen
Im Mittelpunkt des neuen Steuerungsmodells für die Entwicklung von E-Government-Dienstleistungen steht die Verwaltungsleistung, die bereits in vielen Fällen ohne technische Unterstützung existiert und im Rahmen des technischen Fortschritts und unter Ausnutzung von Synergieeffekten über einen zusätzlichen Kanal – in vielen Fällen das Web – angeboten werden soll. Dabei besteht der E-Service aus einer Reihe verschiedenartiger Bestandteile. Neben den Software-Komponenten und einer für den Betrieb erforderlichen IT-Infrastruktur gehören dazu die Inhalte, die verfügbar gemacht werden sollen, sowie die notwendigen Einrichtungen für Service rund um den neuen Kanal (Help-Desk, Support etc.). Das hier vorgestellte Modell (siehe Abb. 2) besteht aus einem mehrfach zu durchlaufenden Zyklus mit drei Abschnitten: Planung, Konstruktion und Anwendung. Im Zentrum dieser Abschnitte steht die Verwaltungsleistung, an der sich die EService-Implementation ausrichtet. Der Übergang zwischen den Abschnitten wird über Artefakte koordiniert, die jeweils die Grundlage für den folgenden Abschnitt sind. Die Entwicklung betrifft dabei sowohl die Verwaltungsleistung als auch die aufzubauenden bzw. weiter zu entwickelnden IT-Leistungen, da im Entwicklungs-
Neues Steuerungsmodell für E-Government-Dienstleistungen
721
prozess Wechselwirkungen unausweichlich sind. Im Folgenden werden die Abschnitte erläutert sowie der essentielle Feedback-Prozess detailliert beleuchtet:
e-ServicePlanung
Übergeordnete Behörden Entscheider
Verband Interessengruppen
Nutzervertreter
R et ev ab is lie ion ru s ng
Prozessmodellierer
Software-Komponenten IT-Infrastruktur Web-Content User-Interfaces Support (Help Desk, ...) Schnittstelle zum Verwaltungsprozess
Feedback Mitarbeiter
Bewertung & Zielvorgaben
Verwaltungsleistung
Prozessgestaltung
Sachbearbeiter Behörde
Auswertung IT-Betrieb
y y y y y y
r ze ut
e-ServiceKonstruktion
N ck
Screen-Designer
ba ed Fe
on ati alu v E
Steuerungsgruppe
Foren
E-Mail
... Call Center
Diensterbringung
iMac
Redakteur
Sachbearbeiter Behörde
Versionsfreigabe
externe Software-Entwickler
Software-Entwickler
e-ServiceAnwendung
Unternehmen iMac
Bürger
Abbildung 2: Steuerungsmodell für die kundenorientierte Entwicklung von E-GovernmentDienstleistungen (innerer Kreis: Entwicklungszyklus der Verwaltungsleistung)
E-Service-Planung Die Initiierung des kundenorientierten Entwicklungsprozesses beginnt im Abschnitt der E-Service-Planung. Auf der Grundlage von Zielvorgaben und einer ersten Bewertung wird von der Steuerungsgruppe eine Projektetablierung durchgeführt. Bereits bekannte relevante Personenkreise können in die Steuerungsgruppe einbezogen werden, um den Umfang einer ersten Systemversion zu bestimmen und eine Planungsgrundlage für den nächsten Abschnitt zu erstellen. Zu den Personen gehören Vertreter von Entscheidungsträgern aus übergeordneten Behörden und von Verbänden und Interessengruppen genauso wie Vertreter aus
722
W.-G. Bleek, R. Klischewski, H. Stach
bereits im Vorfeld bekannten Nutzergruppen. Zielvorgaben aus der Politik und Verwaltung werden von der Arbeit der Steuerungsgruppe berücksichtigt. Tritt der Entwicklungsprozess wiederholt in die E-Service-Planung ein, dienen die zusätzlich gewonnenen Informationen über die Nutzung (s. u.) als Grundlage für weitere Entscheidungen. Diese Erfahrungen können auch dazu führen, dass neue Mitglieder in die Steuerungsgruppe aufgenommen werden (bisher unbeachtete Nutzergruppen oder Interessenvertreter) oder bisherige ausscheiden. Ergebnis ist jeweils eine Revisionsetablierung (Etablierung einer Folgeversion), die in einer Systemspezifikation festgehalten wird und auf dem existierenden System aufsetzt. E-Service-Konstruktion Das durch die E-Service-Planung mithilfe der Steuerungsgruppe etablierte Projekt (bzw. die etablierte Revision) geht in die E-Service-Konstruktion und wird in Zusammenarbeit mit Behördenvertretern, die Fachwissen über den relevanten Prozess einbringen können, umgesetzt. Notwendiges Fachwissen auf den vielfältigen technischen Gebieten (Datenintegration, Sicherungsmechanismen, Verteilung, usw.) wird in der Konstruktion durch Spezialisten, z. B. Software-Entwickler, eingebracht. Der Besonderheit von E-Government-Projekten, dass Softwareentwickler hier zumeist externe Mitarbeiter sind, trägt der Prozess dadurch Rechnung, dass er ausreichend kleinschrittig vorgeht und die notwendigen Kommunikationsund Koordinationsmittel einbezieht. Eine dem Medium gerechte Umsetzung stellen Vertreter aus den entsprechenden Professionen sicher (z. B. Screen-Designer und Redakteur). Im Abschnitt der Konstruktion findet ein dem Entwicklungsgegenstand angemessener softwaretechnischer Entwicklungsprozess statt. Empfehlenswert sind z. B. agile Methoden, die sich besonders gut für kurze Zyklen eignen. Erreicht der E-Service den in der Etablierung festgelegten Umfang, der im ersten Durchlauf dem Kernsystem (s. o.) entspricht, wird die Version freigegeben und steht somit den Bürgern bzw. anderen Zielgruppen zur Nutzung bereit. Die Einführung von Informationstechnik kann Rückwirkungen auf den existierenden Verwaltungsprozess haben. In diesem Sinne umfasst die E-Service-Konstruktion ebenfalls die (Weiter-)Entwicklung des Verwaltungsprozesses und die damit verbundene Anpassung in den ausführenden Institutionen. Die Einsatzvorbereitung muss deshalb nicht nur die Erreichbarkeit und Nutzbarkeit des neuen Kanals bzw. der neuen Dienstleistung für Endanwender ermöglichen (dies ist speziell für web-basierte Anwendungen relativ leicht umsetzbar), sonder muss auch der Anbindung an die entsprechenden Sachbearbeiter in der Behörde gerecht werden. E-Service-Anwendung Personen aus der adressierten Nutzergruppe können von nun an den E-Service anwenden und so ihr Kundenverhältnis zum Dienstbetrieb über einen neuen Kanal ausüben. Auf Seiten der Behörde ist der zusätzliche Kanal bzw. die neue Dienstleistung in den Arbeitsablauf integriert worden. Im Rahmen der E-Service-
Neues Steuerungsmodell für E-Government-Dienstleistungen
723
Nutzung fällt vielfältiges Feedback auf beiden Seiten der Nutzung an. Anwender können dafür die bereitgestellten und (prominent beworbenen) Feedback-Medien (z. B. Diskussionsforen) verwenden. Darüber hinaus ist es sinnvoll, die Nutzung des E-Service im Rahmen der durch Datenschutzbestimmungen gegebenen Möglichkeiten technisch auszuwerten. Hier können wertvolle Informationen über Abbrüche, Fehlersituationen und Nutzungsfrequenz gewonnen werden. Auf der Seite des Dienstanbieters (der Behörde) können ebenfalls Rückmeldungen über die Nutzungserfahrungen bei den betroffenen Behördenmitarbeitern gesammelt werden. Feedback aus beiden Gruppen und die Auswertung des IT-Betriebs zusammen fließen als verdichtete Informationen in eine Evaluation ein, die dem nächsten E-Service-Planungs-Abschnitt als Grundlage dient. Die Rohdaten werden zu einem kontinuierlich erstellten Evaluationsdokument mit quantitativen und qualitativen Information verarbeitet, welches der Steuerungsgruppe eine Grundlage für die Entscheidungen zur Weiterentwicklung liefert. Im Rahmen des Einsatzes des E-Services schärft sich das Verständnis über die Nutzergruppe derart, dass über Quantität und Ausprägung der Nutzer sicherere Aussagen gemacht werden können. Der Aufgabe der Feedback-Auswertung kommt deshalb eine besondere Rolle zu. Die sorgfältige Beschäftigung mit den Nutzern sowohl auf der Seite der Bürger als auch auf der Seite der Behördenmitarbeiter ermöglicht es, ein ausdifferenziertes Bild vom Anwenderkreis zu erarbeiten, welches die Entscheidungen über Weiterentwicklungen erleichtern. Feedback-Auswertung als Schlüsseltätigkeit Das Einholen, Beantworten und Bewerten von Feedback über die E-GovernmentDienstleistung wird zu einer Schlüsseltätigkeit im Entwicklungsprozess. Dabei ist es notwendig, die verschiedenen Kanäle passend der vermuteten Nutzergruppe angemessen auszuwählen. Es bieten sich spezielle E-Mail-Adressen, E-MailListen, (web-basierte) Diskussionsforen, Community Systeme usw. an. Dabei ist zu beachten, dass alle auf Seiten der Bürger angebotenen Kanäle nicht nur betrieben werden, sondern auch regelmäßige Reaktion zeigen müssen. Dies kann z. B. durch Online-Redakteure geschehen, die sich aktiv um Antworten auf gestellte Fragen kümmern und wiederkehrende Fragen und Antworten sammeln und separat zur Verfügung stellen. Die Qualität der Rückmeldung von Seiten der Anwender wird maßgeblich dadurch bestimmt, in welcher Qualität die Antworten im Feedback-Medium sind. Es ist zu beachten, dass die Kommunikation der Verwaltung mit dem Bürger besonderen rechtlichen Rahmenbedingungen unterliegt und dass besonderes Augenmerk auf den datenschutzrechtlich korrekten Umgang mit dem Nutzerfeedback gelegt werden muss. Unabhängig von den angebotenen Kanälen sollte die Behandlung der Rückmeldungen gleichartig vorgenommen werden, d. h. Eingänge über unterschiedliche Medien sollten mit derselben Sorgfalt bearbeitet werden. Dies umfasst insbesondere die Beantwortung bzw. Bereitstellung von häufig gestellten Fragen (FAQ)
724
W.-G. Bleek, R. Klischewski, H. Stach
zusammen mit Antworten. Hier bietet sich eine Vorgangsverfolgung (Stichwort Help-Desk mit sog. „Trouble-Ticket“) an. Bei der gesamten Organisation des Feedbacks muss im Auge behalten werden, dass E-Government-Dienstleistungen vielfach an zwei Enden durch Nutzergruppen bedient werden. Viele Verfahren erfordern beispielsweise, dass nach der Einsendung durch den Antragsteller Sachbearbeiter in der Behörde fallspezifische Entscheidungen treffen. Die Verwaltungsmitarbeiter dürfen bei der E-ServiceEntwicklung deshalb nicht vergessen werden. Sie sind Nutzer einer Software und bedürfen derselben Betreuung. Indirektes Feedback kann insbesondere bei Web-Anwendungen zusätzlich durch Auswertung der technischen Nutzung gesammelt werden. Log-Dateien bieten Auskunft über die Häufigkeit der Anwendung, Navigationspfade und Abbrüche. Diese Form der Auswertung sollte bereits während der Konstruktion berücksichtigt werden, um entsprechende technische Vorkehrungen zu treffen (z. B. SessionVerwaltung, eigene (anonyme) Nutzungszähler, interne Anwendungen für die Auswertung). Bei allen Auswertungen sind die geltenden Datenschutzbestimmungen zu berücksichtigen und ggf. streng auszulegen. Eine transparente Dokumentation der Auswertung gegenüber den Anwendern hilft Vertrauen aufzubauen. Neben der inhaltlichen Auswertung des gesammelten Feedbacks sind äußere Eigenschaften von Interesse, um die Feedback-Kanäle der Zielgruppe angemessen zu gestalten. Die Bewertung von Feedback sollte deshalb zusätzlich auf den Ebenen Kanal, Frequenz und Thema erfolgen. Welche Kanäle werden akzeptiert bzw. vorwiegend gewählt? Wie häufig werden dieselben Fragen gestellt? Welche Inhalte stehen im Mittelpunkt der Anfragen bzw. Rückmeldungen? usw. Diese Fragen helfen, die Gesamtheit der gesammelten Nutzungsdaten für Entscheidungen im Bereich der Steuerungsgruppe vorzubereiten. Die Kundenorientierung (vgl. 3.1) dieses Entwicklungs-Prozesses macht sich an mehreren Stellen fest. Zum einen bietet das Vorgehen die Möglichkeit, mit Hilfe von kurzen Zyklen geeignete zügige Versionsfortschritte umzusetzen. Nutzer bekommen in regelmäßigen Abständen neue Versionen zur Verfügung gestellt, die kundenorientierte Änderungen reflektieren. Zum anderen ergibt sich über die Auswertung der Nutzung und die Kommunikation mit den Nutzern maßgeblicher Einfluss auf die Gestaltung der nächsten Version. Beteiligung der verschiedenen Nutzer- bzw. Interessengruppen in der Steuerungsgruppe ermöglicht diesen direkten Einfluss auf Umfang und Zeitrahmen weiterer Versionen. Eine Version umfasst dabei sowohl die spezifische Software für die Verwaltungsdienstleistung als auch die Verwaltungsleistung selbst, die in diesem Entwicklungsprozess ggf. Änderungen widerfährt. Auslöser für Änderungen auf verschiedenen Seiten ist die im Prozess angelegte Kommunikation, die zu einem allseitigen Lernprozess führt.
Neues Steuerungsmodell für E-Government-Dienstleistungen
4.3
725
Anwendung des Steuerungsmodells
Das hier skizzierte neue Steuerungsmodell zur kundenorientierten Entwicklung von E-Government-Dienstleistungen adressiert die oben aufgeworfenen handlungsleitenden Fragen (Abschnitt 2.2): x Den als Dienstleister agierenden Verwaltungen wird eine Herangehensweise angeboten, wie sie ihre Angebote im Hinblick auf den Kundennutzen in einem zyklischen Prozess nachhaltig verbessern können. Insbesondere für die Konstruktion und Anwendung von E-Service wird aufgezeigt, wie organisatorische und technische Maßnahmen jeweils ineinander greifen müssen und wann welcher Steuerungsbedarf besteht. x Das Steuerungsmodell kann jederzeit im Rahmen einzelner Projekte angewandt werden. Für größere und verteilte Verwaltungen mit einer Vielzahl von E-Government-Projekten bietet es zudem einen übergreifenden Bezugsrahmen, um auch institutionell die Basis für eine kundenorientierte Entwicklung von EGovernment-Dienstleistungen nachhaltig zu unterstützen: durch geeignete zusätzliche Infrastrukturkomponenten (u. a. Feedback-Kanäle, Kommunikationsplattformen, Evaluationsinstrumente), Auswertung und Vermittlung von BestPractices, Verwaltungsrichtlinien, Trainings von Verwaltungsmitarbeitern und Beratern, entsprechende Vertragsgestaltung mit IT-Zulieferern etc. x Die Entwicklung von E-Government-Dienstleistungen ist gekennzeichnet durch die Beteiligung vieler Akteure sowie durch knappe Ressourcen und vergleichsweise geringe technische Kompetenz auf Seiten der Verwaltungen. Das hier skizzierte Steuerungsmodell trägt diesem Rechnung durch einen leichtgewichtigen Entwicklungsprozess (d. h. kurze Zyklen, überschaubare Arbeitspakete, relativ geringe Investitionen), der die für die Dienstleistung verantwortliche(n) Verwaltung(en) ins Zentrum stellt, um von da aus die eigene Praxis besser in Richtung Kundenorientierung zu steuern. Das Modell, das auf jahrelange Forschung und Praxis in der Softwaretechnik zurückgeht, macht deutlich, welches Wissen (über Dienstleistungsprozess, Kundenanliegen, Technikunterstützung) für die Steuerungsfähigkeit insgesamt und bei den einzelnen Akteuren in den verschiedenen Schritten notwendig ist. Über den initialen Transfer und die domänenspezifische Weiterentwicklung dieses oder anderer Vorgehensweisen hinaus ist die E-Government-Forschung nun selbst gefordert, die praktische Relevanz solcher Ansätze im Hinblick auf „Kundenorientierung“ (hier: Verwaltungen) empirisch zu überprüfen, kritisch zu reflektieren und durch praxisorientierte Vorschläge weiter zu unterstützen. Die Elemente des vorgestellten neuen Steuerungsmodells für einen E-Government Entwicklungsprozess orientieren sich am etablierten E-Prototyping und den empirischen Erfahrungen, die u. a. im Projekt hamburg.de gesammelt wurden. Basierend auf den Erfahrungen in Einzelprojekten greift der hier vorgestellte Prozess die wesentliche Rolle des Feedbacks auf und adressiert mit den bereits erprobten
726
W.-G. Bleek, R. Klischewski, H. Stach
Elementen das besondere Anwendungsfeld der Verwaltungsleistungen. Die Prinzipien des NSM (vgl. 4.1) sind dabei auch handlungsleitend für das Steuerungsmodell zur kundenorientierten Entwicklung von E-Government-Dienstleistungen: x Steuern statt Rudern: Aus Sicht der Verwaltung als E-Government-Anbieter ist entscheidend die Steuerung und Supervision des gesamten Entwicklungszyklus (Abb. 2) – die einzelnen Aktivitäten darin können bzw. müssen von externen Partnern übernommen werden. x Resultate statt Regeln: Die weitere Planung sollte sich stets flexibel an Ergebnissen und Kosten der einzelnen Entwicklungsabschnitte orientieren. x Eigenverantwortlichkeit statt Hierarchie: Das Steuerungsmodell definiert klare Übergänge zwischen den Entwicklungsabschnitten, innerhalb derer die beteilgten Akteure eigenverantwortlich agieren sollten. Die Gesamtsteuerung erfolgt durch periodische Evaluation und Zielvorgaben, nicht durch einzelne Direktiven im Projektalltag. x Wettbewerb statt Monopol: Die Orientierung am „Online-Kunden“, d. h. am Bürger oder Unternehmen als Web-Anwender, koppelt Erkenntnisse über den relativen Nutzen (im Vergleich zu anderen Angeboten oder Kanälen) in den Entwicklungsprozess zurück. Auch innerhalb der Verwaltung sollte im Rahmen des Steuerungsmodells ein Wettbewerb um „Best Practice“ stattfinden. x Motivation statt Alimentation: Eine positive und konstruktive Grundhaltung der Beteiligten (sowohl hinsichtlich neuer Technologien als auch der Dienstleistungsbeziehung zwischen öffentlicher Verwaltung und ihren Partnern) kann nicht immer vorausgesetzt werden. Das vorgestellte Steuerungsmodell begünstigt diese Grundhaltung und kann so zu einer systematischen Entfaltung der professionell vorhandenen Potenziale beitragen. Anwendungsfeld für das oben skizzierte Steuerungsmodell kann jede Organisation sein, die den Entwicklungsprozess von E-Government-Dienstleistungen systematisch und nachhaltig am Nutzen ihrer „Kunden“ orientieren will (wie z. B. die Initiative BundOnline). In jedem Fall wären zunächst Pilotvorhaben vorzusehen (einschließlich deren Auswertung und Aufbereitung als Best-Practice-Beispiele) für ausgewählte Dienstleistungen und auch für die Weiterentwicklung und Präsentation des Dienstleistungsportfolios insgesamt. Positive Effekte sind sowohl für die betreffenden Dienstleistungen zu erwarten als auch auf der Ebene des Organisationslernens, d. h. die Beförderung einer Organisationskultur, die „Kundenorientierung“ bei der Durchführung von E-Government in der Praxis selbstverständlich berücksichtigt. Zusammenfassend lässt sich feststellen, dass die Kundenorientierung im Rahmen von E-Government-Projekten und -Initiativen zwar erheblich an Bedeutung gewonnen hat, dass aber über Umfragen hinaus noch keine Instrumente für die Praxis vorliegen, um die Anliegen der E-Government-Nutzer im Rahmen der Entwicklung von Online-Dienstleistungen effektiv zu berücksichtigen. Mit dem hier
Neues Steuerungsmodell für E-Government-Dienstleistungen
727
vorgestellten neuen Steuerungsmodell, das auf den jahrelang gewachsenen Erkenntnissen und Erfahrungen der Softwaretechnik beruht, werden neue Herangehensweisen zur Verbesserung der Kundenorientierung von E-GovernmentDienstleistungen eröffnet bzw. systematisch zusammengeführt. Die Auswertung von Pilotvorhaben muss dabei noch zeigen, worin ggf. Probleme bei der Umsetzung in den einzelnen Projektabschnitten liegen und ob die gewählten Maßnahmen tatsächlich geeignet sind, das Bewusstsein der am Entwicklungsprozess Beteiligten im Hinblick auf Kundenorientierung zu schärfen.
Literatur [Abr+02] Abrahamsson, P.; Salo, O.; Ronkainen, J.; Warsta, J.: Agile software development methods. Review and analysis. VTT Electronic, Espoo, No 478, 2002. [Acce04] Accenture: Was-will-der-Buerger.de – Online-Angebot und -Nachfrage im öffentlichen Sektor, o.O., Mai 2004. [Acce02] Accenture: E-Government Leadership – High Performance, Maximum Value. The Government Executive Series, o.O., 2002. [Ble+02a] Bleek, W.-G.; Jeenicke, M.; Klischewski, R.: Developing web-Based Applications through e-Prototyping. In: International Computer Software and Applications Conference, COMSAC 2002 (Oxford, England, August 26-29), Los Alamitos, CA, IEEE Computer Society, S. 609-614. [Ble+02b] Bleek, W.-G.; Jeenicke, M.; Klischewski, R.: Framing Participatory Design Through e-Prototyping. In: Binder, Greogry, Wagner (Hg.): Proceedings of the Participatory Design Conference PDC 2002, CPSR, S. 300-305. [BoKi97a] Bogumil, J.; Kißler, L.: Risiken und Chancen eines Neuen Steuerungsmodells für die lokale Demokratie. In: Bogumil, J., Kißler, L. (Hrsg.): Verwaltungsmodernisierung und lokale Demokratie. Baden-Baden: Nomos 1997, S. 9-19. [BoKi97b] Bogumil, J.; Kißler, L.: Der Staat in Augenhöhe? Durch „Kundenorientierung“ zu einem neuen Verhältnis zwischen Staat und Bürger. In: Alternative Kommunalpolitik, Heft 1, 1997, S. 55-59. [BoFl03] Both, W.; Floren, A.: Modernisierung in Wirtschaft und Verwaltung - eine Umfrage bei Berliner Unternehmen. DE-CODA GmbH/Senatsverwaltung für Wirtschaft, Arbeit und Frauen, Berlin, 2003. [BMI04] Bundesministerium des Innern (BMI): BundOnline – Basiskomponenten und Konpetenzzentren. Projektgruppe BundOnline, Berlin, Mai 2004. [Floy84] Floyd, C.: A Systematic Look at Prototyping. In: Budde, R.; Kuhlenkamp, K.; Mathiassen, L.; Züllighoven, H. (Eds.): Approaches to Prototyping. Springer Verlag, Berlin, Heidelberg 1984, S. 1-18.
728
W.-G. Bleek, R. Klischewski, H. Stach
[Flo+89] Floyd, C.; Reisin, F.-M.; Schmidt, G.: STEPS to software development with users. In ESEC ’89, Lecture Notes in Computer Science #387, Berlin, Springer, 1989, S. 4864. [Flo+04] Floyd, C.; Pape, B.; Bleek, W.-G.; Jackewitz, I.; Jeenicke, M.: Softwareentwicklung als Wissensprojekt. In: Pape, B.; Krause, D.; Oberquelle, H. (eds.): Wissensprojekte – Gemeinschaftliches Lernen aus didaktischer, softwaretechnischer und organisatorischer Sicht. Münster: Waxmann, 2004. [Gare04] Gareis, K.: Towards User-centered E-Government – Understanding Demand for Online Public Services. Proceedings Telecities & MUTEIS Conference „Urban Impacts of the Information Society“, The Hague, March 2004. [Jee+03] Jeenicke, M.; Bleek, W.-G.; Klischewski, R.: Revealing Web User Requirements through e-Prototyping, In: Proceedings of the 15th International Conference on Software Engineering and Knowledge Engineering (SEKE 03), San Francisco, USA, July 2003. [KGSt93] Kommunale Gemeinschaftsstelle für Verwaltungsvereinfachung (KGSt): Das Neue Steuerungsmodell. Begründungen. Konturen. Umsetzungen, Ber. 5, Köln, 1993. [KGSt94] Kommunale Gemeinschaftsstelle für Verwaltungsvereinfachung (KGSt): Das Neue Steuerungsmodell. Def. und Beschreibung von Produkten, Ber. 8, Köln, 1994. [Len+02] Lenk, K.; Traunmüller, R.; Wimmer, M. A.: The Significance of Law and Knowledge for Electronic Government. In: Grönlund, A. (ed.): Electronic Government – Design, Applications and Management. Idea Group, Hershey, London 2002 S. 61-77. [Lenk99] Lenk, K.: Analyse des Verwaltungshandelns als Voraussetzung für die Ausschöpfung des Potentials der Informationstechnik. In: Lenk, K. Traunmüller, R. (Hg.): Öffentliche Verwaltung und Informationstechnik. Perspektiven einer radikalen Neugestaltung der öffentlichen Verwaltung mit Informationstechnik. Heidelberg, 1999, v. Decker, S. 53-70. [Pap+01] Pape, B.; Bleek, W.-G.; Jackewitz, I.; Janneck, M.: Software Requirements for Project-Based Learning – CommSy as an Exemplary Approach. Proceedings HICSS35, 2001. [ShCh01] Sherrell, L. B.; Chen, L.-D.: The W Life Cycle Model and Associated Methodology for Corporate Web Site Development. Communications of the Association for Information Systems, 5 (7), April 2001. [ScNa93] Schuler, D.; Namioka, A. (Hrsg.): Participatory design: principles and practices. Hillsdale, NJ: Lawrence Erlbaum Ltd., 1993. [Somm01] Sommerville, I.: Software Engineering. Sixth Edition. Pearson Education Limited, England: Addison-Wesley, 2001. [Kra+97] Krabbel, A.; Wetzel, I.; Ratuski, S.: Anforderungsermittlung für Krankenhausinformationssysteme: Definition von Kernsystem und Ausbaustufen. In: Hasselbring, W. (Hrsg.): Erfolgsfaktoren Softwaretechnik für die Entwicklung von Krankenhausinformationssystemen. Krehl Verlag Münster, 1997, S. 1-8. [Zwic04] Zwick, D.: Website bund.de wenig nutzerfreundlich. In: Wirtschaftswoche, wiwo.de, Abruf am 5.6.04.
Referenzmodellierung in öffentlichen Verwaltungen am Beispiel des prozessorientierten Reorganisationsprojekts Regio@KomM Jörg Becker, Lars Algermissen, Patrick Delfmann, Björn Niehaves Westfälische Wilhelms-Universität Münster
Zusammenfassung: Die Optimierung von Geschäftsprozessen hat in den letzten Jahren auch im Rahmen der Modernisierung öffentlicher Verwaltungen mehr und mehr an Bedeutung erlangt. Im Zuge des electronic Government (eGovernment) wird über die repräsentationsorientierte Gestaltung von Internetpräsenzen hinaus die Schaffung echter Mehrwerte gefordert. Sowohl in Nutzendimensionen (bürgerseitig) als auch Kostenersparnisdimensionen (verwaltungsseitig) sind es hier vor allem voll transaktionale Prozesse, die dies zu leisten in der Lage sind. Dabei kennzeichnen sich die ca. 13.000 deutschen Kommunalverwaltungen durch ein größtenteils gleich gelagertes Aufgabenspektrum. Die zur Erbringung dieser Aufgaben erforderlichen Verwaltungsprozesse lassen potenziell hohe Strukturanalogien vermuten. Im Rahmen prozessorientierter Reorganisationsprojekte können daher Referenzprozessmodelle in ihrer Funktion als allgemeingültige Modelle normativen Charakters durch Wiederverwendung einen entscheidenden Beitrag zur Kostensenkung in der Phase der Sollmodellierung leisten. Das Projekt Regio@KomM greift diese Zielsetzung auf. Am Beispiel des dort erhobenen Prozesses zur Erteilung einer allgemeinen Lastschriftermächtigung werden die praktische Anwendbarkeit und das Nutzenpotenzial der Referenzmodellierung dargestellt und diskutiert. Schlüsselworte: eGovernment, Reorganisation, Prozessmanagement, Prozessmodellierung, Referenzmodellierung
1
Prozessorientierte Reorganisation in öffentlichen Verwaltungen
Der Leistungs- und Kostendruck auf öffentliche Verwaltungen ist in den letzten Jahren ernorm gestiegen. Einnahmenseitig ist vielerorts Stagnation oder Rückgang zu verzeichnen, der Zwang zur erheblichen Reduzierung der Kosten die Folge.
730
J. Becker, L. Algermissen, P. Delfmann, B. Niehaves
Auf der anderen Seite wird die Verwaltung mit steigenden bürger- und unternehmensseitigen Ansprüchen konfrontiert. Die verbesserte räumliche und zeitliche Verfügbarkeit von Leistungen durch eine internetbasierte Erbringung ist in anderen Bereichen, bspw. Banken oder Handel, an der Tagesordnung. Durch die gestiegenen Ansprüche auf der einen und die gesunkenen Einnahmen auf der anderen Seite sieht sich die öffentliche Verwaltung zunehmend mit einer Modernisierungs- und Leistungslücke [BuSc99] konfrontiert (vgl. Abbildung 1). Aufgabenvolumen (A) Leistungspotenzial (P)
A Modernisierungsund Leistungslücke
P 1990
1999
Abbildung 1: Modernisierungs- und Leistungslücke der öffentlichen Verwaltungen [BuSc99, S. 145]
Mithilfe des electronic Government (eGovernment) wird diese Modernisierungsund Leistungslücke zu schließen versucht [Lenk02; Falc02, S. 137f]. Jedoch können die mit diesem Konzept verbundenen Erwartungen nur dann erfüllt werden, falls internetbasiert zu erbringende Verwaltungsdienstleistungen in Form von elektronischen Bürgerdiensten sowohl entscheidende Kosten- als auch Nutzenvorteile gegenüber (reinen) Offline-Lösungen bieten [Bec+03]. Neben Informationssowie Kommunikationsdienstleistungen sind hier vor allem voll transaktionale Dienstleistungen von Bedeutung [Mil+04]. Jedoch erst durch die prozessorientierte Analyse des Verwaltungshandelns können die Optimierungspotenziale der einzelnen Dienstleistungen offen gelegt und umgesetzt werden [Lang00, S. 6]. eGovernment-Initiativen sind in Deutschland auf allen föderalen Ebenen zu finden. Insbesondere auf Kommunalebene beschäftigen sich nahezu alle ca. 13.000 deutschen Verwaltungen in verschiedenen Intensitätsgraden mit dem Thema. Die Ergebnisse reichen von der einfachen repräsentationsorientierten Gestaltung einer Webseite bis hin zur internetbasierten volltransaktionalen Erbringung komplexer Dienstleistungen. Viele der 13.000 Kommunalverwaltungen arbeiten im Rahmen ihrer eGovernment-Bestrebungen an der Lösung ähnlicher Probleme. Vor allem hinsichtlich Lösungen zur Geschäftsprozessoptimierung besteht aufgrund der gesetzlich bedingt ähnlich gelagerten Aufgabenspektren ein hohes Wiederverwendungspotenzial.
Referenzmodellierung in öffentlichen Verwaltungen
731
Referenzprozessmodelle (kurz: Referenzmodelle) können im Rahmen der Verbesserung von Verfahren und Abläufen eine wertvolle Gestaltungshilfe darstellen. In ihrer Eigenschaft als Speicher von Domänenwissen und durch ihre Allgemeingültigkeit weisen Referenzmodelle ein hohes Wiederverwendungspotenzial auf (vgl. bspw. [Sch+94, S. 92; Schü98, S. 367ff; BeSc04, S. 76ff]). Sie ermöglichen die Ausnutzung von Synergiepotenzialen und die Verringerung von Doppelarbeiten und Redundanzen. In der praktischen Anwendung gilt es, die Umsetzbarkeit und Nützlichkeit des Konzepts der Referenzmodellierung für die Domäne der öffentlichen Verwaltung zu belegen. Ziel dieses Beitrags ist es daher, die praktischen Erfahrungen bei der Anwendung der Referenzmodellierung am Beispiel des Projekts Regio@KomM und eines ausgewählten Prozesses darzustellen und zu diskutieren. Die im Zuge dieser Praxisvalidierung gewonnen Erkenntnisse können im Rahmen weiterer Referenzmodellierungsprojekte insbesondere im Bereich des eGovernment Anwendung finden. Hierzu wird im folgenden Abschnitt zunächst das Projekt Regio@KomM vorgestellt und die dem Projekt zu Grunde liegenden Fragestellungen erläutert. Diese Fragestellungen werden in den anschließenden Abschnitten aufgegriffen. In Abschnitt 3 wird erläutert, wie aus der Fülle möglicher Bürgerdienste die für eine Reorganisation bestgeeigneten ausgewählt werden können. Die Vorgehensweise bei der Istmodellierung und Schwachstellenanalyse wird in Abschnitt 4 exemplarisch anhand der Erteilung einer allgemeinen Lastschriftermächtigung beschrieben. Gegenstand des Abschnitts 5 bildet die Entwicklung des darauf aufbauenden Referenzprozessmodells. Der Beitrag schließt mit einer Zusammenfassung und einem Ausblick auf weitere Forschungsmöglichkeiten in Abschnitt 6.
2
Das Projekt Regio@KomM
Das Projekt Regio@KomM steht für „Realisierung von Electronic Government in Organisationen der Kommunalverwaltungen im Münsterland“. Bei der Namensgebung lassen sich ein räumlicher und ein inhaltlicher Bezug zum Projekt herstellen. Der räumliche Bezug ist der zum Münsterland als Projektumfeld. Das Münsterland ist eine Region im Norden Nordrhein-Westfalens und hat insgesamt 1,5 Millionen Einwohner, die sich auf die Kreisstadt Münster als regionales Zentrum sowie 66 weitere Stadt- und Gemeindeverwaltungen in insgesamt 4 Kreisen verteilen (vgl. Abbildung 2). Die Bezirksregierung Münster als für das Münsterland zuständige höhere Verwaltungsinstanz schlägt strategische Rahmenbedingungen und Richtlinien vor, an den sich die zugehörigen Verwaltungen orientieren sollten.
732
J. Becker, L. Algermissen, P. Delfmann, B. Niehaves
Abbildung 2: Räumliche Verwaltungsstruktur im Münsterland
Ein im Jahre 2000 entwickeltes Strategiepapier der Bezirksregierung „Münsterlandprogramm 2000+“ bildet den Hintergrund und gleichzeitig den inhaltlichen Bezug zum Projekt Regio@KomM [Müns00]. Der bundesweit zu verzeichnende Trend zur Umgestaltung und Modernisierung von Verwaltungen durch den verstärkten Einsatz von Informationstechnik wurde in diesem Papier aufgegriffen und durch die Festlegung eines Handlungsfeldes „Informations- und Kommunikationstechnologien, Multimedia“ als strategische Handlungsmaxime verankert. Ein langfristiges Ziel besteht darin, ein so genanntes Münsterlandportal aufzubauen. Hierbei handelt es sich um ein internetbasiertes Portal für die Region, über welches neben Angeboten von Unternehmen und Tourismusverbänden insbesondere Verwaltungsdienstleistungen in elektronischer Form angeboten werden sollen. Gleichzeitig sind bereits existierende Bestrebungen im Münsterland im Bereich der Verwaltungsmodernisierung durch eGovernment aufeinander abzustimmen und auf das genannte Ziel auszurichten. Im Jahr 2003 wurde diese Projektidee in Gestalt des Projektes Regio@KomM in die Tat umgesetzt. Mit der Bezirksregierung als Schirmherr fanden sich sechs Kommunalverwaltungen (zwei Kreisverwaltungen und vier Stadt- und Gemeindeverwaltungen), ein kommunales Rechenzentrum sowie die Universität Münster, um die Aufgabe „Realisierung von Electronic Government“ zu bearbeiten. Mit Bezug auf das Münsterlandprogramm 2000+ besteht das konkrete Ziel darin, elektronische Bürgerdienste zu realisieren, die einen Mehrwert für die Verwaltun-
Referenzmodellierung in öffentlichen Verwaltungen
733
gen, Unternehmen und Bürger schaffen und langfristig in ein Münsterlandportal eingebaut werden können. Die in vielen bisher existierenden Projekten zum Thema eGovernment vorherrschende technikgetriebene Vorgehensweise (z. B. gemeinschaftliche Softwareauswahl von Verwaltungen in Form von kommunalen Anwendergemeinschaften) wurde auf Anregung der Universität zugunsten einer inhaltlich-konzeptionellen Auseinandersetzung mit dem Thema zurückgestellt. Dem Grundsatz „Organisation vor Technik“ folgend wurden in Hinblick auf das Projektziel folgende Fragestellungen formuliert, auf die in den folgenden Abschnitten näher eingegangen wird: x Welche Geschäftsprozesse kommen zur Realisierung von elektronischen Bürgerdiensten in Frage (Abschnitt 3)? x Wie werden die Prozesse momentan in den verschiedenen Verwaltungen im Münsterland bearbeitet (Abschnitt 4)? x Wie können Idealprozesse bzw. Referenzprozesse aussehen, an denen sich alle Verwaltungen des Münsterlandes orientieren können (Abschnitt 5)?
3 Auswahl von Geschäftsprozessen mit Reorganisationspotenzial Um ein Referenzmodell induktiv auf Basis mehrerer Prozessanalysen zu entwickeln, muss naturgemäß zuerst der Untersuchungsgegenstand in Form des oder der zu untersuchenden Geschäftsprozesse(s) festgelegt werden. In der öffentlichen Verwaltung ergeben sich in diesem Zusammenhang zwei Probleme: x Einerseits kann allein das gesetzlich vorgeschriebene Aufgabenspektrum der Kommunalverwaltung mehr als 1000 unterschiedliche Dienstleistungen und damit Geschäftsprozesse umfassen. x Andererseits liegen in Verwaltungen auf Grund der kameralistischen Haushaltsführung kaum Informationen über Prozesskosten oder Erlöse einer Dienstleistung vor [WoKr03], so dass eine Auswahl auf Basis der in der Betriebswirtschaft üblichen monetären Kenngrößen nicht möglich ist. Aus den genannten Gründen wurde zur Auswahl der Geschäftsprozesse ein mehrstufiges Vorgehen gewählt. Das Ziel bestand darin, eine handhabbare Anzahl von Prozessen zu selektieren (ca. 10), welche die Grundlage der Referenzmodellerstellung bilden sollen und deren Auswahl strukturiert auf Basis qualitativer und quantitativer (vor allem nicht monetärer) Größen begründet werden kann. Der letztgenannte Punkt war von entscheidender Bedeutung für die teilnehmenden Pilotverwaltungen, die auf die komplexen politischen Entscheidungsprozesse in Kommu-
734
J. Becker, L. Algermissen, P. Delfmann, B. Niehaves
nalverwaltungen aufmerksam machten, welche einer möglichen Reorganisation vorangehen. Es wurden zwei Teilabschnitte zur Priorisierung und damit zur Erstellung einer Entscheidungsgrundlage gewählt, um den Aufwand im Vorfeld der eigentlichen Prozessanalysen für die teilnehmenden Pilotverwaltungen so gering wie möglich zu halten [ScLa03, S. 167]. Dies wurde dadurch sichergestellt, dass im ersten Projektabschnitt viele Dienstleistungen anhand weniger Kriterien vergleichsweise oberflächlich strukturiert und priorisiert wurden. Im zweiten Projektabschnitt konnten die verbleibenden Dienstleistungen mithilfe der gleichen Personalressourcen nochmals mit höherem Detaillierungsgrad untersucht werden. Das Vorgehen zur Priorisierung wurde bereits bei [Bec+04, S. 158-164] ausführlich erläutert und wird daher im Folgenden nur grob umrissen. Im ersten Abschnitt wurde in einem Workshop mit allen Projekteilnehmern eine Liste mit über 100 Dienstleistungen zusammengetragen, die bei den einzelnen Verwaltungen in der Diskussion für eine mögliche Reorganisation standen. Jede der Dienstleistungen wurde hinsichtlich ihrer technischen Reife und ihrer Ausführungshäufigkeit mit Hilfe eines Fragebogens dezentral von den Verwaltungsmitarbeitern untersucht (vgl. Abbildung 3). Dabei wurde auf die Portfoliomethode zurückgegriffen. (vgl. hierzu und im Folgenden [BuSc99, S. 155f; Gisl01, S. 25; Isse01, S. 9; BoBe01, S. 56]). Kriterienpaar technische Reife
Angelschein beantragen
Geburtsurkunde bestellen
Kriterienpaar Ausführungshäufigkeit
Gewerbeschein beantragen
KFZ zulassen Wohnung ummelden
Baugenehmigung Auskunft Melderegister
Ausweispapiere beantragen
Information
Kommunikation
Transaktion
Fallzahlen
Interaktionsgrad
Fallzahlen Gruppennutzer p. a.
O
Anzahl Gruppennutzer
x
automatisch
O
Fallzahlen Gesamtfallzahle n p. a.
x
medienbruchfrei
O
Transaktion
An-, Um- und Abmeldung von Abfallbehältern
Integrationsgrad medienbruch
1
Dienstleistung
Information
Nr.
Kommunikation
Interaktionsgrad
O
1.750
35
150
Kommentar/ Optimierungspotenzial
Gruppennutzer: Hausverwaltungen
Abbildung 3: Projektabschnitt 1 der Prozessselektion [Bec+04, S. 167]
Durch Analyse der technischen Reife sollte festgestellt werden, inwieweit einzelne Prozesse bereits informationstechnisch unterstützt werden um von Anfang an zu gewährleisten, dass weitgehend automatisierte Prozesse nicht Grundlage der Reorganisation werden. Dazu wurde einerseits eine interne Verwaltungsperspektive eingenommen, indem anhand der Dimension Integrationsgrad angegeben werden musste, wie der momentane Automatisierungsgrad einzelner Dienstleistungen ausgeprägt ist. Andererseits wurde eine externe Bürgerperspektive eingenommen.
Referenzmodellierung in öffentlichen Verwaltungen
735
Der über das kommunale Internetportal angebotene Interaktionsgrad mit Bürgern und Unternehmen wurde anhand der Ausprägungen Information, Kommunikation und Transaktion bewertet. Das Kriterienpaar Ausführungshäufigkeit fokussierte auf die Fallzahlen der einzelnen Dienstleistungen pro Jahr. Es wurde wegen der relativ einfachen Messbarkeit und vergleichsweise hohen Aussagekraft ausgewählt. Dabei wurden wiederum eine interne und eine externe Perspektive eingenommen. Die interne Perspektive wurde durch die Dimension absolute Fallzahlen pro Jahr abgebildet. Je mehr Fallzahlen eine Dienstleistung aufweist, desto größer sind wegen der auftretenden Skaleneffekte die Auswirkungen möglicher Prozessverbesserungen. Die externe Perspektive beleuchtete die Struktur der Nutzer einer Dienstleistung. Je mehr Instanzen einer Dienstleistung ein Nutzer auf sich vereinigt (sog. Poweruser wie bspw. KFZ-Händler, Rechtsanwaltskanzleien und Architekturbüros), desto eher wird sich die Nutzung eines elektronischen Bürgerdienstes über das Internet für ihn lohnen. Als Ergebnis lässt sich festhalten, dass die technische Reife der zu Grunde liegenden Prozesse bis auf wenige Ausnahmen ähnlich schwach ausgeprägt war, so dass zur Priorisierung der Prozesse hauptsächlich das Kriterienpaar Ausführungshäufigkeit herangezogen wurde. Insgesamt konnte die Zahl der Prozesse von über 100 auf ca. 25 reduziert werden. Im zweiten Projektabschnitt wurde deren Komplexität mit ausgeweiteten Untersuchungskriterien genauer untersucht. Dabei wurde strukturanalog zum ersten Abschnitt ein Fragebogen erarbeitet, der wiederum dezentral von den beteiligten Verwaltungen in Eigenregie bearbeitet wurde. Kriterien der Bewertung umfassten die Bereiche organisatorische Komplexität, technische Komplexität, formale Komplexität und Nutzungskomplexität, die auf einen Indikator für die Gesamtkomplexität verdichtet wurden (vgl. Tabelle 1). Teilkomplexität Organisatorisch Technisch
Allgemeine Lastschriftermächtigung Meldung Sperrmüll Beantragung Schülerfahrtkostenerstattung Schwerbehindertenausweis Verlängerung Antrag auf Wohngeld Ausleihen von Medien aus Bildstelle Gewerberegisterauskunft Ticketbuchungen Auskunft Fundbüro Einfache Melderegisterauskunft An-, Um-, Abmeldung Abfallbehälter Urkundenbestellung Baubeginn- u. Fertigstellungsanzeige Statusabfrage Baugenehmigung Auskunft aus dem Liegenschaftskataster
+ + ++ + ++ + + + + + ++ ++ + +++ +
Tabelle 1: Projektabschnitt II der Prozessselektion
++ ++ ++ ++ +++ + ++ ++ ++ + ++ ++ +++ ++ ++
Formal
Nutzbarkeit
Gesamt Komplexität
+ ++ ++ ++ ++ + ++ ++ ++ + ++ ++ +++ +++ ++
+ + ++ ++ ++ + + + + + + + + +++ +
+ ++ +++ ++ +++ + ++ ++ ++ + ++ ++ +++ +++ ++
736
J. Becker, L. Algermissen, P. Delfmann, B. Niehaves
Eine Reihe von K.O.-Kriterien führte zum Ausschluss von Dienstleistungen, u. a. die persönliche Anwesenheitspflicht oder die Notwendigkeit einer digitalen Signatur. Insgesamt konnte die Zahl der Dienstleistungen auf letztlich 15 reduziert werden und war Diskussionsgrundlage eines abschließenden Workshops mit den Pilotverwaltungen.
4
Istmodellierung und Istanalyse
4.1
Untersuchte Prozesse
Für die eigentliche Istmodellierung wurden auf Basis der Komplexitätsausprägungen sowie durch die Artikulation besonderer Präferenzen einzelner Verwaltungen die in Tabelle 2 dargestellten Prozesse zur Untersuchung in den teilnehmenden Pilotkommunen festgelegt: Dienstleistung Allgemeine Lastschriftermächtigung
Beckum
Kreis Borken
Stadt Borken
Bocholt
9
Sassenberg
9
9
9 9
9 9 9 9
9 9 9
9 9 9 9
Meldung Sperrmüll Beantragung Schülerfahrtkostenerstattung Gewerberegisterauskunft Einfache Melderegisterauskunft An-, Um-, Abmeldung Abfallbehälter
9
Urkundenbestellung
9
9
9
Auskunft aus dem Liegenschaftskataster Hundesteuer
Rheine
9
9
Tabelle 2: Im Rahmen der Istmodellierung untersuchte Prozesse
Insgesamt wurden 9 verschiedene Geschäftsprozesse in 6 verschiedenen Verwaltungen untersucht. Dabei ist herauszustellen, dass nicht jeder Geschäftsprozess in jeder Verwaltung untersucht wurde. Dies liegt einerseits an der Tatsache, dass nicht in jeder Verwaltung jeder Prozess erbracht wird, was sich bspw. durch unterschiedliche Zuständigkeiten auf Kreisund Gemeindeebene sowie unterschiedliche Einwohnerzahlen ergibt. Anderseits spielten wirtschaftliche Gründe eine Rolle; nicht jede Verwaltung konnte genügend Ressourcen bereitstellen, um alle Prozesse analysieren zu lassen. Aus den genannten Gründen wurden insgesamt 22 Prozessanalysen (statt der theoretisch möglichen 54) durchgeführt. Bei der Auswahl und Zuordnung der Prozesse war ein Ziel, jeden Prozess möglichst in mindestens 3 unterschiedlichen Verwaltungen aufzunehmen. Die zu Grunde liegende Idee bestand darin, aus den 3 Modellen hinreichend Informationen zu extrahieren, um ein „Best-Practice“- bzw. „Common-Practice“-Vorgehen zu identifizieren und daraus unter Berücksichtigung evtl. weiterer Verbesserungen einen Referenzprozess nicht nur für die ande-
Referenzmodellierung in öffentlichen Verwaltungen
737
ren teilnehmenden Gemeinden am Pilotprojekt sondern mittelfristig auch für das gesamte Münsterland entwickeln zu können. Im Folgenden wird am Beispiel des Prozesses der Erteilung einer allgemeinen Lastschriftermächtigung konkret aufgezeigt, wie bei der Ist-Modellierung vorgegangen wurde und was an Ergebnissen erzielt werden konnte.
4.2
Vorgehensweise
Die Struktur der durch die Priorisierung ausgewählten Prozesse wurde jeweils zeitgleich in mehreren Pilotkommunen durch Anwendung von offenen Experteninterviews [Hei+04, S. 340] erfasst. Die Interview-Fragebögen wurden nicht als zwingend vorgegeben, sondern eher als Leitfaden [Dieck95, S. 445] verstanden, an dem sich das Interview anlehnen konnte. Hierdurch wurde eine Einengung der Kreativität der Befragenden und Befragten durch starr vorgegebene Fragen verhindert. Als Interviewpartner wurden in ihrer Rolle als Fachexperten [WeFr96, S. 273] sowohl zuständige Sachbearbeiter als auch Verwaltungsmitarbeiter höherer disziplinarischer Ebenen gewählt, um einerseits eine detaillierte Einsicht in einzelne Arbeitsschritte und andererseits einen Überblick über den betrachteten Gesamtprozess zu erhalten. Neben der momentanen Struktur der Prozesse, relevanten verwaltungsspezifischen Fachbegriffen und der aufbauorganisatorischen Struktur [ScLa03, S. 169f] wurden Schwachstellen bereits vor der Analyse im Interview erfasst, die die Mitarbeiter der Verwaltungen bei ihrer täglichen Arbeit als störend empfanden und dies im Interview bekannt gaben. Weiterhin wurden die Verwaltungsmitarbeiter ebenfalls im Interview bereits auf offensichtliche Schwachstellen im Prozess (z. B. Medienbrüche durch Mehrfacheingaben) hingewiesen und auf deren Notwendigkeit hin interviewt. Auf diese Weise stand bereits nach der Prozessaufnahme eine umfassende Schwachstellenliste zur Verfügung, die innerhalb der späteren Schwachstellenanalyse ergänzt werden konnte. Die Prozessstrukturen wurden zunächst textuell erfasst und erst später in konzeptionelle Prozessmodelle überführt. So konnten die Interviews effizient ausgeführt werden, ohne durch Modellierungszeiten unterbrochen zu werden. Als Modellierungstechnik wurden ereignisgesteuerte Prozessketten [Kel+92] verwendet, die – in Spaltenform dargestellt [Ros+03, S. 71f] und von Trivialereignissen bereinigt [Bec+02, S. 67ff] – auch von Mitarbeitern der Verwaltungen als einfach und intuitiv verständlich aufgefasst wurden. Als Modellierungstool wurde das ARIS Toolset [ARIS04] gewählt, das einerseits die Modellierungstechnik der ereignisgesteuerten Prozessketten unterstützt und andererseits der Universität bereits zur Verfügung stand. Die erstellten Istmodelle wurden in späteren Workshops nochmals den Verwaltungsmitarbeitern vorgelegt und abgestimmt. Dieses Vorgehen ist notwendig, um
738
J. Becker, L. Algermissen, P. Delfmann, B. Niehaves
in den Interviews evtl. aufgetretene Missverständnisse auszuräumen, die im ersten Interviewgang erfahrungsgemäß nie zu 100% vermieden werden können [ScLa03, S. 171]. Ein exemplarisches Ist-Prozessmodell der Gewerberegisterauskunft ist in Abbildung 4 dargestellt. Aus Übersichtlichkeitsgründen ist an dieser Stelle nur die reine Prozesslogik dargestellt. Auf eine Spaltendarstellung inkl. Annotationen der verwendeten Daten- und organisatorischen Objekte wird hier verzichtet. Telefon. Antrag ist bei anderem Sachbearb. eingegangen Notiz mit Antragsdaten erstellen Notiz mit Antragsdaten ist erstellt
Schriftl. Antrag ist bei anderem Sachbearb. eingegangen
Fax ist eingegangen Notiz an Sachbearb. Stadtkasse senden
Formloser Antrag ist eingereicht
Vordruck ist eingegangen
Antrag ist mit interner Post angekommen
Ermächtigungen nach Alphabet verteilen
Allgemeine Lastschriftermächtigung archivieren E-Mail-Antrag ausdrucken
Daten auf Vollständigkeit prüfen
Daten sind vollständig
Daten ins Programm übernehmen
Antrag ist per E-Mail eingegangen
Abbuchungslauf ist fällig
Datei zur Datenübertragung erstellen
Daten sind unvollständig Telefon. und ggf. schriftl. fehlende Daten ermitteln
Allgemeine Lastschriftermächtigung ist archiviert
Stichtag für Mahnlauf ist erreicht
Mahnlauf durchführen
Daten online zur Bank übertragen
Daten abgleichen
Daten sind abgeglichen Lastschriftermächtigung ist nicht bearbeitbar
Daten sind ermittelt
Abbildung 4: Istprozessmodell der allgemeinen Lastschriftermächtigung
Für jede der Pilotverwaltungen stand am Ende der Istmodellierungsphase ein spezifisches Istmodell zur Verfügung. Auf Basis dieser Modelle konnte je Prozess eine Schwachstellenanalyse vorgenommen werden. Als exemplarische Schwachstellen wurden
Referenzmodellierung in öffentlichen Verwaltungen
739
x Medienbrüche, x redundante Verwaltung der am Prozess beteiligten Daten, x redundante Arbeitsschritte (z. B. nicht erforderliche, aber von der Verwaltung selbst auferlegte Unterschriftspflicht höherer disziplinarischer Instanzen), x unzureichende Funktionalität bereits eingesetzter Software (z. B. mangelhafte oder fehlende Schnittstellen), x organisatorische Hürden und x unnötige Liegezeiten identifiziert (vgl. zu weiteren potenziell auftretenden Schwachstellen in Istprozessen z. B. [Schu02, S. 353; Ever95, S. 143; Kric94, S. 28f]). In den Schwachstellenlisten wurden zusätzlich zu behebbaren Schwachstellen solche vermerkt, deren Beseitigung aufgrund von rechtlichen Restriktionen nicht bzw. nur eingeschränkt möglich war, um eine bessere Entscheidungsgrundlage für die Schwachstellenbeseitigung im Rahmen der Sollmodellierung bereit zu stellen. Schwachstellen wurden darüber hinaus in den Prozessmodellen – jeweils abhängig von der Möglichkeit diese zu beseitigen unterschiedlich farblich abgesetzt – markiert. (Vgl. hierzu nochmals Abbildung 4. Eliminierbare Schwachstellen sind hier grau, nicht eliminierbare Schwachstellen schwarz hinterlegt.) Weiterhin wurden schon bei der Istmodellierung bekannte Verbesserungspotenziale und -vorschläge in die Schwachstellenlisten integriert. Eine exemplarische Schwachstellenliste zu dem in Abbildung 4 visualisierten Prozess ist in Tabelle 3 dargestellt. Schwachstellen
Ausprägungen
Medienbrüche
x Bei telefonischen Annahmen von Lastschriftermächtigungen werden die notwendigen Daten zunächst auf einem Zettel notiert und dann in das für die Lastschriftermächtigung notwendige Anwendungssystem eingegeben.
Redundante bzw. unnötige Bearbeitungsschritte
x Zur Datenübertragung muss ein eigenes Anwendungssystem aufgerufen werden, um die erstellten Datensätze zur Bank zu übertragen. Ein effizientes Anwendungssystem zur Verwaltung von Lastschriftermächtigungen könnte dies automatisch erledigen. x Lastschriftermächtigungen sind vor ihrer Bearbeitung zu sortieren, um diese nach Alphabet den zuständigen Sachbearbeitern zukommen zu lassen. Dieser Schritt könnte bei fortschreitender Automatisierung entfallen.
Unzureichende Funktionalität der Software
x Ausschließlich Sachbearbeiter der Stadtkasse können Daten für Lastschriftermächtigungen in das Anwendungssystem zur Verwaltung von Lastschriftermächtigungen eingeben. Diese Möglichkeit sollte sämtlichen Mitarbeitern der Verwaltung, die Lastschriftaufträge entgegen nehmen können, gegeben werden.
Organisationsbrüche
x Lastschriftermächtigungen, die einem anderen Fachbereich erteilt werden, werden mit interner Post zugestellt.
740
J. Becker, L. Algermissen, P. Delfmann, B. Niehaves
Rechtlich bedingte Schwachstellen
x Die papierbasierte Archivierung von Dokumenten der Lastschriftermächtigung ist zeitintensiv und verursacht weiterhin Papierund Druckkosten. Eine Eliminierung dieser Schwachstelle durch Streichung oder Automatisierung ist jedoch rechtlich ausgeschlossen.
Verbesserungspotenziale und -vorschläge
x In einigen Verwaltungen werden Lastschriftermächtigungen nicht telefonisch entgegengenommen, da eine Unterschrift als notwendig empfunden wird. In anderen Verwaltungen hingegen wird dieses telefonische Verfahren schon über Jahre erfolgreich praktiziert. Eine telefonische Entgegennahme von Lastschriftermächtigungen wird somit empfohlen. x Anderen Fachbereichen sollte eine Eingabe der Lastschriftermächtigungsdaten möglich sein. Der interne Postweg würde wegfallen und die Sachbearbeiter der Stadtkasse entlastet werden. x Eine Onlineeinzugsermächtigung wäre eine sinnvolle Erweiterung. Auf der einen Seite würde es dem Sachbearbeiter der Stadtkasse Arbeit abnehmen, auf der anderen Seite würde ein zusätzlicher Bürgerservice angeboten.
Tabelle 3: Exemplarische Schwachstellenliste zum Prozess der allgemeinen Lastschriftermächtigung
Auffällig war, dass ein Vergleich des hier vorgestellten Istprozesses mit Prozessen anderer Verwaltungen dort ähnliche Schwachstellen aufzeigte. Speziell für den Prozess der Erteilung einer allgemeinen Lastschriftermächtigung war folglich kein echtes „Best-Practice“ zu ermitteln. Die untersuchten Prozesse stellten vielmehr ein schwachstellenbehaftetes „Common-Practice“ dar, aufgrund dessen eine allgemeine Schwachstelleneliminierung erfolgen konnte. Die Gewerberegisterauskunft zeigte z. B. ein anderes Bild. Hier war in einer Kommune die informationstechnische Durchdringung bereits sehr weit fortgeschritten, so dass Medienbrüche kaum noch vorlagen. Hier konnte folglich ein „Best-Practice“ als Grundlage für die Erstellung eines Referenzmodells ermittelt werden.
5
Konstruktion von Referenzmodellen
An die Phase der Istmodellierung schließt sich typischerweise die der Sollmodellierung an. Sollmodelle sind dadurch charakterisiert, dass die darin formulierten Empfehlungen zur Neugestaltung der Prozesse kurz- oder mittelfristig umsetzbar sein müssen, um innerhalb des Planungshorizontes realisierbar zu sein. Dem gegenüber stehen Idealmodelle, die eine langfristig anzustrebende Situation repräsentieren [SpSc03, S. 216f]. Da ein Ziel des Projekts Regio@KomM die Konstruktion von Referenzmodellen für die öffentliche Verwaltung war, wurde im Anschluss an die Schwachstellenanalyse ein komplett von Schwachstellen bereinigtes Idealmodell für jeden untersuchten Prozess erstellt und den einzelnen Ver-
Referenzmodellierung in öffentlichen Verwaltungen
741
waltungen als Referenzmodell zur Verfügung gestellt. Das Referenzmodell der allgemeinen Lastschriftermächtigung ist in Abbildung 5 dargestellt. Sämtliche Schwachstellen – mit Ausnahme der rechtlich bedingten Schwachstelle – wurden unabhängig von verwaltungsspezifischen Gegebenheiten eliminiert. Formloser Antrag ist eingereicht
Fax ist eingegangen
Vordruck ist eingegangen
Antrag ist telefonisch eingegangen
Antrag ist per E-Mail eingegangen E-Mail-Antrag elektronisch archivieren
Daten auf Vollständigkeit prüfen
Daten sind vollständig
Daten sind unvollständig
Telefonisch fehlende Daten ermitteln
OnlineAntrag ist eingegangen
Daten sind ermittelt
Lastschriftermächtigung ist nicht bearbeitbar
Daten ins Programm übernehmen Allgemeine Lastschriftermächtigung archivieren Allgemeine Lastschriftermächtigung ist archiviert
Abbildung 5: Referenzprozessmodell der allgemeinen Lastschriftermächtigung
Tabelle 4 ist zu entnehmen, auf welche Weise die identifizierten Schwachstellen für die Konstruktion des Referenzmodells eliminiert wurden. Schwachstelleneliminierung
Maßnahmen
Eliminierung von Medienbrüchen
x Bei telefonischen Annahmen von Lastschriftermächtigungen werden die notwendigen Daten direkt in das Anwendungssystem zur Lastschriftermächtigung übernommen
Eliminierung redundanter bzw. unnötiger Bearbeitungsschritte
x Die Datenübertragung zur Bank erfolgt nicht mehr separat sondern direkt aus dem Anwendungssystem zur Lastschriftermächtigung. x Aufgrund reduzierter papierbasierter Bearbeitungsschritte ist eine alphabetische Sortierung nicht mehr notwendig.
742
J. Becker, L. Algermissen, P. Delfmann, B. Niehaves
Erweiterung der Funktionalität des Anwendungssystems zur Lastschriftermächtigung
x Das Anwendungssystem ist derart zu erweitern, dass Daten nicht mehr ausschließlich von Mitarbeitern der Stadtkasse eingegeben werden können.
Eliminierung von Organisationsbrüchen
x Lastschriftermächtigungen, die in einem anderen Fachbereich eingehen, werden direkt im Anwendungssystem erfasst.
Umsetzung der Verbesserungsvorschläge
x Telefonische Annahme von Aufträgen zur Lastschriftermächtigung wird im Referenzmodell vorgesehen. x Da anderen Fachbereichen die Möglichkeit gegeben wird, eine Eingabe der Lastschriftermächtigungsdaten durchzuführen, entfällt der interne Postweg. x Die Möglichkeit der Onlineeinzugsermächtigung ist explizit im Referenzmodell vorgesehen.
Tabelle 4: Vorschläge zur Eliminierung der identifizierten Schwachstellen
Der Vorteil der Konstruktion von Referenzmodellen im Gegensatz zu spezifischen Sollmodellen liegt in ihrer Eigenschaft der Allgemeingültigkeit [BeSc04, S. 76f]. Die im Projekt erstellten Referenzmodelle können nicht nur den beteiligten Kommunen sondern auch projektfremden Kommunen als Reorganisationsempfehlungen zur Verfügung gestellt werden. Es ist zu erwarten, dass sich durch den interkommunalen Dialog, der durch die Verbreitung der Referenzmodelle angeregt wird, Synergieeffekte einstellen werden. Diese können sich z. B. im Zusammenschluss und der gemeinsamen Nutzung von umfassenden IT-Infrastrukturen äußern, die zur im Referenzmodell geforderten Eliminierung der momentanen Schwachstellen notwendig sind. Erste positive Rückmeldungen der Kommunen bzgl. derartiger Überlegungen untermauern diese Prognose. Im Falle einer nicht möglichen mittelfristigen Realisierung des empfohlenen Referenzmodells ist durch die jeweilige Verwaltung zu entscheiden, ob mittelfristig umsetzbare Modellvarianten zu konstruieren sind.
6
Zusammenfassung und Ausblick
Referenzmodellierung ist nicht nur für den wissenschaftlichen Diskurs von großem Interesse, sondern kann auch bei der Lösung praktischer Problemstellungen in konkreten Projekten signifikanten Nutzen stiften. Der hohe Grad an Strukturanalogien, der als herausragendes Merkmal die Verwaltungslandschaft in Deutschland kennzeichnet, macht die Anwendung der Referenzmodellierung in der Domäne Verwaltung besonders attraktiv. Die positiven Rückmeldungen der Kommunen zeigen, dass die Anwendbarkeit von Referenzmodellen im Kontext der prozessorientierten Reorganisation von öf-
Referenzmodellierung in öffentlichen Verwaltungen
743
fentlichen Verwaltungen grundsätzlich gegeben ist. Es ist abzuwarten, in wie fern diese Modelle direkt umgesetzt werden können, da hierfür eine Reihe von Nebenbedingungen erfüllt sein muss (z. B. die Bereitschaft der gemeinsamen Nutzung von IT-Infrastrukturen, vgl. Abschnitt 5). Konkrete Anwendung erfahren die erstellten Referenzprozessmodelle schon jetzt. Im Auftrag einzelner Kreise, Städte und Gemeinden wurden verwaltungsindividuelle Migrationskonzepte ausgearbeitet. Auf der Basis spezifischer Istprozesse und der spezifischen IT-Infrastruktur wurden aufeinander aufbauende Entwicklungsszenarien in Migrationsplänen zusammengefasst und angepasste Sollmodelle als Zielvorgaben zur Verfügung gestellt. Unter Berücksichtigung mittelfristiger verwaltungsindividueller Restriktionen wurden konkrete Handlungsempfehlungen gegeben, die sich zurzeit in der ersten Umsetzung befinden. Weitere Forschungsarbeiten müssen zeigen, ob die Referenzmodelle ggf. um weitere inhaltliche Aspekte z. B. in Form von hinterlegtem Expertenwissen oder Gesetzestexten angereichert werden können. Ferner muss sich zeigen, ob die vorgeschlagenen Referenzmodelle sich ohne weiteres in jeder Verwaltung – auch außerhalb von NRW – umsetzen lassen, oder ggf. an regionale Parameter angepasst werden müssen. In diesem Kontext muss geprüft werden, ob die Methode der konfigurativen Referenzmodellierung [Bec+02] bei der Nutzbarmachung von Referenzmodellen in der öffentlichen Verwaltung einen Beitrag leisten kann.
Literatur [ARIS04] ARIS Toolset. http://www.ids-scheer.de/germany/products/aris_design_platform/ 23204. Abrufdatum: 28.06.2004. [Bec+02] Becker, J.; Delfmann, P.; Knackstedt, R.: Eine Modellierungstechnik für die konfigurative Referenzmodellierung. In: J. Becker, R. Knackstedt (Hrsg.): Referenzmodellierung 2002. Methoden – Modelle – Erfahrungen. Arbeitsbericht Nr. 90 des Instituts für Wirtschaftsinformatik. Münster 2002, S. 35-79. [Bec+03] Becker, J.; Algermissen, L.; Niehaves, B.: Prozessmodellierung als Grundlage des E-Government – Ein Vorgehensmodell zur prozessorientierten Organisationsgestaltung am Beispiel des kommunalen Baugenehmigungsverfahrens. In: W. Uhr, W. Esswein and E. Schoop (Hrsg.): Wirtschaftsinformatik 2003 / Band II. Heidelberg 2003, S. 859878. [Bec+04] Becker, J.; Algermissen, L.; Delfmann, P.; Niehaves, B.: Prozessorientierte Reorganisation in öffentlichen Verwaltungen – Erfahrungen bei der Anwendung eines Referenz-Vorgehensmodells. In: J. Becker, P. Delfmann (Hrsg.): Referenzmodellierung. Grundlagen, Techniken und domänenbezogene Anwendung. Heidelberg 2004, S. 151175.
744
J. Becker, L. Algermissen, P. Delfmann, B. Niehaves
[BeSc04] Becker, J.; Schütte, R.: Handelsinformationssysteme. Domänenorientierte Einführung in die Wirtschaftsinformatik. 2. Auflage, Frankfurt am Main 2004. [BoBe01] Boller, R.; Beuchat, A.: Vertrauen und Sicherheit im Netz. In: M. Gisler, D. Spahni (Hrsg.): eGovernment. 2. Auflage, Bern et al. 2001, S. 53-74. [BuSc99] Budäus, D.; Schwiering, K.: Die Rolle der Informations- und Kommunikationstechnologien im Modernisierungsprozeß öffentlicher Verwaltungen. In: A.-W. Scheer (Hrsg.): Electronic Business und Knowlege Management. Heidelberg 1999, S. 143-165. [Dieck95] Diekmann, A.: Empirische Sozialforschung. Grundlagen, Methoden, Anwendungen. Reinbek 1995. [Ever95] Eversheim, W.: Prozeßorientierte Unternehmensorganisation. Konzepte und Methoden zur Gestaltung „schlanker“ Organisationen. Berlin et al. 1995. [Falc02] Falck, M.: Business Process Management – As a Method of Governance. In: K. Lenk, R. Traunmüller (Hrsg.): Electronic Government. Proceedings of the 1st International Conference EGOV 2002, Aix-en-Provence. Berlin et al. 2002, S. 137-141. [Gisl01] Gisler, M.: Einführung in die Begriffswelt des eGovernment. In: M. Gisler, D. Spahni (Hrsg.): eGovernment. 2. Auflage, Bern et al. 2001, S. 13-32. [Hei+04] Heinrich, L. J.; Heinzl, A.; Roithmayr, F.: Wirtschaftsinformatik-Lexikon. 7. Auflage, München. 2004. [Isse01] Isselhorst, H.: Klassifikationsschema für E-Government-Verfahren. In: BSI (Hrsg.): E-Government-Handbuch. Bonn 2001. [Kel+92] Keller, G.; Nüttgens, M.; Scheer, A.-W.: Semantische Prozeßmodellierung auf der Grundlage „Ereignisgesteuerter Prozessketten (EPK)“. Veröffentlichungen des Instituts für Wirtschaftsinformatik. Heft 89. Hrsg.: A.-W. Scheer. Saarbrücken 1992. [Kric94] Krickl, O. G.: Business Redesign. Prozeßorientierte Organisationsgestaltung und Informationstechnologie. In: O. G. Krickl (Hrsg.): Geschäftsprozeßmanagement. Heidelberg 1994, S. 17-38. [Lang00] Langkabel, T.: e-Government – Der Weg ist das Ziel. V.O.P., Sonderheft (2000) 2, S. 6-8. [Lenk02] Lenk, K.: Referenzmodell für den elektronischen Bürgerservice. Grundlegende Überlegungen zur Umsetzung von E-Government. Innovative Verwaltung, Sonderheft (2002) 1, S. 57-61. [Mil+04] Millard, J.; Iversen, J.S.; Kubicek, H.; Westholm, H.; Cimander, R.: Reorganisation of Government Back Offices for Better Electronic Public Services – European Good Practices, Volume 1: Main report, commissioned by: European Commission, Brussels, 2004. [Müns00] O. V.: Münsterlandprogramm 2000. http://www.bezreg-muenster.nrw.de/ aufgaben/Organisation/Dezernate/Dezernat_61/EntwPgm_Msl/Startseite_MslPgm. Abrufdatum: 17.05.2004
Referenzmodellierung in öffentlichen Verwaltungen
745
[Ros+03] Rosemann, M.; Schwegmann, A.; Delfmann, P.: Vorbereitung der Prozessmodellierung. In: J. Becker, M. Kugeler, M. Rosemann (Hrsg.): Prozessmanagement. Ein Leitfaden zur prozessorientierten Organisationsgestaltung. 4. Auflage, Berlin et al. 2003, S. 47-105. [Sch+94] Scheer, A.-W.; Hoffmann, W.; Wein, R.: Customizing von Standardsoftware mit Referenzmodellen. HMD Theorie und Praxis der Wirtschaftsinformatik 31 (1994) 180, S. 92-103. [Schü98] Schütte, R.: Grundsätze ordnungsmäßiger Referenzmodellierung. Konstruktion konfigurations- und anpassungsorientierter Modelle. Wiesbaden 1998. [ScLa03] Schwegmann, A.; Laske, M.: Istmodellierung und Istanalyse. In: J. Becker, M. Kugeler, M. Rosemann (Hrsg.): Prozessmanagement. Ein Leitfaden zur prozessorientierten Organisationsgestaltung. 4. Auflage, Berlin et al. 2003, S. 159-190. [Schu02] Schulte-Zurhausen, M.: Organisation. 3. Auflage, München 2002. [SpSc03] Speck, M.; Schnetgöke, N.: Sollmodellierung und Prozessoptimierung. In: J. Becker, M. Kugeler, M. Rosemann (Hrsg.): Prozessmanagement. Ein Leitfaden zur prozessorientierten Organisationsgestaltung. 4. Auflage, Berlin et al. 2003, S. 191-226. [WeFr96] Weidner, W.; Freitag, G.: Organisation in der Unternehmung. Aufbau- und Ablauforganisation. Methoden und Techniken praktischer Organisationsarbeit. 5. Auflage, München, Wien 1996. [WoKr03] Wolf, P.; Krcmar, H.: Wirtschaftlichkeit von elektronischen Bürgerservices eine Bestandsaufnahme. In: W. Uhr, W. Esswein, E. Schoop (Hrsg.): Wirtschaftsinformatik 2003, Medien - Märkte - Mobilität, Band I. Dresden, 2003, S. 917-936.
Wirtschaftlichkeit von E-Government am Beispiel des elektronischen Bauantragsprozesses Petra Wolf, Helmut Krcmar Technische Universität München
Zusammenfassung: Wirtschaftlichkeit ist nach wie vor ein zentrales Thema für EGovernment, da sich die öffentliche Hand eine nachhaltige Umsetzung von EGovernmentprojekten nicht in Form von dauerhaften Zuschusslösungen leisten kann. Die Beurteilung der Wirtschaftlichkeit IT-unterstützter Verfahren stellt jedoch insbesondere in der öffentlichen Verwaltung eine Herausforderung dar, da eine verursachungsgerechte Zurechnung von Kosten hier vielfach noch Neuland ist. Der vorliegende Aufsatz stellt einen Ansatz zur prozessorientierten Wirtschaftlichkeitsuntersuchung vor, der im Rahmen eines Pilotprojektes zur elektronischen Baugenehmigung erprobt wurde und erste Ergebnisse liefert. Schlüsselworte: E-Government, Bürgerservices, Wirtschaftlichkeit, Prozessmodellierung
1
Einleitung
Leere öffentliche Kassen werden als wichtige Begründung für das Stocken der Electronic-Government-Bewegung (E-Government) ins Feld geführt. Auf Bundesebene wird nach wie vor mit viel Energie am Projekt BundOnline 2005 gearbeitet, das die Entwicklung von bundeseinheitlichen elektronischen Verwaltungsdienstleistungen zum Ziel hat. Auf kommunaler Ebene hingegen ist es nach dem Abebben der E-Government-Wettbewerbe ruhig geworden um das Thema elektronische Bürgerdienste. Viele Projekte stehen nach der ersten Euphorie mittlerweile unter Rechtfertigungsdruck und sind mitunter sogar von der Einstellung des Betriebs bedroht1. Es hat sich gezeigt, dass E-Government nicht umsonst zu haben ist und die ursprünglich erhofften Einsparpotenziale sich nicht von alleine einstellen. Natürlich wurden die meisten E-Government-Projekte nicht in erster Linie mit dem Ziel, Kosten zu sparen, initiiert, Zuschusslösungen können sich jedoch die wenigsten Kommunen auf Dauer leisten.
1
Die betreffenden Projekte werden nicht namentlich genannt, da es sich um vertrauliche Informationen handelt.
748
P.Wolf, H. Krcmar
Für die Entscheidung über den Start oder die Weiterführung von E-GovernmentProjekten ergibt sich hieraus die Notwendigkeit, die Wirtschaftlichkeit des Vorhabens zu überprüfen bzw. nachzuweisen. Nach wie vor sind jedoch Untersuchungen und Ergebnisberichte zu Wirtschaftlichkeitsuntersuchungen im Bereich EGovernment selten. Aufgrund der Schwierigkeiten, die Wirtschaftlichkeit von ITInvestitionen gerade im öffentlichen Bereich nachzuweisen wird Solows Produktivitätsparadoxon nun für die öffentliche Verwaltung postuliert [Mil+04, S. 58]. Der vorliegende Aufsatz stellt ein Modell zur Untersuchung von Wirtschaftlichkeit bei Projekten zu elektronischen Bürgerservices vor. Dieses Modell wurde im Rahmen eines Pilotprojektes zum elektronischen Bauantragsverfahren in der Praxis erprobt und erste Ergebnisse erzielt. Nach einer kurzen Schilderung der Rahmenbedingungen des Pilotprojektes gibt Kapitel 2 einen Überblick über Methoden und Schwierigkeiten bei der Untersuchung von Wirtschaftlichkeit von ITVorhaben in der öffentlichen Verwaltung. Im Anschluss daran wird das entwickelte Verfahren zur prozessorientierten Wirtschaftlichkeitsuntersuchung vorgestellt. Kapitel 3 beschreibt die konkrete Vorgehensweise bei der Untersuchung der Wirtschaftlichkeit des elektronischen Bauantragsverfahrens und zeigt die ermittelten Ergebnisse. Die Erfahrungen, die bei der Anwendung der Methode zur prozessorientierten Wirtschaftlichkeitsuntersuchung gewonnen wurde, werden in Kapitel 4 zusammengefasst.
2
Wirtschaftlichkeit von E-Government
Angesichts der angespannten Haushaltssituation der meisten öffentlichen Verwaltungen in Deutschland wird an E-Government-Projekte die Forderung nach Wirtschaftlichkeit gestellt. Ziele wie Transparenz, Vereinfachung der Verwaltungsverfahren und stärkere Kundenorientierung durch E-Government müssen finanzierbar sein. Vor diesem Hintergrund stellt sich die Frage, wie die Wirtschaftlichkeit von E-Government-Projekten beurteilt werden kann, bzw. nach einem Wirtschaftlichkeitsvergleich von herkömmlicher und digitaler Abwicklung von Verwaltungsprozessen. Für eine ganzheitliche Betrachtung der Wirtschaftlichkeit derartiger Projekte ist es erforderlich, die Perspektiven aller Prozessbeteiligten zu berücksichtigen. Im Fall von elektronischen Bürger- oder Unternehmensdienstleistungen (E-Bürgerservices) sind dies die Verwaltungssicht und die Bürger- oder Unternehmenssicht.
2.1
Pilotprojekt zum elektronischen Bauantragsverfahren
Dass E-Government tatsächlich ein Ansatz ist, der von Unternehmen als Verwaltungskunden aktiv eingefordert wird, zeigt sich am Beispiel der Stadt Ingolstadt.
Wirtschaftlichkeit von E-Government am Bsp. des elektronischen Bauantragsprozesses 749
Ein ortsansässige Automobilhersteller ist hier Initiator eines E-GovernmentProjektes zur Einführung einer digitalen Bauplattform analog der im Rahmen des MediaKomm-Projektes in Esslingen entwickelten Lösung [o.A.o.J.]. Anlass waren Überlegungen auf Unternehmensseite, dass in Anbetracht der Menge der jährlich beantragten und abgewickelten Um- und Neubauprojekte eine elektronische Abwicklung des Genehmigungsverfahrens ein beträchtliches Einsparpotenzial von Zeit und Kosten verspricht. Gleichzeitig wird auch die medienbruchfreie Dokumentation des gesamten Antragsvorgangs als wesentlicher Vorteil gesehen. Ähnlich wie in vielen anderen Kommunen führt auch hier die knappe Ressourcenlage dazu, dass neue Projekte und Investitionen kritisch hinterfragt werden. Voraussetzung für die Umsetzung des Projektvorhabens ist daher sowohl von Unternehmens- als auch von städtischer Seite der Nachweis der Wirtschaftlichkeit der elektronischen Bauplattform für beide Beteiligten. Zu diesem Zweck wurde ein halbjähriger Pilotbetrieb vereinbart, innerhalb dessen erste praktische Erfahrungen im Umgang mit der Plattform gesammelt werden konnten und gleichzeitig eine Untersuchung der Wirtschaftlichkeit des Verfahrens durchgeführt wurde. Ziel der Wirtschaftlichkeitsuntersuchung war es, festzustellen, in welchem Umfang Einspareffekte bezüglich Zeit und Kosten bei elektronischer Abwicklung des Bauantragsverfahrens im Vergleich zur herkömmlichen Abwicklung realisiert werden können.
2.2
Evaluation von Wirtschaftlichkeit
Wirtschaftlichkeit, Effizienz oder Effektivität sind Begriffe, die häufig in unterschiedlichen Zusammenhängen gebraucht, synonym verwendet oder in unterschiedlichen Reichweiten definiert werden. Daher ist eine Abgrenzung des Wirtschaftlichkeitsbegriffs für diesen Artikel angebracht. Bei der Evaluation von Wirtschaftlichkeit von E-Government geht es nicht darum, die Effizienz oder Effektivität der zugrunde liegenden Verwaltungsprozesse zu beurteilen. Dies würde bedeuten, man untersucht, ob ein gesetzlich so vorgegebener Prozess ‚richtig’ durchgeführt wird (effizient) bzw. zu erheben, wie eine vom Gesetzgeber erwünschte Wirkung bestmöglichst mittels eines Verwaltungsprozesses erreicht werden kann (Effektivität). Der Fokus der Evaluation in der hier dargestellten Form zielt darauf ab, die Wirtschaftlichkeit der elektronischen Unterstützung des Verwaltungsprozesses zu untersuchen, d.h. lohnt sich die E-Government-Investition oder führt sie auch mittelund langfristig zu Mehrausgaben? E-Government wird im Rahmen dieses Artikels gleichbedeutend mit elektronischen Bürger- bzw. Unternehmensservices benutzt. Bereits 1996 wurde von Scheer at al. [Sche+96] vorgeschlagen, das Konzept des Business Process Engineering auch auf die Domäne der öffentlichen Verwaltung anzuwenden, um die Verwaltungsprozesse transparenter und effizienter zu gestal-
750
P.Wolf, H. Krcmar
ten. Nach wie vor werden jedoch Referenzmodelle für konkrete Prozesse in der öffentlichen Verwaltung oder entsprechende Reorganisationsprojekte als selten bezeichnet [Hage01]. Im Rahmen einer im Jahre 2002 durchgeführten Umfrage zum Thema Wirtschaftlichkeit von elektronischen Bürgerservices [WoKr03] wurden bereits Landeshauptstädte und Gewinnerstädte von E-Government-Wettbewerben wie Media@Komm nach der Rentabilität der eingesetzten Online-Verfahren befragt. Die Auswertung ergab, dass zum damaligen Zeitpunkt nur einzelne Städte in der Lage waren, konkrete Angaben zur Wirtschaftlichkeit zu machen, wobei diese Angaben lediglich auf Expertenschätzungen basierten. Für die Auseinandersetzung mit dem Thema Wirtschaftlichkeit von E-Bürgerservices bedeutet dies, dass Vergleichswerte zur Wirtschaftlichkeit entlang einzelner Verwaltungsverfahren erhoben und berechnet werden müssen, um Vergleiche anhand von Kennzahlen zwischen herkömmlichem und Online-Verfahren anstellen zu können [Hage01].
2.3
Methoden
Die Grundlage der meisten betriebwirtschaftlichen Methoden zur Bestimmung der Wirtschaftlichkeit eines IT-Vorhabens oder eines durch IT unterstützten Verfahrens ist die Gegenüberstellung von Vorteil oder Nutzen des Verfahrens und dafür aufzuwendenden Kosten [Krcm03, S. 330ff]. Sowohl die Kosten- (Input) als auch die Nutzenseite (Output) können auf unterschiedliche Weise operationalisiert, in Kriterien und Punktesysteme gefasst und miteinander ins Verhältnis gesetzt werden. In der Praxis resultieren aus der unterschiedlichen Gewichtung und Kombination dieser Nutzenkategorien verschiedene Ansätze, die zur Kosten-NutzenBeurteilung herangezogen werden. Beispiele hierfür sind der Transaktionskostenansatz, Bewertungen aus der Sicht der Wertschöpfungskette oder ausgehend von IT-Potenzialen. Gerade im Bereich des Dienstleistungssektors ergeben sich Schwierigkeiten bei der Verwendung traditioneller Verfahren zur Kostenrechnung, da hier aufgrund des Übergewichts an planerischen, steuernden und überwachenden Tätigkeiten eine Verschiebung der Kostenstruktur hin zu Produktgemeinkosten statt fand, denen diese Methoden nicht Rechnung tragen [Ger+00, S. 111]. Dieser Sachverhalt wird durch den Einsatz von IT-Verfahren noch verstärkt, da auch sie eine Verschiebung von leistungsproportionalen Kosten hin zu Fixkosten bewirken [Ger+00, S. 115]. Eine Möglichkeit, die Zurechnung der Gemeinkosten transparenter zu gestalten, bietet die Prozesskostenrechnung, da deren Verursachung hier auf der Basis von Aktivitäten untersucht wird [Ger+00, S. 112]. Gleichzeitig stellt al-
Wirtschaftlichkeit von E-Government am Bsp. des elektronischen Bauantragsprozesses 751
lerdings die Zurechnung von Gemeinkosten auf Aktivitäten eine der Hauptschwierigkeiten der Prozesskostenrechnung dar.
2.4
Ansatz zur prozessorientierten Wirtschaftlichkeitsuntersuchung von E-Government
Als Evaluationsrahmen wird das von Wolf/Krcmar [WoKr03] entwickelte Analyseraster zu Grunde gelegt. Es basiert auf dem Ansatz der Erweiterten Wirtschaftlichkeit [Rei+98], der mit dem Modell WiBe21 [Röth01] und empirischen Erfahrungen kombiniert wurde. Den Untersuchungsdimensionen Kosten/Nutzen, Qualität/Strategie, Dringlichkeit sowie Flexibilität werden zwei verschiedene Perspektiven – Unternehmens- bzw. Bürgersicht und Verwaltungssicht – gegenübergestellt, unter denen der Untersuchungsgegenstand betrachtet werden soll. Für die Untersuchung der Kosten-Nutzen-Dimension bietet sich wie bereits oben dargelegt die Methode der Prozesskostenrechnung an, da sie „einen besonderen Schwerpunkt auf die verursachungsgerechte Zurechnung der Gemeinkosten“ legt, die durch die Einführung von E-Government in erster Linie beeinflusst werden [FiSc00, S. 436]. Allerdings sind die Voraussetzungen zu einer ‚reinen’ Prozesskostenrechnung in der öffentlichen Verwaltung bislang nur in Ausnahmefällen gegeben. Viele Kommunen haben den Weg von der Kameralistik zur Kosten- und Leistungsrechnung noch nicht vollständig vollzogen, so dass eine verursachungsgerechte Zurechnung auf Kostenträgern nicht immer auf dem erforderlichen Detailniveau möglich ist. Ziel der Erhebung der Kosten-Nutzen-Dimension ist daher eine prozessorientierte Kostenrechnung [Schw99, S. 68ff].
Bürger/ Unternehmen
Verwaltung
Kosten/
Qualität
Dring -
Nutzen
Strategie
lichkeit
Flexibilität
Abbildung 1: Konzept zur Wirtschaftlichkeitsbetrachtung des elektronischen Bauantragsverfahrens
752
P.Wolf, H. Krcmar
Zur Erhebung der Kosten-Nutzen-Dimension wird der zu untersuchende Verwaltungsprozess auf der Basis von Dokumentenanalyse, Interviews und Gruppendiskussionen modelliert. Der monetäre Nutzen wird in Form von Einspareffekten der elektronischen Abwicklung im Vergleich zur herkömmlichen Abwicklung des Prozesses ermittelt. Daher ist auch der herkömmliche Geschäftsprozess zu ermitteln, sollte dieser aufgrund von parallel erfolgten Reorganisationsmaßnahmen vom elektronisch unterstützten Prozess abweichen. Entlang dieser Prozessmodelle werden mittels Interviews und Selbstaufschreibung Sachkosten und Zeitbedarfe (zur Berechnung von Personalkosten) je Prozessschritt erhoben. Die Erhebung von Kosten und Nutzen entlang der Prozesskette soll es schließlich ermöglichen, Unterschiede zwischen herkömmlichem und Online-Verfahren nicht nur global auszuweisen, sondern differenziert bestimmten Schritten zuordnen zu können. Erhoben werden die laufenden Kosten je Prozessdurchlauf, die über die zu erwartende jährliche Fallzahl hochgerechnet und im Falle eines Einspareffektes mit den Kosten für Einführung und laufenden Betrieb des IT-Verfahrens verrechnet werden. Die Auswertung der Kosten-Nutzen-Dimension erfolgt idealerweise im Sinne einer Prozesskostenrechnung. Allerdings führt die Qualität der verfügbaren Daten hierbei zu Einschränkungen: Personalkosten werden von Seiten der öffentlichen Verwaltung als Arbeitsplatzkosten angegeben, die eine Kombination aus leistungsmengenneutralen Kostenarten wie bspw. Bereitstellungskosten für Hardware und Software oder auch Büromöbel und leistungsmengeninduzierten Kostenarten wie bspw. Personalkosten darstellen. Derartig aggregierte Kostenarten lassen eine Definition von verursachungsgerechten Kostentreibern im Sinne der Prozesskostenrechnung nicht zu. Um dennoch eine erste Vergleichsrechnung vornehmen zu können, wurde der Ansatz der Bewertung von E-Governmentpotenzialen des BSI herangezogen, der entsprechend der erhobenen Prozessschritte angepasst wurde [Bund04]. Für jeden Prozessbeteiligten bzw. jede am Prozess beteiligte Abteilung oder Organisationseinheit werden in der in Tabelle 1 dargestellten Form die jeweils relevanten Prozessschritte zusammengestellt und die ermittelten Kostenarten für den herkömmlichen und den digitalen Abwicklungsmodus addiert. Sowohl für die Verwaltungsseite als auch für die Unternehmensseite2 können so die Kosten für einen Prozessdurchlauf nach herkömmlichem und digitalem Abwicklungsmodus summiert und miteinander verglichen werden.
2
Die vorgestellte Evaluationsmethode wurde zunächst für die Bewertung von elektronischen Unternehmensdiensten entwickelt, da hier die Quantifizierung der ‚Kundenperspektive’ leichter fällt.
Wirtschaftlichkeit von E-Government am Bsp. des elektronischen Bauantragsprozesses 753
Kosten Betrieb E-Government:
Prozessaktivitäten
Summe Kosten PersonalTagessatz Personal- Kosten Kommu- Kosten je aufwand Sachmittel (, in Eu- kosten nikation Aktivität (in Perso(in Euro) (in Euro) ro) (in Euro) (in Euro) nentagen)
Kontaktaufnahme mit Behörden(n) Prüfung der Antragsunterlagen auf Vollständigkeit Erstellung der Vorgangsdokumentation Eingangsmitteilung an den Antragsteller Mitteilung an den Antragsteller über fehlende Unterlagen Übertragung der Antragsdaten in die Fachanwendung Ämter werden um Stellungnahmen gebeten Ämter geben Stellungnahmen ab Stellungnahmen werden in den Antrag übernommen Gesamtkosten (in Euro) Tabelle 1: Auswertungsraster entsprechend des BSI-Modells Quelle: In Anlehnung an [Bund04]
754
3
3.1
P.Wolf, H. Krcmar
Untersuchung und Ergebnisse zum elektronischen Bauantragsverfahren Erhebung des Prozessmodells
Die Modellierung des Prozessmodells des Bauantragsverfahrens stellt aus mehreren Gründen ein zentrales Element der Wirtschaftlichkeitsuntersuchung und auch des Pilotprojekts zur elektronischen Bauplattform dar. Zunächst dient der Modellierungsprozess selbst als Kommunikationsinstrument zu einer frühen Phase im Pilotprojekt, um beiden beteiligten Parteien, Verwaltung und Antragsteller, Transparenz sowohl über die eigenen Schritte im Verfahren als auch über die Arbeitsgänge des jeweils anderen Partners zu verschaffen. Darüber hinaus stellt das Prozessmodell auch ein sehr anschauliches Medium dar, um Aufwände in Form von Sachkosten oder Personalzeit gezielt einzelnen Prozessschritten zuzuordnen. Die Zuordnung von Zeitaufwänden oder Materialkosten geschieht im Rahmen eines Interviews um vieles einfacher, wenn Interviewer und Interviewtem ein gemeinsames Prozessmodell mit exakt und einheitlich bezeichneten Prozessschritten vorliegt, als wenn Angaben zu abstrakten Tätigkeiten ohne Kontext gemacht werden müssen. Da in diesem Fall keine Reorganisation des Bauantragsprozesses bzw. des Genehmigungsprozesses mit der elektronischen Unterstützung einherging, war es nicht erforderlich, das Prozessmodell eines konventionellen Prozesses mit dem des elektronisch unterstützten Prozesses in Beziehung zu setzen. Stattdessen wurde ein zentrales Prozessmodell erhoben, das sowohl für die papierbasierte als auch für die elektronische Abwicklung des Baugenehmigungsverfahrens Gültigkeit hat. Die Modellierung des Bauantrags- und -genehmigungsprozesses fand im Rahmen eines Modellierungsworkshops statt, an dem Vertreter der Bauverwaltung der Stadt und Vertreter der mit Bauprojekten befassten Abteilungen des Unternehmens teilnahmen. Auf der Basis eines grob vorskizzierten Prozessmodells eines generischen Bauantragsprozesses wurde ein Modell entwickelt, das von der Idee eines Neubaus auf Unternehmensseite bis hin zur Ausstellung des Baugenehmigungsbescheides durch die Bauverwaltung alle relevanten Schritte und die jeweiligen Prozessbeteiligten abbildet. Bereits durch die Entwicklung dieses gemeinsamen Modells ergab sich für die Mitwirkenden auf beiden Seiten ein Zugewinn an Transparenz in Bereichen des Prozesses, an denen entweder nur Verwaltung oder nur Antragsteller beteiligt ist oder die nicht durch gesetzliche Vorgaben reguliert und formalisiert sind. Das im Workshop gemeinsam grafisch und textuell entwickelte und beschriebene Modell wurde anschließend in Form einer EPK abgebildet und den Teilnehmern des Workshops zur Korrektur und Ergänzung vorgelegt. Nach diesem Revisions-
Wirtschaftlichkeit von E-Government am Bsp. des elektronischen Bauantragsprozesses 755
zyklus wurde das Modell entsprechend der abgegebenen Kommentare überarbeitet (siehe Abbildung 2) und für die Evaluation genutzt.
Abbildung 2: Prozessmodell des Bauantrags- und –genehmigungsverfahrens
756
3.2
P.Wolf, H. Krcmar
Erhebung der Kosten-Nutzen-Dimension
Die Beteiligten des Pilotprojektes gaben von Anfang an zu Bedenken, dass im Rahmen eines Zeitraums von etwa 4-6 Monaten nur wenig belastbare Zahlen zu Kosten- und Nutzen-Effekten der elektronischen Bauplattform zu gewinnen sein würden, da mangelnde Erfahrung und Routine mit dem neuen Informationssystem und auch die begrenzte Spannweite der in dieser Zeit beantragten Bauprojekte keine repräsentativen Aussagen über einen Echtbetrieb erlauben. Diese Einwände sind durchaus plausibel, allerdings stellt sich diese Situation bei jedem Testbetrieb eines neuen Systems, und dennoch ist eine Abschätzung der Wirtschaftlichkeit erforderlich, um über Fortsetzung oder Abbruch des Projekts entscheiden zu können. Auf dieser Basis wurden Zahlen zu Sachkosten und Personalaufwänden erhoben, der Unsicherheitsfaktor der Schätzwerte insbesondere zu den Werten bezüglich der elektronischen Abwicklung wurde bewusst in Kauf genommen, um immerhin zu einer tendenziellen Aussage zu kommen. Bei der Beurteilung der Ergebnisse sollte dies aber in Betracht gezogen werden. Auch wurde das Verfahren zur Berechnung der Wirtschaftlichkeit diesem Umstand angepasst: Laufende Sachkosten und Personalaufwände werden sowohl für den papierbasierten als auch für den elektronisch abgewickelten Prozess erhoben und miteinander verglichen. Die ermittelte Einsparung wird nun mit Erfahrungswerten zu jährlichen Fallzahlen an Baugenehmigungen und den bekannten Zusatzkosten für den Betrieb der Bauplattform in Beziehung gesetzt. Methodisch stringentere Verfahren wie bspw. eine regelgerechte Prozesskostenrechnung würden hier einen falschen Eindruck von Genauigkeit der berechneten Zahlen vermitteln. Zur konkreten Erhebung der Kosten von herkömmlicher und elektronischer Prozessabwicklung wurde das Prozessmodell in Unterabschnitte geteilt und die an den jeweiligen Prozessabschnitten beteiligten Mitarbeiter auf Verwaltungsseite und Unternehmensseite gebeten, Aufwände für Sachmittel und Arbeitszeit entlang der Prozessschritte für beide Abwicklungsarten anzugeben (siehe Abbildung 3).
Wirtschaftlichkeit von E-Government am Bsp. des elektronischen Bauantragsprozesses 757
x
Wie viel Zeit entfällt auf Bauamtsseite auf Liegezeiten der Dokumente (in Stunden bzw. ggf. in Arbeitstagen)? Papier.: _______ elektronisch.: ______
x
Wie viel Zeit entfällt auf Bauamtsseite auf Transportwege der Dokumente (in Stunden bzw. ggf. in Arbeitstagen)? Papier.: _______ elektronisch.: ______
x
Welche Kosten entstehen auf Bauamtsseite für die Kommunikation/ Abstimmung mit den zu beteiligenden/ beteiligten Stellen? Papier.: _______ elektronisch.: ______
Abbildung 3: Fragenbeispiel für die Erhebung der Kosten/ Nutzen-Dimension
758
3.3
P.Wolf, H. Krcmar
Erhebung der Dimensionen Qualität/Strategie, Dringlichkeit und Flexibilität
Die Dimensionen Qualität/Strategie, Dringlichkeit und Flexibilität wurden entsprechend den Vorgaben der WiBe21 erhoben, d.h. es wurde ein standardisierter Fragebogen entwickelt, der Kriterien zu Qualität/Strategie, Dringlichkeit und Flexibilität umfasste. Die Ermittlung der qualitativen Dimensionen des WiBeModells zielt darauf ab, die Ablösedringlichkeit eines bisher eingesetzten Verfahrens zu ermitteln. Die Kriterien sind so gewählt, dass sie den Grad der Erfüllung einer (E-Government-)Zielsetzung abbilden. Je besser das bisherige System eine Zielsetzung oder ein Kriterium erfüllt, desto weniger Punkte werden vergeben und umso geringer ist der Ablösungsbedarf des Systems oder Verfahrens. Zu den beiden erst genannten Dimensionen wurden Kriterien aus dem WiBeKatalog entnommen, die Kriterien zur Dimension Flexibilität wurden neu entwickelt. Auf der Basis der ausgewählten Kriterien wurden zwei Varianten des Fragebogens entworfen, da die Dimension Dringlichkeit, d.h. Ablösedruck des bisherigen Abwicklungsmodus aufgrund gesetzlicher Vorgaben o.ä., nur auf Seiten der Verwaltung relevant ist. Im Unterschied zum WiBe-Verfahren wurde ein Teil der Kriterien parallel sowohl für den papierbasierten Prozess als auch für den elektronisch unterstützen Prozess abgefragt, um nicht nur eine Ablösedringlichkeit sondern auch einen direkten Vergleich ermitteln zu können. Können in dem betreffenden Abwicklungsmodus Statusinformationen bezogen werden? (Zutreffendes bitte ankreuzen) In vollem Umfang möglich
Eingeschränkt Weitgehend
Eingeschränkt
nur mit großem
möglich
möglich
Aufwand möglich
Nur in Standardfällen möglich
Nicht möglich
Papier digital
Abbildung 4: Beispielfrage nach erweiterten WiBe-Dimensionen
Neben der Beantwortung der standardisierten Fragen in Form von Punktewertungen, gab die Erläuterung der jeweiligen Fragestellung durch den Interviewer auch Gelegenheit, Themen wie ‚Verbesserung der Sachgerechtigkeit der Entscheidungen durch die digitale Abwicklung’ oder ‚Transparenz des Prozesses nach innen’ zu diskutieren. Hier wurde von den beteiligten Verwaltungsstellen angemerkt, dass sich an der Möglichkeit, alle relevanten Faktoren zu berücksichtigen und so sachgerechte Entscheidungen zu treffen nichts ändere, allerdings werde es durch
Wirtschaftlichkeit von E-Government am Bsp. des elektronischen Bauantragsprozesses 759
die elektronische Unterstützung einfacher, mehr Fachleute an der Beurteilung zu beteiligen, die Kooperation der Beteiligten im Sinne von gegenseitiger Abstimmung werde vereinfacht.
3.4
Auswertung und Ergebnisse der Kosten-Nutzendimension
Aktivitäten potenzielle interne und externe Kooperationspartner identifizieren rechtliche Rahmenbedingungen/ Kompetenzen klären Kontaktaufnahme mit Behörde(n) Einbindung faktisch erforderlicher Kooperationspartner Einbindung der Angrenzer Einreichen der Planungsdokumente Mitteilung von der Behörde über Eingang der Planungsdokumente Nachreichen fehlender Unterlagen Überarbeiten der Unterlagen auf Veranlassung der Angrenzer Überarbeiten der Unterlagen aufgrund v. Stellungnahmen der Fachämter Gesamteinsparung
Summe EinEinsparung Einsparung Einsparung Personal- Sachmittel Kommunikation sparung in Euro in Euro kosten je Aktivität 0
0
0
0
0
0
0
0
180
0
0
180
0 100
2000 50
200 0
2200 150
230
250
130
610
0 800
0 130
0 0
0 930
0
0
0
0
0 1310
0 2430
0 330
0 4070
Tabelle 2: Beispieltabelle (Antragsteller) für die Auswertung der Kosten-NutzenDimension
Die entlang der Prozessabschnitte ermittelten Werte für Sachkosten und Personalaufwände wurden wie oben dargestellt zunächst für jede einzelne beteiligte Stelle oder Abteilung gelistet und aus der Differenz zwischen Papierform und elektronischer Form das Einsparpotenzial der Bauplattform je Prozessdurchlauf ermittelt. Dabei sollte beachtet werden, dass die angegebenen Beträge nur Näherungswerte sind und sie deshalb in gerundeter Form übernommen wurden. Insbesondere im Bereich Liegezeiten und Transportzeiten lassen sich auf Seiten der Unternehmen und auch der Bauverwaltung Einspareffekte durch die elektronische Abwicklung verzeichnen. Verringerungen der Transportzeiten von mehreren Tagen hin zu wenigen Minuten sind keine Seltenheit. Allerdings schlägt sich dies
760
P.Wolf, H. Krcmar
nicht direkt auf die Gesamtbearbeitungszeit nieder, da nach wie vor Liegezeiten durch Bearbeitungsverzögerungen entstehen. Das Aufkommen von Materialkosten bspw. beim Erstellen von Planungsdokumenten für den Bauantrag wird unterschiedlich bewertet. Auf Unternehmensseite liegen hier große Einsparpotenziale, die mit über 2000,- Euro pro Bauantrag beziffert werden. Auf Verwaltungsseite hingegen werden an dieser Stelle eher noch zusätzliche Kosten vermutet, da Ausdrucke von Plänen nach wie vor erforderlich sind und nun nicht mehr vom Antragsteller geliefert werden. Für einen beispielhaften Bauantrag kann auf der Basis des oben dargestellten Rasters für das beteiligte Bauordnungsamt ein Einsparpotenzial von über 1800,- Euro errechnet werden, während die Berechnung für die federführende Abteilung auf Unternehmensseite eine mögliche Einsparung von über 4000,- Euro durch die elektronische Abwicklung ergibt.
Umwelt
2650
Feuerwehr
520
Arbeitssicherheit
830
Abteilung v
2210
Abteilung x
4060
Unternehmen gesamt in EURO
10280 0
2000
4000
6000
8000
10000
Abbildung 5: Einsparpotenzial je Prozessdurchlauf bei elektronischer Abwicklung auf 3 Unternehmensseite.
Auf beiden Seiten ergibt sich bei einer Gesamtbetrachtung natürlich ein differenzierteres Bild, es gibt Stellen mit vergleichsweise hohem Einsparpotenzial und Stellen, die nur wenig oder keine Zeit- oder Kostenersparnis im Vergleich zur herkömmlichen Abwicklung aufweisen. Allerdings muss hier auch der mangelnden Routine mit dem neuen System und dem Pilotcharakter des Projekts Rechnung getragen werden.
3
Die Bezeichnung der Abteilungen sind hier verfremdet, um die Anonymität zu wahren.
Wirtschaftlichkeit von E-Government am Bsp. des elektronischen Bauantragsprozesses 761
Da nicht alle beteiligten Stellen auf Unternehmensseite quantifizierte Angaben zu Zeit- und Sachkostenaufwänden für die papierbasierte oder elektronische Abwicklung eines Bauantrags machen konnten, wurden ausgehend von bekannten Aufwänden Äquivalentberechnungen angestellt. Den Äquivalentberechnungen liegt eine relative Bewertung der Aufwandsanteile der an einem Bauantrag beteiligten Stellen auf Unternehmensseite zugrunde: Beteiligte Stelle
Aufwandsindex
Abteilung x
100
Abteilung y
50
Arbeitssicherheit
20
Feuerwehr
20
Umweltschutz
30
Tabelle 3: Aufwandsanteile bei der Erstellung eines Bauantrags
Für Mitarbeiter aus Abteilung x liegen vollständige, quantifizierte Angaben zur papierbasierten und zur elektronischen Abwicklung eines Bauantrages vor. Von anderen Abteilungen gibt es unvollständige quantifizierte Angaben: 1. Einige Stellen gaben an den betreffenden Prozessschritten Einsparpotenziale in Prozentwerten an, denen jedoch keine absoluten Ausgangswerte hinzugefügt wurden. 2. Andere Stellen gaben lediglich Prozessschritte an, an denen Einsparpotenzial realisiert wird ohne jede Angabe, in welcher Höhe die Einsparungen sind. Ausgehend von vollständigen Angaben aus der Abteilung x wurden im Fall 1 absolute Ausgangswerte aus dem Produkt des für Abteilung x angegebenen Wertes und dem Indexwert für die betreffende Abteilung gebildet. Beispiel Angaben von Abteilung y: Zeitaufwand für die Vorabklärung mit dem Bauamt in Stunden ggf. Arbeitstagen? Herkömmliches Verfahren: 100%
Online-Verfahren: 50%
Hier wurde für den 100%-Wert im herkömmlichen Verfahren der für Abteilung x angegebenen Wert (4 h) mit dem Indexwert für Abteilung y (50%) multipliziert, daraus ergibt sich für die weitere Berechnung: Herkömmliches Verfahren: 2 h
Online-Verfahren: 1 h
Im Fall 2 wurde darüber hinaus ein Einsparpotenzial von 50% angenommen, was etwa dem durchschnittlich angegebenen Einsparpotenzial entspricht.
762
P.Wolf, H. Krcmar
Auf Seiten der Kommunalverwaltung konnten von zwei beteiligten Ämtern detaillierte Angaben gemacht werden, allerdings ergibt sich nur für eines der befragten Ämter ein Einspareffekt durch die elektronische Abwicklung.
Umweltamt
0
Stadtplanung
1900
Stadt gesamt
1900
in EURO
0
500
1000
1500
2000
Abbildung 6: Einsparpotenzial je Prozessdurchlauf bei elektronischer Abwicklung auf Verwaltungsseite.
3.5
Auswertung und Ergebnisse der Dimensionen Qualität/Strategie und Flexibilität
Die Auswertung des erhobenen Materials erfolgt entlang des angepassten WiBeRasters, das für die einzelnen abgefragten Evaluationsdimensionen Punkte vergibt und gewichtet. Das WiBe-Verfahren untersucht in erster Linie den bisherigen Abwicklungsmodus unter dem Fokus der so erzielbaren Qualität oder gesetzeskonformen Prozessabwicklung. Im Rahmen der Auswertung werden nun die für jede Dimension ermittelten Punkte gewichtet und – getrennt für den herkömmlichen und den digitalen Abwicklungsmodus – addiert. Per Definition der Gewichtungsfaktoren können in jeder Dimension maximal 1000 Punkte erreicht werden. Das WiBe-Konzept sieht vor, dass ab Erreichen eines Wertes über 500 Punkten in einer Dimension die Ablösung des bisherigen Abwicklungsmodus zu empfehlen ist. Zum Vergleich werden auch die Punktebewertungen für den digitalen Abwicklungsmodus addiert, um zu überprüfen, ob auf diesem Wege tatsächlich eine Verbesserung zu erzielen ist. Die Dimension Dringlichkeit bspw. zeigt positivere Werte für den herkömmlichen Abwicklungsmodus. Die ausstehende gesetzliche Regelung der digitalen Abwicklung des Bauantragsverfahrens und insbesondere der Archivierung digitaler Prozessdokumentationen sorgt hier für schlechte Noten für die elektronische Abwicklung im Vergleich zum gesetzlich abgesicherten herkömmlichen Weg.
Wirtschaftlichkeit von E-Government am Bsp. des elektronischen Bauantragsprozesses 763
Insgesamt zeigen sich sowohl die Interviewpartner auf Seiten der Kommunalverwaltung als auch auf Seiten des Unternehmens vorsichtig bei der Bewertung der Dimensionen Qualität/Strategie, Flexibilität und Dringlichkeit. Keine der drei Dimensionen erreicht einen Wert über 500 Punkten, d.h. die eindeutige Empfehlung, das papierbasierte Verfahren durch die elektronische Abwicklung abzulösen. Allerdings werden in der Dimension Flexibilität immerhin deutlich über 400 Punkte erzielt (Qualität/Strategie rd. 300, Dringlichkeit, rd. 190), d.h. hier werden die größten Vorteile der Bauplattform im Vergleich zur herkömmlichen Abwicklung gesehen.
4
Fazit
Viele Erwartungen und Anforderungen an E-Government wie bspw. mehr Transparenz von Verwaltungsprozessen oder Verbesserung der Dienstleistungsqualität können dauerhaft nur erzielt und finanziert werden, wenn die entsprechenden EGovernment-Projekte auch ihre Wirtschaftlichkeit unter Beweis stellen. Der Nachweis der Wirtschaftlichkeit von E-Government-Projekten gestaltet sich allerdings insbesondere auf Seiten der öffentlichen Verwaltung als schwierig, da hier die kostenrechnerischen Voraussetzungen zur verursachungsgerechten Zurechnung und dem Vergleich von Prozesskosten häufig noch nicht gegeben sind. Unter diesen Voraussetzungen stellt das vorgestellte Konzept zur Wirtschaftlichkeitsuntersuchung einen handhabbaren Ansatz dar, der auch bei eingeschränkter Verfügbarkeit von Daten einen ersten Eindruck der Kosten-Nutzen-Situation eines E-Government-Projektes erlaubt. Darüber hinaus liefert die Modellierung des zu untersuchenden Verwaltungsprozesses bereits wertvolle Einsichten und einen Gewinn an Transparenz für alle Beteiligten. Schließlich ergänzen die Untersuchungsdimensionen Qualität, Dringlichkeit und Flexibilität das Evaluationsergebnis zu einem ganzheitlichen Bild von E-Government. Auch bei einem ausgeglichenen Kostenvergleich von herkömmlichem und digitalem Abwicklungsmodus kann bspw. das Ergebnis des Qualitätsvergleichs den entscheidenden Ausschlag geben. Die Ergebnisse der Wirtschaftlichkeitsuntersuchung für das Pilotprojekt der elektronischen Bauplattform sind ermutigend, obgleich ihre kostenrechnerische Belastbarkeit natürlich begrenzt ist. Sie zeigen, dass sich E-Government tatsächlich rechnen kann und dass es lohnt, diesen Nachweis auch zu führen.
764
P.Wolf, H. Krcmar
Literatur [Bund04] Bundesamt für Sicherheit in der Informationstechnik: E-Government-Handbuch: http://www.bsi.de/fachthem/egov/3.htm, 2004, Abruf am 2004-02-16. [FiSc00] Finger, S.; Schwiering, K.: Erfassung der Kostenwirkung von Electronic Government mit Hilfe der Kostenrechnung. In: Budäus, D.; Küppe, W.; Streitferdt, L. (Hrsg.): Neues Öffentliches Rechnungswesen - Stand und Perspektiven. Gabler: Wiesbaden, 2000, S. 421-447. [Ger+00] Gerlinger, A.; Buresch, A.; Krcmar, H.: Prozeßorientierte IV-Leistungsverrechnung. In: Krcmar, H.; Buresch, A.; Reb, M. (Hrsg.), IV-Controlling auf dem Prüfstand. Gabler: Wiesbaden, 2000, S. 105-134. [Hage01] Hagen, M.: Ein Referenzmodell für Online-Transaktionssysteme im Electronic Government. Hampp: München, 2001. [Krcm03] Krcmar, H.: Informationsmanagement. (3 Auflage). Springer: Berlin et al., 2003. [KrcBu00] Krcmar, H.; Buresch, A.: IV-Controlling - Ein Rahmenkonzept. In: Krcmar, H.; Buresch, A.; Reb, M. (Hrsg.): IV-Controlling auf dem Prüfstand. Gabler: Wiesbaden, 2000, S. 1-19. [Mil+04] Millard, J.; Iversen, J.S.; Kubicek, H.; Westholm, H.; Cimander, R.: Reorganisation of Government Back Offices for Better Electronic Public Services - European Good Practices, 2004. [o.A.o.J.] o.A. (o.J.). Die MediaKomm Bauplattform. In: http://www.bauen.esslingen.de/, zugegriffen am 14.10.2004. [Rei+98] Reichwald, R.; Möslein, K.; Sachenbacher, H.; Englberger, H.; Oldenburg, S.: Telekooperation: Verteilte Arbeits- und Organisationsformen. Springer: Berlin et al., 1998. [Röth01] Röthig, P.: WiBe21 - Empfehlung zur Durchführung von Wirtschaftlichkeitsbetrachtungen in der Bundesverwaltung, insbesondere beim Einsatz der IT. http://www.kbst.bund.de, Abruf am 2002-08-12. [Sche+96] Scheer, A.-W.; Nüttgens, M.; Zimmermann, V.: Business Process Reengineering in der Verwaltung (129): Universität des Saarlandes, 1996. [Schw99] Schwarze, J.: Funktionen und Leistungsfähigkeit der Prozesskostenrechnung für öffentlichen Verwaltungen. In: Budäus, D.; Gronbach, P. (Hrsg.): Umsetzung neuer Rechnungs- und Informationssysteme in innovativen Verwaltungen. Rudolf Haufe: Freiburg i. Br. et al., 1999, S. 55-80. [WoKr03] Wolf, P.; Krcmar, H.: Wirtschaftlichkeit von elektronischen Bürgerservices eine Bestandsaufnahme. Paper presented at the 6. Internationale Tagung Wirtschaftsinformatik 2003, Dresden.
Einführung in den Track eLearning @work, @move, @home Freimut Bodendorf Universität Erlangen-Nürnberg
Dieter Euler Universität St. Gallen
Richard Straub IBM „Am Anfang waren alle begeistert, pumpten wahllos Geld hinein und bauten sich virtuelle Luftschlösser. Dann erfüllten sich viele Erwartungen nicht, Geld versandete, Träume zerplatzten. Jetzt werden die Scherben zusammengekehrt. Und dabei wird entdeckt, dass nicht alles, was nun am Boden liegt, auch wirklich missglückt ist. So ist es mit dem E-Business der New Economy – und auch mit dem ELearning ...“ Drastische Worte, mit denen die Süddeutsche Zeitung die Ergebnisse eines Förderprogramms in Deutschland kommentiert, in dem die Bundesregierung einige 100 Millionen Euro zur Verbesserung der Lehre mit Hilfe von neuen Medien bereitstellte. Die Pointe des Beitrags ließe sich in die Sätze kleiden: Vieles wurde verändert – es hat sich aber nicht viel geändert! Viel Edu-Action – wenig Education! Die Aussagen mögen journalistisch überzogen sein, in der Tendenz bringen sie jedoch eine verbreitete Stimmung zum Ausdruck. Eine attraktive, aber durch zuviel Marketingspeck häufig auch unscharfe Programmatik konnte bislang nicht hinreichend implementiert werden, viele eLearning-Projekte drohen nach dem Auslaufen der Fördermittel zu versanden. Vor diesem Hintergrund stellen sich einige Fragen: Stellen die in den vergangenen Jahren entwickelten eLearning-Produkte wirklich Lernumgebungen dar, die einen Mehrwert gegenüber traditionellen Lernformen begründen? Wie kann der Prozess einer nachhaltigen Implementierung von eLearning-Innovationen gestaltet werden? Welche Theorien und Erfahrungen liegen vor, die eine Gestaltung des Implementierungsprozesses unterstützen können? Bei der Behandlung dieser Fragen wiegen pädagogisch-didaktische Aspekte ebenso schwer wie technologische Einflüsse. Retrospektiv sind Wellenbewegungen zu erkennen. Phasen der IT-getriebenen Begeisterung lösten sich mit Phasen der Ernüchterung ab. So meinte man, mit der Verbreitung von Personalcomputern die
766
eLearning @work, @move, @home
Akzeptanz von Lernprogrammen stark steigern zu können. Als die PCs multimediafähig wurden und damit die Präsentationen am Bildschirm ansprechender gestaltet werden konnten, wurde ein Neubeginn des medienunterstützten Lehrens und Lernens prognostiziert. Der große Durchbruch blieb jedoch auch hier aus. Im angebrochenen Zeitalter des Internet und des Ubiquitous Computing, d.h. der Allgegenwärtigkeit und Verfügbarkeit von Medien- und Kommunikationstechnologie, erwartet man ein weiteres Mal eine Beflügelung des „eLearning“. Es trifft zu, dass die Computernutzung im Geschäftsleben wie auch im Privatbereich immer mehr zu einer alltäglichen Selbstverständlichkeit wird. Schlagworte wie „Internet Society“ oder „Informations- und Wissensgesellschaft“ sind geprägt. Es stellt sich jedoch die Frage, welche technischen Möglichkeiten in welchen Situationen auf welche Art sinnvollerweise eingesetzt werden können bzw. sollten. Die Frage nach dem Sinn und Nutzen ist dabei interdisziplinär und nur gemeinsam von Wirtschaftsinformatikern, Pädagogen, Psychologen, Technikern, Wirtschaftswissenschaftlern usw. zu behandeln, um zu tragfähigen längerfristigen Perspektiven zu gelangen. Wie erwähnt, sind nachhaltige(!) eLearning-Innovationen gefordert.
Track-Programmkomitee Prof. Dr. Freimut Bodendorf, Universität Erlangen-Nürnberg (Chair) Prof. Dr. Dieter Euler, Universität St. Gallen (Chair) Richard Straub, IBM (Chair) Prof. Dr. Detlef Buschfeld, Universität zu Köln Prof. Dr. Firoz Kaderali, Fernuniversität Hagen Prof. Dr. Michael Kerres, Universität Duisburg-Essen Prof. Dr. Torsten Kühlmann, Universität Bayreuth Prof. Dr. Wolfgang Renninger, Fachhochschule Amberg-Weiden Dr. Manfred Schertler, Universität Erlangen-Nürnberg Prof. Dr. Karl Wilbers, Universität St. Gallen
Learning from Experience: Towards a Formal Model for Contextualization of Experiences for Quality Development Markus Bick, Ulf-D. Ehlers, Jan M. Pawlowski, Heimo H. Adelsberger University of Duisburg-Essen
Abstract: Quality development in e-learning becomes more and more important. A variety of quality approaches have been developed to improve educational processes in this field. The implementation of these approaches, however, often lacks success. One important reason is that experiences and recommendations are not systematically utilized for the implementation processes. The following article suggests a formal approach to collect and share experiences and recommendations to help users of quality approaches enhance their success by reusing experiences of others. Based on knowledge management principles, the contextualization of experiences will help to transfer them from one specific situation to a different context. The suggested approach is a result of the European Quality Observatory, an analysis and information platform for quality approaches in European e-learning. Keywords: Experience Sharing, Quality Management, Knowledge Management, Quality Decision Process
1
Introduction
The number of quality approaches that have been developed for the different educational fields, along with the large number of methods (such as criteria lists, guidelines, management approaches), has grown to an unmanageable amount (a comprehensive overview can be found in [EhPG2003]). However, it is not just the number which makes it difficult to select a suitable approach, but the often divergent intentions and recommendations of the approaches as well. On the European level, this problem becomes even more severe because of different cultural contexts, languages, and educational systems come in, resulting in a vast multitude of diverse regional and differentiated sectoral approaches. Therefore, the decision which quality approach is suitable for an educational organization is a highly complex task – which envisioned as a decision process – can
768
M. Bick, U.-D. Ehlers, J. M. Pawlowski, H. H. Adelsberger
be called the Quality Decision Process. This paper describes how experiences made by users of quality approaches can be described and structured in a standardized way and thus become searchable and accessible. We show how the quality decision process as well as the process to use and implement quality approaches can be supported by using knowledge management principles: the formalization and reuse of experiences to improve quality development. The proposed method for this ambitious aim is to construct a formal model which allows to analyze experiences, and to specify recommendations against the background of their contexts. The difficulties and the boundaries of such an approach are quite clear from beginning: can there be something like a generalization of experiences – defined as perceptions in a specific context – at all? The methodology we propose to enhance quality development is based on formal description models to enhance decision processes and to make recommendations according to certain characteristics. We provide solutions to analyze and compare quality approaches and thus improve the fit between organizational and individual requirements and the selection of quality approaches resp. strategies. With this work we reach beyond a methodology for choosing and recommending quality approaches – developments which are already implemented in the “European Quality Observatory (EQO)”, a European portal for e-learning quality. The mechanisms already implemented there provide support for quality development in e-learning through profile based recommendation mechanisms [MaSa2004]. With this paper we are also looking into combinations of knowledge management approaches and quality development because we believe that apart from finding the appropriate solution, the implementation process is of critical importance for the success of every quality project in organizational contexts.
2
2.1
Knowledge Management for Quality Development in E-Learning Quality Development in E-Learning – a Learning Cycle Building on Experiences
Quality in e-learning decides over success or failure for this form of learning. This is quite clear today – on a national level as well on an international level. However, because of the nature of the concept “quality”, what it means is highly depending on perspectives and contexts, and how it is achieved is a field of great debates. Today, it is apparent that quality on the one hand is a very important factor on all educational levels in European education, but on the other hand is a moving target without clear cut definitions, understandings, and ways to achieve it. We
Learning from Experience
769
have described reasons and dimensions for that in [Ehle+03b, Ehle2004] which state that quality in e-learning in Europe is a field of great diversity: Many different approaches on different levels, for different educational sectors, contexts, and target groups compete with each other in the area of quality management, assurance, and assessment. Not only different techniques and methods to enhance quality in e-learning are used here, but also different levels of educational quality in the various approaches, and different concepts of quality itself can be recognized (e.g., pedagogical quality, technological quality, economical quality, etc.). Approaching this field on a European level (i.e., beyond the borders of national discourses) makes it even more complex. The problem with finding a suitable approach for a specific educational purpose, e.g., improving the learner support in an e-learning course for secretaries, is no longer that there are too few approaches to choose from, but rather that it is difficult to structure the divers field of approaches properly, and to map a set of requirements against the approaches available. The European Quality Observatory (http://www.eqo.info) addresses this problem by providing a formal model for describing quality approaches and thus making them comparable and searchable in a database. However, it becomes more and more evident that quality development is not only a matter of finding a suitable approach but also strongly depends on an appropriate implementation process, and moreover on aspects which vary from context to context: Staff trainings, motivational conditions, organizational restructuring processes, costs, and alike. Depending on how much quality development focuses on changing, resp. redefining individual work patterns, believes, and values, it can be envisioned as a learning process itself. For organizations, we consider three possible groups of strategies for quality development. The first group of strategies we call official external strategy, the second we call official internal strategy and the third groups of strategies we call implicit strategies: x Official External Strategy: Quality strategies or instruments coming from externally adopted approaches (e.g., ISO, EFQM, BAOL Quality Mark) x Official Internal Strategy: Quality strategies that are developed within an organisation but still apply to the organisation as a whole or parts of it specifically x Implicit strategies: Quality development which is not part of an official strategy but rather left to individuals’ professional activities. For the two official strategies, quality development is part of the official organizational policy. Quality in these cases can be envisioned as a learning cycle rather than an isolated single occasion. It usually aims at changing organizational processes and addresses actors to change their “traditional” patterns of behavior. Quality development in those cases deals with applying new rules and proceedings but it will only be successful if it aims at stimulating awareness for quality improve-
770
M. Bick, U.-D. Ehlers, J. M. Pawlowski, H. H. Adelsberger
ment on the side of the organizations’ members. Therefore, quality development in an organization always builds on changing behavior, competencies, and believes of its members. At this point it becomes quite obvious that mechanisms which apply to learning and knowledge management processes also apply to organizational change processes in form of quality development. To enable organizational actors to learn from others’ experiences, e.g., of previous implementation processes, therefore bears important potential to raise success of quality improvement processes in education. It becomes clear that one important factor of quality development – apart from a methodology and a value model – is knowledge management which aims at stimulating learning processes in actors’ competence development processes. Our research in this field addresses aspects of success and failure in implementation of quality improvement strategies. It means to explore, classify, and assess the impact which quality approaches have on the various processes of the educational environment, and to gain knowledge about implementation processes. Therefore – apart from describing quality approaches – we are concerned with finding formal, generic description categories for experiences and recommendations which users of quality approaches have. In order to make such experiences reusable, they have to be analyzed according to the related context. The identification of such attributes enables transfer of experiences into different contexts. This leads to the conclusion, that research on the experiences which organizations’ individual actors make, during and after the implementation process of quality approaches, is necessary. More knowledge is needed about the context factors which determine success or failure of quality approaches, and about how quality approaches can/should be adapted according to those contexts. In addition research about the possibility of transferring relevant experiences from one to another context is necessary. The aim is to derive generalizable knowledge from the analysis of subjective perceived effects of the implementation and use of quality approaches in specific contexts. Learning from experiences thus means to find recommendations from implementation and usage experiences.
2.2
Learning to Share Experiences from Knowledge Management
Reuse and transfer of knowledge is one important element for improvement – as we have seen both in the field of knowledge management as well as in the field of quality development. As described above, the reuse of experiences can become an important factor for quality development in education as well. However, especially in the field of education, reusing and assessing experiences for quality development purposes is fairly new ground. In the following we show how knowledge management concepts can be applied to the above mentioned learning and decision processes. This work is based on previous work as described in
Learning from Experience
771
[ABLP2004]. During the past decade, knowledge management has emerged as one of the most important and widespread management issues. Knowledge management finds its origins in a desire to learn from mistakes and to hinder the “reinvention of the wheel” in organizations [ReRa2001]. In the past decade, the importance of knowledge as a key resource has become well established (cf., e.g., [Druc94; Maie2002]). We use a definition of knowledge management by MAIER which is on the one hand general enough to support all kinds of different knowledge areas and on the other hand regards management in a functional sense: “Knowledge management is defined as the management function responsible for the regular selection, implementation, and evaluation of goal-oriented knowledge strategies that aim at improving an organizations’ way of handling knowledge internal and external to the organization in order to improve organizational performance. The implementation of knowledge strategies comprises all personoriented, organizational, and technological instruments suitable to dynamically optimize the organization-wide level of competencies, education, and ability to learn of the members of the organization as well as to develop collective intelligence.” [Maie2002, 55] Although MAIERS’ definition has a slightly technocratic notion and it could be debated wheather it is possible at all to stimulate individual competency development through external strategies, we still want to use an important distinction. According to this definition, two approaches to knowledge management exist: human-oriented (personalization strategy) and technology-oriented (codification strategy) [HaNT1999; Lehn2000]. This terminology shows the two sides of knowledge management which can be differentiated between (see also Table 1): x Human-oriented/personalization strategy: Knowledge is closely tied to the person who constructed it. Knowledge is mainly shared through direct personto-person contacts. Information and communitcation technology (ICT) just supports people to communicate knowledge, not to store it. One example in our context is experience sharing within a community or within an organizational context in which activity patterns change and people share their experiences because of quality development processes. x Technology-oriented/codification strategy: This strategy addresses the computer technology resp. ICT: Information is (carefully) codified and stored in ‘databases’ where it can be accessed and used easily [HaNT1999]. The formal model of experiences is an example which could be used in the frame of such a strategy to supply people with a standardized set of infomration. Besides this, more recent knowledge management approaches suggest to follow a holistic approach of knowledge management, bridging the gap between humanoriented and technology-oriented knowledge management [Albr1993; Lehn2000]. Hansen et al. [HaNT1999] identified certain strategy-mixes within their survey: A
772
M. Bick, U.-D. Ehlers, J. M. Pawlowski, H. H. Adelsberger
company pursues one strategy predominantly and uses the second strategy to support the first. human-oriented knowledge management strategy
technology-oriented
Personalization
Codification
comprehension of knowledge
knowledge is contained in peoples head
Knowledge is rather understood as stored, documented information, detached from employees
actors/roles
knowledge worker, networks, and communities of interest
authors, experts, information broker
knowledge management systems (KMS)
interactive knowledge management systems
integrative knowledge management systems
communication and cooperation, allocation of experts, community-support, human captial management Community, expert network, experience sharing
publication, structuring and integration, search, presentation and visualization of information elements Formal experiences, analysis model
important knowledge management system functions EQO component
Table 1: Classification of Knowledge Management Approaches and Systems based on [MaHä2001]
ICT is the enabler for knowledge management activities, especially technologyoriented knowledge management. Correspondingly, a great variety of so called knowledge management systems (KMS) arose (cf., e.g., [EpSe2000; Lehn2000; Klos2001; Maie2002]). With regard to the above mentioned knowledge management approaches (see Table 1), we can derive a distinction between integrative knowledge management systems, focussing on method-, product-, and process knowledge, and interactive knowledge management systems, focussing personoriented knowledge [MaHä2001; Maie2002b]: x Integrative knowledge management systems: support the codification of information search and retrieval as well as the administration of information repositories and the organization of knowledge structures. The European Quality Observatory provides methods for codification, search, and retrieval. x Interactive knowledge management systems: support location of experts, their communication and collaboration, provides shared homespaces for communities, and modern e-learning instruments. The European Quality Observatory
Learning from Experience
773
provides a community in this context, including possibilties to improve communication and cooperation. People can therefore get in contact about their quality development strategies and challenges, offer their knowledge, and reflect on experiences. Furthermore, MAIER [Maie01] identifies functions bridging the gap between knowledge integration and knowledge interaction, especially for supporting knowledge intensive (business) processes. In our context, the specific (business) process is the choice and implementation of quality approaches for educational organizations (see also next section). In this respect, we link business processes to knowledge management processes in our concept. In our view, this link is crucial to every qality development process – including the subprocesses of choosing the right strategy and implementing/introducing a quality strategy into an organization. The term process is used with respect to knowledge management in three connotations [Remu02]: x knowledge-intensive operative (business) process denotes a (business) process that relies substantially on knowledge and relates to organizations core competencies on the operative level: e.g., choice and implementation of a quality approach for an organization. x knowledge process refers to a dedicated service- or support process which supports the flow of knowledge within and between knowledge-intensive operative (business) processes: e.g., search, analysis, etc. x knowledge management process is a ‘meta’-process that is responsible for the extensive implementation of the knowledge management initiative: e.g., organizational instruments, ICT instruments, controlling, etc.
774
M. Bick, U.-D. Ehlers, J. M. Pawlowski, H. H. Adelsberger
Figure 1 depicts the link between knowledge-intensive (operative) business processes and knowledge processes. strategy
processes
content/ topic
instruments/ systems
knowledge base processes
knowledge life cycle
Figure 1: Process orientation according to [Remu02]
As we have shown in this chapter, the complex Quality Decision Process as a knowledge intensive (business) process can be supported by different knowledge management strategies, such as codification and personalization. Moreover the introduction or implementation process relates to such processes as well.
3
European Quality Observatory – Providing a Decision Cycle for Quality Strategies
The European Quality Observatory (EQO) is an information, knowledge, and support source for educational institutions and other organizations, as well as for users. In the following, EQOs’ contribution to the previously presented Quality Decision Process is shown and the decision process – envisioned as a cycle – itself will be described. The Quality Decision Process consists of four phases (see Figure 2). In the first phase, quality apporaches are collected. These approaches are analyzed using the so called EQO Model – the EQO model is a conceptual model to describe, compare, and analyze quality approaches (for EQO model: [EHPT2004] or
Learning from Experience
775
http://www.eqo.info). After this analysis, usually several quality approaches are chosen as alternative solutions for an organization – this decision process is based on preference profiles which we provide for assesment. Finally, a decision for one apporach is made – the approach then needs to be adapted and in parts be redefined, leading to an organization-specific approach. Figure 2 shows the decision process and the results of the harmonization.
Figure 2: Quality Decision Process [EhPa2004]
This decision cycle is supported through the different information and community services EQO offers: x Structuring and comparing quality approaches for the field of e-learning: The variety of quality initiatives (e.g., ISO 900x:2000, EFQM) and quality approaches (e.g., different abstraction levels, national/regional/local approaches, domain specific approaches, process-orientation / product-orientation / competency-orientation) leads to a increasing confusion in the community. There is no accepted quality-mark for organizations or products on a European or global level. Therefore, the approaches are compared, classified, and transparently structured in the EQO repository – which is internet accessible – in order to provide a survey of actual approaches. The repository provides information for decision makers in organizations and users in the field of E-learning. Different levels of abstraction are be covered: Quality management, quality assurance, and quality assessment. By providing structured, context-related information, the analysis phase of the decision process is supported. x Building a community of practice in order to reach a common understanding of and increase expertise on the concept of “E-Learning Quality”: The first
776
M. Bick, U.-D. Ehlers, J. M. Pawlowski, H. H. Adelsberger
parts are part of the codification strategy. However, EQO integrates these approaches into a personalization strategy by providing a community and methods to improve communication and cooperation. Currently, various initiatives, projects, and experts deal with the issue of quality for E-learning separately. There is no central platform for the exchange of information and expertise. By building an interactive community of practice, users and experts from different contexts can start the exchange of information, experiences, and expertise. The next step towards a knowledge management approach for quality development in e-learning would be to provide information retrieval, recommendation, and communication possibilities which are individually designed for specific organisational contexts in the field of e-learning.
4
The Difficulty of Finding a Formal Model for the Evaluation of Experiences
In this chapter we will present a solution for the above discussed problem of standardizing the description of experiences. A formal model for such a description has to meet four requirements which will be discussed first. In a second step the formal model itself will be presented, consiting of three sections: general information, recommendations, and assessment.
4.1
Conditions and Constraints in Classifying Experiences
Learning from experiences is a difficult task because experiences are usually highly context specific. Therefore it is difficult to map existing experiences to other specific contexts. The method we propose to use in order to make experiences reusable is to develop a formal model which specifies standardized categories for the description of experiences. Information on experiences could then be mapped to certain contexts, could be searched by certain keywords, and can altogether be examined in a systematic way to find generalized structures. To map those experiences to specific contexts, we need to structure and formalize the description of this information.
Learning from Experience
777
We know that experiences on quality approach implementation processes cannot easily be generalized because of their specific, related context. Each of those experiences on the other hand could contain valuable information for (other) organizations which may find themselves in a similar situation and face the same or similar problems. The challenge in finding a description model therefore is twofold: a) to find appropriate description categories that are restrictive enough to make experiences comparable and b) to find a suitable way of being open enough in description, so that individual characteristics can still be integrated into such a description. Such a model therefore has to be open at certain parts and clearly structured into predefined categories in other parts, to meet theses challenges. This goal can only be achieved against the background of four conditions/ restrictions: 1. Restrictive in description but holistic in coverage: The model which we are looking for, has to be capable of describing experiences concerning the whole educational process; in this sense it has to be holistic. It can not be reduced to certain processes only, the learning phase or the evaluation phase in the end of a course, for example. It must allow a description of experiences for all processes which a quality approach can possibly affect. On the other hand it has to be able to structure actors’ experiences in a way which allows others to learn from them. They must be transferable, applicable, structured, and searchable. The solution for this, on first sight contradictory requirement, is the integration of a well structured process model with a model for describing experiences. It allows to describe experiences or recommendations for the use of quality approaches for specifically those educational processes which are affected. Collections of data about what is important and what has to be avoided can thus in particular be related to a certain process of education. As an example, actors concerned with curriculum development can directly learn from recommendations and experiences specifically for this process and do not have to deal with overall recommendations for implementing a guideline for instructional design in general. To restrict descriptions of experiences and recommendations to a certain model of process categories that is capable of covering the whole educational scenario therefore allows searching and comparing, but also assessing the impact which a certain quality approach has on certain educational processes. 2. Being aware of the difference between intentional and external effects: An educational organization, a course with its actors, teachers, learners, technical and administration staff can be conceptualized as an organic working system. Implementing a quality approach in this system or in specific parts of this system (e.g., guidelines for course authors, screen designers, or tutors) usually changes the whole system. There is no such thing like partial improvement of e-learning scenarios without affecting other interconnected processes and actors without producing so-called “external effects” or “side effects”. In previous works, we described the interdependencies between technological processes, economical conditions,
778
M. Bick, U.-D. Ehlers, J. M. Pawlowski, H. H. Adelsberger
and educational services in e-learning environments [Ehle+03a]. A formal model for describing experiences can only cover incidents related to intentional improvement processes. Unintentional side effects are too context specific and rooted in singular specialties of individual constellations to be of specific value for other organizational contexts. Therefore, we are aware of the boundaries: To construct a model that is able to cover experiences for all educational contexts and processes in principal needs to be of a more generic nature. Of course, such a model has to allow for the possibility to describe external effects as well, but it can not specifically concentrate on these effects. To acknowledge this weakness of a formal model for describing individual experiences does not reduce the importance of such a model. It still leaves enough space to be of a helpful nature to other users of quality approaches. 3. Accepting the paradigm of co-production in the pedagogical scenario: Although of its prefix ‘e’, e-learning still remains learning. Learning processes are not led through producer driven structures only but rather constitute a process of co-production between the learner/the client and the educational environment. Quality approaches generally aim at improving processes on the side of the educational environment to – that’s the philosophy – enhance the possibilities for the learner to improve in his/her own learning processes. The concept of empowerment describes this development and will eventually lead to a better understanding of what quality in e-learning for the learner could be. To accept the impossibility to direct the whole learning process and to steer it from the producer side, means also to give the floor to uncertainty. The learner has to be enabled, but will he also use the provided structures for a ‘better’ learning process? And, what if not? In exactly this field, experiences gain their importance for quality development because they provide knowledge that goes beyond the officially documented concepts. Actors in an educational scenario can often learn a lot more from these experiences than from their official quality-handbook or their guidelines because they get to know that the pure implementation of a quality approach alone is no guaranty for improvement processes. There still have efforts to be undertaken to learn how the learners react to the newly structured learning environments. These are very valuable experiences that are important to all educational professionals. 4. Accepting the difficulty of generalizing the singularity of events: To collect experiences, to structure them accordingly and thus make them comparable and applicable does not automatically mean that they are transferable. Experiences are highly dependent on a specific context in which they are made. They also are highly dependent on the view of the actor who contributes the experience, on the language he uses, and on the cognitive/affective structure and background of those who are perceiving the contribution. We are aware of this ‘transfer problem’. Learning from experiences therefore does not mean that the plain transfer of experiences works. However, it is indisputable that the perception of reference knowledge – may it contradict or enforce ones own experience – can lead to a greater reflection of a situation and thus a greater competency. It is important to
Learning from Experience
779
acknowledge that the pure provision of experiences can only stimulate learning processes on the users’ side but that experiences can not be transferred directly to a different context. For our model we therefore suggest to ask users for their recommendations rather for an account of their experiences. It will become clear that the scope of recommendations is much more directed at providing usable knowledge to other users than the scope of experiences. Therefore it seems reasonable to aim at building a concept that provides recommendation for usage and implementation where users can learn from other users’ experiences. Against the background of these four conditions we suggest the following model to describe experience based recommendations for quality approach implementation processes.
4.2
A Formal Model for Experience-Based Recommendations
The European Quality Observatory has proposed a conceptual model which contains a section for the categorization of experiences and which serves as the basis for the following scheme [EQO03]. The proposed model therefore is strongly based on the EQO model for describing quality approaches and experiences. However, some of the categories proposed here are new to the original model and some categories of the original model are changed into similar or slightly different ones. Basically, we suggest to analyze experiences according to three different sections: 1. The first section collects general information about the context, where the experience took place and about the actors, who are reporting the experience. We believe that these background factors are constitutional for the assessment and for recommendations someone states. It will be interesting to analyze how actors from different contexts report about their experience with a quality approach in different ways. Research in this field can follow the question, how a certain context influences the impact that a quality approach has. 2. In the second section we want to collect the recommendations which actors have on basis of their experiences. In our model we propose a three step approach for this analysis. In a first step the user can choose a process from the process model for which he wants to state a recommendation (we use the process model of the CEN/ISSS WS LT, [CENI2002]). This concept follows the assumption that quality approaches are usually not affecting all processes in an educational scenario but are directed at a few specific ones. Therefore we want to give the user a specific option to choose a process which was affected by the quality approach and for which he/she then would like to contribute recommendations. In a second step we provide the possibility to specify what has been done resp. how the quality approach was instantiated for this specific process. With this description we lay the foundation for the next step in which we ask the user for a recommendation which is rooted in the experiences he/she has made. As stated above, we believe
780
M. Bick, U.-D. Ehlers, J. M. Pawlowski, H. H. Adelsberger
that asking the user not for an experience but for a recommendation leads to a more goal oriented, more specific information. 3. In a third section we then ask the user for an assessment of the overall quality approach. There are basically two methodological approaches to assess quality approaches: an open and qualitative way and a standardized, more quantitative way. The advantages of collecting assessments in a standardized and quantitative way are obvious because then they can be rated and ranked against users requirements. The question which quality approach is best against the background of a certain standardized item can be easily answered. But there are also problems with a standardized way of assessment because it follows the assumption that all quality approaches can be assessed on basis of the same criteria. This seems odd – not only because of the variety of contexts we already described above but also because of the even greater diversity of implementation contexts and actors. We therefore suggest a methodological mixture of approaches. In a first step, the user is asked to rate his assessment against a set of criteria we provide (e.g., “economical improvement”: 60% success). In a second step he/she then can contribute his/her own criteria and provide an assessment for these (e.g., “comprehensiveness of the used expressions in the quality approach”: 20% success). It is very important that users are able to refine the standardized categories by specifying their own because it can well be that an analysis category for “economical success” is plainly too broad for description. In the retrieval interface, the individually specified assessment categories should be provided to users who are searching through the experiences. They also should be collected in a special index and connected to the search and browse options. Those keyword-lists will be a growing pool of evaluation criteria from the users perspective, on which basis the standardized items should regular be refined. Table 2 shows the proposed formal model for describing experience based recommendations for quality approach implementation processes. A. General Information and Context: Overall information of the quality approach application process Identifier
The quality approach description in the EQO database to which the described experience relates
1. Description of the organizational context of the experience. 1.1 Name
The name of the organization where the experience was made
1.2 Country
The Country of the organization in which the experience with the QA was made
Learning from Experience
781
1.3 Size of the organization where the experience took place 1.3.1 Size
Number of Employees
1.3.2 Project size
Number of People involved in the quality approach implementation process
1.4 Educational Level
Educational level of entity in which the quality approach was implemented (e.g., school)
2. Contributor: Who contributed the experience/recommendation? 2.1 Status
First contribution Refined contribution
2.2 Function
Function of contributor within organization
2.3 Entity
Name, Address, etc.
2.4 Date
Date of contribution of experience
2.5 Function of responsible actor
Function of responsible actor for the current implementation process within organization?
3. Prior experience with quality approach implementations 3.1 Description
Specifies experiences with usage of quality approaches in the past
3.2 Date
Date (year) of the prior experience
4. Time span
Duration of the current implementation process
4.1 Start Date
Approx. start date of implementation process
4.2 End Date
Approx. end date of implementation process
5. Description
Short account of implementation process
6. Target Group
Who was/were the target group(s) of the quality approach implementation?
7. Cost: Total implementation cost 7.1 Cost Model
Direct (e.g., a certain amount for a certification process or an external audit) or indirect costs (e.g., internal staff trainings, etc.)
7.1.1 Amount
Amount of money
7.1.2 Currency
€, US-$, etc.
7.1.3 Description
Description of costs, especially indirect costs
782
M. Bick, U.-D. Ehlers, J. M. Pawlowski, H. H. Adelsberger
B. Recommendation 1. Process: This category describes to which (educational) processes the quality approach was applied and specifies recommendations 1.1 Name
Name of the educational Process (CEN Model)
1.2 Relation
Name of the educational process(es) from the originating model (other process models)
1.3 Description
Description of how the user instantiated this process with regard to the quality approach (What was done?)
1.4 Recommendation
The user specifies recommendations considering his/her experiences with the usage of the quality approach
C. Assessment: Assessment of the experience and the actual effect of the quality approach 1. Quality concepts The user specifies how quality is defined in his/her view (Quality is… faultlessness, conformance to standards, excellence in performance and perfection, the best value for money, defined through pedagogical transformation and learning achievements) 2. Assessment: The user assesses the quality approach 2.1 Name of standard criteria
User chooses from Standard-Criteria for assessment (Quality of… institutional and executive commitment, technological infrastructure, student services, instructional design and course development, instruction and instructors, program delivery, financial health, regulatory and legal compliance, evaluation and assessment procedures)
2.1.1 Assessment Value
This element describes the contributors expert assessment regarding the enhancement of the quality of the specific criteria.
2.1.2 Importance Weight
This element describes the importance that the specific criteria had for the application of the specific quality approach.
2.2 Name of user specific criteria
Description of users’ own assessment criteria
Learning from Experience
783
2.2.1 Assessment Value
This element describes the contributors expert assessment regarding the enhancement of the quality of the specific criteria
2.2.2 Importance Weight
This element describes the importance that the specific criteria had for the application of the specific quality approach
3. Success Factors
Free text description of what have been proved to be key factors of success
4. Failure Factors
Free text description of what have been proved to be key factors of failure
Table 2: Formal model for experiences
5
Conclusion
We have shown that quality development as a knowledge intensive (business) process can be supported by different knowledge management strategies, such as codification and/or personalization. The described approach shows how experiences from one specific context (e.g., quality approach implementation in a high school) can be reused for other contexts in form of recommendations. We showed that knowledge management concepts can be used in the area of quality development. This integration of concepts becomes fruitful because quality development in organizational contexts implies individual actors’ learning processes which can be improved by sharing experiences. The suggested formal model represents a codification strategy by specifying information categories for substantially important fields concerning the topic of implementation, context, and assessment for quality approach implementation processes. The implementation of the model in form of a database will lead to a growing pool of structured data that allows users to reuse other users’ knowledge for their own purposes and contexts. In the field of experiences and reusing of knowledge, it is important to acknowledge certain conditions, stated above, that constitute the boundaries of such an approach. Nevertheless, it is important to proceed with the development of knowledge tools that allow to provide structured access to recommendations and thus help in decision situations [EhPa2003]. Experiences in a database which are structured according to the above suggested formal model could be directly mapped to certain context variables, and therefore provide valuable knowledge for specific requirements, e.g., if a user is searching for specific recommendations for the university level. The research in the field of experiences
784
M. Bick, U.-D. Ehlers, J. M. Pawlowski, H. H. Adelsberger
in the implementation of quality approaches for educational contexts will deliver important knowledge on impact and effects that will lead to an overall improvement of quality development in education. However, we made clear that quality development also needs a personalization strategy for sharing experiences. This strategy must be supported by the codification strategy in order to enable people to build their success on experiences. This can be integrated into the quality development in form of communities for exchange and reflection but also in form of more organized organizational forms of information and knowledge exchange.
References [ABLP2004] Adelsberger, H.H.; Bick, M., Lodzinski; T., Pawlowski, J.M.: Electronic Performance Support Systems in Production and Operations Management – State of the Art and Future Development. Submitted: FACES 3 (2004) 5. [Albr1993] Albrecht, F.: Strategisches Management der Unternehmensressource Wissen [Strategic Management of Knowledge]. Peter Lang, Frankfurt 1993. [CENI2002] CEN/ISSS Workshop Learning Technologies: CWA14644 Quality Assurance Standards, CEN, Brussels 2002. [Druc1994] Drucker, P. F: Post-Capitalist Society. Harper Business, New York 1994. [EGHJ2003a] Ehlers, U.-D.; Gerteis, W., Holmer; T., Jung, H. (ed.): E-learning-Services im Spannungsfeld von Pädagogik, Ökonomie und Technologie. L³-Lebenslanges Lernen im Bildungsnetzwerk der Zukunft. W. Bertelsmann, Bielefeld 2003. [Ehle2004] Ehlers, U.-D.: Qualität im E-Learning aus Lernersicht. Grundlagen, Empirie und Modellkonzeption subjektiver Qualität. Verlag für Sozialwissenschaften, Wiesbaden 2004 [EhPa2003] Ehlers, U.-D.; Pawlowski, J.M.: Qualitätsentwicklung im E-Learning: Ein Entscheidungsmodell für die Auswahl von Qualitätsansätzen in Europa, In: Fietz, G., Godio, C., Mason, R.: eLearning für internationale Märkte. Entwicklung und Einsatz von eLearning in Europa. W. Bertelsmann, Bielefeld 2003. [EhPG2003] Ehlers, U.-D.; Pawlowski, J.M.; Goetz, L.: Qualität von E-learning kontrollieren, Die Bedeutung von Qualität im E-learning, In: Hohenstein, A., Wilbers, K.: Handbuch E-learning, Expertenwissen aus Wissenschaft und Praxis: Strategien, Instrumente, Verlag Deutscher Wirtschaftsdienst, Köln 2003. [EHPT2004] Ehlers, U.-D.; Hildebrandt, B.; Pawlowski, J.M.; Teschler, S.: The European Quality Observatory. Enhancing Quality for Tomorrow’s Learners. Conference Proceedings of 3. EDEN Research Workshop 03/2004, Oldenburg 2003.
Learning from Experience
785
[EQO2004] European Quality Observatory: European Quality Observatory: The EQO Model, Draft Paper version 1.2, University of Duisburg-Essen, http://www.eqo.info, 2004, Extracted on 01-07-2004. [HaNT1999] Hansen, M. T.; Nohria, N.; Tierney, T.: What’s Your Strategy for Managing Knowledge? In: Harvard Business Review, 77, (1999), 3-4, pp. 106-116. [Klos2001] Klosa, O.: Wissensmanagementsysteme in Unternehmen: State-of-the-Art des Einsatzes [Knowledge Management Systems in Organizations: State-of-the-Art]. Deutscher Universitäts-Verlag, Wiesbaden 2001. [Lehn2000] Lehner, F.: Organisational Memory. Hanser, Munich 2000. [MaHä2001] Maier, R.; Hädrich, T.: Modell für die Erfolgsmessung von Wissensmanagementsystemen [A model to measure success of knowledge management systems]. In: WIRTSCHAFTSINFORMATIK 43 (2001) 5, pp. 497-509. [Maie2001] Maier, R.: State-of-Practice of Knowledge Management Systems: Results of an Empirical Study. In: INFORMATIK/INFORMATIQUE (2001) 1, pp. 14-22. [Maie2002] Maier, R.: Knowledge Management Systems: Information and Communication Technologies for Knowledge Management. Springer, Berlin 2002. [MaSA2004] Manouselis, N.; Sampson, D.: A Multi-criteria Model to Support Automatic Recommendation of e-Learning Quality Approaches, Proceedings of the 16th World Conference on Educational Multimedia, Hypermedia and Telecommunications (EDMEDIA 2004), Lugano, Switzerland, June 2004. [Remu2002] Remus, U.: Prozessorientiertes Wissensmanagement [Process-oriented Knowledge Management]. PhD-Thesis. University of Regensburg 2002. [ReRa2001] Reeves, T.C.; Raven, A.: Performance-Support Systems. In: Adelsberger, H.H., Collis, B., Pawlowski, J.M. (Eds.): Handbook on Information Technologies for Education & Training. International Handbook on Information Systems Series, Springer, Berlin 2001.
E-Collaboration: A Problem-Based Virtual Classroom Approach to International E-Business Qualification Eric Schoop, Kay-Uwe Michel Dresden University of Technology, Germany
Dalia Kriksciuniene, Rasa Brundzaite Vilnius University, Lithuania
Agnieszka Miluniec Technical University of Szczecin, Poland
Abstract: We present e-collaboration as an innovative e-learning concept, which provides three main potentials for e-business qualification. Collaboration in the virtual classroom develops the soft skills necessary for working in global virtual teams. Project experiences, based on authentic case studies, help students to transfer their academic knowledge to the e-business application level. Our problem-based collaborative framework invites for integrating university learners and company experts, thus forming a lifelong e-collaboration society. Our conclusions are based on empirical case study results of a tri-national virtual collaborative learning project, carried on in May 2004 by Dresden university of Technology (Germany), Szczecin University (Poland) and Vilnius University (Lithuania). Keywords: Bologna Process, e-learning, problem-based learning, virtual collaborative learning, e-collaboration, case database, success factors
1
Context
In summer 2004 an international virtual classroom project was executed with students participating from three European countries (Germany, Lithuania, Poland), collaborating in mixed teams. This tri-national project was number eleven so far of a sequence of similar approaches, all following a certain, stepwise refined conceptual framework derived from scientific perception and intensive evaluation of the former projects’ performances. Before we concentrate upon the actual project’s analysis and evaluation, we first discuss the main contextual aspects influencing our approach, shortly summarize the specific conceptual framework for our
788
E. Schoop, K.-U. Michel, D. Kriksciuniene, R. Brundzaite, A. Miluniec
virtual classroom projects (we call them VCL = virtual collaborative learning), and point out objectives and settings of the tri-national VCL project.
1.1
Motivation
Three main aspects motivated us to attempt a tri-national virtual classroom project, inspite of the resulting – expected – difficulties: 1. European challenge: On the European Union’s roadmap “[...] to establish a more complete and far-reaching Europe, in particular building upon and strengthening its intellectual, cultural, social and scientific and technological dimensions” [Bolo03, p. 241], it is recognized that “[...] the ways in which knowledge and skills are developed and conveyed are changing. [...] More education will be delivered through the Internet, through transnational arrangements, through a combination of traditional and non-traditional learning, and the recognition of various kinds of prior learning, including work-based and technology-based learning, must be improved.” [Berg03, p. 176]. The “Bologna Process” towards the European Higher Education Area is reflected in actual EU calls for proposals, for example the eLearning Call for Proposals DG EAC/26/04, closed May 28th, 2004 [EC04]. Its subject “Virtual Campuses” emphasizes the utilization of Internet-based communication and collaboration, based upon transnational arrangements. Bridging borders having separated countries (and political systems) for centuries by the use of Internet, and integrating students in tight transnational environments, intercultural differences in learning, communicating and collaborating come to the fore, as for example exemplified in extreme border line situations (Nepal) in [Puls03]. 2. Pedagogical perspective: The current psychological and pedagogical understanding of learning processes is influenced by the constructivist perspective as well as by modern instructional approaches. Both perspectives have in common, that “[...] learning is seen as an active, socially transmitted and situated process of the individual construction of knowledge and ability, desire and feeling” [Klau+04, p. 7]. Complex learning environments consist of authentic cases, thus enabling social co-operation, individualization, and differentiation by the combination of individual-, partner- and group-work. This problembased, situated learning [Mand+02] brings students to an active an co-operative form of learning – i. e. independent problem solving by the use of authentic and complex cases. The modern information infrastructure supports these objectives by providing synchronous and asynchronous communication and network-based co-operation, various presentation- and work-mediums, tutorial components, feedback-systems and the open accessibility of the Internet [Klau+04, pp. 9]. If both teachers and learners are aware of these possibilities and if they accept their utilization often being connected with an increasing workload on both sides, attractive advantages can be achieved in comparison
E-Collaboration: A Problem-based Virtual Classroom Approach
789
to traditional, locally bounded classroom teaching: e. g. flexibility of individual and productivity of shared group work, support of collaborative skills, accessibility of remote participants and knowledge and familiarization with intercultural aspects [BaSc02a; BaSc04 p. 74]. 3. E-business application: What is the link between e-learning and e-business, besides both paradigms relying on Internet technologies? Thanks to innovative information infrastructure, the automation of inter-organizational and international business and administrative processes and the ubiquitious accessibility of partners in global networks become reality. The migration of traditional business processes to e-business goes hand in hand with opening organizations and its’ members to global markets. In networked organizations the demand for the employees’ competence in computer supported cooperative work – technical performance, foreign language skills and intercultural awareness – is increasing. The correlation between collaborative virtual communities and collaborative business for example is discussed for collaborative engineering in [Gron+03]. Additionally we can detect not only e-business demands for new kinds of communication, collaboration and learning, but it was also observed already years ago that e-learning can benefit strongly from e-business [BoLa97]. Consequently, e-business is reference object of several e-learning environments developed in the past years to provide online materials for university and vocational education (e. g. the IMPULSEC research project1 giving the background for our preliminary work on virtual classroom learning).
1.2
Virtual Collaborative Learning – a conceptual framework
How to organize and to operate (also internationally applicable) virtual collaborative learning on authentic e-business cases? We recognized that it is not sufficient just to provide collaborative information infrastructure for eLearning communities, offering readings for download, and synchronous and asynchronous communication platforms. If we want to achieve at least some of the above discussed collaborative objectives efficiently, we need to take a more systematic and controlled approach. In [BaSc04] the findings of 3 years of empirical studies of deliberately varied settings of virtual classroom projects are summarized. Based on this cognition, supported by numerous conclusions in scientific literature, we developed a conceptual framework for planning, designing, preparing, operating and evaluating virtual classroom projects. Characteristics of our VCL approach are 1
The IMPULSEC project lasted from 2001–2004, producing about 200 learner’s hours of multimedia content on e-business topics relating to a complex model case, thus providing for situated, individual self paced online learning and for intensely tutored virtual collaborative learning. It was funded by the German ministry for Education (BMBF), no. 01 NM 067 D; for details see http://www.impuls-ec.de
790
E. Schoop, K.-U. Michel, D. Kriksciuniene, R. Brundzaite, A. Miluniec
x Separation of collaborative projects into 5 phases with the teacher’s decisions in each phase influencing later setttings, x Formation of heterogeneous, self organized groups with 4 to 6 members collaborating on complex problems which have open solutions, x Assignments embedded into an authentic cover story modelled as business case, the students to take over specific roles and achieve given tasks as collaborating teams, x Evaluation of students based on a mixture of group achievement, individual communicative performance, role fulfillment and intra-group reciprocative assessment, x Advance information of both tutors and students in forms of detailled guidelines, informing about the case, the roles, the tasks and the assessment criteria, and giving hints about potential drawbacks, conflicts and possible solutions, x Application of intense tutoring in forms of coaching, giving feed-back and motivating, not influencing or teaching task solutions [BaSc04, pp. 75–85]. VCL projects following our framework typically last about 3 to 4 weeks, demand a high weekly workload from students (on the average 1 h per student and day for each team member; about 1 h per student and week for the coaching and assessing tutor), and produce more than 1.000 postings with significant content.
1.3
Tri-national VCL project: settings and objectives
In accordance with the Bologna Process’ objectives, our motivation was to transfer our mainly national (German) experience in VCL projects – with positive acceptance from students in spite of the high workload, and by the majority very effective group performance demonstrating the achievement of collaborative pedagogical objectives – into an European context. Based upon Sokrates/Erasmus staff mobility funding, we started with a x preliminary 2-weeks national VCL project in Kaunas, Lithuania, to prepare for x the succeeding tri-national VCL project mainly discussed in this paper. Objectives of the preliminary project were to conduct a VCL project in English language for the first time, to train the Lithuanian students in virtual collaboration, to utilize their domain expertise to describe in detail authentic business processes, relating to existing organizations, and to model these in forms of e-business cases in HTML.2 The 2 weeks of virtual collaboration in 4 groups with 23 students in 2
The resulting 4 model cases can be accessed at http://www.mobil-eb.de. They are arranged together with a detailed e-business process model, also in HTML, in German language (result of a former students’ project in Dresden). The business areas
E-Collaboration: A Problem-based Virtual Classroom Approach
791
their first year of master program in business informatics were framed by an introductory on-site lecture about e-business context and about the conceptual framework of the VCL project, by an extensive on-site Kick-Off meeting and a final onsite presentation of the groups’ results. The collaborative platform hosted at Dresden University of Technology at Dresden University provided three collaboration channels: discussion forum (team work, asynchronous), conference (team work, synchronous), instant messenger (person to person synchronous). The preliminary project encountered strong acceptance by students and local tutors in spite of the high additional workload, and produced astonishing results. These motivated for the succeeding tri-national VCL project. Here the settings differed in several aspects: x The authentic business cases for the groups’ collaboration already existed from the preliminary work and should be enhanced, x The model case related tasks concentrated upon a new subject: business and IT strategy planning instead of describing authentic, existing business processes, x The students’ competences were enhanced by integration of additional group members from Poland and from Germany, resulting in mixed tri-national teams; at the project’s start the additional members were not familiar with the business case models, x Caused by the tri-national group settings, the group members did not know each other personally and did not have the chance for a face-to-face meeting while the project lasted; therefore the time schedule was enhanced to 3 weeks, the first week providing time for a virtual kick-off and an anticipated slower start of collaboration on easier entrance tasks. Main objective of the succeeding tri-national VCL project was to analyze the effects of the modifications of settings, concentrating primarily upon the more complex tasks and upon the greater heterogenity of the groups’ structure and competences. Our hypothesis was that in spite of the expected difficulties in intercultural collaboration, x the demand for special competences3 not available locally, and x the necessitiy to use the Internet for communication between group members
3
modelled are production (clothing sewing), retailing (bookstore), customer service (banking), and government (local municipality). All organizations are operating in Lithuania. Lithuanian members’ competence = domain experts, Polish members’ competence = having experience in strategic success factors’ analysis and in IT strategy planning, German competence = having the most experience in self organized group learning and having access to the basic informations available only in German language (former projects’ evaluation, extended guidelines, readings on collaborative learning)
792
E. Schoop, K.-U. Michel, D. Kriksciuniene, R. Brundzaite, A. Miluniec
would develop a highly reciprocative dependency between the members inside each group and therefore would finally result in an intense collaboration and strong group performance.
2
Projects’ analysis
When starting the project, we knew already about the significant influence of the situative context both on the learning processes and on the final results of the collaboration. The orientation at authentic business cases intensifies the discussion in the VCL forum and challenges to evaluate the team decisions according to their potential usability in the real world context. For the deeper understanding of this process the 2 succeeding VCL projects were analyzed, focussing on the following interest areas: x Advanced skill-building capabilities as a result of group collaboration, and shortcomings and derived strategic success factors for virtual teamwork, x Identifyable patterns of e-collaboration processes, requirements for describing situative context supporting problem-based learning and for facilitating further reuse and extension of the case database.
2.1
Analysis based upon projects’ data
This analysis and evaluation focuses upon the comparison of statistical data of both VCL projects about the communication processes in context with the problems and solutions behind. Most data were derived manually from the collaboration platform’s log files and protocols. 2.1.1
Preliminary national VCL project
The emerging demands of global e-business processes for employees’ skills can be summarized into 2 categories: knowledge creation and sharing on the one hand, and ill-defined problems solving (see table 1). Those categories were objectives of our preliminary VCL project and center of our analysis.
E-Collaboration: A Problem-based Virtual Classroom Approach
793
Category
Skills
Knowledge creating and sharing
Capabilities to plan, supervise and judge own learning processes [Seuf00] Practicing empathy, appreciating the other person's point of view [Nuld99] Collaborating productively in groups or teams [Nuld99] Individual capability to take part in organizational learning processes [BaSc04, p. 67, 70]
Ill-defined problem solving
Ability to solve problems by using domain-specific expertise. This requires reproductive skills as well as productive skills, necessary for acting in new and ill defined problem areas [Kess00] Capability for collaborative problem solving from a multiple perspective point of view [BaSc04, pp. 73] Appropriate remediation undertaking by indicating need of additional self-directed learning [Nuld99]
Table 1: Skills of knowledge workers
2.1.1.1
Data collection
The participants of the preliminary VCL project formed four teams. The knowledge sharing process in the virtual environment was organized inside teams according to the accepted roles of leader, researcher, critics, programmer and report writer. Each team had at least one “domain expert” – a group member with expertise in the authentic real world enterprise to be modelled. The main source of data for the analysis was a database formed of messages, posted into the asynchronous discussion board. The total amount of messages posted during the preliminary project was 1108. 989 messages were selected for detailed analysis, 119 messages were excluded as not relevant (trial entrance, tutor’s remarks). 2.1.1.2
Data analysis and evaluation
The groups’ results in forms of common documents, and the processes, leading to ill-defined problem identification and solving, were both evaluated. The final solutions of the teamwork were evaluated by ranking from best result downwards: 3rd, 4th, 2nd, 1st teams. The problem solving processes of the teams were reflected by analysis of the message distribution along different categories: x Organizational (including planning, controlling, motivating), x Discussion (question, answer, agreement, idea presenting),
794
E. Schoop, K.-U. Michel, D. Kriksciuniene, R. Brundzaite, A. Miluniec
x Adding content (presenting research information, presenting work share adding to final result). Knowledge sharing process "profiles" 250 Messages
200 150 100 50 0
1st team 2nd team 3rd team 4th team
Organizational
126
108
65
62
Discussing
38
237
55
97
Adding content
32
67
45
57
Non-relevant
27
38
40
14
Figure 1: Message distribution in knowledge sharing process
The “profiles” of the categorized messages of collaboration processes were generated on a daily basis. The final “profile” of whole project period is presented in figure 1. Organizational messages were the most frequent in 1st team, while their discussion level was comparatively low (correspondingly 64% and 19%), making contrast to team 2nd (26% and 58%). The teams 3 and 4, ranked best by final results, had a similar share of messages in all 3 categories, slightly more in the “adding content” part. According to the ranking of final results, it could be noticed that a proportional ratio among the three main categories could lead to better result of e-collaboration. Analysis of collaboration “profile” – the distribution of messages along categories – can be used by students and tutors for further analysis of their influence factors upon the final result. The analysis on a daily basis can provide useful information about the quality of team discussion and about the relevance of individual inputs for reaching important milestones of the task. That differs a lot from traditional subject-oriented learning, where achieved knowledge is checked in forms of tests, rather not giving space for developing the skills being the objectives of VCL. The knowledge integration skills were mainly developed in collaboratively producing the final results of the project. They included knowledge of investigating the real business case, analysis of business strategy, value chain, supply chain
E-Collaboration: A Problem-based Virtual Classroom Approach
795
processes, e-process scenario modeling, system modeling and HTML programming. The business cases were presented in freely composed forms as HTML sites, describing the development of particular business processes to future ebusiness scenarios. To summarize the preliminary project, we can conclude that collaboration in the virtual classroom indeed improves the soft skills necessary for working in global virtual teams. Project experiences, based on authentic case studies, help students to transfer their academic knowledge to the e-business application level. 2.1.2
Succeeding tri-national VCL project
The succeeding tri-national VCL project relied upon the re-use and further development of the 4 business cases collaboratively created during the first project. The new task of a stepwise development of an IT strategy required some changes of the project’s settings and the collaboration scheme, as presented by the UML class diagram (figure 2): x The domain expertise inside each team was now supported by the re-used case. x Additional team members allowed for knowledge specialization within each team in the fields of business (domain) expertise, information management expertise, and collaboration expertise.
Figure 2. The UML class diagram of the 2nd project settings
796
E. Schoop, K.-U. Michel, D. Kriksciuniene, R. Brundzaite, A. Miluniec
The initial analysis revealed, that the potential contribution of using the existing cases for solving new business tasks was limited, mainly because of their freely composed monolithic structures and the selective focuses of the HTML models. Though it is ackknowledged, that the context of the case is generally the most important factor in the case based reasoning, here the context was only in parts accessible, the deeper knowledge “behind” staying fragmentized inside different discussion messages in the asynchronous forum of the preliminary project, which was familiar only to it’s (Lithuanian) participants. As result a lot of misunderstandings and necessary, time-consuming explanations of the “stories behind” happened. 2.1.2.1
Data collection
Four international teams were formed, each consisting of 1 new German and 1 new Polish student and 2 (or more, alternately changing) Lithuanian students already familiar with the cases from the preliminary project, sharing roles and expertise according to figure 2. The project database consisted of 635 messages posted in the discussion forum and 5994 contributions in the virtual conference. Several organizational and technical improvements derived from the evaluation of the preliminary project were introduced, which modified the data collection procedure: 1. In contrast to unlimited postings according to topic-related threads in the first project, the messages in the asynchronous discussion forum were now categorized by the students in orientation at appointed meta-threads of “solution articles”, “actual progress”, “coordination” and “off topics”. That helped to improve knowledge structuring and understanding for students, and to easier follow and evaluate the discussion flow by the tutors. Unfortunately, this semantical structuring could not be applied to the synchronous communication, which was very intensive during the tri-national project, possibly supplementing for the lack of direct communication and covering up for interpretational problems concerning the business case behind. 2. The structure of the collaboration process was improved by adding milestones for gaining intermediate results of teamwork. It helped to manage the complexity of the tasks, stress the importance of intermediate stages of problem solving and to analyze the discussion database from the perspective of stepwise solution building. The case creation and re-use process is further illustrated by the resulting data of two target teams: “government” and “bookstore”. Only contributions containing substantial discussion and contents in the forum and in the conference were analyzed: the bookstore team had posted 601 messages, the government team 679 messages of these categories.
E-Collaboration: A Problem-based Virtual Classroom Approach
2.1.2.2
797
Data analysis and evaluation
The analysis of the first question – the process of case creation, re-using and augmenting it during the virtual collaboration – was made in two steps: 1. comparing the resulting solutions (cases) provided by teams in both preliminary and succeeding projects and 2. relating parts of the discussion processes as context to structural parts of the cases behind. The solutions presented by both teams were splitted to structural components, according to the assumed general case structure: description of business area and environment, organizational structure and geographical location of departments, analysis of value chain components business goals and processes. The structured views upon the cases, with the number of discussing and content bearing messages, related to the case topics, are presented in figure 3 (government) and figure 4 (bookstore). Case 1 and 2 components are marked as darkers areas, the messages were allocated on daily basis for the preliminary project and on milestone basis for the succeeding tri-national VCL project. The case re-use by the teams was analyzed by relating messages to structural parts of the cases. Problem identification and solution creation topics were particularly analyzed only in the preliminary project. But for reaching milestones 1 and 2, both teams came back to topics of the first case and made extended discussion on these problems, by adding new content to their cases, as to the solutions, and to context (see business processes, area and environment components, figures 3 and 4).
2
8
1 14
2 9
1
2 5
1
4
1 1
2 4
7
Milestone 3
1
Milestone 2
2
Milestone 1
5
Day9
Day8
3 1
Day7
2
PROJECT 2
Day6
6 4 2
Day5
Day2
1 2 1
Day3
Day1 Business area Business environment Organizational structure Location Value chain components Processes Business goals Problem 1 Solution 1(e-business) Problem 2 (SF) Solution 2 (IT strategy)
Day4
PROJECT 1
GOVERNMENT TEAM Collaboration process
11
1
9 267
13
9 197 1 3 178
Figure 3. Case component creation process in government team
Case Case 1 2
E. Schoop, K.-U. Michel, D. Kriksciuniene, R. Brundzaite, A. Miluniec
1
1
1
1 8
11
1 1
3 23 4 2
1 3 2
1
4
1 13
5 3
Case Case 1 2
Milestone 3
6 2 7
1 1 5
Milestone 2
5
Day9
Day8
Day6
Day5
Day3
PROJECT 2 Day7
Business area Business environment Organizational structure Location Value chain components Processes Business goals Problem 1 Solution 1 (e-business) Problem 2 (SF) Solution 2 (IT strategy)
Day2
Day1
PROJECT 1
Milestone 1
BOOKSTORE TEAM Collaboration process
Day4
798
20 2
24 112
23
1 3 5 14 230 6
184
Figure 4. Case component creation process in bookstore team
Our conclusion: authentic case bases, to be analyzed in virtual collaboration should be arranged in three main forms for a successful re-use: 1. complete solution, presented as a resulting case of virtual collaboration, 2. separately structured case components, related to different topics of business analysis, and 3. message context database, categorized according to the related case components. The second question of research, indicating needs of teams for academic and business knowledge supply in solving authentic business problems, is analyzed by tracking the collaboration processes on daily or milestone basis (figures 3 and 4). Numerous messages along all periods of teamwork show intensive everyday discussions on problem identification and solution in both teams of bookstore and government. This constant process is supported by discussing different business topics, based on academic knowledge and business domain expertise (see messages on different case topics in figures 3 and 4). Some topics, such as organizational structure, were discussed only in the beginning of the project, but knowledge of value chain and processes needed constant in-depth consulting. From the one side, this demonstrates a certain viability of case based learning, by the possibility to extend case materials and re-use it for solving different tasks. On the other side, that can be interpreted also as an expression of the teams’ demands for more extensive support by consultants from business organizations and by academical experts (i. e. tutors). Our VLC projects’ experiences encourage us to further reveal its’ potentials for the development of knowledge sharing, problem based and case based learning
E-Collaboration: A Problem-based Virtual Classroom Approach
799
skills. It also challenges to find solutions for an improved VCL environment and conceptual VCL framework following the results of our research.
2.2
Analysis based upon strategic success factors for VCL
Besides evaluating statistical data, we additionally wanted to take into account the participants’ personal opinions to find clues for further improvement of our conceptual VCL framework. This was the more interesting, as our students just had been confronted with the application of the strategical success factors’s analysis in week 2 of the tri-national project, to provide information for the 3rd week’s derivation of their case-related IT strategy. The original method was developed by Alloway to support strategic IT-planning [Hein02, p. 382]. To achieve meaningful results in the VCL context, it was necessary to modify the method to our context. We substituted the field of information infrastructure by VCL and adapted the potential success factors based on our experiences with former VCL projects. As the final results of our analysis demonstrate, our respondents confirmed our pre-selected factors. Their answers prove the applicability of the strategic success factors’ analysis to identify the critical success factors, calling for necessary action to improve the conceptual VCL framework. These critical factors demonstrate the largest difference of suggested priority and perceived fulfillment in the concrete VCL project. 2.2.1
Strategic success factors for Virtual Collaborative Learning
A: Organizational Factors. How did the project’s organizational aspects influence your team’s success? x Goal achievement x Understandability of the tasks x Time schedule compared to the task level x Importance of the tutors’ activities x Posting of pre-start documents B: Reciprocative evaluation between members. How did the group awareness influence collaboration and personal motivation within the team? x Personal role performance x Personal identification with the group x Team spirit x Identification of the other team members with the group
800
E. Schoop, K.-U. Michel, D. Kriksciuniene, R. Brundzaite, A. Miluniec
x Satisfaction inside the group x Working discipline x Time management inside the VCL x External influence upon the personal workload C: Mutual knowledge. Did heterogenity influence the team’s success? x Complementary competences of the team members x Language Skills x Knowledge of technical terminology x Domain competence D: Communication structure and channels. How did you use the alternative communication tools? x Synchronous communication x Asynchronous communication x Structure of postings x Accessibility of group members x Discipline of communication (milestones, threads) E: Information Infrastructure. How strong did the technical basis influence your team work? x System’s usability x System’s navigation x System’s accessibility 2.2.2 2.2.2.1
Applying the method Data collection
A few days after finishing the VCL project, a questionnaire was sent to all students, with 23 responses. Everybody was asked to evaluate the priority4 and the fulfillment5 of each single success factor, as described above. Additionally two different views were evaluated: the tutors’ replies, representing the VCL-staff, and the students’ replies, representing the VCL-customers. As data were collected: 4 5
Priority refers to the importance of the specific success factor: how should it be? Fulfillment describes the concrete achievement of the specific success factor: how was it done?
E-Collaboration: A Problem-based Virtual Classroom Approach
801
1. Priority comparison for each success factor: tutors vs. students, tolerance 0.75; 2. Fulfillment comparison for each success factor: tutors vs. students, t. 0.75; 3. Strategic portfolio based upon priority and fulfillment: all replies, each view weighed by 0.5, making it independent from the absolute number of replies; 4. Summarizing evaluation: all replies, average of all factors, giving as result for each participant one success value on a scale from 1 (failed) to 7 (excellent). The commonly used calculation scheme is given here: 25
¦ P( K , T ) * F ( K , T ) K 1
S (T )
25
¦ P( K , T ) K 1
2.2.2.2
S(T)
… success value for interviewee T
P(K,T)
… priority value of success factor K and interviewee T
F(K,T)
… fulfillment value of success factor K and interviewee T
Data analysis and evaluation
The interviewees were questionned individually, to avoid peer opinions. The tutors estimated the factors working discipline, identification of other team members with the group, posting of pre-start documents and goal achievement as most important. On the contrary, the students considered external influence upon the personal workload, domain competence, language skills and synchronous communication as the most important success factors for VCL projects (figure 5).
Figure 5: Priority comparison of VCL-suppliers (tutors) and –customers (students)
802
E. Schoop, K.-U. Michel, D. Kriksciuniene, R. Brundzaite, A. Miluniec
Comparing the fulfillment of the factors in the tri-national VCL project, we detect as difference, that the tutors believed the factor system’s accessibility to be excellent, while the students ranked first goal achievement and language skills. The priority-fulfillment portfolio visualizes the allocation of the success factors to the key sectors (ok = balance on sub-average level, success = balance on aboveaverage level, waste = bias to fulfillment, killer = bias to priority). Waste factors (in our analysis synchronous communication and knowledge of technical terminology) should be weakened next time, to concentrate upon the improvement of the killer factors accessibility of group members, goal achievement, team spirit and understandability of the tasks (figure 6). Regarding the average satisfaction of the students, most chose good or excellent to decribe their emotional cognition of the success of the tri-national VCL project.
Figure 6: Priority-fulfillment (output) portfolio
3
Conclusions
The two succeeding VCL projects both had positive effects on the development of skills in the virtual environment and substantiating e-collaboration as a potential advanced learning scheme. Further directions of using this learning method should provide solutions to detected shortcomings revealed by our research. Three main directions for improvements of project settings are discussed, closing this paper.
E-Collaboration: A Problem-based Virtual Classroom Approach
803
1. Ensure re-usability of the case study by creating a structured case data base
Our conclusion is supported by theoretical findings of knowledge management and preserving organizational memory. The main barrier to effective organizational memory is that documents are not preserved together with their context – the very thing that allows them to be useful in the future, when the context has changed. As notions of organizational memory are mostly artefact-oriented, they focus on preserving, organizing, indexing, and retrieving only the formal knowledge, as it is stored in documents and databases [Conk96]. The nature of informal, contextual knowledge is difficult to register. Here the virtual environment of VCL projects could be beneficial, as teams communicate exclusively in a computerized environment and thus the generated contextual knowledge can be preserved. For the better re-use of such knowledge, it must be structured in an appropriate manner. We suggest the basic structure of the context database consisting of three components, conforming to our research findings: 1. Result DB, consisting of solutions of business problems, 2. Case DB, consisting of structural components of the case, which could be used and enriched by succeeding problem-solving phases of virtual teamwork, and 3. Context DB, consisting of a better categorized message database. The content of context DB and case DB could be accessible via a virtual hypertext navigation layer, developed using the topic maps technology. The accessibility of the databases’ content should be further supported by advanced search and filtering tools, resulting in a successful re-use as a kind of project memory and business case repository. 2. Activate engagement and consulting of learners in exploring real business situations and deepening their academic knowledge
Case based learning provides more authenticity than other problem-based learning methods; nevertheless, they cannot fully provide the view of real business operations, which is obvious to organizational employees. There are several widely accepted options to integrate authentic business knowledge into learning processes, such as narrative cases prepared for academic use [Klau+04, pp. 16-19], students’ internship or regular meetings with business representatives. General knowledge of “best practices” could also be a valuable add-on to academic knowledge. Using narrative cases or sporadic meetings with business partners gives only limited and non-extendable information for solving unstructured problem based tasks. We suggest a regularly partnership (community of practice), being tightly integrated into the virtual learning environment, adding authenticity to mixed practice-academic teams of VCL learners, jointly solving real business problems formulated by practical business experts, introducing modern academic methods into
804
E. Schoop, K.-U. Michel, D. Kriksciuniene, R. Brundzaite, A. Miluniec
companies’ decision making and having practitioners coach the students’ approach to real world problems and their most efficient solution. 3. Increase intelligent support for students and tutors by an advanced virtual collaboration environment
The demand and complexity of tutorial team guidance were increased by several restrictions of the tri-national VCL project: team members were not acquainted to each other before, there was no possibility for them to meet face-to-face, there was no on-site kick-off meeting. Communication in English, foreign language to every participant, caused further obstacles for non-biased knowledge sharing and understanding. These conditions were very similar to „authentic“ virtual team collaboration and created both difficulties and challenges to our tri-national teams. A number of our analytical results of statistical data can be derived parallel to the VCL project developing. An early feedback to the students would inspire reflectiveness inside the teams, cause faster re-adjustment and could thus improve collaborative quality. But currently most evaluations on the tutors’ side are done manually, too time-consuming for short-time feedback. First proposals for intelligent system support of tutors in VCL projects in forms of computerized content analysis can be found in [BaSc02b]. To ease communicative and collaborative problems on the students’ side by the means of active advisory tools, we plan to refer to intelligent agent technology for e-learning, as suggested in [Payr03]. So, what are finally the potentials of e-collaboration for international e-business qualification? E-learning relying on social interaction and co-operation blends into e-collaboration. If e-learning successfully regards the demands for authentic cases in forms of situated (workgroup) learning, the difference to collaborative work on the job gradually disappears. Therefore we call methodical virtual classroom learning based upon our VCL conceptual framework e-collaboration. As our findings demonstrate, e-collaboration bears the following potentials: 1. Active collaboration in the international virtual classroom develops skills necessary for working in global virtual e-business teams: technical application and domain competence, CSCW competence, and intercultural awareness. 2. Situative context in forms of project tasks, based on authentic case studies, helps students to transfer their abstract academic knowledge to the e-business application level, thus avoiding the problem of inert knowledge. 3. An advanced problem-based collaborative framework could finally integrate university students and practical business experts to form a basic learning circle consisting of (internationally and interdisciplinary) mixed teams, tutors and advanced information infrastructure, resulting preferably in a lifelong ecollaboration society.
E-Collaboration: A Problem-based Virtual Classroom Approach
805
References [BaSc02a] Balázs, I.; Schoop, E.: Arguments for Building Learning Communities in Higher Education – First Results of an Empirical Research. In NETWORKED LEARNING IN A GLOBAL ENVIRONMENT. Challenges and Solutions for Virtual Education. Technical University of Berlin, Germany: Proceedings-CD by ICSC Academic Press, Canada/The Netherlands, 2002. [BaSc02b] Balázs, I.; Schoop, E.: Anforderungen an eine Tool-Unterstützung für Lehrende in virtuellen kollaborativen Lernsituationen – didaktische Normen und praktische Erfahrungen am Beispiel eines eCommerce Lernprojektes. In: Engelien, M.; Homann, J. (Edts.) Virtuelle Organisation und Neue Medien 2002. Workshop GeNeMe2002, Gemeinschaften in Neuen Medien. Josef Eul: Köln, 2002, pp. 189–217. [BaSc04] Balázs, I.; Schoop, E.: Erfahrungen mit Virtual Collaborative Learning am Lehrstuhl Wirtschaftsinformatik insb. Informationsmanagement an der Technischen Universität Dresden. Band 1: Virtual Collaborative Learning: Ziele, Design, Erfahrungen. IMPULSEC Research Report 7, ISBN 3-936475-11-3, Osnabrück, 2004. [Berg03] Bergan, S.: Entries and exits on the world stage: the Bologna Process and recognition of qualifications. In: Bergan, S. (Edt.) Recognition issues in the Bologna Process. Councel of Europe Publishing: Strasbourg, 2003, pp. 165–186. [BoLa97] Bodendorf, F.; Langenbach, C.: Electronic Education Mall – Ein virtueller Marktplatz für mediengestützte Aus- und Weiterbildung. Wirtschaftsinformatik 39 (1997) 6: pp. 589–599. [Bolo03] Bologna Declaration: The European Higher Education Area Joint Declaration of the European Ministers of Education convened in Bologna on the 19 June 1999. In: Bergan, S. (Edt.) Recognition issues in the Bologna Process. Councel of Europe Publishing: Strasbourg, 2003, pp. 241–243. [Conk96] Conklin, E. J.: Capturing Organizational Memory. Group Decision Support Systems. http://www.touchstone.com/tr/wp/CapOrgMem.html, 1996, Download 200406-15. [EC04] European Commission, Directorate-General for Education and Culture: eLearning Call for Proposals DG EAC/26/04. http://europa.eu.int/comm/education/programmes/ elearning/call_eac2604_en.html, 2004, Download 2004-06-28. [Gron+03] Gronau, N.; Kern, E.-M.; Lukas, v. U.: Integration des Community-Gedankens in das Collaborative Engineering am Beispiel des Schiffbaus. In: Uhr, W.; Esswein, W.; Schoop, E. (Edts.) Wirtschaftsinformatik 2003 / Band II: Medien – Märkte – Mobilität. Physica: Heidelberg, 2003, pp. 21–40. [Hein02] Heinrich, L. J.: Informationsmanagement. 7. Auflage, Oldenbourg: München, Wien, 2002. [Kess00] Kessels, J. W. M.: Learning in Organisations: A Corporate Curriculum for the Knowledge Economy. http://www.kessels-smit.com/Publications/Learning_in_ organisations/learning_in_organisations.html, Kessels & Smit, The Learning Company, 2000, Download 2004-04-15.
806
E. Schoop, K.-U. Michel, D. Kriksciuniene, R. Brundzaite, A. Miluniec
[Klau+04] Klauser, F.; Schoop, E.; Wirth, K.; Jungmann, B.; Gersdorf, R.: The Construction of Complex Internet-Based Learning Environments in the field of Tension of Pedagogical and Technical Rationality. IMPULSEC Research Report 10, ISBN 3936475-15-6, Osnabrück, 2004. [Mand+02] Mandl, H.; Gruber, H.; Renkl, A.: Situiertes Lernen in multimedialen Lernumgebungen. In: Issing, L. J.; Klimsa, P. (Edts.) Information und Lernen mit Multimedia und Internet. 3. Aufl. Beltz: Weinheim, 2002: pp. 139–150. [Nuld99] Nulden, U.: e-ducation. Gothenburg Studies in Informatics, Report 14, May 1999, ISSN 1400-741X. www.handels.gu.se/epc/archive/00002535/01/Nulden.pdf, 1999, Download 2004-04-09. [Payr03] Payr, S.: The Virtual University’s Faculty: An Overview of Educational Agents. Applied Artificial Intelligence 17 (2003), pp. 1–19. [Puls03] Pulst, E.: Interkulturelle Handlungskompetenz für Wirtschaftsinformatiker. In: Uhr, W.; Esswein, W.; Schoop, E. (Edts.) Wirtschaftsinformatik 2003 / Band II: Medien – Märkte – Mobilität. Physica: Heidelberg, 2003, pp. 601–618. [Seuf00] Seufert, S.: The NetAcademy as a Medium for Learning Communities. Educational Technology & Society vol. 3 (3), 2000, http://ifets.ieee.org/periodical/ vol_3_2000/a08.html, Download 2004-04-09.
Entwicklung von Experimentierumgebungen für den Erwerb von Problemlösefähigkeit Christian Ullrich, Otto K. Ferstl Otto-Friedrich-Universität Bamberg
Zusammenfassung: Durch den Einsatz computergestützter Lernumgebungen kann die Effektivität und Effizienz von Lehr-/ Lernprozessen erheblich gesteigert werden. Dies gilt vor allem für den Bereich „Anwenden von Wissen in Problemlösesituationen“, da computergestützte Lernumgebungen gegenüber herkömmlichen Lernsituationen insbesondere eine bessere Präsentation und Simulation der Problemfälle sowie hohe Interaktionsmöglichkeiten für die Lerner ermöglichen. Der vorliegende Beitrag stellt ein Framework zur Erstellung von qualitativ hochwertigen Experimentierbaukästen vor, die zur Unterstützung des gesamten Lernprozesses in SCORM-fähige Lernumgebungen integriert werden können. Schlüsselworte: Problemlösefähigkeit, Lernumgebungen, E-Learning, Framework, Komponentenbasierte Software-Entwicklung
1
Einleitung
Lebenslanges Lernen, d.h. Ausbildung und kontinuierliche Weiterbildung, ist für die individuellen Lebens- und Arbeitschancen von wesentlicher Bedeutung. Es umfasst die Aktualisierung und Erweiterung von Faktenwissen ebenso wie die Verbesserung der Problemlösekompetenz. Gegenwärtig unterstützen die Informations- und Kommunikationstechnologien (IuK-Technologien) vor allem die Beschaffung von Faktenwissen, wie der Erfolg des World Wide Web zeigt. Mindestens ein ebenso hoher Unterstützungsbedarf besteht bei Problemlöseprozessen, denn die Problemlösekompetenz ist entscheidend für Berufschancen und beruflichen Erfolg. Problemlösekompetenz bedeutet zum einen, formale Entscheidungsverfahren zu kennen, und zum anderen, die Fähigkeit zu besitzen, diese in Problemsituationen mit Erfolg anwenden zu können. Um das Anwenden von Wissen in realitätsnahen Problemsituationen zu üben, eignen sich insbesondere computergestützte Simulationsumgebungen. Für einige Anwendungsbereiche ist bereits eine Vielzahl von Simulationswerkzeugen verfügbar. Diese Werkzeuge dienen der Durchführung von Simulationsexperimenten, sind jedoch kaum für die Unterstützung von Ausund Weiterbildungssituationen geeignet. Oft fehlen notwendige Hilfsleistungen,
808
C. Ullrich, O. K. Ferstl
wie z.B. Moderation oder eine geeignete Beratung und Betreuung der Lerner. Auch die Integration dieser Werkzeuge in Lernumgebungen, die den gesamten Lernprozess unterstützen, gestaltet sich meist sehr schwierig. Die Hilfsleistungen und die vollständige Integration der Werkzeuge sind aber für eine effektive und effiziente Vermittlung von Problemlösefähigkeit unbedingt erforderlich. Ziel des Beitrags ist es, ein Framework vorzustellen, das es ermöglicht, Simulationswerkzeuge in den Kontext von Aus- und Weiterbildungssituationen (z.B. Fallstudien) zu integrieren. Das Framework verfügt über Standardkomponenten, mit denen die Hilfsleistungen erbracht werden können, die nicht in den Simulationswerkzeugen enthalten sind. Zusätzlich soll mit Hilfe des Frameworks die Erstellung von problemorientierten Lernsettings erleichtert und die Wiederverwendbarkeit sowie Wartbarkeit der Softwarekomponenten erhöht werden.
2
Erwerb von Problemlösefähigkeit
Die Realisierung und Nutzung computergestützter Lernumgebungen erfordert eine Analyse der zu unterstützenden Lernprozesse. Im vorliegenden Fall wird dazu der Gegenstandsbereich „Erwerb von Problemlösefähigkeit“ anhand seiner Struktur und seines Verhaltens näher betrachtet.
2.1
Problem und Problemlösen
Erster Schritt eines Problemlöseprozesses ist die Abgrenzung des zu betrachtenden Problems. Hierzu wird zwischen einem Realitätsausschnitt als Problembereich und einem Individuum als Problemlöser unterschieden. Ein Problem liegt vor, wenn der Realitätsausschnitt sich in einem Zustand befindet, den das Individuum für nicht wünschenswert hält, es jedoch nicht über Mittel verfügt, den unerwünschten Zustand in einen wünschenswerten Zustand zu überführen [Dörn87, 10]. Ein Problem ist somit durch folgende Merkmale gekennzeichnet: a.
Ausgangspunkt ist ein unbefriedigender Zustand des problemrelevanten Realitätsausschnitts.
b.
Angestrebt wird ein erwünschter Zielzustand des Realitätsausschnitts.
c.
Lösungsverfahren zur Transformation des Anfangszustandes in den Zielzustand sind nicht durchführbar oder dem Individuum unbekannt.
Eine Differenzierung unterschiedlicher Problembereiche anhand von Struktur- und Verhaltensaspekten sowie eine Differenzierung unterschiedlicher Arten von Ausgangs- und Zielzuständen ermöglichen die Bildung von Problemklassen, die jeweils spezifische Problemlösefähigkeiten erfordern [Fers79, 44ff]:
Entwicklung von Experimentierumgebungen für den Erwerb von Problemlösefähigkeit 809
x Konstruktionsprobleme: Ausgangspunkt ist ein System als Problembereich mit beobachtbarem oder postuliertem Verhalten, aber unbekannter Struktur. Erwünscht ist die Ermittlung einer mit dem Verhalten kompatiblen Struktur. x Analyseprobleme: Ausgangspunkt hier ist ein System mit bekannter Struktur, aber unbekannten oder nur teilweise bekannten Verhaltensmerkmalen. Erwünscht ist die Ermittlung ausgewählter Verhaltensmerkmale. Nach der Art der gesuchten Verhaltensmerkmale werden folgende Teilklassen dieser Problemklasse unterschieden. Bei einem Input-Output-Problem wird nach der Reaktion eines Systems auf einen vorgegebenen Input gefragt. Im Gegensatz dazu sind bei einem Output-Input-Problem Inputs zu bestimmen, die zu einem vorgegebenen Output führen. x Entscheidungsprobleme: Weisen Output-Input-Probleme Freiheitsgrade auf, d.h. kann ein vorgegebener Output von mehreren Inputs aus erreicht werden, ist ggf. eine Auswahl der Inputs anhand einer Bewertung erforderlich. Eine solche Bewertung wird in Form eines Präferenzsystems spezifiziert. x Black-Box-Probleme: Analyseprobleme unterstellen eine bekannte Struktur des Systems. Sind Verhaltensmerkmale bei unbekannter Struktur zu ermitteln, liegen Black-Box-Probleme vor. Sie können wie Analyseprobleme weiter differenziert werden in Input-Output- und Output-Input-Probleme. Die gesuchten Problemlösungen sind von einem Individuum in einem schrittweisen Problemlöseprozess zu ermitteln. Dabei wirken die Aktionen des Problemlösers auf den problemrelevanten Realitätsausschnitt ein und führen dort zu Zustandsveränderungen [Edel00, 205]. Um ein Problem erfolgreich bearbeiten zu können, benötigt der Problemlöser sowohl epistemisches als auch heuristisches Wissen [Dörn87, 26ff]. Epistemisches Wissen umfasst Faktenwissen sowie das Wissen bezüglich geeigneter Lösungsverfahren. Die Anpassung und Weiterentwicklung des epistemischen Wissens erfolgt in mentalen Prozessen des Problemlösers, sog. Akkomodationsprozessen [Glas97, 117ff]. Wissen über die Gestaltung von Akkomodationsprozessen als wird heuristisches Wissen bezeichnet. Es umfasst Operatoren, mit denen die kognitiven Strukturen angepasst werden können. Heuristisches Wissen ist nicht problemspezifisch, sondern es enthält eine Bibliothek von Lösungsverfahren, die zur Generierung und Anpassung von Verfahren zur Lösung konkreter Problemsituationen dienen.
2.2
Problemorientierte Lernsettings
Eine Verbesserung der Problemlösefähigkeit einer Person besteht im Aufbau bzw. in der Weiterentwicklung ihres epistemischen und heuristischen Wissens [Spi+88; Dörn87, 116]. Eine Erweiterung des epistemischen Wissens bezüglich einer Wissensdomäne führt dazu, dass ein Individuum in der Lage ist, Probleme, die sich auf diesen Be-
810
C. Ullrich, O. K. Ferstl
reich beziehen, effektiver und effizienter zu lösen. Im Gegensatz dazu verbessert eine Weiterentwicklung des heuristischen Wissens die Fähigkeit, neue Lösungsverfahren zu entwickeln oder verfügbare Verfahren zu verbessern. Dadurch wird die allgemeine, bereichsunabhängige Problemlösefähigkeit einer Person gestärkt. Die Weiterentwicklung des heuristischen Wissens umfasst [And00, 289ff] x das Üben von mentalen Operatoren, aus denen ein Problemlöseprozess besteht, x das Verbessern der Fähigkeit, einen Problemlöseprozess zu strukturieren und x ein Übungstraining, in dem der Lerner sein erworbenes Wissen in unterschiedlichen Problemsituationen anwendet. Die Vermittlung von Problemlösefähigkeit erfolgt mit Hilfe spezieller Lernsysteme, sog. problemorientierter Lernsettings1. Diese Lernsettings schulen nicht nur das epistemische und heuristische Wissen unter Verwendung realitätsnaher Problemsituationen, sondern dienen auch zur Vermittlung verschiedener Schlüsselqualifikationen, wie z.B. soziale Kompetenz, Selbstständigkeit und Entscheidungskompetenz. In der Aus- und Weiterbildung finden die problemorientierten Lernsettings Projekt, Planspiel, Rollenspiel, Fallstudie und Experiment Anwendung [Mey87, 143ff]. In einem Projekt ist meist ein Konstruktionsproblem in Gruppenarbeit zu lösen [Frey98; Gud01, 83ff]. Teil der Projektaufgabe ist häufig die Festlegung der Sachund Formalziele des Projekts durch die Mitglieder des Projektteams. Auch das Lösungsverfahren zur Durchführung des Projekts ist von den Gruppen selbstständig zu ermitteln und auszuführen. Der Lehrer steht lediglich als Experte beratend zu Seite. Die Dauer von Projekten kann je nach Aufgabenstellung sehr unterschiedlich ausfallen (von wenigen Stunden bis zu mehreren Jahren). Bei Planspielen bilden die Teilnehmer Gruppen und lösen Entscheidungsprobleme in komplexen Situationen, die häufig mit Hilfe dynamischer Modelle simuliert werden [Geu00, 16; BöWo00]. Der Zustand einer Problemsituation ändert sich zum einen durch die Aktionen der Teilnehmer und zum anderen durch die Eigendynamik des Systems. Je nach Aufgabenstellung agieren die Mitspieler in Konkurrenz, in Kooperation oder im Konflikt miteinander. Analog zu Projekten tritt der Lehrer auch hier lediglich als Berater bzw. Experte auf. In Rollenspielen übernehmen Lerner Rollen und lösen spielerisch Entscheidungsprobleme in vorgegebenen Problemsituationen [Bia95, 84ff; Schal01]. Im Gegensatz zu Planspielen enthalten Rollenspiele meist nur geringe formale Ablaufstrukturen in Form von Szenen und Szenenfolgen. Damit gestehen sie den Teilnehmern
1
Ein Lernsetting ist eine konkrete Ausprägung eines Lernsystems – bestehend aus Lerner und Lernumgebung – über eine fest definierte Zeitspanne [May01, 260].
Entwicklung von Experimentierumgebungen für den Erwerb von Problemlösefähigkeit 811
eine große Handlungsfreiheit zu, so dass diese ihre Rolle in geeigneter Weise ausfüllen können. Die Durchführung von Rollenspielen wird von einer Spielleitung gelenkt. Diese startet, beendet und unterbricht die Szenen, um z.B. Diskussionen oder einen Rollentausch durchzuführen. Fallstudien konfrontieren Lernende mit praxisrelevanten Entscheidungsproblemen [Kais83, 21; Budd92]. Sie beschreiben meist Problemsituationen, die bereits alle relevanten Fakten zur Lösung des jeweiligen Problems enthalten. Aufgabe der Lernenden ist es, in Einzel- oder Gruppenarbeit die Problemsituationen zu analysieren, Lösungsalternativen zu ermitteln und sich anschließend für eine der Lösungsmöglichkeiten zu entscheiden. Das Durchsetzen der Entscheidungen und der Umgang mit deren Konsequenzen werden in Fallstudien in der Regel nicht betrachtet. Während der Bearbeitung einer Fallstudie übernimmt der Lehrer ausschließlich die Rolle des Experten und des Moderators. Ein didaktisches Experiment umfasst ein Analyseproblem, welches die Lerner auf explorative Art und Weise lösen sollen [Rein96; Schma82, 302f]. Zu Beginn des Experiments entwickeln die Lerner Hypothesen über den Sachverhalt. Anschließend entwerfen und realisieren sie Versuchsanordnungen zur Überprüfung und Revision ihrer Hypothesen. Je nach Art der verfolgten Lernziele kann der Lehrer entweder die Experimentdurchführung fest vorgeben und steuern oder die Lerner lediglich als Experte und Berater unterstützen.
2.3
Invariante Merkmale problemorientierter Lernsettings
Der Ablauf eines problemorientierten Lernsettings besteht aus einem Haupt- und aus fünf Begleitprozessen. Den eigentlichen Hauptprozess stellt die Spiel-, Projekt-, oder Experimentdurchführung dar. Obwohl dieser Prozess bei den verschiedenen Arten problemorientierter Lernsettings sehr unterschiedlich ist, lässt sich dennoch eine vom Typ des Lernsettings unabhängige Ablaufstruktur erkennen. So ist der Hauptprozess meist in die Phasen Vorbereitung, Durchführung und Abschluss gegliedert (Abbildung 1). In der Vorbereitungsphase werden Gruppen gebildet, Rollen bzw. Aufgaben übernommen und das Problem definiert. Die Durchführungsphase gestaltet sich je nach Typ des Lernsettings unterschiedlich. Invariant ist nur, dass sie beliebig oft und an beliebiger Stelle durch Diskussion, Reflexion und Auswertung von Spielergebnissen und Verhaltensweisen der Teilnehmer unterbrochen werden kann. Die Schlussphase ist bei allen fünf Lernsettings nahezu identisch. Zuerst werden die Ergebnisse und Verhaltensweisen der Gruppen ermittelt und anschließend in einer Diskussionsrunde reflektiert. Darüber hinaus werden die notwendigen Aufräumarbeiten und eine Abschlussveranstaltung durchgeführt.
812
C. Ullrich, O. K. Ferstl
Hauptprozess
Vorbereitung
Durchführung
Abschluss
Spiel-, Projekt-, oder Experimentleitung Diskussion, Reflexion und Bewertung (DRB) Begleitprozesse
Beobachtung Beratung Moderation
Abbildung 1: Generischer Ablauf problemorientierter Lernsettings
Neben dem Hauptprozess beinhalten problemorientierte Lernsettings auch die Begleitprozesse a. Spiel-, Projekt-, oder Experimentleitung, b. Diskussion, Reflexion und Bewertung (DRB), c. Beobachtung, d. Beratung und e. Moderation. Die Begleitprozesse der verschiedenen Lernsettingtypen unterscheiden sich nur geringfügig voneinander. Deshalb können die Begleitprozesse als invariant gegenüber den unterschiedlichen Arten von Lernsettings angesehen werden. Der Begleitprozess Spiel-, Projekt-, oder Experimentleitung umfasst alle notwendigen Aufgaben zur Planung, Steuerung und Kontrolle eines Lernsettings, wie z.B. Aufgabenplanung, Terminplanung und Ressourcenverwaltung. Die Phase Diskussion, Reflexion und Bewertung (DRB) schafft die wesentlichen Voraussetzungen für den Erwerb von Problemlösefähigkeit und Schlüsselqualifikationen [Frey98, 192ff]. Sie ermöglicht es den Lernern, die Geschehnisse während der Durchführungsphase nachträglich aus der Außensicht zu betrachten und zu beurteilen. Erst dadurch können die Lerner ihr epistemisches und heuristisches Wissen in geeigneter Weise anpassen. Für die Durchführung der DRB sind Datenanalysen sowie Beratungs- und Moderationsleistungen erforderlich. Diese werden durch die Begleitprozesse Beratung, Beobachtung und Moderation bereitgestellt. Die Beobachtung protokolliert alle relevanten Merkmale der Spiel-, Projekt-, oder Experimentdurchführung. Die gesammelten Daten (in Form von Verteilungen) und darauf aufbauende Analysen (Varianz, Mittelwert etc.) werden dem Begleit-
Entwicklung von Experimentierumgebungen für den Erwerb von Problemlösefähigkeit 813
prozess Beratung und der Spiel-, Projekt-, oder Experimentdurchführung zur Verfügung gestellt. Aufgabe der Beratung ist es, die jeweilige Problemsituation sowie das Verhalten des Lerners zu analysieren und darauf aufbauend den Lerner durch konstruktive Hinweise zu einer Lösung des Problems hinzuführen. Für die Analyse der Problemsituation und des Lernerverhaltens ist Datenmaterial erforderlich, welches vom Begleitprozess Beobachtung erstellt wird. Die Strukturen aller problemorientierten Lernsettings weisen untereinander große Ähnlichkeit auf. Ein gemeinsames Strukturmerkmal ist die Trennung zwischen einer Gesamtdurchführung einerseits und einem zentralen Lenkungsobjekt – der Spiel-, Projekt-, oder Experimentleitung – andererseits (Abbildung 2). Z: Allgemeine Lehrziele
Spiel-, Projekt-, oder Experimentleitung Normative Leitung V3: Vertrag über D3
Z: Konkrete Lehrziele
V4: Vertrag über D4
V1: Vertrag über D 1
Lerner
V2: Vertrag über D 2
Strategische Leitung S
D2: Arbeitseinsatz
Moderation
Beratung
V5: Vertrag über D5 V7: Vertrag über D7
K
Operative Leitung
V6: Vertrag über D6
D7: Beobachtungen
Beobachtung
D1 : Lernunterstützung
S
D3: Moderation D4: Beratung und Wissen
D6: Daten
D5: Beobachtungen
K
Durchführung
Spiel-, Projekt-, oder Experimentdurchführung
Vorbereitung
D
Durchführung
D
Auswertung
D
Diskussion, Reflexion und Bewertung (DRB)
Abbildung 2: Generische Struktur problemorientierter Lernsettings (Interaktionsschema)2
Die Spiel-, Projekt-, oder Experimentleitung koordiniert den gesamten Austausch von Leistungen innerhalb des Lernsettings. Sie verhandelt mit den Serviceprozessen Beratung, Moderation und Beobachtung hinsichtlich der Abgabe entsprechender Leistungen an die Gesamtdurchführung. Diese kann nach dem Objektprinzip in die Teilobjekte Spiel-, Projekt-, oder Experimentdurchführung und DRB zerlegt werden. Die Spiel-, Projekt-, oder Experimentdurchführung stellt den Hauptprozess des Lernsettings dar. Das Lenkungssystem der problemorientierten Lernsettings ist hierarchisch in drei Ebenen strukturiert.3 Auf der obersten Ebene ermittelt die normative Leitung aus allgemeinen Lehrzielen konkrete Lehrziele für das jeweilige Lernsetting und 2 3
Die Modellierung erfolgt mit Hilfe der SOM-Methodik [FeSi01, 180ff]. Vergleiche die Grundstruktur lebensfähiger Systeme in [Beer94, 135ff].
814
C. Ullrich, O. K. Ferstl
reicht diese an die strategische Leitung weiter. Deren Aufgabe ist die Koordination der Spiel-, Projekt-, oder Experimentdurchführung mit den Lernern und den Begleitprozessen (Moderation, Beratung und Beobachtung). Die operative Leitung umfasst die Aufgaben-, Termin-, und Ressourcenplanung für die Spiel-, Projekt-, oder Experimentdurchführung und für die DRB. Darüber hinaus stimmt sie die einzelnen Teilphasen aufeinander ab und überwacht die Ergebnisse derselben.
3
Computergestützte Lernumgebungen
Computergestützte Lernumgebungen nutzen Informations- und Kommunikationstechnologien, um Aufgaben der Lernunterstützung und Kommunikationskanäle zwischen Lerner und Lernumgebung zu automatisieren [Kerr98; Dick00]. Wichtig für die Effektivität und Effizienz von Lehr-/ Lernprozessen ist, dass eine Lernumgebung von den Nutzern als integrierte Einheit wahrgenommen wird. Deshalb sollten computergestützte Lernumgebungen z.B. über eine einheitliche Benutzungsoberfläche, über eine durchgängige didaktische Gestaltung und über ein komponentenübergreifendes Zugangssystem verfügen. Darüber hinaus sollte eine Lernumgebung alle Phasen des Lehr-/ Lernprozesses, d.h. den Erwerb von Wissen, das Üben von Wissen und das Anwenden von Wissen unterstützen [Schm01, 256ff]. Computergestützte Lernumgebungen, die diese Anforderungen erfüllen, werden im Folgenden als integrierte Lernumgebungen bezeichnet.
3.1
Funktionalität von integrierten Lernumgebungen
Zur Unterstützung des gesamten Lehr-/ Lernprozesses verfügt eine integrierte Lernumgebung über verschiedene Dienste, die sich in die Klassen Basisdienste, Lehrdienste und Lernmanagementdienste gliedern lassen [Fers+00; FeSc01; Schm01]. Die Basisdienste Dialogdienst, Navigationsdienst und Sitzungsdienst erbringen Hilfsleistungen für andere Dienste der Lernumgebung. Mit Hilfe des Dialogdienstes wird der wechselseitige Nachrichtenaustausch zwischen Nutzer und Lernumgebung realisiert. Unter Verwendung des Dialogdienstes liefert der Navigationsdienst eine Übersicht über die Funktionalität und über die angebotenen Leistungen der Lernumgebung. Die Steuerung des Ablaufs einer Sitzung erfolgt mit Hilfe des Sitzungsdienstes. Die Lehrdienste Wissensvermittlungsdienst, Übungsdienst und Experimentierdienst stellen den Lernern Lehrleistungen zur Verfügung. Der Wissensvermittlungsdienst dient zur Präsentation von Lerninhalten. Zur Kontrolle des Lernfortschritts bietet der Übungsdienst verschiedene Übungsaufgaben mit entsprechender
Entwicklung von Experimentierumgebungen für den Erwerb von Problemlösefähigkeit 815
Auswertung der Lösungsvorschläge an. Das Anwenden des erworbenen Wissens in unterschiedlichen Problemsituationen erfolgt mit Hilfe des Experimentierdienstes. Die Lernmanagementdienste Kommunikationsdienst, Planungsdienst und Verwaltungsdienst unterstützen die Planung, Steuerung und Kontrolle des gesamten Lehr-/ Lernprozesses. Der Kommunikationsdienst realisiert Kommunikationskanäle zwischen den Nutzern einer Lernumgebung. Zur Unterstützung der Termin-, Aufgaben-, und Ressourcenplanung hält der Planungsdienst entsprechende Werkzeuge bereit. Der Verwaltungsdienst verfügt über Funktionen zur Authentifizierung, Autorisierung und Abrechnung (Billing). Eine integrierte Lernumgebung besteht aus mehreren Komponenten, die als Teilumgebungen bezeichnet werden. Jede Teilumgebung kombiniert verschiedene Dienste, um eine spezifische Leistung zur Unterstützung des Lehr-/ Lernprozesses zu erbringen. Diejenige Teilumgebung, die problemorientierte Lernsettings für den Erwerb von Problemlösefähigkeit zur Verfügung stellt, wird als Experimentierumgebung bezeichnet. Die Experimentierumgebung unterstützt sowohl den Hauptprozess problemorientierter Lernsettings (Spiel-, Projekt-, oder Experimentdurchführung) als auch die Begleitprozesse Leitung, Beobachtung, Beratung und Moderation. Darüber hinaus umfasst die Experimentierumgebung auch Werkzeuge für Autoren und Betreuer, mit denen problemorientierte Lernsettings erstellt, konfiguriert und den Lernern zur Verfügung gestellt werden können.
3.2
Framework für Experimentierumgebungen
Wesentliches Ziel des hier vorgestellten Frameworks für Experimentierumgebungen ist die vollständige Integration problemorientierter Lernsettings in computergestützte Lernumgebungen. Um diese Integration zu ermöglichen, stützt sich das Framework auf das Sharable Content Object Reference Model (SCORM) der Advanced Distributed Learning Initiative (ADL) [ADL04a]. Mit SCORM hat ADL einen Standard geschaffen, der es ermöglicht, Lerninhalte wieder verwendbar, weltweit verfügbar und unabhängig von Soft- und HardwareUmgebungen zu gestalten. SCORM kapselt Lerninhalte in Form von Lernobjekten, die eine fest definierte Schnittstelle aufweisen. Darüber hinaus können mehrere Lernobjekte zu einer Lerneinheit zusammengefasst werden. Zur Beschreibung der Struktur und des Ablaufs von Lerneinheiten verfügt SCORM über ein geeignetes Meta-Modell, das sog. Content Aggregation Model (CAM) [ADL04b]. Der SCORM-Ansatz sieht vor, Lernobjekte unabhängig von Lernangeboten zu erstellen und erst während der Laufzeit zu Lerneinheiten zusammen zu fassen. Dadurch ist eine weitgehende Entkopplung der Erstellungs-, Bereitstellungs- und Nutzungsphase von Lerninhalten möglich. Dieser Aspekt ist von besonderer Bedeutung, da die Erstellung von hochwertigen Experimentierumgebungen mit er-
816
C. Ullrich, O. K. Ferstl
heblichem Aufwand verbunden ist und somit meist nicht zeitnah zur Nutzungsphase sowie aus Effizienzgründen nicht ausschließlich für eine einzige Lerneinheit erfolgen kann. Das Framework für Experimentierumgebungen realisiert die Komponenten der Spiel-, Projekt-, und Experimentdurchführung (vgl. Abbildung 2) in Form von SCORM-kompatiblen Lernobjekten. Dadurch kann die Struktur der Experimentierumgebung durch jedes SCORM-kompatible Lern-Management-System (LMS) visualisiert und zur Navigation genutzt werden. Darüber hinaus ist auch die Speicherung von Experimentierdurchführungen und deren Ergebnissen durch das LMS vorgesehen. Um eine Plattformunabhängigkeit der Experimentierumgebungen zu ermöglichen, erfolgt die Realisierung des Frameworks in der Programmiersprache JAVA. 3.2.1
Konzeption des Frameworks für Experimentierumgebungen
Das Framework besteht aus zwei Teilbereichen: einem Runtime-Bereich und einem Buildtime-Bereich (Abbildung 3). Der Runtime-Bereich dient zur Entwicklung von Anwendungssystemen, die die Haupt- und Begleitprozesse problemorientierter Lernsetings während der Durchführungsphase unterstützen. Die Ausführung der Anwendungssysteme kann entweder als Teil einer integrierten Lernumgebung oder als eigenständige Applikation erfolgen. Framework Buildtime
Erstellen/Ändern
Konfigurationsspezifikation
Initialisieren
Runtime
Abbildung 3: Framework für Experimentierumgebungen (Übersicht) [Ull03, 228]
Der Buildtime-Bereich des Frameworks bildet die Grundlage für die Entwicklung von Werkzeugen, mit denen die Runtime-Anwendungssysteme parameterisiert, d.h an die Bedürfnisse konkreter Lernsettings angepasst werden können. Parameter, die zur Buildtime spezifiziert werden müssen, sind u.a. das Simulationsmodell, Parameter für die Simulationsexperimente, Beobachtungsvariablen und Auswertungsregeln für automatisierte Rückmeldungen. Die Kopplung zwischen Runtime- und Buildtime-Anwendungssystemen erfolgt mittels sog. Konfigurationsspezifikationen. Diese enthalten alle zur Durchführung eines Lernsettings notwendigen Parameter. Die Werte der Parameter werden mit Hilfe der Buildtime-Werkzeuge festgelegt und anschließend an die RuntimeAnwendungssysteme übermittelt. Dort werden die Parameter zur Instanziierung neuer Lernsettings genutzt.
Entwicklung von Experimentierumgebungen für den Erwerb von Problemlösefähigkeit 817
3.2.2
Konzeption des Runtime-Frameworks für Experimentierumgebungen
Grundlage für die Realisierung des Runtime-Frameworks bildet die generische Struktur problemorientierter Lernsettings (Abbildung 2). Anhand dieser Struktur wird festgelegt, welche Aufgaben (teil-)automatisierbar sind und von der Experimentierumgebung unterstützt werden sollen. Da die generische Struktur problemorientierter Lernsettings sehr abstrakt ist, kann der Automatisierungsgrad vieler Aufgaben lediglich in Form eines Intervalls angegeben werden. Darüber hinaus hängt der Automatisierungsgrad mancher Aufgaben auch von der jeweiligen Instanz des Lernsettings ab. So ist es z.B. in bestimmten Situationen aus didaktischen Gründen sinnvoll, Beratungsaufgaben personell statt maschinell gestützt durchzuführen. Deshalb wird das Framework für Experimentierumgebungen flexibel gegenüber dem Automatisierungsgrad dieser Aufgaben gestaltet. Die Aufgaben der Spiel-, Projekt-, und Experimentleitung sind teilautomatisierbar. Sie werden jedoch gemäß dem SCORM-Standard von Lern-ManagementSystemen unterstützt [ADL04a, 1-23ff] und sind somit nicht Bestandteil der Experimentierumgebung. Das Objekt Moderation ist ebenfalls teilautomatisierbar. Die Unterstützung von Moderationsaufgaben ist Bestandteil des Kommunikationsdienstes einer Lernumgebung. Deshalb werden diese Aufgaben innerhalb des Frameworks für Experimentierumgebungen ebenfalls nicht betrachtet. Die Aufgaben des Objekts Beobachtung sind automatisierbar. Die Beobachtung zeichnet während der Durchführungsphase die relevanten Zustände des Modellsystems auf. Das Ergebnis der Aufzeichnungen liegt in Form von Verteilungen vor, die jeweils die Ausprägungen einer Modellkomponente in Abhängigkeit der Zeit erfassen. Für das Objekt Beobachtung ist lediglich das dynamische Modell der Problemsituation und nicht die Durchführungsform des Lernsettings von Bedeutung. Deshalb umfasst es unabhängig vom Typ des Lernsettings stets die gleichen Aufgaben. Der Umfang, in welchem die Aufgaben des Objekts Beratung automatisierbar sind, hängt von den Eigenschaften des jeweiligen Lernsettings ab. Aus diesem Grund bietet das Framework die Möglichkeit, die Beratung entweder personell mit Hilfe des Kommunikationsdienstes der Lernumgebung (E-Mail, Chat, Videokonferenz) oder maschinell unter Verwendung von Auswertungsregeln durchzuführen. Eine Auswertungsregel für die automatisierte Auswertung besteht aus einer Bedingung und einer Rückmeldung. Die Bedingung wird in Form eines regulären Ausdrucks spezifiziert, der während der Durchführung des Lernsettings gegenüber den Aufzeichnungen des Objektes Beobachtung getestet wird. Ist die Bedingung erfüllt, so erfolgt die Ausgabe der korrespondierenden Rückmeldung auf der Benutzungsoberfläche.
818
C. Ullrich, O. K. Ferstl
Das Objekt Diskussion, Reflexion und Bewertung (DRB) ist unter Verwendung geeigneter Groupware-Funktionen des Kommunikationsdienstes zu einem kleinen Teil automatisierbar. Die Aufgaben der Teilobjekte der Spiel-, Projekt-, oder Experimentdurchführung (Vorbereitung, Durchführung und Auswertung) sind je nach Art des Lernsettings sehr unterschiedlich gestaltet. Deshalb lassen sich auch kaum allgemeine Aussagen über deren Automatisierbarkeit treffen. Basiert die Durchführungsphase z.B. auf einem Simulationsmodell, so kann meist die Initialisierung des Modells und die Auswertung der Simulationsexperimente (teil-)automatisiert erfolgen. Grundsätzlich soll in die Spiel-, Projekt-, oder Experimentdurchführung jedes beliebige (Simulations-)Werkzeug und Untersuchungsobjekt integriert werden können. Deshalb betrachtet das Framework für Experimentierumgebung die Durchführungsphase lediglich aus der Außensicht. Das Framework definiert eine Schnittstelle mit dem Namen SimulationControl, die den Nachrichtenaustausch zwischen der Durchführungskomponente und der Experimentierumgebung festlegt. Da die Schnittstelle ausschließlich das Verhalten der Durchführungskomponente beschreibt, kann die Komponente eine beliebige Struktur aufweisen. Mit Hilfe der Schnittstelle ist es möglich, beliebige Anwendungssysteme, die über eine Programmierschnittstelle verfügen, in die Experimentierumgebung einzubinden. Die Integration erfolgt mittels sog. Wrapper, welche unter Verwendung der Funktionen des jeweiligen Anwendungssystems die Schnittstelle SimulationControl implementieren. 3.2.3
Realisierung des Runtime-Frameworks für Experimentierumgebungen
Das Runtime-Framework für Experimentierumgebungen ist zweidimensional strukturiert. In der ersten Dimension ist das Framework nach Objekttypen gegliedert. Gemäß dem SOM-Ansatz werden hierbei folgende Objekttypen unterschieden [FeSi01, 180ff]: x Dialogobjekte (IO) realisieren die Mensch-Computer- oder die ComputerComputer-Kommunikation. x Vorgangsobjekte (VO) beschreiben das Zusammenwirken konzeptueller Objekte bei einem Vorgang. x Konzeptuelle Objekte (KO) repräsentieren die Daten einer Anwendung. Die zweite Dimension des Runtime-Frameworks für Experimentierumgebungen ist nach den Komponenten problemorientierter Lernsettings (Beobachtung, Beratung und Durchführung) gegliedert. Zur besseren Wartbarkeit und Wiederverwendbarkeit sieht das Framework vor, zusammengehörige Teile des Anwendungssystems zu sog. Containern zu aggre-
Entwicklung von Experimentierumgebungen für den Erwerb von Problemlösefähigkeit 819
gieren. Jeder Container umfasst ein bis beliebig viele Objekte gleichen Typs. Je nach Art der enthaltenen Objekttypen wird zwischen IO-Container (Dialogobjekte), VO-Container (Vorgangsobjekte) und KO-Container (konzeptuelle Objekte) unterschieden. Container stellen Spezialisierungen ihrer jeweiligen Komponentenobjekte dar, so dass Container beliebig oft rekursiv ineinander geschachtelt werden können. Auf diese Art und Weise lassen sich Softwarekomponenten entwickeln, die sich nach dem Baukastenprinzip sehr leicht zu Anwendungssystemen zusammenbauen lassen. Die generische Struktur problemorientierter Lernsettings, d.h. die Aufteilung der Spiel-, Projekt-, oder Experiementdurchführung in die Komponenten Durchführung, Beobachtung und Beratung, findet sich auf der obersten Container-Ebene des Frameworks wieder (Abbildung 4). So enthält jeder VO-Container vom Typ Experimentierumgebungsvorgänge (ExpEnvProcedures) einen VO-Container des Typs Expertenvorgänge (ExpertProcedures) und einen des Typs Beobachtervorgänge (ObserverProcedures). Gleiches gilt für die Ebene der KO-Container. Jedem KO-Container vom Typ Experimentierumgebungskonzepte (ExpEnvConcepts) sind der KO-Container eines Experten (ExpertConcepts) und eines Beobachters (ObserverConcepts) zugeordnet. is part of
ExpEnvView interacts with
is part of
Action Listener
Expert View interacts with
Observer View
Action Listener
interacts with
Dialogobjekte
Action Listener
is part of
EvaluationProcedure
is part of
ExpEnvProcedures interacts with
interacts with
interacts Execution with Listener
is part of
Change Listener
ExpEnvConcepts interacts with
ExpertProcedures interacts with
is part of
ObserverProcedures
Change Listener
ExpertConcepts
interacts with
interacts with
Vorgangsobjekte
Change Listener
ObserverConcepts
Konzeptuelle Objekte
is part of
Hot-Spot
SimulationControl
ExpEnvSpecification
Frozen-Spot Interface
Abbildung 4: Oberste Aggregationsebene des Runtime-Frameworks für Experimentierumgebungen [angelehnt an Ull03, 237]
Für die Auswertung von Spiel-, Projekt-, oder Experimentdurchführungen ist ein Standardauswertungsverfahren vorgesehen. Dieses Verfahren basiert wie oben beschrieben auf einer regelbasierten Auswertung von Beobachtungsergebnissen und kann je nach Bedarf durch Spezialisierung des Vorgangsobjekttyps EvaluationProcedure angepasst werden.
820
3.2.4
C. Ullrich, O. K. Ferstl
Buildtime-Framework für Experimentierumgebungen
Das Buildtime-Framework für Experimentierumgebungenen dient als Basis für die Erstellung von Werkzeugen, mit denen die Spiel-, Projekt-, oder Experimentdurchführung parametrisiert werden kann. Die Parametrisierung erfolgt mit Hilfe von Konfigurationsspezifikationen, die in Form von XML-Dateien vorliegen. In der Regel wird für jeden Typ von Spiel-, Projekt-, oder Experimentdurchführung eine spezielle Konfigurationsspezifikation benötigt. Aus diesem Grund ist für jeden Durchführungstyp ein eigenes Werkzeug zur Bearbeitung der entsprechenden Konfigurationsspezifikation notwendig. Aus Sicht der Buildtime-Werkzeuge stellen die Konfigurationsspezifikationen konzeptuelle Objekte dar. Die Vorgangsobjekte der Buildtime-Werkzeuge (Bearbeiten, Laden, Speichern etc.) operieren auf den Konfigurationsspezifikationen und führen dort zu Zustandsveränderungen. Jedes Werkzeug besitzt für die Bearbeitung verschiedene Eingabefelder sowie mehrere Dialoge und Hilfsfunktionen, die speziell auf die Bearbeitung des korrespondierenden Typs von Konfigurationsspezifikation ausgerichtet sind. ExpEditView interacts with
Action Listener
ExpEditProcedures interacts with
is part of
interacts with
is part of
Change Listener
ExpEditConcepts interacts with
EditorKitView
EditorKitProcedures interacts with
is part of
Dialogobjekte
Action Listener
Change Listener
Vorgangsobjekte
Change Listener
interacts with
EditorKitConcepts
ExpEnvSpecification
Konzeptuelle Objekte
is part of
Hot-Spot
ExpEditSpecification
Frozen-Spot
Abbildung 5: Oberste Aggregationsebene des Buildtime-Frameworks für Experimentierumgebungen [angelehnt an Ull03, 246]
Das Buildtime-Framework für Experimentierumgebung ist analog zum RuntimeFramework in die Dimensionen Objekttypen und Komponenten gegliedert (Abbildung 5). Die oberste Ebene des Frameworks besteht aus dem IO-, VO-, und KOContainer des Buildtime-Werkzeugs (ExpEditView, ExpEditProcedures und ExpEditConcepts). Die zu bearbeitende Konfigurationsspezifikation (ExpEnvSpecification) ist als konzeptuelles Objekt Bestandteil des KO-Containers. Der VOContainer dient zur Instanziierung und Parameterisierung von sog. EditorKits. Al-
Entwicklung von Experimentierumgebungen für den Erwerb von Problemlösefähigkeit 821
le EditorKits sind ebenfalls in IO-, VO- und KO-Container unterteilt und stellen dem Benutzer Funktionen zur Bearbeitung der Konfigurationsspezifikation zur Verfügung. Sie generieren für jedes Attribut einer Konfigurationsspezifikation einen geeigneten Editor (z.B. Eingabefelder für Strings oder Listen für Arrays). Anschließend fassen die EditorKits alle Editoren zu einem Formular zusammen und präsentieren es auf der Benutzungsoberfläche. Alle Informationen darüber, welche Editoren für welche Attribute und mit welchen Parametern zu instanziieren sind, stellt der KO-Container des jeweiligen EditorKits (EditorKitConcepts) zur Verfügung. Diese Informationen lassen sich je nach Bedarf mittels Parameter anpassen. Jede Konfigurationsspezifikation ist in drei Teilbereiche gegliedert: a.
Eigenschaften der Durchführung: Dieser Teilbereich enthält diejenigen Parameter, die an die Spiel-, Projekt-, oder Experiementdurchführungen mit Hilfe der Schnittstelle SimulationControl übermittelt werden.
b.
Spezifikation der Beobachtung: Hier sind die Systemzustände angegeben, deren Änderungen während der Durchführungsphase protokolliert werden sollen.
c.
Spezifikation der Beratung und Auswertung: Die Spezifikation umfasst die Beratungs- und Auswertungsregeln zur Generierung automatisierter Rückmeldungen an die Lerner während und nach der Durchführungsphase.
3.3
Benutzungsoberfläche der Experimentierumgebung
Die Benutzungsoberflächen des Runtime- und des Buildtime-Bereichs der Experimentierumgebung sind sehr unterschiedlich gestaltet. Der Runtime-Bereich ist in der Regel in eine SCORM-Lerneinheit (Kurs, Seminar etc.) integriert und wird mit dessen Inhalt vernetzt dargestellt [FeUl04]. Im Gegensatz dazu ist der Buildtime-Bereich meist eine eigenständige Java-Applikation, die ausschließlich von den Autoren oder Betreuern der Lerneinheiten und nicht von den Lernern genutzt wird. 3.3.1
Runtime-Benutzungsoberfläche der Experimentierumgebung
Die Runtime-Benutzungsoberfläche ist in zwei Bereiche aufgeteilt (Abbildung 6). Im oberen Bereich wird die Benutzungsoberfläche des (Simulations-)Werkzeugs dargestellt (Methode getContentPane() innerhalb der Schnittstelle SimulationControl). Darunter befindet sich der Bereich der Bedienelemente, mit welchen der Nutzer den Ablauf der Durchführungsphase steuern kann. Es stehen Funktionen zum Starten, Stoppen und Zurücksetzen der Durchführungsphase zur Verfügung. Darüber hinaus kann sich der Nutzer aufgezeichnete Experimentdurchführungen wieder anzeigen lassen. Mittels eines Schiebereglers ist es hierbei möglich, den zeitlichen Ablauf beliebig zu beeinflussen.
822
C. Ullrich, O. K. Ferstl
Abbildung 6: Runtime-Benutzungsoberfläche der Experimentierumgebung
Während der Durchführungsphase und während der Wiedergabe hat der Nutzer die Möglichkeit, sich die Werte der aufgezeichneten Systemzustände anzeigen oder sich vom virtuellen Experten beraten zu lassen. Letzterer liefert in Abhängigkeit des aktuellen Zustands des (Simulations-)Modells hilfreiche Hinweise und konstruktive Lösungsvorschläge. Nach Abschluss der Durchführungsphase erfolgt eine regelbasierte Auswertung der Ergebnisse, die dem Nutzer in Form von Text oder HTML-Seiten präsentiert wird. Alle Aufzeichnungen der Durchführungsphase werden an das Lern-ManagementSystem übermittelt. Dort werden sie gespeichert und stehen anschließend dem jeweiligen Lerner und – falls erwünscht – auch seinem Betreuer zur Verfügung. Ist Letzteres der Fall, so kann der Betreuer die aufgezeichnete Durchführungsphase abspielen lassen und das Verhalten des Lerners auf Basis der protokollierten Systemzustände analysieren. Dadurch ist er in der Lage, dem Lerner detaillierte Rückmeldungen bezüglich der Durchführungsphase z.B. mit Hilfe des Kommunikationsdienstes der Lernumgebung (E-Mail, Chat, Videokonferenz etc.) zu geben. 3.3.2
Buildtime-Benutzungsoberfläche der Experimentierumgebung
Die Bearbeitung der Konfigurationsspezifikation für die Durchführungsphase erfolgt mit Hilfe von Editoren. Da die Konfigurationsspezifikationen je nach Typ der Spiel-, Projekt-, oder Experimentdurchführung unterschiedlich sind, unterscheiden sich auch die Editoren zu deren Bearbeitung. Dennoch sind alle Editoren gemäß der allgemeinen Struktur von Konfigurationsspezifikationen in die Teilbereiche Eigenschaften der Durchführung, Beobachtung, Beratung und Auswertung gegliedert (Abbildung 7). Die Bereiche Beobachtung, Beratung und Auswertung sind vom Typ der Spiel-, Projekt-, oder Experimentdurchführung unabhängig, falls das Standardverfahren zur Auswertung verwendet wird. Im Gegensatz dazu ist der Bereich Eigenschaften der Durchführung nicht allgemein spezifizierbar und muss unter Verwendung geeigneter Editorkomponenten (EditorKit) an den jeweiligen Typ der Durchführung angepasst werden.
Entwicklung von Experimentierumgebungen für den Erwerb von Problemlösefähigkeit 823
Abbildung 7: Buildtime-Benutzungsoberfläche der Experimentierumgebung
Allgemeine Editorfunktionen, wie z.B. das Laden und Speichern von Dateien, werden vom Framework zur Verfügung gestellt. Darüber hinaus bietet das Framework auch die Möglichkeit, Funktionen zum Ausführen und zum Testen der bearbeiteten Spiel-, Projekt-, oder Experimentdurchführungen zu realisieren.
4
Zusammenfassung und Ausblick
Das vorgestellte Framework bildet die Grundlage für die Entwicklung von Experimentierumgebungen, die sowohl den Hauptprozess problemorienterter Lernsettings (Spiel-, Projekt-, oder Experimentdurchführung) als auch die Begleitprozesse (Leitung, Beobachtung, Beratung und Moderation) unterstützen und in jede SCORM-fähige Lernumgebung integriert werden können. Darüber hinaus ist es Ziel des Frameworks, die Wiederverwendbarkeit und Wartbarkeit der Softwarekomponenten zu erleichtern und die Integration beliebiger Werkzeuge und Simulationsmodelle in die Experimentierumgebung zu ermöglichen. Aus Gründen der Plattformunabhängigkeit ist das Framework in der Programmiersprache JAVA realisiert. Zur Reduzierung des Aufwands für die Erstellung von Experimentierumgebungen ist es sinnvoll, auf Basis des Frameworks folgende Standardimplementierungen für die Schnittstelle SimulationControl zu entwickeln:
824
C. Ullrich, O. K. Ferstl
x Standardimplementierungen für verschiedene Simulationsformen: Für diskrete und kontinuierliche Simulationsumgebungen kann jeweils eine Standardimplementierung zur Verfügung gestellt werden. Die Simulationsumgebungen sollten hierbei mit beliebigen Modelltypen (analytisch, wissensbasiert und konnektionistisch)4 gekoppelt werden können. Dies könnte mit Hilfe von entsprechenden Standardimplementierungen für die einzelnen Modelltypen unterstützt werden. x Standardimplementierungen für verschiedene Simulationswerkzeuge: Jedes beliebige Simulationswerkzeug, das über eine Programmierschnittstelle verfügt, kann mit Hilfe einer geeigneten Wrapper-Implementierung in die Experimentierumgebung integriert werden. Der Erstellungsaufwand einer Experimentierumgebung verringert sich erheblichen, wenn für die zu integrierenden Werkzeuge bereits entsprechende Wrapper-Implementierungen verfügbar sind. Die Qualität des Frameworks für Experimentierumgebungen kann anhand zweier Kriterien bestimmt werden: 1. Effizienz: Aufwand der notwendig ist, um auf Basis des Frameworks qualitativ hochwertige Experimentierumgebungen zu erstellen. 2. Effektivität: Qualität der Experimentierumgebungen, die mit Hilfe des Frameworks erstellt werden können. Die Qualitätskriterien sind nur auf Basis von bereits realisierten Experimentierumgebungen messbar. Zur Zeit werden an der Universität Bamberg für die Lernumgebung Grundkurs Wirtschaftinformatik (ILU-GKWI)5 verschiedene Experimentierwerkzeuge entwickelt. Realisiert wird z.B. im Rahmen von Diplomarbeiten ein System-Dynamics-Werkzeug zur Modellierung und Analyse des Verhaltens komplexer Systeme. Die ILU-GKWI wird begleitend zur Präsenzlehre an der Universität Bamberg und an der Virtuellen Hochschule Bayern (vhb) eingesetzt. Sie ist als Selbstlernumgebung konzipiert und umfasst neben einer Experimentierumgebung sechs weitere Lernräume zum expositorischen und explorativen Lernen. Während des Einsatzes der ILU-GKWI erfolgt eine kontinuierliche Evaluation derselben. Dieser Rahmen wird die Grundlage für die Evaluation des Frameworks und der darauf basierenden Experimentierumgebungen bilden.
4 5
Die unterschiedlichen Arten von Modelltypen sind in [FeSi01, 96f] beschrieben. Eine Demoversion der Lernumgebung findet sich unter der Adresse http://www.iaws.wiai.uni-bamberg.de/forschung/projekte/lernsoft/projekte/gkwi/ ilugkwi.html
Entwicklung von Experimentierumgebungen für den Erwerb von Problemlösefähigkeit 825
Literatur [ADL04a] Dodds P. (ADL): SCORM 2004 Overview. http://www.adlnet.org/screens/shares/dsp_displayfile.cfm?fileid=992, 2004, Abruf am 18.06.2004 [ADL04b] Dodds P. (ADL): SCORM Content Aggregation Model Version 1.3. http://www.adlnet.org/screens/shares/dsp_displayfile.cfm?fileid=994, 2004, Abruf am 18.06.2004 [And00] Anderson J. R.: Kognitive Psychologie. 5. Auflage, Spektrum, Heidelberg und Berlin, 2000 [Bia95] Bialy H. Volk-von: Pädagogisches Rollenspiel – Erleben, um zu verstehen. In: Buddrus V. (Hrsg.): Humanistische Pädagogik. Klinkhardt, Bad Heilbrunn, 1995, S. 133-151 [Beer94] Beer S.: Brain of the firm. 2. Auflage, John Wiley & Sons, Chichester u.a., 1994 [BöWo00] Böhret C., Wordelmann P.: Planspiele als Methode der Fortbildung und Entscheidungshilfe: Das computergestützte Planspiel TAU. In: Herz D., Blätte A. (Hrsg.): Simulation und Planspiel in den Sozialwissenschaften. LIT, Münster, 2000, S. 208-229 [Budd92] Buddensiek W.: Entscheidungstraining im Methodenverbund – Didaktische Begründung für die Verbindung von Fallstudie und Simulationsspiel. In: Keim H. (Hrsg.): Planspiel, Rollenspiel, Fallstudie: zur Praxis und Theorie lernaktiver Methoden. Wirtschaftsverlag, Köln, 1992, S. 9-24 [Dick00] Dick E.: Multimediale Lernprogramme und telematische Lernarrangements. BW, Nürnberg, 2000 [Dörn87] Dörner D.: Problemlösen als Informationsverarbeitung. 3. Auflage, Kohlhammer, Stuttgart u.a, 1987 [Edel00] Edelmann W.: Lernpsychologie. 6. Auflage, Beltz, Weinheim, 2000 [FeSc01] Ferstl O. K., Schmitz K.: Integrierte Lernumgebungen für virtuelle Hochschulen. In: Wirtschaftsinformatik, 43 (2001) 1, S. 12-22 [FeSi01] Ferstl O.K., Sinz E. J.: Grundlagen der Wirtschaftsinformatik. 4. Auflage, Oldenbourg, München und Wien, 2001 [FeUl04] Ferstl O.K., Ullrich C.: Eine MultiView-Benutzungsoberfläche für integrierte Lernumgebungen. In: Engels G., Seehusen S.: DeLFI2004: Die 2. e-Learning Fachtagung Informatik. Köllen Druck+Verlag, Bonn, 2004, S. 103-114 [Fers+00] Ferstl O. K., Hahn K., Schmitz K., Ullrich C.: Funktionen und Architektur einer Internet-Lernumgebung für individuelles und kooperatives Lernen. In: Uellner S., Wulf V.: Vernetztes Lernen mit digitalen Medien. Physica-Verlag, Heidelberg, 2000, S. 5368 [Fers79] Ferstl O.K.: Konstruktion und Analyse von Simulationsmodellen. Hain, Königstein/Ts, 1979
826
C. Ullrich, O. K. Ferstl
[Frey98] Frey K.: Die Projektmethode. 8. Auflage, Beltz, Weinheim und Basel, 1998 [Geu00] Geuting M.: Soziale Simulation und Planspiel in pädagogischer Perspektive. In: Herz D., Blätte A. (Hrsg.): Simulation und Planspiel in den Sozialwissenschaften: Eine Bestandsaufnahme der internationalen Diskussion. LIT, Münster, 2000, S. 15-61 [Glas97] Glasersfeld E. von: Radikaler Konstruktivismus. 1. Auflage, Suhrkamp, Frankfurt am Main, 1997 [Gud01] Gudjons H.: Handlungsorientiert Lehren und Lernen. 6. Auflage, Klinkhardt, Bad Heilbrunn, 2001 [Kais83] Kaiser F. J.: Grundlagen der Fallstudiendidaktik - Historische Entwicklung - Theoretische Grundlagen - Unterrichtliche Praxis. In: Kaiser F. J. (Hrsg.): Die Fallstudie. Klinkhardt, Bad Heilbrunn, 1983, S. 9-34 [Kerr98] Kerres M.: Multimediale und telemediale Lernumgebungen: Konzeption und Entwicklung. 2. Auflage, Oldenbourg, München u.a., 1998 [May01] Mayer T.: I-Learning statt E-Learning. Dissertation an der Friedrich-AlexanderUniversität, Erlangen-Nürnberg, 2001 [Mey87] Meyer H.: Unterrichtsmethoden. Cornelsen Scriptor, Frankfurt am Main, 1987 [Rein96] Reinhold P.: Offenes Experimentieren und Physiklernen. IPN, Kiel, 1996 [Schal01] Schaller R.: Das große Rollenspielbuch. Beltz, Weinheim und Basel, 2001 [Schma82] Schmayl W.: Das Experiment im Technikunterricht. Didaktischer Dienst Franzbecker, Bad Salzdetfurth, 1982 [Schm01] Schmitz K.: Virtualisierung von wirtschaftswissenschaftlichen Lehr- und Lernsituationen: Konzeption eines Application Framework. 1. Auflage, DUV, Wiesbaden, 2001 [Spi+88] Spiro R.J., Coulson R.L., Feltovich P.J., Anderson D.K.: Cognitive flexibility theory: Advanced knowledge acquisition in ill-structured domains. In: Cognitive Science Society (Hrsg.): Tenth Annual Conference of the Cognitive Science Society. Erlbaum, Hillsdale, 1988, S. 375-383 [Ull03] Ullrich C.: Erwerb von Problemlösefähigkeit mit Hilfe von Lernumgebungen: Konzeption und Implementierung eines Frameworks. Dissertation an der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität, Bamberg, 2003
Revenue Models for E-Learning at Universities Jan Mendling, Gustaf Neumann, Andreas Pinterits, Bernd Simon Vienna University of Economics and Business Administration (WU Wien)
Abstract: This paper addresses the recent discussions on business models for e-learning. Throughout this paper, we contribute to this discussion by presenting first evidence for the sustainability of e-learning systems at universities. We discuss the cases of Learn@WU, EducaNext, and HCD-Online using a triangulation case study design and present both empirical cost structures and potential revenue models. The paper shows that there is a significant potential for revenue, but one revenue model is hardly enough to cover the cost. The size of the target audience as well as the (marketing) qualifications of the personnel have been identified as critical success factors for the sustainability of an e-learning system. Keywords: E-Learning, Business Model, Revenue Models, Case Study
1
Relevance of Revenue Models for E-Learning
The introduction of information technology in learning processes – commonly referred to as e-learning – offers academic institutions new possibilities to organize their educational processes. Various universities have implemented e-learning systems, both to save cost for classrooms and teaching staff as well as to improve the quality of teaching as such. However, the overall qualitative and quantitative impact of e-learning initiatives is difficult to measure. E-learning investments can be regarded as strategic investments of academic institutions that aim to achieve competitive advantage, both in terms of cost structures as well as effectiveness. Seufert defines a spectrum of e-learning supported organizations ranging from “traditional alma mater” to “pure virtual university”, in order to systematically describe the different e-learning strategies of academic institutions [Seuf01]. The notorious under-funding of some universities in Central Europe has triggered discussions about new revenue sources in order to cover expenses of e-learning projects [DoSi03]. However, contradicting claims can be found concerning the financial aspects of e-learning initiatives. Schneider, for example, states that revenues can hardly be expected from online learning because people would be unwilling to subscribe and no cost can be saved in academic environments [Schn02]. Seufert, on the one hand, talks about investment in technological infrastructure to
828
J. Mendling, G. Neumann, A. Pinterits, B. Simon
be cost-efficient, while, on the other hand, she mentions that high investment for tutors and coaching of supported students is needed [Seuf01]. Hoppe and Breitner state that web-based e-learning creates positive network effects and that it has a huge potential for additional revenues at low provision cost [HoBr04]. However, they also expect the success to depend upon high-quality content [HoBr04], which seems to contradict with low provision cost. Conclusions about how e-learning can become financially successful can hardly be drawn from these statements. Up to now, no empirically grounded estimations of revenue potential for e-learning at universities are available [Dohm03]. Furthermore, there is a deficiency in marketing and sales as well as a technical orientation of the projects that Cleuvers describes as “l’art pour l’art” [Cleu03]. By analyzing the cases of Learn@WU, EducaNext, and HCD-Online we aim to address this deficiency. We use a multi-perspective triangulation methodology to extract hypotheses from the cases. In particular, each case includes an empirical grounded cost structure and presents one potential revenue stream based on current market parameters. Our calculations provide insights into the factors that influence sustainability of e-learning business models at universities and offer a basis for further economic research into e-learning at universities. The rest of the paper is structured as follows. In Section 2 we explicate the terms e-learning and business model including related taxonomies. The methodology applied in this research is documented in Section 3. Section 4 introduces the cases of Learn@WU, EducaNext, and HCD-Online. We define revenue models for each case and calculate both empirical expenditures and hypothetical revenues that are based on parameters of each system and current market parameters. Moreover, we deduct factors that influence sustainability of revenue models for e-learning systems at universities. Section 4 concludes the paper and gives an outlook on future research.
2 2.1
E-Learning and Related Business Models What is E-Learning?
E-Learning refers to the combination of learning and information technology, which provides new learning opportunities with less restriction on time and space. Academic e-learning initiatives aim at designing, implementing and introducing an e-learning system in a higher education institution. An e-learning system can be defined as a social and information technological system that supports learning processes (cf. e.g. [HoBr04]). An e-learning application is at the centre of an elearning system. It supports one or more processes of the educational value chain [GuNS01]. The value chain consists of the following activities: learning planning and curricula design; content development and brokerage; learning delivery and
Revenue Models for E-Learning at Universities
829
learner coaching, as well as assessment, evaluation, and credentialing (cf. Figure 1). Each of these activities can be supported by e-learning applications. Learning Planning & Curricula Design
Content Development & Brokerage
Learning Delivery & Learner Coaching
Assessment, Evaluation & Credentialing
Figure 1: Educational Value Chain.
Applications for learning planning & curricula design typically provide features for knowledge gap analysis and personnel development planning [KKGS04]. Applications for content development & brokerage support the creation and acquisition of content. Authoring tools and online market places for courses or content are the type of application that can be found here. Applications for learning delivery & learner coaching support (collaborative) learning in courses, which are delivered over distance or held in classrooms and lecture halls. These applications are often referred to as learning (content) management system and support communication between instructors and learners in asynchronous and synchronous mode. Applications for assessment, evaluation and credentialing are used to certify the learners’ competency [Seuf01] or to evaluate the quality of the course. Course evaluation tools and test suites are the kind of applications supporting these processes. In order to draw a complete picture of an e-learning system its different stakeholders have to been identified. An e-learning stakeholder in this context is an individual or an organization that is involved with the operations or may be affected by the existence of an e-learning application (analogous to [Free84]). In general, the e-learning stakeholders are a subgroup of the stakeholders of a university. The university can use e-learning to strengthen its relationship with stakeholders like e.g. alumni, faculty, or students. As all stakeholders have an interest in the sustainability of an e-learning initiative, a business model is the prerequisite for achieving this goal.
2.2
Business and Revenue Models for E-Learning
Since the collapse of the new economy hype, research into business models has attracted much attention in both academia and industry. Timmers defines a business model as an “architecture for products, services, and information flows, including a description of the various business actors and their roles; and a description of the potential benefits for the various business actors; and a description of the sources of revenues” [Timm00].
830
J. Mendling, G. Neumann, A. Pinterits, B. Simon
Early research has aimed to identify different categories of business models [cf. e.g. Timm98]. Wirtz and Kleineicken identify four categories of business models (content, commerce, context, connection) that are applicable for the Internet [WiKl00]. Furthermore, they distinguish between direct and indirect as well as transaction-dependent and transaction-independent revenue generation. Recently, Rappa has introduced a taxonomy of 38 business models grouped into nine types: brokerage, advertising, information intermediary, merchant, manufacturer direct, affiliate, community, subscription, and utility [Rapp04].
Transaction dependent
Transaction independent
Work inspired by conceptual modelling aims to identify the essential concepts of business models and the relationships between them. The e-business model ontology proposed by Osterwalder and Pigneur [OsPi02] extends earlier research and identifies four perspectives. The product perspective of a business model describes the products and services a company is offering and its value proposition. The customer relationship perspective defines who the target customers are, how the products are delivered to them, and how the relationship with them is build up and maintained. The infrastructure perspective specifies how infrastructure and logistics are organized efficiently. Finally, the financial perspective defines the revenue and the cost model of the business. In essence, the revenue model describes the sources of revenue of a business. Though a business model focuses on defining the business, it can also provide the basis for the definition of controlling measures like e.g. balanced scorecards [NoKa92]. Indirect revenue generation
Direct revenue generation
Learn@WU
EducaNext
HCD-Online
Figure 2: E-Learning Systems and Characteristics of Their Revenue Model.
In the area of e-learning appropriate business models have been discussed from the very beginning. Seufert presents different types of e-learning at universities and related business models [Seuf01]. The volumes edited by Bentlage et al. [Bent+02] and Dohmen and Michel [DoMi03] aim to take an inventory of academic e-learning and business models. In this context the question of sustainability is raised for e-learning business models [GuNS01, HoBr04]. The claimed potential for additional revenue is especially interesting for universities. In Section 4 we present three cases of e-learning systems at universities and focus on the financial dimension of business models. From these cases we aim to condense some
Revenue Models for E-Learning at Universities
831
insight into the revenue potential of e-learning systems. Figure 2 relates the three cases of Learn@WU, EducaNext, and HCD-Online to the revenue types identified in Wirtz and Kleineicken [WiKl00].
3
Methodology
As there are no estimations of revenue potential for e-learning at universities available yet [Dohm03], we adopted an explorative case study approach [cf. Yin93]. Although this research design cannot provide empirically generalized predictions, we can nevertheless gain insight into the peculiarities of different revenue models for e-learning. Hence, the findings rely on analytical generalization and particulization [cf. Stak95 and Yin94]. We selected the three cases for the following reasons: The e-learning systems of the three cases address different activities of the educational value chain (cf. Figure 1). Learn@WU supports content development and learning delivery, EducaNext supports content brokerage, and HCD-Online supports learning planning. The cases also comprise different revenue models according to the classification schema of Wirtz and Kleineicken [WiKl00]. For Learn@WU we discuss an advertising revenue model, for EducaNext a subscription revenue model, and for HCDOnline a brokerage fee revenue model. Furthermore, the systems of the cases address the needs of different e-learning stakeholders: Learn@WU targets students, EducaNext faculties, and HCD-Online the life-long learners. Finally, as our department is involved in the development of all three systems, we had direct access to financial and usage data. We were able to tap the different project members and to put together the empirical cost structure. In order to draw a complete picture of the cases we used three types of evidence including documents, archival records, and interviews. Documents and archival records comprise project reports and calculations; web server log files; and statements of accounts. Furthermore, the calculations presented in this paper have been reviewed by key informants. Interviews were performed via phone and e-mail in June 2004. The interviewees had highly heterogeneous job titles such as assistant at a training service provider responsible for online market places, assistant to the managing director of an online market place, learning service manager of a university Alumni centre, sales personnel of a leading Austrian newspaper responsible for online-advertising, service manager of a faculty exchange portal, technical manager of a university e-learning project. In total, seven interviews were conducted. By presenting three cases – Learn@WU, EducaNext, and HCD-Online – with different characteristics we comply with the research design of a multi-perspective data triangulation [cf. e.g. Stak95]. Furthermore, as different researchers have
832
J. Mendling, G. Neumann, A. Pinterits, B. Simon
been involved in data gathering and interpretation, the study also suffices investigator triangulation criteria [Stak95].
4 4.1 4.1.1
Three Cases of E-Learning Revenue Models An Advertising Revenue Model for Learn@WU Introduction to Learn@WU
Learn@WU (https://learn.wu-wien.ac.at/) is an e-learning application developed at the Vienna University of Economics and Business Administration (WU for “Wirtschaftsuniversität”). It acts as a full service provider to first year students [Albe+03]. The Learn@WU project has been aligned to achieve the following goals of its stakeholders: x Higher student satisfaction through better preparation for introductory exams, opportunities to getting in touch with peers online, and higher transparency of study goals. x Increased learning performance through a collaborative learning approach and additional opportunities for interaction. x Higher faculty satisfaction by easing the process of publishing course material on the web, efficient mass administration and delivery of courses, electronic homework assignments, and marking. x Standardizing the knowledge level of students entering the second part of their studies by collaborative development of joint course materials among different departments. x Creating a modern image of the university while reducing teaching cost through decreasing the need for classrooms and lecture halls while increasing throughput through half-semester courses, and off-term studies (Summer School). In order to achieve these goals, Learn@WU has become an integral part of the curriculum and the teaching strategy of first year courses. As a consequence, Learn@WU is a heavily used system. At the time of writing, it holds 19,638 learning resources ranging from online text books over glossary terms to online exercises. More than 11,800 users have been registered, which makes Learn@WU assumed to be one of the most active learning environments in operation at universities worldwide [Albe+03]. At the same time Learn@WU is one of Austria’s most
Revenue Models for E-Learning at Universities
833
heavily used websites with web traffic similar to the online portal of the Austrian newspaper Presse.at. 4.1.2
The Cost Structure of Learn@WU
The total cost of the Learn@WU system can be subdivided into the following categories: technical server infrastructure, personnel, office infrastructure, and additional cost. We calculated the cost with actual empirical figures from the Learn@WU project documentation and interrogations. In this calculation we did not take into account any savings realized through implementation of the system (less classes hold, less assessment cost). Missing values were supplemented by reasonable estimations derived from secondary document research, e.g. for staff training cost we took 1.3% of total personnel cost which is equivalent to the average training investments of Austrian companies [Paul03]. A more detailed calculation is summarized in Table 1. All estimations are marked by an asterisk. Personnel cost is the major cost block of the Learn@WU system. At the moment 28 staff members (full-position equivalents) are involved in the project. This includes content developers, system developers, support personnel for legal, pedagogical, and technical issues as well as administration staff. As the existing network infrastructure of the university can be used, no additional network costs arise. Learn@WU builds upon a learning content management system software package, called OpenLTS, which is based on an enhanced and customized version of the open-source software OpenACS [cf. Oacs04] and DotLRN [cf. Lrn04]. Consequently, cost for system development occur, but no licensing fee. Office infrastructure is made up of cost for workstations and office space. Additional cost are split up in detail in Table 1. The implementation of the advertising revenue model requires additional technical infrastructure as well as resources dedicated to sales and administration. For both subjects a make or buy decision applies; i.e. first, implementation and maintenance of an ad-server (one staff member) versus hyperlinking to a third-party ad-server; and second, employment of a sales person versus charging a specialized agency with the sale of ads. Our considerations base on execution of all tasks by the university itself. Altogether the cost of Learn@WU would rise from € 1,279,620 to € 1,418,600 which means an increase by € 138,980 or 11%. 4.1.3
Revenue Generation
There are some indications that students – who often live on a tight budget – are not willing to pay extra for e-learning services [BeHu02]. In cases where users are unwilling to pay directly for content and services, advertising is frequently considered as a revenue model. This can also be applied to e-learning [cf. HoBr04]. However, the primary purpose of the e-learning system must not be negatively affected through advertisements; any disturbance of the basic learning process
834
J. Mendling, G. Neumann, A. Pinterits, B. Simon
should be avoided. Therefore we consider only static ad banners in the standard size of 468 x 60 to be used. The basic parameter of our calculation is the number of page impressions (PI) delivered. It is a core measure for online customer contacts of websites. We geared this method to the recommendations of ÖWA (Österreichische Webanalyse), which complies with the German IVW (Informationsgesellschaft zur Feststellung der Verbreitung von Werbeträgern) standard. ÖWA is a voluntary association of Austrian online contractors and pursues the goal of collecting and publishing independent information about online advertising media [Öwa04]. COST OF LEARN@WU WITHOUT IMPLEMENTATION OF REVENUE MODEL Technical Infrastructure
€
23,300
Personnel
€
1,171,000
Office Infrastructure
€
52,920
€
32,400
€
1,279,620
Additional Cost Travel Staff training*) Consumables Phone, Fax
Amount 5 Trips 28 Emp. 28 Emp. 28 Emp.
Sum
€ € € €
Detail Cost 6,000 15,200 8,400 2,800
ADDITIONAL COST FOR IMPLEMENTATING THE REVENUE MODEL Technical Infrastructure
€
1,300
Personnel*)
€
109,700
Office Infrastructure
€
3,780
Detail Cost € 10,000 10,000 1,400 600 200 2,000
24,200
€ € €
138,980
Additional Cost Travel*) Promotion*) Staff Training*) Office Consumables Phone, Fax Accounting & Legal Services*)
Amount 10 Trips 2 Emp. 2 Emp. 2 Emp.
Sum Total Cost including Revenue Model Implementation
€ € € € € €
1,418,600
Table 1: Cost Structure of Learn@WU.
Table 2 shows the number of PIs and the generated revenue from June 2003 to May 2004. In the first year of studies exams are held during examination weeks at
Revenue Models for E-Learning at Universities
835
the beginning, in the middle and at the end of every semester. This provokes recurring usage peaks in the last two weeks before the examination week. The calculated revenues build on the product of measured PIs multiplied by an estimated rate for one thousand PIs, the so-called thousand contact price (TCP). This estimation is based on actual market prices of leading Austrian contractors [cf. Öwa04]. As Learn@WU can offer very well-defined target groups, we decided to take an average price of € 30 for thousand PIs, which is also in the middle of the current price range (the higher the precision of the chosen target group, the higher the price). Furthermore, we calculated with a utilization ratio of 30%. An interview conducted with a field expert for online-advertising has shown that this figure can be regarded as a reasonable estimation. Additionally, this data is supported by other Austrian websites [cf. Trip04]. Month
Page Impressions
Revenue
Jun. 03 Jul. 03 Aug. 03 Sep. 03 Oct. 03 Nov.03 Dec. 03 Jan. 04 Feb. 04 Mar. 04 Apr.04 May 04
5,510,458 382,352 504,585 4,314,393 4,823,203 9,474,087 3,032,123 9,955,325 8,011,179 3,092,570 9,418,355 3,347,253
€ 49,594 € 3,441 € 4,541 € 38,830 € 43,409 € 85,267 € 27,289 € 89,598 € 72,101 € 27,833 € 84,765 € 30,125
Sum
61,865,883
€ 556,793
Table 2: Advertising Revenue Calculation for Learn@WU.
Table 2 illustrates that a significant revenue can be generated with online advertising. However, only a portion of the total cost could be covered (about 40%). It seams to be sure that in this case – given the number of page impressions generated by Learn@WU – an investment in online advertising would certainly pay-off (especially given that the cost estimations were rather conservative). At the same time, the full cost model presented here needs to be questionned, since the university achieves further significant cost reduction (e.g. up to now more than 60,000 exams have been evaluated automatically) and higher customer satisfaction through the availability of the service. At times when the picture of a “modern” education provider also includes e-learning services, Learn@WU could also be seen as a paramount investment in order to continue to attract the best talents on the market.
836
4.2 4.2.1
J. Mendling, G. Neumann, A. Pinterits, B. Simon
A Subscription Revenue Model for EducaNext Introduction to EducaNext
EducaNext (http://www.educanext.org) is an academic exchange portal and knowledge community where members of higher education, research organisations, and professional communities can share, retrieve, and reuse learning resources [QuSi03]. It builds on an e-learning application called Universal Brokerage Platform (UBP). Until recently sharing knowledge over the Web had three major drawbacks: (1) faculty was not able to control the dissemination of its material, (2) faculty was not enabled to attach usage conditions to learning resource offerings, (3) faculty did not get rewarded for learning resources offerings. EducaNext is a knowledge mediator that supports both the exchange of reusable educational materials based on open standards as well as collaboration of educators via the Internet. The portal is specifically designed to overcome the three obstacles mentioned above by (1) allowing users to define and manage closed exchange communities, (2) enabling providers to attach licenses to learning resource offerings, and (3) providing faculty a platform to gain international recognition. In particular, EducaNext allows users to x Participate in knowledge communities, x Communicate with other experts in a field, x Exchange learning resources, such as electronic textbooks, recorded lectures, presentations, lecture notes, case studies, quizzes, etc., x Deliver distributed educational activities, such as distributed courses, lectures, tutoring sessions, etc., x Distribute electronic content under license, x Work together on the production of educational material. The EducaNext service is free and open to any participant of the academic community. At the time of writing, 1,400 users from more than 250 institutions were registered at EducaNext. So far, they have provided about 500 learning resources, mostly in the disciplines computer science and information systems, business administration and management, as well as pedagogy and instructional design. EducaNext is managed by a Steering Committee (SC) which is in charge of the overall strategy of the portal, and by an Executive Board (EB) which runs daily operations such as application service provision, catalogue management, and dissemination.
Revenue Models for E-Learning at Universities
4.2.2
837
The Cost Structure of EducaNext
The cost structure of EducaNext is subdivided into technical server infrastructure, personnel, office infrastructure, and additional cost. Activities EducaNext has not been involved in such much lately. The figures were mainly taken from internal project documentation such as cost claims of EC-funded research projects. At its current state, personnel consume about 85% of the budget (see Table 3). The implementation of a subscription-based revenue model would require EducaNext to hire one additional employee. This person would be in charge of managing the registration and billing. She would also be in charge of organising SC meetings and preparing reports. COST OF EDUCANEXT WITHOUT IMPLEMENTATION OF REVENUE MODEL Technical Infrastructure
€
2,800
Personnel
€
87,360
€
3,780
€
8,900
Office Infrastructure Additional Cost Travel Staff training*) Consumables Phone, Fax
Amount 7 Trips 2 Emp 2 Emp
€ € € €
Detail Cost 7,000 1,100 600 200
Sum
€ 102,840
ADDITIONAL COST FOR IMPLEMENTATING THE REVENUE MODEL Personnel*)
€
36,400
Office Infrastructure
€
1,890
€
47,900
Sum
€
86,190
Total Cost including Revenue Model Implementation
€ 189,030
Additional Cost Steering Committee Hosting*) Travel Promotion Staff Training*) Consumables Phone, Fax Accounting & Legal Services*)
Table 3: Cost Structure of EducaNext
Amount 2 5 Trips
1 Emp. 1 Emp.
€ € € € € € €
Detail Cost 30,000 5,000 10,000 500 300 100 2,000
838
J. Mendling, G. Neumann, A. Pinterits, B. Simon
In contrast to the existing cost structure, over 50% of the cost increments arise from additional cost for travelling, promotion and hosting of the SC meetings. Facilitating personal meeting and collaboration of SC members is important for the success of the business model, since the coordination of marketing activities and SC activities is a critical success factor for attracting new clients. All these measures seem to be necessary to ensure a successful evolution of the system. 4.2.3
Revenue Generation
For EducaNext we chose to calculate a subscription-based revenue model. The design process has been inspired by the revenue models of similar initiatives such as Ariadne [Duva+01] and Merlot [Hanl03]. The subscription-based revenue model seems appropriate because we cannot charge users directly. They already provide significant contributions through their engagement in the community. Furthermore, we have some empirical evidence that suggests that about 25% of EducaNext users would strongly dislike seeing ads appearing on the website [SiKö04]. Table 4 summarizes the proposed subscription types to be offered by EducaNext. Although the above-proposed subscription model has not been implemented yet, significant indications do exist that the model will be accepted by the market. For example, Merlot, a similar initiative, is charging its system partners $ 25,000 a year and asks for $ 6,500 in case of a campus partnership [Hanl03]. The Ariadne Foundation asks its institutional academic members for a yearly membership fee ranging from € 500 (for small institutions or institutions with limited means) to € 4,500. Corporate memberships are also supported, but they cost significantly more, ranging from € 2,500 to € 15,000 depending on the size of the enterprise (http://www.ariadne-eu.org/en/about/general/fees/fees.html). At the time of writing, the Ariadne Foundation had 39 registered institutional members in Europe. Ariadne offers individual memberships and restricts content access to its members. Merlot has no access limitation on the provided content; however one needs to register to comment on a learning resource. We have investigated a set of variations of potential revenue streams, which would be necessary to cover the cost of the portal. The results indicate that a significant number of subscriptions need to be sold (between 50 and 55 assuming that a majority of about 35 will subscribe using the institutional subscription option). Currently users from more than 250 institutions are registered at EducaNext. However, selling up to 55 subscriptions (20% of all institutions) is a very demanding job, especially given the current state of the service. A recent user survey found out that EducaNext would need to be enriched with more learning resources and more community interaction to fully satisfy the needs of its clients. As a consequence, EducaNext would need to reduce cost or find alternative revenue streams in order to sustain its service, for example advertising and cross-selling of software and service provision.
Revenue Models for E-Learning at Universities
Model
Rights
EducaNext Full System Subscription
+
Own Universal Brokerage Platform (UBP) instance, which can be fully customized (own hardware is provided). Changes to graphical design, taxonomies, learning resource licenses, exchange and quality management process, etc. can be applied.
+
Full availability of the UBP source code (all modules designed and developed under Universal project) also for commercial projects (some or all UBP modules might become available as open source software)
+
Software update subscription for all UBP modules (without automatic installation)
+
Developer partnership (full support).
+
Creation of own EducaNext community with own subject taxonomy
+
Management tool for user registration
+
Primary support (reaction within 1 working day) for all members of the university
+
Train-the-trainer material
EducaNext Community Subscription EducaNext Institutional Subscription
839
Yearly Fee € 7,000
€ 5,000
€ 3,000
+ All user interface language versions provided (translation as in-kind contribution needed) EducaNext Registered User
+
Provision of learning resources and feedback
+
Access also to all learning resources provided for EducaNext users only
Unregistered User
+
Access to public learning resources
€0
€0
Table 4: EducaNext – Proposed Subscription Types
4.3 4.3.1
A Brokerage Fee Model for HCD-Online Introduction to HCD-Online
The HCD-Online portal (http://www.hcd-online.com/) has been driven by the increasing demand for lifelong learning. High-skilled workers who are able to generate and acquire new knowledge and transfer this knowledge into their work environment constitute a key success factor for businesses. To remain competitive learning at the work place is increasingly in the focus of employees and employers. Many universities have reacted to this trend by offering continuing education in various granularities, ranging from half-day courses over lecture series to complete degree programmes.
840
J. Mendling, G. Neumann, A. Pinterits, B. Simon
HCD-Online supports decision makers in selecting the “appropriate” learning resource from a heterogeneous and growing set of educational offers. It aims to provide an innovative online service which will enable lifelong learners and their stakeholders to perform learning planning processes more efficiently and effectively. In particular, the portal is designed to meet the following objectives [Gunn+04]: x Give lifelong learners the opportunity to choose from a unique source of heterogeneous learning resource providers ranging from electronic bookstores to continuing education centres. x Initiate a communication process that increases the quality of course selection decisions and learning transfer. x Reduce the administration cost of selling, choosing, consuming, and evaluating courses. x Create an efficient distribution channel for learning resource providers. A database of training measures constitutes the core of the service. These measures are supplied by a number of learning resource providers that are interested in selling their goods and services via an electronic market place. Learning resource providers can also connect to the portal by taking advantage of the Web Service interfaces. The Simple Query Interface [SiDM04], for example, enables HCDOnline users to query databases beyond HCD-Online’s database for educational offers. At the portal, learning resource providers, lifelong learners and their stakeholders (e.g. mentors, human resource developers) are involved in processes such as learning goal analysis, search for learning resources, collaborative decision making, learning resource evaluation, and transfer analysis. 4.3.2
The Cost Structure of HCD-Online
The cost structure of HCD-Online is also subdivided into technical infrastructure, personnel, office infrastructure and additional cost (see Table 5). The project without implementation of the revenue model involves three employees with corresponding cost for office environment, workstations and travel cost. A small server is needed to host the system. Thus personnel cost consume the biggest part, about 90%, of the budget. Further budget is needed to carry out system integration projects [cf. Simo+04]. We estimated that three interoperability projects will be carried out in addition to the research funded integration of a commercial learning management system, an online book store, an electronic learning environment for IT, and a continuing education database. One project is aiming at the integration of the Learn@WU e-learning system; additional ones are planned for other databases of continuing education providers. Each of these three projects is calculated with € 10,000.
Revenue Models for E-Learning at Universities
4.3.3
841
Revenue Generation
HCD-Online is a new portal, whose release is scheduled around the prospective publication date of this paper. In order to lower the barriers of entry for its prospective users and to achieve critical mass, we propose a revenue model that only charges a fee when a user actually benefits from the portal. For a learning resource provider this is the case when a course is sold to a company. For a learner, user value is created when a knowledge acquisition process is initiated, executed and evaluated. As a consequence of this design assumption, both, learning resource providers and learners will be charged a commission of 10% whenever a learning resource is contracted and consumed, but no other charges apply. COST OF HCD-ONLINE WITHOUT IMPLEMENTATION OF REVENUE MODEL Technical Infrastructure
€
Personnel
€ 149,240
Office Infrastructure Additional Cost Travel Staff training*) Consumables Phone, Fax
Amount 7 Trips 3 Emp. 3 Emp.
€ € € €
Detailed Cost 4,900 1,900 900 300
Sum
2,800
€
5,670
€
8,000
€ 165,710
ADDITIONAL COST FOR IMPLEMENTING THE REVENUE MODEL Technical Infrastructure
€
0
Personnel
€
36,400
€
1,890
€
34,900
Sum
€
73,190
Total Cost including Revenue Model Implementation
€ 238,900
Office Infrastructure Additional Cost Promotion Staff training*) Consumables Phone, Fax Accounting & Legal Services*) Interoperability Projects
Table 5: Cost Structure of HCD-Online
Amount
1 Emp. 1 Emp. 2 Projects
€ € € € € €
Detailed Cost 2,000 500 300 100 2,000 30,000
842
J. Mendling, G. Neumann, A. Pinterits, B. Simon
The average direct cost of a course amounts to € 732 according to a study performed in Austria in 1999 [Paul03]. It is assumed that the portal will list about 2,000 courses from about 25 providers in the first year (These estimations can be considered conservative given that established seminar market places, such as Seminarmarkt.de and Seminar-Shop.com, list more than 10,000 courses from about 1,000 providers). We expect that about 1,000 users will be registered at the portal and take courses. This can also be considered as a rather conservative estimation given that, for example, 3,044 alumni of the Vienna University of Economics and Business Administration registered in the alumni club have consumed about 1,800 courses in 2003 (data according to an interview). This will lead to about 1,000 transactions a year, yielding to a revenue stream of € 146,400.
4.4
Consolidated Findings
We have presented the three cases of Learn@WU, EducaNext, and HCD-Online to generate hypotheses concerning the impact of revenue models for e-learning. The findings that can be drawn from all three cases can be subsumed as follows: x Revenue Potential Exists: We were able to show that in all three cases a significant revenue potential exists. This revenue potential can be seized to cover at least some parts of the cost of the e-learning portals. As a consequence, stakeholders in e-learning systems are advised to investigate these revenue models for their projects. This finding confirms a similar statement in Hoppe and Breitner [HoBr04]. x The Size of the Target Audience Matters: From the perspective of the presented cases the success of revenue models highly depends on its user base. In the Learn@WU case, for example, an online advertising model would be able to absorb at least one third of the whole cost. Considering the fact that the elearning system is able to ease the resource situation at a mass university like WU, revenue generation in this scale must be regarded as very attractive. On the other hand, the significantly smaller portals EducaNext and HCD-Online would require high utilization first, if they had to rely on the proposed revenue models. This finding is also supported by sustainability problems e-learning projects frequently encounter when they are solely based on an individual faculty member’s initiative. x Qualifications of the Work-Force Constitute a Critical Success Factor: Personnel turns out to be the dominant cost factor in all three cases. In all three cases about 90% of the cost are personnel cost. The implementation of our suggested revenue models implies even further employment of the work-force. Beyond the pure cost perspective, we consider skilled personnel to be a major success factor for the implementation of revenue models of e-learning systems. This argument stems from two points: all of our revenue models build on the utilization of the offered services. This makes success heavily dependent on
Revenue Models for E-Learning at Universities
843
marketing skills of the workforce. The second point is related to the quality of content which a successful e-learning system must provide. In the case of an electronic learning environment like Learn@WU this involves high personnel cost for skilled content developers and the implementation of a cost-effective development process. This confirms Seufert and her statement that high investments for personnel are needed [Seuf01], and it contradicts Hoppe and Breitner who talk about low provision cost [HoBr04]. x One Revenue Stream Alone Is Not Always Sufficient: In all three cases one revenue model alone is not able to cover the whole cost under an absorbed cost basis assumption. At the same time, all three cases have the potential for two or more revenue streams. In the case of Learn@WU, selling of content is currently investigated while EducaNext’s underlying technology has served as a basis for consulting projects. If an e-learning system needs to be completely self-sustainable from a financial point of view, a revenue model building on different revenue streams seems to be appropriate. This conclusion is also supported by preliminary observations of successful national and international information delivery services. However, more empirical evidence needs to be provided. x Cost-Savings Must Be Viewed from Multiple Perspectives: Concerning Schneider’s statement that no cost can be saved [Schn02] we cannot provide evidence with these cases. In order to test his hypothesis, one would have to calculate cost savings of aligning the strategy of a university with an e-learning system. Reduced travel expenses, reduced teaching staff, and reduced classroom usage are only some sources of such potential savings. Yet, an overall cost-benefit analysis of a university’s e-learning system is a challenging task, because it would have to include non-quantitative benefits like, for example, increased reputation. Accordingly, an e-learning system should not be regarded as a potential cash cow, but rather as an instrument to achieve specific goals of a university’s strategy.
5
Conclusion and Future Work
In this paper we presented three case studies of e-learning systems with their empirical cost structure and potential revenue models. Our work gives some evidence to derive the following hypotheses. First, the implementation of a revenue model for an e-learning system has the potential to raise substantial income for the university. Nevertheless, the size in terms of traffic and user base needs to be significantly large in order to cover all cost. Furthermore, the role of personnel is crucial in different ways. On the one hand personnel accounts for most of the cost, on the other hand it has a major impact on the quality of the e-learning content and also in the attraction of new clients.
844
J. Mendling, G. Neumann, A. Pinterits, B. Simon
Based on our exploratory study we will generate further hypotheses which we plan to test in future empirical studies together with representatives of the cost assumptions made. Additionally, the interdependences, compatibilities, and incompatibilities among various business models need to be further investigated. An empirically based break-even analysis could provide patterns that allow implementers to better judge whether a certain business model is also feasible for a specific e-learning system. In this context, questions such as how much traffic certain content must generate in order to pay-off at a given cost structure, how many courses must be sold to break-even with a course brokerage model. Acknowledgements This research is partly sponsored by the ELENA Project (http://www.elenaproject.org) under the grant IST-2001-37264. We would like to thank Alina Wolff for collecting empirical data. Under the lead of Prof. Juan Quemada (Universidad Politécnica de Madrid) EducaNext was initiated, he currently also chairs the EducaNext Steering Committee.
References [Albe+03] Alberer, G., Alberer, P., Enzi, T., Ernst, G., Mayrhofer, K., Neumann, G., Rieder, R., und Simon, B.: The Learn@WU Learning Environment. In: Wirtschaftsinformatik 2003 –Band I, 2003: pp. 593–612. [Bent+02] Bentlage, U., Glotz, P., Hamm, I. (eds.): E-Learning – Märkte, Geschäftsmodelle, Perspektiven. Verlag Bertelsmann-Stiftung, 2002. [BeHu02] Bentlage, U., Hummel, J.: Märkte in den USA und in Deutschland im Vergleich. In: Bentlage, U., Glotz, P., Hamm, I. (eds.): E-Learning – Märkte, Geschäftsmodelle, Perspektiven. Verlag Bertelsmann-Stiftung, 2002: pp. 121–153. [Cleu03] Cleuvers, B. A.: Bestandsanalyse der eLearning-Angebote der Hochschulen. In: Dohmen, D. and Michel, L. P. (eds.): Marktpotenziale und Geschäftsmodelle für eLearning-Angebote deutscher Hochschulen. Bertelsmann Verlag, 2003: pp. 29–92. [Dohm03] Dohmen, D.: Ergebnisse. In: Dohmen, D. and Michel, L. P. (eds.): Marktpotenziale und Geschäftsmodelle für eLearning-Angebote deutscher Hochschulen. Bertelsmann Verlag, 2003: pp. 145–206. [DoMi03] Dohmen, D. and Michel, L. P. (eds.): Marktpotenziale und Geschäftsmodelle für eLearning-Angebote deutscher Hochschulen. Bertelsmann Verlag, 2003. [DoSi03] Dohmen, D. und Simons, S.: Geschäftsmodelle. In: Dohmen, D. and Michel, L. P. (eds.), Marktpotenziale und Geschäftsmodelle für eLearning-Angebote deutscher Hochschulen. Bertelsmann Verlag, 2003: pp. 145–206. [Duva+01] Duval, E.; Forte, E.; Cardinaels, K.; Verhoeven, B.; Van Durm, R.; Hendrikx, K.; Wentland Forte, M. ; Ebel, N.; Macowicz, M.; Warkentyne, K.; Haenni, F.: The A-
Revenue Models for E-Learning at Universities
845
riadne Knowledge Pool System. In: Communications of the ACM. 44 (2001) 5, pp. 7278. [Free84] Freeman, R. E: Strategic Management: A Stakeholder Approach. Boston, 1984. [GuNS01] Guth, S.; Neumann, G.; Simon, B.: UNIVERSAL - Design Spaces for Learning Media. In: Sprague, Ralph H. (Hrsg.): Proceedings of the 34th Hawaii International Conference on System Sciences. Maui, USA 2001: IEEE. [Gunn+04] Gunnarsdottir, S.; Kieslinger, B.; Küchler, T.; Simon, B.: From e-Learning to Learning Management: Results of an International Survey. In: Proceedings of 4th International Conference on Knowledge Management. Graz, Austria, 2004. [Hanl03] Hanley, G. L.: MERLOT: Multimedia Educational Resource for Learning and Online Teaching. In: Proceedings of Ed-Media 2003. Honolulu, USA 2003: AACE, pp. 1281-1284. [HoBr04] Hoppe, G. und Breitner, M. H.: Business Models for E-Learning. In: Rombach, D., Eicker, S., Pohl, K., Adelsberger, H., Wulf, V., Krcmar, H., und Pawlowski, J. (eds.): Multikonferenz Wirtschaftsinformatik (MKWI) 2004 - Band 1, 2004. pp. 3–18. [Lrn04] dotLRN - An open source product to support learning and research communities. Accessed on 30 June 2004; http://dotlrn.org/. [MeSi00] Meier, P.; Simon, B.: Reengineering Undergraduate Teaching by Introducing Internet-based Learning Information Systems. In: Hansen, H. R.; Bichler, M.; Mahrer, H. (Hrsg.): Proceedings of the 8th European Conference on Information Systems. Vienna, 2000. [NoKa92] Norton D. and Kaplan, R.: The balanced scorecard: measures that drive performance, Harvard Business Review, 70 (1), 1992. [Paul03] Pauli, W.: Betriebliche Weiterbildung. Statistik Austria. Wien, 2003. [Rapp04] Rappa, M.: The Utility Business Model and the Future of Computing Services. In: IBM Systems Journal, Vol. 43, No. 1, 2004, pp. 32–42. [Oacs04] OpenACS - The Toolkit for Online Communities. Accessed on 30 June 2004; http://openacs.org/. [Öwa04] Österreichische Web Analyse (ed.): Wir über uns, 2004. Accessed on 24 June 2004; http://www.oewa.at/cgi-bin/frameset.pl?1 [OsPi02] Osterwalder, A. and Pigneur, Y.: An e-Business Model Ontology for Modeling eBusiness. 15th Electronic Commerce Conference e-Reality: Constructing the eEconomy, Bled, Slovenia, June 17-19, 2002. [QuSi03] Quemada, J.; Simon, B.: A Use-Case Based Model for Learning Resources in Educational Mediators. In: Educational Technology & Society (ISSN 1436-4522). 6 (2003) 4, pp. 149-163. [Schn02] Schneider, W.: Bildung aus dem Netz - Chancen und Probleme. In: Fortmüller, R. (ed.): Komplexe Methoden, neue Medien in der Didaktik der Ökonomie. Manz Verlag Schulbuch, Wien, 2002: pp. 217–233.
846
J. Mendling, G. Neumann, A. Pinterits, B. Simon
[SiKö04] Simon, B.; König, C.: EducaNext Service Evaluation. Vienna, Austria 2004: Accessed on 24 June 2004; http://www.educanext.org/educanext-eb-service-evaluation2004-06-22.pdf. [Simo+04] Simon, B.; Dolog, P.; Miklós, Z.; Olmedilla, D.; Sintek, M.: Conceptualizing Smart Spaces for Learning. In: Journal of Interactive Media in Education. 2004 (1). [SiDM04] Simon, B., E. Duval, and D. Massart. 2004. Simple Query Interface Specification: Accessed on 24 June 2004; http://nm.wu-wien.ac.at/e-learning/inter/sqi/sqi.pdf. [Seuf01] Seufert, S.: E-Learning Business Models, Strategies, Success Factors and Best Practice Examples. In: R. De Fillippi, R. W. (ed.): Rethinking Management Education. Information Age Press, Greenwich, 2001. [SiKö04] Simon, B.; König, C.: EducaNext Service Evaluation. Vienna, Austria 2004: http://www.educanext.org/educanext-eb-service-evaluation-2004-06-22.pdf. [Stak95] Stake, R. E.: The art of case study research. 2nd Edition. Thousand Oaks, USA. Sage Publications, 1995 [Timm00] Timmers, P.: Electronic Markets: Strategies and Models for Business-toBusiness Trading. Wiley, 2000. [Timm98] Timmers, P.: Business Models for Electronic Markets. In: Journal of Electronic Markets, 8(2): pp. 3–8, 1998. [Trip04] Tripple.net (ed.): Ad-locator Statistikdatenbank 05/2004. Accessed on 24 June 2004; http://www.tripple.net/ad-locator/stats.asp [WiKl00] Wirtz, B. und Kleineicken, A.: Geschäftsmodelltypologien im Internet. WiSt. 11:628–634. 2000. [Yin93] Yin, R. K.: Case Study Research: Design and Methods. Thousand Oaks, USA. Sage Publications, 1993.
Building an Adaptive Infrastructure for Education Service Providing Matthias Mohr, Tobias Simon, Helmut Krcmar Technische Universität München
Abstract: Educational institutions using enterprise software systems within their courses show a very particular behavior in system usage, different from that of operational businesses. This requires an adjusted operating and service model for the underlying IT systems. A service provider running and maintaining such educationally dedicated systems can meet bigger parts of these special requirements by implementing a flexible IT infrastructure which adapts to the customers’ demands. We propose a concept based on a blade server architecture which allows a flexible handling of an SAP® system landscape. The technical concept is embedded into a proposed model of providing services for educational institutions. Keywords: IT Training, System Usage, ASP, SAP, Flexible Infrastructure, Blade Server Architecture
1
Enterprise Software Usage for Educational Purposes
The products of German SAP AG (e.g. R/3®) are among the most commonly used enterprise software packages which support a company’s processes and information flow. It therefore is utilized in several departments of many companies of different size and industry [Dave98]. The demand for SAP skills among employees is on the rise since years [WaSc99, p. 3; Lang03]. Not surprisingly the different features of SAP software are addressed within educational courses and trainings, e.g. by IT training companies, system integrators, consulting firms, internal training departments and even by institutions of higher education. Enterprise software applications are complex information systems that contain a lot of issues which are addressed within educational sessions, for example architecture, technology, programming and business applications [WaSc99]. However, the overhead that the operation and maintenance of complex IT systems present often complicates the use in education. One possibility to reduce this overhead is to acquire services from an application service provider (ASP) [Bece+00, p. 41].
848
2
M. Mohr, T. Simon, H. Krcmar
Service Provisioning for Educators
Application Service Providing (ASP) is a service which allows customers to use software services provided by another company. The services are centrally operated and maintained and are contractually fixed [Krcm03, p. 310]. The service can be used without having to care about the hardware, its administrative work and the way the service is fulfilled. The computing resources are not located at the own company site and the knowledge of the system is based at the service provider. ASP comes along with a technical support package, helping the customer to ease the use of service and taking care of providing solutions, if problems arise. Emergency support is another service of work. The ASP concept can be applied to nearly any type of application and is commonly used for deploying an array of software ranging from basic office suites, such as office applications, to large enterprise resource planning systems, such as SAP [Wals03, p. 103]. A lot of commercial providers of educational resources like teaching concepts or teaching material use the term “Education Service Providing” in order to describe their offerings. We understand Education Service Providing (ESP) in a more technically oriented way: it is both an add-on and a modification of the traditional ASP service: Add-on means the ASP additionally offers education specific services, e.g. train the trainer packages and support for problems referencing special issues (concerning the hosted application) located in the educational sector like e.g. class controlling or system based examinations. Traditional ASP is industryindependent whereas ESP is optimized to be utilized in the educational sector, where the hosted systems have to be prepared to accomplish the requirements of trainers and students. This includes modifying both the hosted software itself and the technical infrastructure running the software. These steps are necessary because of the special usage patterns of educators.
Figure 1: From ASP to ESP
With this definition of ESP, the traditional ASP characteristic „software as a service“ [GrMa02] moves towards „educational resources as a service”.
Building an Adaptive Infrastructure for Education Service Providing
3
849
System Workload Patterns within Educational Environments: The Whiplash Effect
Educational institutions have some characteristics in attitude that result in special requirements for the underlying technical infrastructure used for the education process. Those requirements are quite different from those of operational businesses: Unlike enterprise systems used in their intended context within companies, educationally dedicated systems have to bear the peculiarity of the educators’ usage patterns. There are three main characteristics that can be identified: long-term discontinuity, short-term discontinuity and atypical workload. Discontinuous workload on the long run means the load on the systems varies extremely during a year: depending on holiday times and course periods the system usage varies extremely. On the short run, depending on the shape of an educational session, there is an increased demand of computing power during the hours of a course, followed by the resources running in an idle state till the next course takes place. These discontinuity phenomena can be approved e.g. by using SAP’s standard workload analysis transactions like ST03N or ST06, by operating system monitoring and by interpreting SAProuter’s logging files. Most of the time the underlying hosts rest and so valuable assets remain unused. But at the same time high and peak load situations must be handled: parallel courses must be possible without loss of computing power of one of the courses. Educators also tend to an atypical usage of a system. Use cases which are usually done only once by a single person are worked through in a totally different manner: E.g. 20 students running an MRP operation at the same time or 20 students in a data warehousing course modifying the data dictionary simultaneously. This unusual behavior, which does not happen to the systems in the real world, also results in a heavy system usage. Another characteristic is the fact that educators don’t like to work on used and “dirty” systems: For new courses educational institutions regularly need new systems or clients. Those copy runs also highly burden the system. In case of complete IDES systems (pre-customized SAP systems which represent a model company) this is often about a complete reinstallation. The following table provides an overview about the education specific workload patterns described above:
Workload Pattern
Reason(s)
Long-term discontinuity
cyclical variations within a year
holidays, lecture-free periods
Short-term discontinuity
oscillations during course hours
more or less heavy exercises
850
M. Mohr, T. Simon, H. Krcmar
Atypical workload
multiple execution of one-time use cases, e.g. MRP runs
use cases are integral part of educational lesson
simultaneous write access to central components, e.g. data dictionaries
access is integral part of educational lesson
frequent execution of client copies and reinstallations
educators regularly need new clients or systems
Table 1: Education specific system workload patterns
Those three different types of usage patterns don’t occur separately but aggravate each other by overlapping. For example, during summer course weeks (longterm) within a production planning lesson (short-term), a lot of students are each running a material requirements planning (MRP) transaction (atypical workload). During only a few hours, a maximum of computing power is needed whereas some days later, the system will be running in an idle state. This is why it is about a kind of “whiplash effect” which is drafted in Figure 2. System usage [% CPU load and number of requests]
Maximum resource demand Atypical workload Short-term discontinuity Long-term discontinuity Minimum resource demand
Day 1
Day 2
Day 3
Day 4
Day 5
Day 6
Day 7
Day 8
Day 9
Day 10
Time
Figure 2: The Whiplash Effect (draft)
As consequence, the underlying infrastructure has to be able to handle both the discontinuous and atypical workloads which themselves cause for example x higher average response time during customers’ courses x higher duration of administrative tasks, e.g. client copies and reinstallations One way to face such customer access patterns would be sizing for peak workloads. But two problems will arise: First, it is hard to predict the maximum workload of every course and second and most important, given a completely equipped computer centre, there are only limited resources available and charging with a maximum of hardware is very cost intensive.
Building an Adaptive Infrastructure for Education Service Providing
851
Another solution would be to flexibly allocate the given resources the way they provide each educational session at any point of time with sufficient computing power to accomplish the requests.
4
Resource Provisioning “on Demand”
One of the most critical resources concerning computing power for an SAP system is the application server providing a user-defined number of work processes which deal with any kind of user requests. An application server added to an existing SAP system not only enlarges the number of its work processes but also the system’s overall CPU power, shared memory and buffer sizes. A solution to encounter the problems arising from the special workload patterns would be a flexible and scalable shared (application) server concept. Servers not being used at the moment are grouped in a pool [Andr+82, p. 1] and taken out if resources are requested by another SAP system. If a system will need extended resources because of a training lesson taking place the next days, one or more application servers will be connected to the system enlarging its capacity, e.g. the number of its work processes. Assumed that not all systems need extended resources at the same time, a given number of application servers can enhance different systems dynamically. The servers act as a kind of “migrant worker”. The request for additional resources can be triggered in different ways. E.g. a schedule is specifying the times the resources have to be switched from one SAP system to another. It can happen also job scheduled or at specific performance levels. Definitely, resources are allocated “on demand”. The blade technology concept, e.g. Sun Blade servers [Sun02] is supposed to provide a scalable and modular infrastructure and hence the characteristic of this technology fits to the requirements of the concept of usage on demand.
5
Establishing an Adaptive Infrastructure with Blade Servers
As the blade technology emerged a few years ago, a new concept of servers came up. A blade is a slim, hotswappable server which is plugged into a chassis that can hold a number of blades. Each blade server is an independent server with one or more processors and associated memory, disk storage, network controllers and running its own operating system and applications. Fewer components than in the conventional server design are necessary because the chassis provides the servers with power, fans, floppy drives, switches and network ports which are shared with
852
M. Mohr, T. Simon, H. Krcmar
other blade servers. This results in the reduction of cabling and infrastructure costs, power consumption and in less use of data center space [Sun02]. According to [Scha04], blade servers are only about fourth the price of one unit servers with an equivalent capacity. The modular design of a blade server based architecture allows enterprises to scale their IT infrastructure very precisely and also afterwards, after the initial sizing process. There is no need to buy powerful servers and only use part of their computing power or even let them run idle for most of the time. The administrators of data centers can buy what they need today and plug in additional blades when their processing needs increase. Since the sizing of a SAP system is not trivial, the blade technology enables the SAP systems to be scaled more accurate. Another advantage of blade servers is the central system management which allows the administrator to remote install or configure software on blades. Critical operating parameters like temperature and fans can be also monitored via web client. In the context of an SAP system landscape, each blade server is suited to run as an independent application server. The design and the characteristics of the blade technology enable this technology to serve as hardware foundation of a concept supporting flexible resource allocation.
6
Load Balancing in SAP Systems
The application layer of each SAP system consists of one or a cluster of several SAP instances1 which normally run on different application server hosts. When a user connects to the system, he is assigned to a specific application server which processes all the incoming requests of that user. For each SAP system there is one message server configured, which handles the load balancing (Figure 3). This message server redirects the logon request of the user to the application server that currently faces the smallest workload. As consequence, each user is logged on to one application server for the time of the whole session. Each application server runs a dispatcher and a number of work processes. Any dialog user request is split into dialog steps. Each dialog step is assigned to a single work process for execution. The dispatcher distributes the dialog steps among the work processes on the application server. Different dialog steps of the same user request don’t have to be executed on the same work processes; however the
1
The highest number of application servers at customer installations is less than 30 [Rade01].
Building an Adaptive Infrastructure for Education Service Providing
853
assignment of the work process has to be set for every single dialog step (“dialog work process multiplexing”) [Schn04, p. 60]. SAP systems allow system wide logon load balancing. But once a user is logged on to an application server there is no further load balancing between different application servers. Presentation server
SAP system
Application server
wp
Dispatcher
wp wp
MessageServer
... Application server
wp
Dispatcher
wp wp
... SAP system MessageServer
Application server
...
wp
Dispatcher
wp wp
...
...
wp = work process
Figure 3: Load balancing in SAP systems
Logon load balancing also allows the system to handle breakdowns of single servers: In case an application server breaks down, the message server redirects the incoming logon to another application server within the SAP system cluster. Additional application servers can be installed to support a system with additional computing power. Despite the fact that the SAP system, once it is installed, can dynamically distribute the incoming requests to application servers and their work processes, the overall technical design of the system itself is fixed. Incoming user requests cannot be distributed among application servers of different SAP systems. During the installation of an application server the specific SAP system the server will work for has to be set. It is not possible to switch the server to another system dynamically, even if there is no work to do and the server could support another SAP system which currently is under high work load.
854
7
7.1
M. Mohr, T. Simon, H. Krcmar
Flexible Server Assignment within a Fixed Software Architecture Script Based Application Server Assignment
Although, as described above, the application server architecture of SAP systems is fixed after the initial configuration procedure, there is a technique that allows an SAP application server running on a blade host to switch between several SAP systems dynamically within minutes. This technique is called Blade Runner2 and it is based on a script which runs on operating system level on a blade server. Setup is easy and only small software packages have to be installed to configure a blade to run with blade runner. The execution of blade runner starts an application server (= instance) which then connects to a user chosen SAP system. The script copies the settings of another template application server and sets up the structures the new application server needs. The template server delivers an image for the new SAP instance. This image includes file structure, configuration files for the database connection and SAP profiles. The profiles of the starting application server can even be customized, e.g. by defining the number of different kinds of work processes. As consequence, the services of an SAP system (e.g. work processes) are not statically bound to a dedicated server. A service could run on any of the currently active application servers. Once the application server is started it acts like a normal SAP instance. If another SAP system needs the computing power of this server, the blade runner script logs off the server and attaches it to the requesting SAP system.
7.2
Advantages through Flexible Application Server Assignment
This simple scripting technique enables application servers to run for different SAP systems. In the context of service providing for educational institutions, an SAP system’s capacity can be adapted to the specific course demands which may help managing the “whiplash effect” described above. This will result in a better system performance. Whereas users gain in performance, the application service provider will experience an increase in flexibility. He can deal with server breakdowns much more
2
Blade Runner is a bundle of UNIX Solaris bash scripts and SAP ABAP™ programs developped by the Chair for Information Systems at the Technische Universität München.
Building an Adaptive Infrastructure for Education Service Providing
855
easily and faster, because a dynamic blade can be assigned to another system within less than five minutes. The blade switching concept will be of economic interest especially in a situation where there is a big amount of SAP systems to be “supported” by a given amount of blade servers. The switching concept enables the pooled blade servers to work for different SAP systems. It enables a fast redesign of the overall SAP system landscape in order to establish a kind of data center wide load balancing. Assumed that not all systems need extended computing power at the same time, the service provider can run a given number of SAP systems at a given service level with less capital investments in hardware than in a situation without flexible server assignment. But, in the case of ESP, there are some preconditions: 1. The lecture periods and holiday times during a year don’t overlap completely. In case the ESP’s customer base is heterogeneous (e.g. universities, universities of applied sciences, schools) there’s a chance that not all customers go on leave at the same time. 2. During lecture periods, not all customers conduct their courses simultaneously. There is no good reason to presume an uneven spreading of educational courses while the university is in session. Table 2 gives an overview about the advantages mentioned above and their practical implications:
Advantage
Consequences
adaptation of one SAP system’s capacity
ability to handle peak workloads, better performance
fast substitution of broken servers
less server down times
data center wide load balancing
less hardware investments necessary
Table 2: Advantages and consequences of a flexible server assignment
7.3
Case Study: HCC at Technische Universität München
The HCC (Hochschulkompetenzzentrum - University Competence Center) at Technische Universität München is an Application Service Provider (ASP) hosting more than 45 independent SAP Systems for about 40 German institutions of higher education, e.g. universities and universities of applied sciences. Those institutions include SAP applications into their curricula: a variety of courses is based on SAP software, e.g. lectures about customizing and seminars dealing with ABAP™ programming or data warehousing.
856
7.3.1
M. Mohr, T. Simon, H. Krcmar
Current Situation at the HCC Data Center
The HCC’s data centre is equipped with about 40 Sun Fire V210 servers and about 96 Sun Fire B100S Blade servers. Actually (as of June 2004) each SAP system consists of a cluster of three application servers: the central instance and the database instance are running on a Sun Fire V210 server whereas the two dialog instances are running on two Sun Fire B100S Blade servers. Each V210 is connected to a Sun StoreEdge 3310 SCSI array. The dialog instances are statically assigned to their specific central instance because SAP’s architecture requires so. The HCC faces a kind of dilemma: Running a static software on a flexible hardware: So far, the HCC does not use the blade infrastructure as originally intended. Consequently, the systems cannot adapt to changing workload situations and workload differences between the several systems cannot be equalized. 7.3.2
Future Configuration Plans: Blade Switching
The concept of flexible application server assignment using Blade Runner promises to appease the current dilemma. If some of the existing blades are turned flexible and put into the blade pool, the HCC hopefully can x handle peak workload situations (during educational courses of individual customers) on single SAP systems x easily and fast react to server breakdowns and
D0
Figure 4: HCC's SAP system landscape architecture alternatives
D 02
3 D0
D 01
D 02
D 01
D 02
D 01
3
x establish a data center wide load balancing between the 45 SAP systems.
Building an Adaptive Infrastructure for Education Service Providing
7.3.3
857
Flexible Infrastructure: Measuring Benefits and Limits
The HCC will only take into consideration the flexible infrastructure concept if it yields an economic benefit. Since the project is still in an early phase the performance enhancement was only measured under conditions which are not yet close to course reality, i.e. on few test servers over a limited period of weeks. This is why, in the next phase, we are going to extend the time frame and propose to measure the benefits with the following test scenarios: 1. Predict the HCC customers’ system usage behavior (temporal distribution of workload). Next, put this behavior into a statistical model. Then use this model to perform an ex-ante-simulation of possible data center wide load balancing using the Blade Runner concept. 2. After a period of about three months running the data center with the “old” static blade architecture measure a predefined set of important values (see below), in the first instance referring to a test environment, i.e. 1 or 2 SAP systems. An ecatt macro will produce the necessary test workload. Then implement the flexible blade concept on a few blade servers and replay the test run, again measuring the defined values. This ex-post-measurement will reveal enhancements in data center wide performance, if existent. In a second phase, the test environment will be enlarged to more SAP systems. The values to be measured first of all include average response time as defined in [Schn02], because this is the main indicator for a system’s performance from a user’s point of view. For the data center wide average response time is to be optimized, the individual system average response times have to be aggregated, e.g. including a weighting. From the HCC’s point of view a shorter duration of client copies and reinstallations would make the administrators’ life easier because at an average there are about 3-4 client copies to be conducted per month. Flexibly assigned application servers are supposed to help reduce duration. But to what extend can additional blade based application servers improve an SAP system’s capacity before another component becomes a bottleneck ? Each new application server can handle more users and more requests which will produce an extended amount of database transactions and increased network traffic. In another test series, we propose to examine the delimiting factors like database host and network connections when adding another application server to an existing cluster.
7.4
Portability Considerations
The HCC currently hosts SAP R/3 Enterprise systems, BW 3.10 systems and one IS-Banking 4.6C system. The blade runner script has been developed for this configuration but the concept itself can be applied to every kind of Web Application
858
M. Mohr, T. Simon, H. Krcmar
Server (Web AS) based SAP systems. Furthermore, it is not restricted to application servers installed on blade servers. However, the blade technology supports the creation of a modular and scalable system landscape better than big one-unit hosts. Productive, non education dedicated SAP systems usually don’t experience such atypical and inconstant workload. But there are some examples where they do so: year-end or month-end closing and periods of time where SAP systems have to be customized, tested or migrated. The blade runner technique would equip these systems during times of higher workload with additional computing power to still provide enough hardware and computing resources to handle the incoming requests.
8
Conclusions
The flexible resource allocation concept we proposed in this paper is an attempt to solve the area of conflict between running a static software system (considering SAP systems as an example) and the efforts of embedding it into an adaptive hardware architecture (i.e. blade servers). We found out that this won’t be a real problem because with relatively little effort on the part of the software application the latter can be turned flexible. In the case of providing SAP systems for educational purposes (ESP model) this opens up new potentials for making available a lot of SAP training systems with limited hardware resources.
References [Andr+82] Andrews, G. R.; Dobkin, D. P.; Downey, P.J.: Distributed allocation with pools of servers. Annual ACM Symposium on Principles of Distributed Computing, Ottawa, Canada, 1982. [Bece+00] Becerra-Fernandez, I.; Murphy, K. E.; Simon, S.J.: Enterprise resource planning: integrating ERP in the business school curriculum. Communications of the ACM 43(4), 2000, pp. 39-41. [Dave98] Davenport, T. H.: Putting the Enterprise into the Enterprise System. Harvard Business Review July-August 1998, 1998, pp. 121-131. [GrMa02] Greschler, D.; Mangan, T.: Networking lessons in delivering 'Software as a Service' - Part I. International Journal of Network Management 12, 2002, pp. 317-321. [Krcm03] Krcmar, H.: Informationsmanagement. Springer: Berlin, et al., 2003. [Lang03] Langley, N.: Demand for SAP skills on the rise. ComputerWeekly.com. 2003. [Rade01] Rademann, C.: Introduction into mySAP.com Landscapes, 2001.
Building an Adaptive Infrastructure for Education Service Providing
859
[Scha04] Scharf, A.: Blade-Server gewinnen an Akzeptanz. Monitor. 4a, 2004. [Schn02] Schneider, T.: SAP Performance Optimization Guide, SAP Press, 2002. [Schn04] Schneider-Neureither, A.: Optimierung von SAP-Systemlandschaften, SAP Press, 2004. [Sun02] Sun: Improving Economies of Scale with Blade Computing, 2002. [Wals03] Walsh, K. R.: Analyzing the application ASP concept: technologies, economies, and strategies. Communications of the ACM 46(8), 2003, pp. 103-107. [WaSc99] Watson, E. E.; Schneider, H.: Using ERP systems in education.. Communications of the ACM 1, 1999.
Erfolgsfaktoren des kundenorientierten E-Learning im E-Commerce Susanne Robra-Bissantz, Kai-Uwe Götzelt Friedrich-Alexander-Universität Erlangen-Nürnberg
Zusammenfassung: Unternehmen setzen zunehmend auch E-Learning-Angebote zur Wissensvermittlung an ihre Kunden ein. Kundenorientiertes E-Learning hat das Potenzial, als zusätzliches Leistungsangebot eines qualitäts- oder serviceorientierten Anbieters zu seiner Differenzierung im Wettbewerb beizutragen. Um dieses Potenzial auszuschöpfen ist jedoch eine genaue Analyse der Erfolgsfaktoren solcher Angebote notwendig. Dieser Beitrag zeigt in einem Rahmenmodell die Einflussfaktoren auf den Erfolg von kundenorientierten E-Learning-Angeboten auf und entwickelt in theoretischer sowie empirischer Analyse aus der Sicht potenzieller Nachfrager Erfolg versprechende Rahmenbedingungen und Ausgestaltungsansätze des kundenorientierten E-Learning. Schlüsselworte: E-Learning, kundenorientiertes E-Learning, Customer Focused E-Learning, EduCommerce, Customer Education and Qualification
1
Problem und Ziel
Zu den zentralen Lernprozessen in Unternehmen zählen heute neben der Aus- und Weiterbildung einzelner Mitarbeiter und der Erweiterung der organisationalen Wissensbasis auch kundenbezogene Lernprozesse [BuSc96]. Immer mehr Unternehmen geben über ihre Website relevantes Wissen an den Kunden weiter (Customer Focused E-Learning, CFEL). Dabei stehen zahlreiche erfolgreiche Beispiele der Einführung kundenorientierter E-Learning-Angebote (ELA) einer ebenso großen Anzahl von Misserfolgen gegenüber, die bereits wenige Monate nach der Einführung wieder eingestellt werden. Von der Wissenschaft weitgehend unbeobachtet, blieb in der Literatur eine differenzierte Analyse der Erfolgsfaktoren kundenorientierter ELA bisher aus. Ziel dieses Beitrags ist es, anhand einer theoretischen Analyse die wesentlichen Erfolg versprechenden externen Determinanten sowie Ansätze der Ausgestaltung von kundenorientiertem E-Learning herauszuarbeiten. Eine explorative empirische Studie überprüft die Erkenntnisse, die sich auf die Beurteilung von Lernangeboten durch den Nachfrager beziehen.
862
2 2.1
S. Robra-Bissantz, K.-U. Götzelt
Kundenorientiertes E-Learning Abgrenzung
E-Learning wird verstanden als Lernen, das mit Informations- und Kommunikationstechnologien unterstützt bzw. ermöglicht wird [Bac+01, S. 28]. Im kundenorientierten E-Learning werden im Wesentlichen drei Formen unterschieden [MoZe03], die zunächst verschiedenen Zielsetzungen dienen. Der Einsatz von ELearning als Marketinginstrument im E-Commerce, auch EduCommerce genannt, bietet den Kunden kostenlose, produktbezogene Lernangebote zur Steigerung des Absatzes [ChWh01; Conn01, S. 4] sowie zur Erhöhung der Kundenzufriedenheit. Die Schulung des Kunden im Umgang mit dem Produkt in der Nachkaufphase soll den Kundenservice entlasten und damit im Wesentlichen eine Reduktion von Kosten aber auch eine höhere Kundenloyalität bewirken [Aldr00; MoZe03]. Darüber hinaus wird auch für Unternehmen außerhalb der Aus- und Weiterbildungsbranche die Möglichkeit gesehen, kostenpflichtige Angebote im Rahmen des Lebenslangen Lernens für den Kunden zu etablieren [Aldr00; Frö+01, S. 4]. Als zusätzliche Unternehmensleistung ermöglicht CFEL so eine Diversifikation des Unternehmens. Die Grenzen zwischen den verschiedenen Arten des kundenorientierten E-Learning sind jedoch durchaus fließend. So können Angebote zur Unterstützung des Lebenslangen Lernens der Kunden auch in der After-Sales-Phase zur Kundenloyalität beitragen, Abgebote zur Erläuterung von Produktfunktionalitäten sind sowohl im EduCommerce als auch in der Nachkaufphase einsetzbar. Im Rahmen dieses Beitrags werden daher unter kundenorientiertem E-Learning sämtliche, von Leistungsanbietern initiierten, webbasierten Formen der Wissensvermittlung verstanden, die sich an Endkunden richten und der Erreichung von Unternehmenszielen dienen.
2.2
Einflussbereiche
Märkte lassen sich durch Nachfrager mit ihren speziellen Bedürfnissen, angebotene Güter und Leistungen als nutzenstiftende Eigenschaftsbündel sowie Anbieter mit Instrumenten der Nutzengestaltung charakterisieren [Baue94, S. 710]. In einer Betrachtung des Marktes, auf dem kundenorientierte E-Learning-Angebote offeriert werden, sind die in Abbildung 1 dargestellten Einflussbereiche auf einen Erfolg versprechenden Einsatz zu berücksichtigen. Sie umfassen externe Determinanten des CFEL-Angebots, die zu der Entscheidung für den Anbieter führen, „ob“ er kundenorientiertes E-Learning einführen sollte. Daneben spielen Ausgestaltungsoptionen des CFEL-Angebots eine Rolle, wenn der Anbieter sich Gedanken über ein „wie“ des kundenorientierten E-Learning macht.
sozioökonomische Merkmale
Inhalte Einsatzsituationen
hf ra
Anwendungen Involvement
Produkte
r te ie
Na c
b An
Kundenorientierte E-LearningAngebote
psychographische Merkmale
863
Unternehmensstrategie
ge
r
Erfolgsfaktoren des kundenorientierten E-Learning im E-Commerce
Prozesse/ Systeme/ Technologien
Produkteigenschaften/ -palette
Abbildung 1: Einflussbereiche auf den Erfolg kundenorientierter E-Learning-Angebote
2.3
Untersuchungsansatz
Im vorliegendem Beitrag werden zunächst die herausgearbeiteten Einflussbereiche auf den erfolgreichen Einsatz kundenorientierter ELA theoretisch analysiert. Hieraus ergeben sich Fragestellungen für eine empirische Erhebung bei (potenziellen) Nachfragern solcher Angebote. Denn gleich welchen speziellen Unternehmenszielen kundenorientierte E-Learning-Angebote dienen – eine Basisvoraussetzung für ihren Erfolg stellt dar, inwieweit der Kunde sie als Leistungsangebot sieht, das ihm einen besonderen Wert vermittelt. Für eine Erreichung der fokussierten Unternehmensziele ist notwendig, CFEL-Konzepte an Kundenerwartungen, -bedürfnissen und -präferenzen auszurichten. Als Erhebungsverfahren dient eine Online-Befragung mittels eines standardisierten Fragebogens. Dieser umfasst geschlossene Fragen mit überwiegend fünfstufigen, monopolaren Rating-Skalen („stimme voll zu“ bis „stimme überhaupt nicht zu“ bzw. „sehr interessant“ bis „überhaupt nicht interessant“), deren Messwerte unter der Annahme gleicher Skalenabstände zwischen den Ausprägungen wie metrische Daten behandelt werden können [Ber+01, S. 74]. Da sich bislang noch keine Studie mit dem Thema des Endkundenlernens aus Nachfragersicht auseinandersetzt, besteht eine besonders hohe Gefahr, mit festen Antwortkategorien relevante Zusammenhänge zu übersehen. Einige offene Fragen, die zudem dem explorativen Charakter der Befragung gerecht werden, reduzieren dieses Risiko [Ber+01, S. 101]. Als Zielgruppe der Befragung dient der Verteiler des Lehrstuhls Wirtschaftsinformatik II der Universität Erlangen-Nürnberg, der in Bezug auf soziodemografische und Mediennutzungsdaten im Wesentlichen der Gruppe erfahrener Internetnutzer entspricht. Da der Fragebogen während des Befragungszeitraums (26.02.2004 bis 09.04.2004) nur von 95 Probanden aufgerufen wurde, hat die Studie explorativen Charakter. Die Datenanalyse der über 300 Variablen erfolgte mithilfe SPSS 11.5 sowie MS Excel.
864
3 3.1 3.1.1
S. Robra-Bissantz, K.-U. Götzelt
Determinanten des kundenorientierten E-Learning Anbieterbezogene Faktoren Einflussbereiche
Da der Einsatz kundenorientierter ELA der Erreichung von Unternehmenszielen dient, ist das CFEL in Wettbewerbsstrategie, Funktionen, Prozesse und ITSysteme des Unternehmens zu integrieren [Bac+01, S. 74 f.]. ELA bieten sich in Form von Value-Added-Services (VAS) als Instrument einer kundenorientierten Differenzierungsstrategie an, die einen über die Kernleistung hinausgehenden Mehrwert beim Nutzer generieren [Wirt02, S. 265] und sich damit potenziell zur Präferenzbildung für das Leistungsangebot des Unternehmens (Kundengewinnung) sowie zur Steigerung der Loyalität bei bestehenden Kunden (Kundenbindung) [HüMa00, S. 258] eignen. Da ELA zu jeder Zeit und an jedem Ort verfügbar sind, entsprechen sie der gestiegenen Service- und Convenienceorientierung der Verbraucher [Laak95, S. 2; Gent02, S. 161]. VAS dienen der Differenzierung im Wettbewerb umso mehr, je weniger Wettbewerber über ähnliche Dienste verfügen [MeBl00, S. 281]. Im Rahmen einer Kostenführerschaftsstrategie spielen Strategien des CFEL lediglich eine Rolle, wenn der Kunde auch bei preisgünstigen Angeboten informationsbezogene Services, wie z. B. Hotlines oder Installationshilfen, als Basiseigenschaften im Sinne des Kano-Modells voraussetzt. Einfluss auf den Erfolg von ELA hat der Umfang der Geschäftstätigkeit eines Unternehmens im Internet (E-Business-Strategie). Wird es lediglich als Präsentations- und/oder Kommunikationsmedium eingesetzt [Herm01, S. 103; Wirt01, S. 37], ist der Nutzen des CFEL als gering einzustufen. Das Potenzial, Interessenten durch umfassende Informationen zum Produkt mithilfe von ELA in Käufer zu überführen, droht durch den Medienbruch im Kaufprozess zu verschwinden. Bei elektronischer Unterstützung gesamter Transaktionsprozesse bietet CFEL die Möglichkeit, fehlende olfaktorische und taktile Reize beim Onlinekauf durch umfangreiche Informationen auszugleichen [SpBl01, S. 82] sowie Cross-SellingPotenziale durch ELA im Anschluss an Verkaufsprozesse auszuschöpfen. Bezogen auf den Inhalt der E-Learning-Angebote ist davon auszugehen, dass Unternehmen mit einer ausgereiften innerbetrieblichen E-Learning-Strategie sowie einem umfangreichen Wissensmanagement von einem hohen Synergiepotenzial profitieren. Denn die Wiederverwendung bereits bestehendener Lerninhalte reduziert den zeitlichen und finanziellen Aufwand für die Erstellung kundenorientierter E-Learning-Angebote erheblich [HoTe01, S. 17]. So sind z. B. ELA zur Produktschulung der Vertriebs- und Servicemitarbeiter einfach in Angebote umsetzbar, die den Kunden mit dem Produkt und seinen Funktionalitäten vertraut ma-
Erfolgsfaktoren des kundenorientierten E-Learning im E-Commerce
865
chen. Auch Teile zentraler Wissensressourcen eines Unternehmens in Form von Knowledge- oder Contentpools, die kein wettberwerbsrelevantes Wissen beinhalten, stehen für CFEL ebenfalls zur Verfügung. Neben dem Rückgriff auf Lerninhalte ermöglichen ausgeprägte E-LearningAktivitäten eines Unternehmens auch die Nutzung des aufgebauten Know-hows bei Erstellung, Bezug, Management und Distrubution von Lernangeboten. Eine Übertragung von Teilen der im Bereich des Personalmanagements durchgeführten Skill-Management-Prozesse auf die Wissensvermittlung an Kunden bietet eine Ergänzung der Aus- und Weiterbildungsangebote [Bac+01, S. 77]. Letztlich sorgt das Customer Relationship Management (CRM) im Unternehmen für die Bereitstellung und Erhebung marketingrelevanter Daten im Rahmen von CFEL und die Steuerung des Einsatzes von ELA zur Verbesserung von Kundengewinnung und -bindung. Bei der technischen Umsetzung des kundenorientierten E-Learning ist davon auszugehen, dass diejenigen Unternehmen Vorteile aufweisen, die E-LearningSysteme bereits zur Qualifizierung von Mitarbeitern, Zulieferern oder Partnern einsetzen. Kundenorientiertes E-Learning erfordert technologische Ressourcen in Form von Lernmanagementsystemen, Anwendungen zur Wissensvermittlung und zur Unterstützung des Lernprozesses, Standards zur Sicherstellung der Wiederverwendbarkeit sowie Basistechnologien und -applikationen die im Rahmen des webbasierten Lernens Anwendung finden. Darüber hinaus müssen die Systeme in die bestehende IT-Landschaft integriert sein. 3.1.2
Ergebnisse der empirischen Studie Welche Anbieter sollten Ihrer Meinung nach ELM zur Verfügung stellen? serviceorientierter Anbieter Anbieter qualitativ hochw ertiger Produkte bekannter Anbieter
preisgünstiger Anbieter 0% stimme voll zu
20%
stimme eher zu
teils teils
40%
60%
stimme eher nicht zu
80%
100%
stimme überhaupt nicht zu
Abbildung 2: Einfluss des Unternehmensimage auf die Erwartungshaltung der Nachfrager
Mithilfe der empirischen Studie zeigt sich, dass die Nachfrager E-LearningModule (ELM) insbesondere bei Unternehmen erwarten, die als service- oder qualitätsorientierte, differenzierte Anbieter gelten. Der überwiegende Teil der Befragten nimmt es in Kauf, dass preisgünstige Anbieter auf derartige Serviceleistungen verzichten. Die Überprüfung weiterer Ergebnisse der theoretischen Analyse der
866
S. Robra-Bissantz, K.-U. Götzelt
anbieterbezogenen Faktoren sind Thema zurzeit laufender empirischer Untersuchungen zum CFEL aus Unternehmenssicht1.
3.2
Nachfragerbezogene Faktoren
3.2.1
Einflussbereiche
Aus Sicht des Nachfragers gilt es zu beurteilen, ob dieser grundsätzlich an Lernangeboten oder einer qualifizierenden Aus- und Weiterbildung interessiert ist und dafür zudem den elektronischem Weg als geeignet erachtet. Dabei zeigen in einer von der Bertelsmann Stiftung und dem Deutschen Volkshochschul-Verband durchgeführten Studie zum Thema „Telelernen in Deutschland“ [Bert02] etwa 30% der Befragten grundsätzlich Interesse an der Lernform Telelernen. Besonders hoch ist die Akzeptanz (50 %) bei den unter 30jährigen. Eine genauere Kundentypologisierung anhand von sozioökonomischen Kriterien (Einkommen, Alter, Bildungsstand) erweist sich als schwierig [Dege98, S. 96]. Denn Interesse und Präferenzen eines Individuums hinsichtlich elektronischen Lernens werden entscheidend von dessen Wertvorstellungen, wie Alltagsbewusstsein, Lebensstil und Lebenszielen beeinflusst [Pepe95, S. 67f.]. LebensstilTypologien, wie z. B. Sinus-Milieus (Sinus Sociovision), führen Personen in Gruppen zusammen, welche in ihrer grundsätzlichen Wertorientierung und Lebensauffassung übereinstimmen [Jaco98, S. 74] und beschreiben diese anhand sozioökonomischer Kriterien (Einkommen, Bildung, Beruf) [Publ04]. Gemäß Sinus Sociovision [SiSo04] weisen vier Milieus (insgesamt 29 % der deutschen Bevölkerung), die tendenziell über ein höheres Bildungsniveau, höheres Einkommen sowie eher leitende Stellung verfügen, ein besonders hohes Potenzial bezüglich verschiedener Formen der Aus- und Weiterbildung auf. Etablierte (vor allem leitende Angestellte, höhere Beamte sowie Selbständige und Freiberufler mit höheren Bildungsabschlüssen und einer privilegierten finanziellen Ausstattung) messen dem beruflichen Vorankommen eine sehr hohe Bedeutung zu und sind gegenüber technischen Neuerungen aufgeschlossen. Sie sind eine wichtige Zielgruppe für qualifizierende elektronische Weiterbildungsangebote. Postmaterielle (vor allem leitende Angestellte, Beamte, Freiberufler und Studenten) legen sowohl auf Selbstverwirklichung als auch auf beruflichen Erfolg Wert. Für sie spielt Lernen, sowohl berufs- als auch interessensbezogen, eine tragende Rolle, denn sie halten die Verfolgung intellektueller Interessen für wichtiger als materiellen Konsum. Konservative (viele kleine Gewerbetreibende und Angestellte in leitenden Positionen mit mittlerem bis höherem Bildungsniveau) haben großes Interesse an Weiterbildung. Moderne Performer (das jüngste Milieu in Deutschland und über1
Der Lehrstuhl Wirtschaftsinformatik II führt derzeit eine Studie zu innerbetrieblichen Erfolgsfaktoren des CFEL bei Finanzdienstleistern durch.
Erfolgsfaktoren des kundenorientierten E-Learning im E-Commerce
867
wiegend Studenten sowie Berufseinsteiger mit höherem Bildungsabschluss und gehobenem Einkommen) streben ebenfalls nach Weiterbildung, denn sie zeichnen sich durch Leistungswillen, Experimentierfreude und Ehrgeiz aus. 3.2.2
Ergebnisse der empirischen Studie
Das generelle Interesse an ELA ist sehr hoch: etwa 80 % der Befragten geben an, dass ein solches Angebot für sie grundsätzlich von Interesse ist (19 % sehr interessant, 60 % eher interessant, 14 % teils, teils, 5 % weniger interessant und 1 % überhaupt nicht). Für ähnlich interessant halten die Probanden auch die Möglichkeit, sich per Internet qualifizierend weiterzubilden. Allerdings setzen sich die Probanden zu einem großen Anteil aus der bereits für ELA identifizierten Zielgruppe zusammen: den jüngeren Befragten (bis 29) mit hohem Bildungsniveau (zumindest Abitur). Lediglich jeweils ca. 20 % der Befragten haben mittleres bis hohes Alter oder eine geringere Ausbildung. Eine Analyse über verschiedene Alters- und Ausbildungsgruppen kann daher keine auch nur ansatzweise signifikanten Ergebnisse liefern. Jedoch erweist sich bei Betrachtung der Einzelfälle eine weitere Erhebung als sinnvoll. Denn entgegen der theoretischen und bereits exisitierenden empirischen Analysen weisen die zwischen 30- und 50jähringen sowie Befragte, die lediglich einen Hauptschulabschluss aufweisen, ein höheres Interesse am E-Learning als die identifizierte Zielgruppe auf.
3.3 3.3.1
Produktbezogene Faktoren Einflussbereiche
Kundenorientierte ELA sind insbesondere geeignet für Produkte, die sich durch ein hohes Involvement, hohe Komplexität oder anspruchsvolle technische Gestaltung auszeichnen. Die Stärke des Involvements, als Grad des persönlichen Interesses für ein bestimmtes Produkt, ist ausschlaggebend für den Umfang der Informationsaufnahme, -verarbeitung und -speicherung im Zuge der Kaufentscheidung [KuTo00, S. 64 ff.; Pepe95, S. 61; KrWe96, S. 380]. Kundenorientierte ELA können einem umfangreichen Informationsprozess dienen, indem sie Informationsbedürfnisse des Nachfragers befriedigen, ihn bei der Auswahl der für ihn optimalen Alternative unterstützen und zudem kundenseitige Unsicherheiten bei der Produkt- und Anbieterauswahl reduzieren sowie das Vertrauen in den Anbieter und dessen Produkte erhöhen [ToRi01, S. 189]. Bei Low-Involvement-Produkten bezieht sich ein Lernbedarf weniger auf das Kernprodukt selbst als auf das Produktumfeld. Technisch hoch entwickelte und/oder sehr komplexe Produkte werden oft in zahlreichen Varianten angeboten, ihre Produktlebenszyklen werden immer kürzer. Da es für einen Kunden ohne produktspezifische Vorkenntnisse somit beinahe
868
S. Robra-Bissantz, K.-U. Götzelt
unmöglich ist, das seinen Bedürfnissen entsprechende Produkt auszuwählen, ist er häufig bereits in der Vorkaufphase überfordert. Ein Kaufabschluss sowie eine nachhaltige Zufriedenheit des Kunden kann jedoch nur erzielt werden, wenn der Kunde sich nicht in seiner Entscheidung allein gelassen fühlt sondern über die nötigen Qualifikationen verfügt und eine individuelle Beratung sowie Betreuung in der Produktverwendung erhält [Aldr00; HüMa00, S. 365]. ELA, die dies im elektronischen Geschäftsverkehr gewährleisten, sind damit von besonders hoher Bedeutung [Pil+01, S. 141]. Neben den Kriterien des Einzelprodukts sollten Anbieter mit eher breitem und/oder tiefem Sortiment CFEL einsetzen. Verfügt ein Produkt über viele Varianten, so stellen ELA sicher, dass der Nachfrager die seinen Bedürfnissen am Besten entsprechende wählt. Bietet der Anbieter dagegen ein breites Sortiment an, so sind ELA sinnvoll, die den Kunden auf weitere Angebote oder Produkt- bzw. Servicebündel aufmerksam machen. 3.3.2
Ergebnisse der empirischen Studie
Über 75 % finden den Einsatz von ELA bei Leistungen aus den Bereichen PC Hardware, Heimelektronik sowie Finanzen interessant. Diese Produkte sind als eher erklärungsbedürftig und komplex zu bezeichnen. Bei welchen Produkten hätten Sie Interesse an ELM?
M öb el Bü ch er Sp ie lw ar en Ti ck et s Ko sm et ik Kl ei du Le ng be ns m itt el
R ei ed se eo n /D VD /C D Vi
PC
H
H ar dw ei ar Ba m e el nk ek di tro en ni st k le is tu ng PC en So ftw ar e Jo In bb fo rm ör se at io n ns in Ve ha rs lt e ic he ru ng en
90% 80% 70% 60% 50% 40% 30% 20% 10% 0%
stimme voll zu
stimme eher zu
Abbildung 3: Eignung von ELM nach Produkten2
Zusätzlich fanden 93 % bzw. 97 % der Probanden, dass Anbieter mit neuartigen bzw. technisch komplexen Leistungen kundenorientierte ELA anbieten sollten. In einer genaueren Betrachtung prüft die Studie das Interesse der Probanden an ELA für idealtypische Kombination bezüglich der Faktoren Involvement (gering/hoch) und Komplexität/Funktionsumfang (gering/hoch) in Beispielprodukten. Hierbei sind, trotz der eher kleinen Stichprobe, häufig signifikante Unterschiede zwischen 2
Die Auswahl der Produkte entpricht dem „Global eCommerce Report 2002“ [TNSI02].
Erfolgsfaktoren des kundenorientierten E-Learning im E-Commerce
869
den Produkten festzuhalten. Prädestiniert für den Einsatz kundenorientierter ELA sind Leistungen, die sowohl eine hohe Komplexität als auch ein hohes Involvement aufweisen. Jedoch hat in der vorliegenden Studie das Involvement einen wesentlich geringeren Einfluss auf das Bedürfnis ergänzender ELA als die Produktkomplexität. In einer Betrachtung unterschiedlicher E-Learning-Angebote sind diejenigen, die im After-Sales angesiedelt sind, fast ausschließlich bei komplexen/funktionsreichen Leistungen gewünscht. Welche der folgenden Leistungen wünschen Sie sich? 60 50 40
ke in e
e
U nt er ha ltu
ng sa n
ge bo t
ity
e
C om m un
Zu sa t
zp ro du kt
&
Tr
ick s
g Ti pp s
Pr ob le m lö su n
Be ra tu ng
rn at iv pr od uk te
Al te
In fo rm
at io ne n
30 20 10 0
hohes Involvement/hohe Komplexität
hohes Involvement/geringe Komplexität
geringes Involvement/geringe Komplexität
geringes Involvement/hohe Komplexität
Abbildung 4: Eignung von ELM nach Involvement und Produkteigenschaften
Bezüglich der Sortimentstiefe und -breite ergibt die empirische Untersuchung, dass kundenseitig ein offenkundiger Bedarf an ELA insbesondere bei hoher Sortimentstiefe besteht (vgl. Abb. 5). Dieses Ergebnis ist nicht überraschend: so ist es nur folgerichtig, dass der Kunde selbst nur dann einen höheren Lernbedarf sieht, wenn er eine Auswahl zwischen zahlreichen Alternativen treffen muss. Welche Anbieter sollten Ihrer Meinung nach ELM zur Verfügung stellen?
tiefes Sortiment
breites Sortiment 0% stimme voll zu
20% stimme eher zu
40% teils teils
60%
stimme eher nicht zu
80%
100%
stimme überhaupt nicht zu
Abbildung 5: Eignung von ELM nach Zusammensetzung der Produktpalette
870
3.4
S. Robra-Bissantz, K.-U. Götzelt
Erfolgsfaktoren
Zusammenfassend zeigen die Ergebnisse der theoretischen und empirischen Untersuchung hinsichtlich der Determinanten eines Erfolg versprechenden CFEL besondere Potenziale dieses Konzepts bei folgenden Konstellationen auf: x Das Unternehmen verfolgt eine Differenzierungsstrategie, x es nutzt das Internet als Medium zum Kaufabschluss, x innerbetrieblich existieren bereits E-Learning-Programme für Mitarbeiter, Zulieferer oder Partner, x seine Nachfrager verfügen über einen eher hohen sozialen Status und sind gegenüber neuen Technologien modern eingestellt, x seine Produkte sind eher komplex und/oder beruhen auf sich ständig verändernden Technologien, x das Produktprogramm weist viele Varianten auf. Diese Eigenschaften sind nicht voneinander unabhängig. Damit lässt sich das besondere Potenzial von Lerneinheiten im Bereich Computerhard- und software, Elektronik sowie anspruchsvoller Finanzdienstleistungen erklären. So geht aus einer aktuellen Studie zur Verbreitung innerbetrieblichen E-Learnings hervor, dass dieses bei steigender Unternehmensgröße sowie im Branchenvergleich überdurchschnittlich häufig bei Versicherungen, Banken sowie in der Elektronik- und EDVBranche eingesetzt wird [KöRo03]. Für Unternehmen dieser Branchen bietet es sich an, die Möglichkeiten des CFEL auszuschöpfen (vgl. Abschnitt 3.3.1).
4 4.1 4.1.1
Ausgestaltung des kundenorientierten E-Learning Inhalte Gestaltungsoptionen
Für Zusatzleistungen geht man davon aus, dass diese umso mehr einer Kundengewinnung und -bindung dienen, je höher ihre Affinität zur Primärleistung ist [Laak95, S. 14ff.]. Damit stellt sich für Lerninhalte die Frage, ob sie in unmittelbarem Zusammenhang mit dem Produkt stehen sollten, ob der Kunde möglicherweise auch auf Angebote zugreifen möchte, die nur im weitesten Sinne in Zusammenhang mit der Kernleistung stehen oder ob Lernangebote denkbar sind, die
Erfolgsfaktoren des kundenorientierten E-Learning im E-Commerce
871
nicht mit der Kernleistung zusammen hängen sondern lediglich den privaten Interessen der Kunden entsprechen. 4.1.2
Ergebnisse der empirischen Untersuchung
Anhand der Untersuchung ist festzustellen, dass der überwiegende Teil der Befragten E-Learning-Angebote bevorzugt, die in direktem Zusammenhang mit der Kernleistung stehen. Daneben werden jedoch auch verstärkt Kurse gewünscht, die einen thematischen Bezug zur Kernleistung aufweisen. So ist beispielsweise der Wunsch nach ELA zum Thema Gesundheit bei der Leistung „Lebensversicherung“ signifikant. Ähnlich verhält es sich bei den Themen „Heimwerken“, „Gesundheit“ bzw. „Fitness“ mit den Produkten „Taschenmesser“, „Küchenmaschine“ bzw. „Deodorant“. ELA, die in keinerlei Zusammenhang mit der Kernleistung stehen, stoßen bei den Befragten auf kein Interesse. Besonders interessante Themen hinsichtlich der privaten Weiterbildung entstammen dem IT-Bereich (Hard- und Software). Daneben besteht auch eine hohe Nachfrage nach Weiterbildungsangeboten zum Erlernen von Sprachen. Die Weiterbildungsklassiker der „Offline-Welt“ rangieren somit auch beim E-Learning auf den vorderen Plätzen. Allein für derartige Angebote ist ein Drittel der Befragten bereit, einen Betrag von bis zu 10 € pro Modul zu bezahlen. Ein möglicher Grund für das sehr gute Abschneiden dieser Themen ist die hohe Bedeutung umfassender Sprach- und EDV-Kenntnisse für das Berufsleben. Etwa 84 % der Befragten würden ELA zum beruflichen Vorankommen nutzen. Dabei spielen allerdings just-intime Informationen am Arbeitsplatz keine große Rolle. Als Ort des Wissenserwerbs ziehen die Meisten die häusliche Umgebung vor. Hier ist zudem z.B. der Erwerb von Softwarekenntnissen per E-Learning sehr praxisnah (z.B. über eine simulierte Programmoberfläche) möglich. Eine überdurchschnittliche Nachfrage besteht außerdem nach ELA aus den Themengebieten Reisen sowie Politik. Im Mittelfeld liegen vor allem Lernangebote zur Allgemeinbildung. Zu welchen Themen möchten Sie sich im Internet weiterbilden? 60 50 40 30 20 10
Th em a
C om pu Th te em r a The So Th R e m ft em ise a S war e p n a C /Fe rac o m rn h pu e L en te Th ä r H nd em er a a (D The rdw a ig ita ma re Th The le) Po Fo litik em m a to a gr Ku Sp ltu ort/ afie r/T Fi Th he tne s em at er s a G /Ki n e T o sc Th h em em hic Th a H a L hte Th it e em ma eim era a K o e l e tu r G kt c es r h un en oni T k / Th hem dhe Ba em a it/ cke Au W n a el H ln e to/ Th imw Mo ess em er tor sp k a G en/B ort ar te as te n/ Th Pfl ln an e Th ma ze em Fa n m ili Th a H em au e a stie Sa re m m el n
0
Abbildung 6: Weiterbildungsthemen
872
4.2
S. Robra-Bissantz, K.-U. Götzelt
Situation
Eine Markttransaktion besteht aus einer Summe von in Phasen zusammengefassten Interaktionsprozessen zwischen Anbietern und Nachfragern zum Austausch von Gütern und Leistungen [ScZi97]. Die Phase, in der sich ein Kunde befindet, kann als Situation des Einsatzes kundenorientierter ELA bezeichnet werden. 4.2.1
Gestaltungsoptionen
Anhand der Transaktionsmodelle von Anbieter und Nachfrager im internetbasierten Handel [Schu00, S. 48ff.; MuÖs98, S. 106] lassen sich für Kundengewinnung und -bindung relevante Phasen identifizieren (vgl. Abb. 7). Eine Analyse dieser Situationen im Markttransaktionsprozess gibt Aufschluss über lernrelevante Anforderungen von Anbieter und Nachfrager an die Transaktionsunterstützung und die Ausgestaltung des CFEL. Orientierung
Information
Evaluation/ Entscheidung
Pre-Sales Kundengewinnung
Nutzung
Neu-/Wieder-/ Ersatzkauf
After-Sales Kundenbindung
Absatzmarketing
Information
Beratung
Service
Kontaktpflege
Phase 1
Phase 2
Phase 3
Phase 4
Phase 5
Abbildung 7: Einsatzsituationen von ELA im E-Commerce-Prozess
Die Phasen 1 bis 3 sind dem eigentlichen Leistungserwerb vorgelagert. Der Einsatz von E-Learning-Angeboten dient hier hauptsächlich der Anwerbung und Qualifizierung von Kunden zum Treffen einer Kaufentscheidung sowie der Vertrauensbildung gegenüber dem Anbieter und dessen Leistungen. Im Verhältnis zu den anderen Phasen bietet Phase 1 relativ wenig Spielraum für den Einsatz kundenorientierter ELA. In dieser Transaktionsphase geht es dem Anbieter darum, einen Erstkontakt zum potenziellen Kunden herzustellen. Das Kundenverhalten kann in dieser Phase als „Stöbern“ bezeichnet werden. Der Nachfrager möchte damit an dieser Stelle noch nicht mit speziellen Informationen versorgt werden, vielmehr gilt es, dessen generelle Aufmerksamkeit für das unternehmerische Leistungsspektrum zu gewinnen. Die Darstellung und Beschreibung der einzelnen Leistungen ist Gegenstand der zweiten Phase. Hier bietet es sich beispielsweise an, kurze Produktdemonstrationen einzusetzen, die den groben Aufbau bzw. die Grundfunktionalitäten und Einsatzbereiche der Leistung erklären, damit der Kunde einen ersten Eindruck sowie ein Grundverständnis für das Produkt erhält. Darüber hinaus können auch Glossare oder Lexika zum Einsatz kommen, die dem Kunden einen schnellen Zugriff auf spezielle Informationen bieten.
Erfolgsfaktoren des kundenorientierten E-Learning im E-Commerce
873
In Phase 3 gilt es, den Interessenten bei seiner Kaufentscheidung aktiv zu unterstützen. Dazu wird ihm, gegebenenfalls nach einer Analyse seiner speziellen Bedürfnisse, aktiv Produktwissen vermittelt, so dass er das für ihn optimal geeignete Produkt erkennt und auswählen kann [ECIN03; Wirt01, S. 395]. Kaufunsicherheiten, wie z. B. das Risiko eines Fehlkaufs, werden verringert [WeKo00, S. 51; Stol00 S. 140]. Durch einen individualisierten Dialog steigt das Vertrauen gegenüber dem Anbieter [SaSa02, S. 37; MIT01, S. 8]. Dies unterstützt die Gewinnung neuer Kunden und verringert darüber hinaus gemäß einer Studie von Eduventures.com die Kosten der Kundenakquisition [Fox03]. Das Spektrum denkbarer Unterstützungsangebote ist in dieser Phase besonders groß. Es reicht von OnlineTutorials, die dem Kunden helfen, die Leistungen und deren Funktionalitäten besser zu verstehen über Simulationen und interaktive Konfigurationsmöglichkeiten bis hin zu ausgefeilten, bedienungsfreundlichen „Lern-Kauf-Kombinationen“. Der Kunde legt z. B. interessante Produkte mit ihren Lerneinheiten zu Nutzeffekten und Verwendungsbereichen in seinen „E-Learning-Basket“ ab. Nach Absolvierung der Lerneinheit kann er die gewählten Produkte entweder bequem online bestellen, wieder zurücklegen und/oder seinen zusammengestellten Einkaufskorb ausdrucken. Nach dem Leistungserwerb steht in den Phasen 4 und 5 die optimale Kundenbetreuung im Mittelpunkt. Mithilfe der E-Learning-Angebote soll die Zufriedenheit des Kunden mit der erworbenen Leistung gewährleistet sowie darauf aufbauend eine stärkere Bindung des Kunden an das Unternehmen erzielt werden. ELA in Phase 4 erhöhen das Produkt-Know-How des Kunden, helfen ihm bei der korrekten Inbetriebnahme der Leistung und lösen etwaige Nutzungsprobleme. Es ist davon auszugehen, dass der Kunde umso zufriedener mit dem gekauften Produkt sein wird, umso besser er dessen Funktionalitäten kennt und beherrscht [Aldr00]. E-Learning-Angebote stellen eine Alternative zur klassischen Gebrauchsanweisung dar, da die einzelnen Schritte realitätsnah sowie multimedial und interaktiv aufgezeigt werden können [HüMa00, S. 365]. Des Weiteren können vom Anbieter zur Verfügung gestellte Tipps und Tricks im Umgang mit dem Produkt dem Kunden helfen, das Nutzenpotenzial der Leistung optimal auszuschöpfen. Interaktive Trouble Shooting Guides, Expertenchats und Knowledge Bases ermöglichen eine schnelle und dazu anschauliche, leicht verständliche Lösung von Problemen im Zusammenhang mit dem Produkt. Sowohl in Phase 4 als auch insbesondere in Phase 5 können E-Learning-Angebote dazu eingesetzt werden, den Kunden langfristig an das Unternehmen zu binden. So werden dem Kunden beispielsweise thematisch passende Produkte sowie Zubehör präsentiert. Die Kontaktpflege und Bindung wird durch den Einsatz von Virtual Communities, die nach dem Prinzip „Kunden helfen Kunden“ funktionieren, unterstützt [ScSt00, S. 85]. Zugleich ist der teilnehmende Kunde über aktuelle Produktneuheiten informiert und so leichter zu Folgekäufen zu motivieren [Mark02, S. 101]. Dies liegt auch daran, dass der Käufer oftmals mehr der positiven Resonanz anderer Nutzer in Bezug auf ein Neuprodukt vertraut als den Anbie-
874
S. Robra-Bissantz, K.-U. Götzelt
terinformationen [Stol00, S. 108]. Aus Anbietersicht tragen ELA im After-SalesBereich zu einer Senkung der Supportkosten und zu einer Entlastung des Servicepersonals bei [eduC03]. 4.2.2
Ergebnisse der empirischen Untersuchung
Aus Kundensicht besteht besonders hohes Interesse an ausführlichen Produktinformationen vor dem Kauf. Als ähnlich attraktiv werden von den Kunden die im After-Sales-Bereich angesiedelten E-Learning-Angebote aufgefasst. Lernmöglichkeiten, die den Kunden im Umgang mit dem erworbenen Produkt unterstützen und schulen, stoßen bei den Befragungsteilnehmern auf durchwegs positive Resonanz. Wie interessant sind für Sie die folgenden Angebote im Internet? Produktinfos Problemlösung Tipps und Tricks Alternativprodukte Zusatzprodukte Beratung Community Unterhaltung 0% sehr interessant
20% eher interessant
40% teils, teils
60%
weniger interessant
80%
100%
überhaupt nicht interessant
Abbildung 8: Eignung von ELA nach Situationen
Dagegen fällt das Interesse an einer fundierten Beratung per Internet vergleichsweise gering aus. Die Gründe der geringen Wertschätzung einer Webberatung liegen gegebenenfalls an den verfügbaren Beratungskonzepten, die oftmals noch nicht das zu leisten im Stande sind, was der Kunde von einer „herkömmlichen“ (persönlichen) Beratung gewohnt ist. Auch die Community wird als Lernmedium vergleichsweise häufig als weniger interessant bezeichnet.
4.3 4.3.1
Anwendungen Darstellungspräferenzen
Hinsichtlich der Darstellungspräferenzen ist die Wissensvermittlung durch verschiedene Informationsarten, wie Abbildungen, Texte, Grafiken (statisch) sowie Animationen und Audio (dynamisch), zu unterscheiden. Außerdem bewerteten die Probanden die beiden Items „Expertenrat“ und „Kontakt zu anderen Interessenten/Nutzern“ („Community“).
Erfolgsfaktoren des kundenorientierten E-Learning im E-Commerce
875
In Abbildung 9 werden die Darstellungspräferenzen für die Kategorien qualifizierte Weiterbildung, Produktinformationen, Beratung, Tipps & Tricks sowie Problemlösungen anhand eines Mittelwertvergleichs der Items gegenübergestellt. Bei Vergleich der Informationsarten wird ersichtlich, dass die Wissensvermittlung mittels statischer Typen wesentlich stärker nachgefragt wird als der Einsatz dynamischer Informationsarten. Wie sollten Ihnen die Lerninhalte vermittelt werden? 3,5 3 2,5 2 1,5 1 Abbildungen
Texte
Weiterbildung
Grafiken Produktinfos
Community Beratung
Experte
Animationen
Problemlösung
Audio
Tipps und Tricks
Abbildung 9: Darstellungspräferenzen
Bei Untersuchung der Einzelergebnisse fallen vor allem folgende Zusammenhänge auf: Nachfrager schätzen es, wenn Abbildungen in die E-Learning-Angebote eingebunden sind. Als unerlässlich werden Abbildungen im Rahmen der Produktinformation beurteilt. Die textuelle Wissensvermittlung erfährt im Bereich der qualifizierten Weiterbildung eine schlechtere Beurteilung als bei den anderen Einsatzgebieten von ELA. Der Einsatz von Grafiken bietet sich gemäß des Datenmaterials insbesondere bei der Produktberatung sowie der qualifizierten Weiterbildung an. Animationen zur Wissensvermittlung sollten eher nur sparsam eingesetzt werden. E-Learning-Angebote, die primär auf Sprachausgabe setzten, entsprechen nicht den Wünschen und Präferenzen der Kunden. Eine Ausnahme bilden dabei ELA zur qualifizierten Weiterbildung. In diesem Bereich wird die Informationsart Audio wesentlich besser bewertet. Allerdings ist sie auch hier im Vergleich zu den anderen Informationsarten als weniger geeignet beurteilt. Die Möglichkeit der Kontaktaufnahme zu einem Experten wird – mit Ausnahme von ELA zur Produktinformation – bei allen Einsatzformen von ELA als sehr wünschenswert eingestuft. Im Vergleich hierzu halten Kunden weniger von der Möglichkeit von anderen Käufern zu lernen. Insgesamt betrachtet spielt das Lernen mit sozialer Interaktion vor allem im After-Sales-Bereich beim Problemlösen und bei der Produktschulung eine Rolle.
876
4.3.2
S. Robra-Bissantz, K.-U. Götzelt
Lernpräferenzen
Obwohl neuere Erkenntnisse im Bereich der Lerntheorien auf die hohe Bedeutung der sozialen Interaktion für das Lernen verweisen, stoßen Möglichkeiten zum Gruppenlernen bei den Befragten auf nur geringes Interesse (vgl. Abb. 10). Der Kunde bevorzugt auch bei Lernangeboten die individualisierte Leistung. Diese umfasst im E-Learning eine bedürfniskonforme und vorwissensadäquate (Selbst-) Selektion der Lerninhalte, z. B. mittels einer Skill-Gap-Analyse, sowie eine benutzerspezifische Anpassung des Lernstils und der medialen Aufbereitung (s.o.) [SaSa02, S. 13; Seu+01, S. 62; Sch+03, S. 27]. Wie lernen Sie am liebsten?
Schritt für Schritt Unterstützung nur wenn notwendig individuelles Lernen kurze Lerneinheiten Selbstbestimmung des Programmablaufs detaillierte Lerneinheiten Führung durch das Programm Gruppenlernen 0% stimme voll zu
20% stimme eher zu
40% teils teils
60%
stimme eher nicht zu
80%
100%
stimme überhaupt nicht zu
Abbildung 10: Lernpräferenzen
Dabei möchte der Lernende zwar Schritt für Schritt vorgehen, jedoch dennoch den Programmablauf selbst bestimmen können. Einer stark ausgeprägten Systemsteuerung wie vom Behaviorismus propagiert, stehen die Befragten eher ablehnend gegenüber. Vielmehr werden Konzepte gefordert, die ein im konstruktivistischen Sinne autonomes, freies Lernen unterstützen aber dennoch dem Lernenden bei Bedarf Hilfestellung leisten. Die Lerneinheiten sollten gemäß der Untersuchungsergebnisse kurz und prägnant gestaltet werden, wobei sich die Befragten wünschen, bei Bedarf auch Zugriff auf weiterführende bzw. detailliertere Informationen zu erhalten. Zusammenfassend erscheint es sinnvoll dem Lernenden Empfehlungen bezüglich der Modulabfolge bereit zu stellen und ihm darüber hinaus die Auswahl von Subsektionen oder das Überspringen einzelner Kursmodule zu ermöglichen.
Erfolgsfaktoren des kundenorientierten E-Learning im E-Commerce
5
877
Fazit und Ausblick
Kundenorientiertes E-Learning hat das Potenzial, als zusätzliches Leistungsangebot eines qualitäts- oder serviceorientierten Anbieters zu seiner Differenzierung im Wettbewerb beizutragen. Praktische Erfahrungen zeigen jedoch, dass dies nicht für jedes Unternehmen, jedes Produkt, alle Nachfrager und beliebige E-Learning-Anwendungen gilt. Daher wird ein umfassendes Rahmenmodell möglicher Einflussbereiche auf den Erfolg von kundenorientiertem E-Learning aufgestellt. In theoretischer und empirischer Analyse zeigen sich die Erfolgsfaktoren des CFEL. Aus Anbietersicht gehören dazu eine eher qualitätsorientierte Positionierung sowie umfassendes Know-how und Erfahrung mit verschiedenen Facetten des E-Business ebenso wie des E-Learning. Es ist davon auszugehen, dass besonders lern- und technologieaffine Nachfragergruppen kundenorientierte E-LearningAngebote zu schätzen wissen. Bezüglich sozio-demografischer Kriterien weist die vorliegende Studie darauf hin, dass hierzu nicht allein jüngere und hochgebildete Personen gehören. Wohl entsprechend ihres Lebensumfelds mit zunehmend drohender Arbeitslosigkeit zeigen auch Ältere und eher schlecht Ausgebildete Interesse an elektronischer Weiterbildung. Ebenso beeinflussen Merkmale des Produktes, wie ein hohes produktspezifisches Involvement und/oder eine hohe Komplexität, sowie ein eher tiefes Produktsortiment des Unternehmens den Erfolg von Lernangeboten. Daneben sehen Nachfrager einen besonderen Nutzen in E-LearningAngeboten, die zwar thematisch nicht unbedingt direkt auf das Angebot des Unternehmens bezogen aber dennoch in motivationaler Nähe dazu angesiedelt sind. Für die Ausgestaltung des CFEL wird neben allgemeinen Empfehlungen, z. B. hinsichtlich ihrer Darstellung, deutlich, dass die Ansprüche der Nutzer E-Learning-Anwendungen erfordern, welche ihre Präferenzen sowie ihre spezielle Situation im E-Commerce-Prozess berücksichtigen. In der weiteren Forschung wird zunächst die Sicht von anbietenden Unternehmen eingenommen, um die innerbetrieblichen, z. B. organisatorischen Voraussetzungen für kundenorientiertes E-Learning genauer zu analysieren. Weiterhin ist die Entwicklung spezieller E-Learning-Systeme erforderlich, die die gestellten Anforderungen an kundenorientiertes E-Learning erfüllen. Dazu gehören eine bedürfniskonforme und vorwissensadäquate (Selbst-)Selektion der Lerninhalte, z. B. mittels einer Skill-Gap-Analyse, sowie eine benutzerspezifische Anpassung des Lernstils und der medialen Aufbereitung. Herkömmliche E-Learning-Systeme bieten in diesem Zusammenhang keine ausreichende Unterstützung für eine Wissensvermittlung an Kunden [Aldr00], da marketingrelevante Aspekte, Situierung an Kundenprozessen und Vorwissen im Zusammhang mit Produkten und Dienstleistungen des Unternehmens nicht umfassend abgebilden werden können. Einzusetzende E-Learning-Anwendungen sind nach ihrer Eignung zur (teil)automatisierten Anpassung an individuelle Kundenbedürfnisse auszuwählen. Es
878
S. Robra-Bissantz, K.-U. Götzelt
ergeben sich individualisierte, personalisierte und situierte E-Learning-Systeme, die sowohl aus Anbieter- als auch aus Kundensicht den notwendigen Mehrwert für eine Nutzung kundenorientierter E-Learning-Angebote sowie für deren Erfolg schaffen.
Literatur [Aldr00] Aldrich, C.: Customer-Focused E-Learning: The Drivers. http://www.learningcircuits.org/jul2000/aldrich.html, 2000, Abruf am 2003-08-13. [Bac+01] Back, A., Bendel, O., Stoller-Schai, D.: E-Learning im Unternehmen. Orell Füssli: Zürich, 2001. [Baue94] Bauer, H. H.: Markt. In: Diller, H. (Hrsg.) Vahlens Großes Marketing Lexikon. dtv: München, 1994, S. 710-711. [BeLe99] Beck, S., Leutenegger, J.-M.: e-Business aus Kundensicht – vom Web-Zapper zum treuen virtuellen Kunden. In: IBM Consulting Group (Hrsg.): Das e-business Prinzp – von Spinnern, Visionären und Realisten. Idee und Funktionsweise der neuen Wirtschaft. Frankfurt am Main: F.A.Z.-Institut, 1999. [Ber+01] Berekoven, L.; Eckert, W.; Ellenrieder, P.: Marktforschung: Methodische Grundlagen und praktische Anwendung. Gabler: Wiesbaden, 2001. [Bert02] Bertelsmann Stiftung: Nachfrageanalyse Telelernen in Deutschland. http://www.bertelsmann-stiftung.de/documents/ PRDOWN.pdf, 2002, Abruf am 200310-18. [BuSc96] Bullinger, H.-J.; Schäfer, M.: Die Rolle des Kunden in einem Lernenden Unternehmen. http://www.htwm.de/bitsa/infoon/lernen/lernen.htm, 1996, Abruf am 2003-0220. [ChWh01] Choi, S.-Y.; Whinston, A.: Educommerce: E-Learning as a Marketing Tool. http://business.cisco.com/app/tree.taf?asset_id=67649, 2001, Abruf am 2002-09-22. [Conn01] Connell, R.: EduCommerce: Online Learning Migrates to the E-Commerce Arena. http://www.eduventures.com/pdf/eduCommerce.pdf, 2001, Abruf 2002-08-12. [Dege98] Degen, H.: Entwicklung eines Wirkmodells für eine anspruchszentrierte Softwareproduktion. Freie Universität Berlin, Dissertation, 1998. [ECIN03] ECIN: Online-Beratung im Internet: Chancen und Risiken. http://www.ecin.de/strategie/onlineberatung/print.html, Abruf am 2003-11-16. [eduC03] eduCommerce-Net: eduCommerce – Technologien. http://www.markatweb.de/ educommercenet/Deutsch/, Abruf am 2003-09-26. [Fox03] Fox, P.: It pays to teach your customers well. http://www.computerworld.com/ softwaretopics/crm/story/0,10801,60423,00.html, Abruf am 2003-10-18.
Erfolgsfaktoren des kundenorientierten E-Learning im E-Commerce
879
[Frö+01] Fröde, F.; Scheja, M.; Weber, G.: eLearning – Eine neue Art zu Lernen, ein neuer Markt. http://www.informatik.htw-dresden.de/~htw10935/papers/Onlinemarketing_ eLearning.pdf, 2001, Abruf am 2002-09-22. [Gent02] Gentsch, P.: Kundengewinnung und –bindung im Internet: Möglichkeiten und Grenzen des analytischen E-CRM. In: Schögel, M.; Schmidt, I. (Hrsg.): ECRM – mit Informationstechnologien. Symposion Publishing: Düsseldorf, 2002. [Herm01] Hermanns, A.: Online-Marketing im E-Commerce – Herausforderungen für das Management. In: Hermanns, A.; Sauter, M. (Hrsg.): Management-Handbuch electronic commerce: Grundlagen, Strategien, Praxisbeispiele. Vahlen: München, 2001. [HoTe01] Hohenstein, A.; Tenbusch, B.: E-Learning-Strategie entwickeln. http://www.global-learning.de/g-learn/downloads/dwd-elearning-strategie.pdf, Abruf am 2003-10-20.
2001,
[HüMa00] Hünerberg, R.; Mann, A.: Online-Service. In: Bliemel, Friedhelm; Fassott, G.; Theobald, A. (Hrsg.): Electronic Commerce. Gabler: Wiesbaden, 2000. [Jaco98] Jacob, E.: Media-Zukunft für Milieu-Typologien. http://www.mediaundmarketing.de/imperia/md/content/pdfdateien/marktforschung/ zielgruppen/typologien/06_072_074_Zielgruppe.pdf, 1998, Abruf am 2004-03-03. [KöRo03] Köllinger, P.; Ross, A.: Marktstudie E-Learning: Nachfrage – Anbieter – Empirische Ergebnisse. Symposion Publishing: Düsseldorf, 2003. [KrWe96] Kroeber-Riel, W.; Weinberg, P.: Konsumentenverhalten. 6. Auflage, München: Vahlen, 1996. [KuTo00] Kuß, A.; Tomczak, T.: Käuferverhalten: eine marketingorientierte Einführung. Lucius und Lucius: Stuttgart, 2000. [Laak95] Laakmann, K.: Value-Added Services als Profilierungsinstrument im Wettbewerb: Analyse, Generierung und Bewertung. Frankfurt am Main: Lang, 1995. [Mark02] Markus, U.: Die Integration der virtuellen Community in das CRM: Konzeption, Rahmenmodell, Realisierung. Josef Eul: Lohmar, 2002. [MeBl00] Meyer, A.; Blümelhuber, C.: Kundenbindung durch Services. In: Bruhn, M.; Homburg, C. (Hrsg.): Handbuch Kundenbindungsmanagement. Gabler: Wiesbaden, 2000. [MIT01] M.I.T. newmedia: eduCommerce – Schulung als Marketing-Maßnahme. http://www.educommerce.mit.de/whitepaper/educommerce_WPmit.pdf, 2001, Abruf am 2003-11-10. [MuÖs98] Muther, A.; Österle, H.: Electronic Customer Care – Neue Wege zum Kunden. In: Wirtschaftsinformatik Nr.2, Jg. 40 (1998), S. 105-113. [MoZe03] Montandon, C.; Zentriegen, M.: Applications of Customer Focused E-Learning. http://ecommerce.lebow.drexel.edu/eli/2003Proceedings/docs/153Monta.pdf, 2003, Abruf am 2004-06-20. [Pepe95] Pepels, W.: Käuferverhalten und Marktforschung: eine praxisorientierte Einführung. Schäffer-Poeschel: Stuttgart, 1995.
880
S. Robra-Bissantz, K.-U. Götzelt
[Pil+01] Piller, F.; Deking, I.; Meier, R.: Mass Customization – Strategien im E-Business. In: Hermanns, A.; Sauter, M. (Hrsg.): Management-Handbuch electronic commerce: Grundlagen, Strategien, Praxisbeispiele. Vahlen: München, 2001. [Publ04] Publisuisse: Positionierungsmodell –Einordnung nach Koordinaten. http://www.publisuisse.ch/deutsch/website/d_home.cfm, Abruf am 2004-03-16. [SaSa02] Sauter, A. M.; Sauter, W.: Blended Learning. Luchterhand: Neuwied et al., 2002. [SiSo04] Sinus Sociovision: http://www.sinus-milieus.de, 2004, Abruf am 2004-03-16. [ScSt00] Schinzer, H.; Steinacker, B.: Virtuelle Gemeinschaften. In: Thome, R.; Schinzer, H. (Hrsg.): Electronic Commerce: Anwendungsbereiche und Potentiale der digitalen Geschäftsabwicklung. Vahlen: München, 2000. [Schu00] Schuhmann, P.: Die Electronic Mall im internetbasierten Handel. Wiesbaden: Gabler, 2000. [Sch+03] Schüpbach, E.; Guggenbühl; U.; Krehl, C.; Siegenthaler; H.; Kaufmann-Hayoz, R.: Didaktischer Leitfaden für E-Learning. h.e.p.: Bern, 2003. [ScZi97] Schmid, B. F.; Zimmermann, H.-D.: Eine Architektur elektronischer Märkte auf der Basis eines generischen Konzeptes für elektronische Produktkataloge. http://www.informationobjects.ch:8080/NetAcademy/naservice/publications.nsf/all_pk/ 462, 1997, Abruf am 2003-10-08. [Seu+01] Seufert, S.; Back, A.; Häusler, M.: E-Learning: Weiterbildung im Internet – Das „Plato-Cookbook“ für internetbasiertes Lernen. Smart Books Publishing: Kilchberg, 2001. [Stol00] Stolpmann, M.: Kundenbindung im E-Business: Loyale Kunden – nachhaltiger Erfolg. Galileo Press: Bonn, 2000. [SpBl01] Spohrer, M.; Blackert, S.: E-Commerce – die Konsumentenperspektive. In: Hermanns, A.; Sauter, M. (Hrsg.): Management-Handbuch electronic commerce: Grundlagen, Strategien, Praxisbeispiele. Vahlen: München, 2001. [TNSI02] : Taylor Nelson Sofres Interactive: Global eCommerce Report 2002. http://www.tns-global.com/corporate/Rooms/DisplayPages/LayoutInitial?Container =com.webridge.entity.EntityOID67599BB5F6108D41AF3CE2C2050C2BA3, 2002, Abruf am 2003-10-22. [ToRi01] Totz, C.; Riemer, K.: Nachhaltige Kundenbindung durch Vertrauensmanagement. In: Klietmann, M. (Hrsg.): Kunden im E-Commerce – Verbraucherprofile, Vertriebstechniken, Vertrauensmanagement. Symposion Publishing: Düsseldorf, 2001. [WeKo00] Weiber, R.; Kollmann, T.: Wertschöpfungsprozesse und Wettbewerbsvorteile im Marketspace. In: Bliemel, F.; Fassott, G.; Theobald, A. (Hrsg.): Electronic Commerce. Herausforderungen – Anwendungen – Perspektiven. Gabler: Wiesbaden, 2000. [Wirt01] Wirtz, B. W.: Electronic Business. Gabler: Wiesbaden, 2001. [Wirt02] Wirtz, B. W.: Kompakt-Lexikon eBusiness. Gabler: Wiesbaden, 2002.
A Procedural Model for the Production of Reusable and Standard-Compliant E-Learning Offerings Claudia Müller University of Potsdam
Matthias Trier Technical University Berlin
Abstract: Cost-efficient production of high-quality learning contents is an important success factor for a sustainable and economic realisation of E-Learning. This necessitates the design of sustainable production processes, which create reusable Learning Objects and require minimal resources. In such a context, this contribution introduces a practical and business-process oriented Procedural Model for the Production of reusable and standard-compliant E-Learning Offerings. It has been developed and applied in a project that produces learning contents for a Master program of an international virtual university. After the introduction of a reengineering method, a special analysis instrument for E-Learning has been designed to analyse the existing production processes and to improve them in terms of efficiency, costs, standard-compliance, and process automation. The method introduced is hence not focussing on individual technical solutions but on the efficiency of the whole E-Learning production and value chain. It gives an orientation for establishing and maintaining sustainable and competitive E-Learning production processes with appropriate effort. Keywords: E-Learning, Processes, Efficiency, Process Automation, XML, Content, Standardisation
1
Motivation
In the years 2000 to 2004, the German Federal Ministry for Education and Research established a funding program called ‘New Media in Education’. With a budget of about 200 million Euro, this initiative supported a multitude of projects within the German sector of higher education [Bmbf00]. The primary objective was a continuous and wide integration of new media for teaching, learning, working, and communication in university education and improved media support for education offerings.
882
C. Müller, M. Trier
The large amount of projects supported, reflects the optimistic perception of these years. For example, a study of Berlecon Research in 2001 [Saut02] estimated, that the education budget of German enterprises will increase by 600 percent from 330 million Euro in 2001 to 2 billion Euro in 2005. But already in the year 2004, this euphoria was lost. In April 2004, the Federal Ministry of Economics and Labour ordered a study called ‘Monitoring Information Society’ [Gra+04], which found that experts have lost confidence in the expansion of E-Learning services in the information economy. This development also seems to have affected publicly financed E-Learning projects. Once the initial funding period ended, they often lacked concepts for ensuring the appropriate revenues, which are necessary to compensate the high initial investments and the costs of actually running the structures and processes [HaHo04]. This implies that the sustainability of current, often very proprietary constructed structures and processes of such E-Learning projects should be reassessed. Sustainability is here defined as the succession and continuous development of projects together with their implemented processes, created learning units, existing experiences of the authors and editors and the employed tools [Deg03, HaHo04]. Being one of the initiatives within this BMBF-Program, the project ‘MBI- International Master of Business Informatics’ also faced these challenges. One major objective was hence the establishment of a private and internationally oriented E-Learning corporation until the end of the funding period. By now, the resulting Virtual Global University (VGU) has affiliations in India, Taiwan, Nepal, Pakistan, Slovenia and other parts of Eastern Europe and Asia [VGU04]. The Department of Systems Analysis and IT of the Technical University Berlin is participating in this virtual university since 2001. Next to 16 further German, Swiss, and Austrian Chairs of Business Informatics, it develops and offers the learning modules Knowledge Management (KM) and Process Modelling (PM). To be able to offer professional products in the competitive E-Learning market, it became necessary to fundamentally analyse and reengineer the existing course offerings. The main objective was a sustainable production process, which is capable of producing reusable Learning Objects and simultaneously is requiring a minimum of resources. To achieve this objective, a comprehensive reengineering project for the modules’ production processes was launched in 2003 to assess and improve the existing procedures. It has been segregated into the following five project phases: 1. Capturing and modelling all existing E-Learning production processes, 2. Evaluation of existing E-Learning production processes using a special analysis instrument for E-Learning process evaluation, 3. Identification of the main potentials and development of a concept,
A Procedural Model for the Production of E-Learning Offerings
883
4. Realisation of the main improvements and documentation of the final E-Learning process, and 5. Comparison and measurement of the old and the new processes to substantiate and quantify the improvements in efficiency. The execution of this reengineering project and the resulting challenges for the development of a standard-compliant and partially automated E-Learning production process are introduced in the next sections (see figure 1). During this initiative, the practical experiences have continuously been documented and refined in order to create a generic procedural model for the Production of reusable and standard-compliant E-Learning Offerings (PELO-Model). This model is explained in great detail in section 4. The last section illustrates the approaches of measuring the efficiency gains and cost savings of the reengineering project. Reengineering Project: Production of KM/PM modules (Section 1)
Phase 1
Phase 2
Analysis Instrument for the Evaluation of E-Learning Production Processes (Section 2)
Phase 3
Phase 4
Phase 5
PELO Model Procedural Model for the Production of resuable and standard-compliant E-Learning Offerings (Section 4) Macro-Layer (Generic stages and steps for resuable and standard-compliant content production Micro-Layer (Process Models and Descriptions for Production) (Section 4.4)
Figure 1: Overview about the article
2
Analysis Criteria for Developing a Sustainable Production Process
The cost efficient production of high-quality learning contents is an important success factor for economic E-Learning offerings [Kra+03]. With this perspective, the existing processes for content-oriented and technical development of Learning Objects for the course offerings Knowledge Management (KM) and Process Modelling (PM) have been analysed. In phase one of the reengineering project, the existing procedures have been captured and modelled with Event-driven Process Chains (EPC). In the succeeding identification of potentials (phase two), a special analysis tool has been developed, which assembles the most important efficiency criteria for E-Learning production processes. It is based on the concept of Critical Success Factors, which assumes, that a process’s success is largely attributable to only a few factors [Oest95, pp. 108]. These specific factors consist of critical success factors for the overall E-Learning offering, general success factors of processes,
884
C. Müller, M. Trier
and special process-specific success factors for the E-Learning production process. Together, these three segments constitute categories of requirements to evaluate the existing E-Learning production processes. The requirements category of critical success factors for the overall E-Learning offering includes the definition of learning contents and media, the selection of the Learning Management System and the Learning Environment, the realisation of a business model, and the reusability of learning contents. The next section contains general success criteria of processes like process duration, costs of production, quality of the output, measurability of the process, and flexibility to change the process structures. The last section with individual and process-specific success criteria finally lists items like reduction of complexity1, reduction of employed file formats for identical contents2, increased transparency about the process’s status, or standardised versioning. These criteria have been derived from the existing production processes. For every criterion a description is available to help evaluating the actual process. For example, the reduction of content-related redundancies checks, if the same contents are not stored in different file formats (like MS PowerPoint and MS Word). These criteria can also be related to different working areas and scopes, depending on the actual scope of the success factor. To evaluate the need for improving the existing processes, a scale reaching from 1 for low priority up to 3 for high priority has been applied. The evaluation was based on how the actual processes fulfilled the various criteria. A further issue was the decision, if these criteria own an important potential for improvement or should be worked on later. Next to the establishment of new successful processes, the criteria catalogue enables a comprehensive evaluation and comparison of existing processes using specified categories. Further, implemented procedural improvements can be better measured against the original process. Table 1 shows an excerpt of the completed evaluation sheet for the production processes of the modules KM and PM.
1
2
In the process example described, the reduction of complexity is focussing on structural and procedural aspects of the production, e.g. reduction of process steps and reduction of interdependencies within the processes. In principle, the course Knowledge Management and Process Modelling are comprised of audio-, video- and text-based content objects.
A Procedural Model for the Production of E-Learning Offerings
Criteria
Affected
1. Critical Success Factors for the E - Learning 1.1
Definition of
1.2
Selection of the Learning
1.3 1.4
Prio rity *
Area
Current Evaluation**
Potential for improvements
Offering
Learning Contents and Media Management System and
Realisation of a Business Model, Marketing and
the Learning
Maintencance
Environment
Concept
Reusability of Learning Contents
2. General
885
E- Learning offering
1
later
E- Learning offering
1
later
E- Learning offering
1
later
E- Learning offering
3
currently existing
Success Factors of Processes
2.1
Quality Assurance of the Output and the Offering
Complete Process
2
currently existing
2.2
Costs of Production , Maintenance and Development of the Output
Complete Process
2
currently existing
2.3
Reduction of process duration for Content Production
Complete Process
3
currently existing
2.4
Ability to
Complete Process
2
currently existing
2.5
High flexibility of the Production Processes in the case of changes in Requirements
Complete Process
3
currently existing
Functions
3
later
Functions , Process Output
1
currently existing
Process Output
3
currently existing
1
later
IT Systems
3
currently existing
IT Systems
1
later
3. Prozess
measure and evaluate the Processes
specific Success Factors
3.1
Reduction of Complexity
3.2
Compliance with existing E- Learning
3.3
Easy changes and adaptation of the produced Contents
3.4
Definition of
3.5
High degree
3.6
Reduction of employed Tools
Specifications
and Standards
Roles ( Task Descriptions )
Organizational
of Automation
3.7
Introduction
3.8
Reduction of content - related
of Task Descriptions , Checklists , Schedules, or Styleguides redundancies
3.9
Avoidance of File Redundancies and inconsistent
3.10
Introduction
3.11
Introduction
Data Storage
of Versioning Control of a system or a structure for Document Storage
Units
Information
Objects
3
currently existing
Information
Objects
1
later
Information
Objects
2
currently existing
Information
Objects
3
later
Information
Objects
3
later
* Priority : 1 ( low ), 2 ( middle
), 3 (high);
** Evaluation:
( not fulfilled )… ( fulfilled )
Table 1: Requirements catalogue for efficiency analysis of E-Learning production processes
In the succeeding stage of the reengineering project – the process evaluation – the following three potentials have been identified and selected to improve the existing situation: x Compliance to E-Learning standards and specifications to enable conform and sustainable Learning Objects, structures, and processes (criteria 1.4, 3.2), x Improved process automation to increase the efficiency of the processes (criteria 2.2, 2.3, 2.5, 3.3, 3.5, 3.9), x Standardised processes with process descriptions to improve the ability to evaluate, to measure, and to assure the quality of the output (criteria 2.4, 2.1, 3.7). To realise these main potentials in phase three and four of the reengineering project, an integrative procedural model, called PELO-Model has been specified, which ensures standard-compliant content production, process automation, and process standardisation. On a Macro-Layer, this model is defining special stages for the content-related and technical development of standardised and standardcompliant Learning Objects. On the Micro-Layer, operational and individually adaptable production processes are specified (section 4 illustrates the Micro-Layer
886
C. Müller, M. Trier
by introducing the improved process automation using XML-based production, employed for the KM and PM modules). Before the Macro-Layer can be introduced, the relevant E-Learning Specifications3 need to be summarised.
3
Standard-compliant Learning Contents
The standardised production of Learning Objects is specified in content-specific standards4 (cf. [Hor01, pp.17]). There is a variety of different initiatives and institutions involved in the definition of the following three related areas: x Content Packaging – the relevant norms include the IMS Content Packaging Specification, the IMS Simple Sequencing Specification, the Aviation Industry CBT Committee’s Course Structure File, and the ADL SCORM Content Packaging Specification, x Content Communication – the most important specifications are the AICC Computer Managed Instruction (CMI) and the ADL SCORM Run-Time Environment Specification, and x Meta-Data Annotation – the relevant specifications include the IEEE Learning Object Meta-data (LOM), the IMS Learning Resource Meta-Data Specification, the SCORM Metadata Standard, the Dublin Core Meta-data, and the IMS Educational Modelling Language (EML). There is the widespread argument, that the existing specifications are still under development and hence are not yet meeting the requirements of developers of learning offerings [Gers03, p.636]. Quite contrary, the project came to the final conclusion, that for the assessment and improvement of future standards it is inevitable to practically implement and continuously experience these de-facto standards. They already provide recognisable benefits for the content production. The SCORM project has been regarded as the most relevant influence, as it integrated the results of various other standardisation initiatives. In the reengineering project, the available specification ADL SCORM Version 1.25 has been analysed to identify the relevant elements for a new production process. Generally, the Sharable Content Object Reference Model (SCORM) is offering a technical 3 4
5
In fact, these standards are currently only de-facto standards, which have not yet been completely approved by the standard organizations ISO/IEC JTC1/SC36. Next to this, there are efforts to standardise the relevant information about the learners in order to enable their system-independent transfer and to specify quality standards [CoRo02, pp.2]. Since January 2004, ADL SCORM version 1.3 is published [ADL04].
A Procedural Model for the Production of E-Learning Offerings
887
framework for web-based E-Learning. It defines the relation of course components, data models and protocols in a way, that learning contents can be exchanged between IT-systems, which employ the same model. This improves reusability, durability, interoperability, and accessibility of Learning Objects [ADL03]. The SCORM Content Aggregation Model (CAM) defines how learning resources should be structured and aggregated into an integrated learning unit, like a course. The model consists of a Content Model for the terminological description of Learning Objects, a Content Packaging definition to pack Learning Objects (to be exchanged between different Learning Management Systems), and the meta-data to describe all components. The Content Model describes the components Asset, Sharable Content Object (SCO) and Aggregation (the whole course). Following this structural definition, the existing content components have to be structured in a tree-like hierarchy. This necessitates a working definition of what should be regarded as an Asset and what as a SCO within the concrete project. Here, the SCORM specification is not exactly defining the term Sharable Content Object. It determines only, that a SCO is the smallest possible logical learning unit, which includes at least one Asset. Assets are regarded as electronical representations, like texts, images, sounds, or web-pages. Their main property is a high degree of reusability. Next to these structural properties, there are specifications of content-related issues. For example, a SCO should be independent from the learning context, this means, it is a self-sufficient piece of learning content, which contains all required resources [LSAL03, pp.23]. Using this framework, for the KM/PM production processes a HTML-page has been defined as a SCO and its resources like for example audio- and video-based elements or non-media assets like texts and images as Assets. This structuring was done for all existing contents. If necessary for a consistent and complete content structure, some content elements, like for example abstract headings of topics were added or removed. SCORM contains meta-data specifications with definitions of description formats to support the reusability of contents and the interoperability with other systems. This concept is already very elaborated and complete, but can also be individually extended, if necessary. Such a standardised meta-data description of Learning Objects and their interrelations is a prerequisite of modular structuring and archiving of learning contents in repositories. Prior to the actual production of the Learning Objects, a definition of employed meta-data elements (together with the definition of their concerned scope and objects) has to be generated. The standards dealing with Content Packaging enable to store Learning Objects in a platform independent format. This implies that the KM and PM packages generated for the MBI program can also be used in other platforms than the WebCT platform, employed by the VGU. This results in less platform dependency, which
888
C. Müller, M. Trier
is an important issue if for example the virtual university decides to change its basic platform in order to reduce license costs. For the learning offerings KM and PM, the process of packaging the produced contents is supported by the open source solution RELOAD Editor developed by the British RELOAD Project [REL03]. Next to enabling a standardised form using Content Packages, the SCORM 1.2 Run-Time Environment (RTE) Specification provides the foundation for unified execution within a learning system’s environment. The according elements include the Launch Mechanism, the Application Programming Interface (API), and the Data Model. Within the SCORM Run-Time Environment, the communication between the various SCOs and the LMS is standardised. The production process has to recognise the requirements of Version 1.2 to create executable Learning Objects. The standard specifies the minimum requirements for a SCO to be able to communicate with the LMS. This includes the employment of the Execution State Commands LMSInitialize and LMSFinish to allow the Systems to activate and start a SCO by sending a request. The API-Adapter of the LMS invokes the SCO by sending a Javascript-based function LMSInitialize(). After finishing the interaction, the SCO sends the function LMSFinish() back to the adapter. If the channel between the LMS and the SCO is open, variables can be accessed and exchanged between the LMS and the SCO. Examples are entries about sequencing behaviours using the elements "prerequisites", "maxtimeallowed" and "timelimitaction"6. After this brief introduction of the relevant SCORM specifications, the next section now introduces a procedural model to support the creation of reusable Learning Objects. It has been developed and tested using the existing E-Learning content production processes for the modules KM and PM.
4
The Macro-Layer of the Procedural Model
Using the results of the process definition and the specifications of the SCORM initiative, in the project a procedural model has been developed to create a standard-compliant course consisting of reusable Learning Objects (see figure 2). The objective was to meet the according potential as stated in the analysis stage of the reengineering project (see section 1). The procedural model has been influenced by the SCORM Best Practice Guide for Content Developers [LSAL03, pp.4] and extends and specifies it to increase its 6
Recently, in SCORM Version 1.3 ADL published the new section about sequencing and navigation (SN). It describes how SCORM-conformant content may be sequenced through a set of learner-initiated or system-initiated navigation events [ADL04].
A Procedural Model for the Production of E-Learning Offerings
889
practical value. It is structured into the five Macro-Layer stages Analysis, Design, Conceptual Development, Technical Development, and Test (cf. [Bol+02, pp.1, Cis03, p.14]). Each stage is consisting of various steps, which on a Micro-Layer can be further specified by concrete process models and descriptions. This two layer concept enables the adaptation of the procedural model to meet the individual requirements (compare section 2) of the different production processes employed. Thus, a practical and easily adaptable meta-model for the production of Learning Objects is introduced, which meets the requirements of the SCORM Version 1.2 specifications7 and hence supports the Production of reusable and standard-compliant E-Learning Offerings (PELO-Model). This model is not bound to a specific product to support the production of Learning Objects, but is describing a generic procedure, which can be applied independently of the employed software. This allows content developers to utilise it for the individual definition of their production processes. Analysis Analysis of the environment
Design
Conceptual Development
Asset Design Researching contents for topic domains
Technical Development
Test
Developing and producing the Assets
SCO Development and production
Analysis of existing contents
SCO Design
Definition of Asset, SCO, Aggregation
Design of SCO aggregations
Specification of meta - data
Specification of content structure
Author
Segregation of contents in predefined content structure and specification of media types
Design of course structure
Design of course sequence
Author
Development of the Aggregations
Metadata desciption of the artefacts
Testing the Packages in the LMS
Implementation of the course sequence
Creation of contents within the defined content structure
Author
Integration into a Content Package
Editor
Author & Editor
Figure 2: Procedural Model for the production of reusable and standard-compliant E-Learning Offerings (PELO-Model)
7
Currently, the PELO-Model is extended to consider the requirements of SCORM Version 1.3.
890
C. Müller, M. Trier
For each of the five stages of the Macro-Layer roles8 are made responsible. The Author role is responsible for the stages Analysis, Design, and Conceptual Development of Learning Objects, whereas the Editor role is dealing with the Technical Development of the content. For the final test of the produced contents, both roles share responsibility. The Editor is focussing on testing the technical execution and checks if all HTML-pages show their referenced objects. The Author primarily controls the course sequence, focussing on didactical issues. The various steps of the Model for the Production of reusable and standard-compliant E-Learning Offerings are now being introduced in more detail.
4.1
Analysis
The main objective of the Analysis Phase is to prepare the contents, like for example of the topic Knowledge Management in a way, which allows for the subsequent design of the course elements and the succeeding stages of Conceptual and Technical Development. The Analysis consists of the steps Analysis of the environment, Analysis of existing contents, Internal definition of content objects, Specification of the meta-data description, and the Specification of the content structure. In the Analysis of the environment, the target group, the training scope, the type of training, and the place for the training are defined [Bol+02, Section 5 pp.1]. Before that, it has to be specified, in which environment the learning units are being deployed, as often content-related changes have to be implemented to meet the needs of a special target group [LSAL03, p.25]. Examples are the depth of the content or the number of practical examples. Further preparatory questions deal with media diversity, topic depth, or the way of transmitting the contents, e.g. as a pure web-based training or as a blended learning offering [Sai02, p.39]. The Analysis of existing contents examines questions of quality, scope, and type of the information presentation [Bol+02, Section 3, pp.1]. Further it is often necessary to replace an existing hierarchical with a content-related course structure. This means existing contents need to be summarised into a topical domain to enable the modularisation of content elements. This also helps to assess if the particular topic is sufficiently explained to allow the student to achieve the course’s overall learning objective. The results of the analysis are used for the Definition of the Assets, SCOs, and Aggregations. To achieve the SCO-properties required, in the KM and PM scenario an HTML-page was considered a SCO. This HTML-page consisted of a multitude of resources defined as Assets (e.g. videos, audios, or images). The advantages of using HTML-pages as SCOs are the increased flexibility of contents, 8
To consider the project’s internal premise of simplicity and efficiency, the role model has been reduced to the absolute minimum.
A Procedural Model for the Production of E-Learning Offerings
891
the simple structuring of objects, and the unnecessary intra-SCO-sequencing9. Moreover, for the definition of the content structure it has to be considered, that a SCO must not refer to another SCO. This would disable the LMS to track the actual learning progress. In the KM and PM offerings, contents like course Course Introduction, Task Pages, or Course Summaries have also been modelled as SCOs to allow their flexible application. For the creation of SCORM-compliant contents, the next step of Meta-data specification is optional. However, it should be employed to ensure the reusability of learning contents as this is the only way to enable search routines to easily find relevant content modules in content repositories. Within the SCORM specification, the use of meta-data has been defined for obligatory or optional application. It requires an XML-description file for every Content Package, which at least includes the obligatory meta-data elements, like for example name, meta-data scheme, format and location. In the practical KM and PM production, meta-data has only been utilised if classified as obligatory in the LOM specification and only to describe the Content Packages. Another step of the procedural model is the Specification of content structure. In a structural diagram, all the content objects are positioned on various specified layers. For the KM and PM courses, the Course Layer has been defined as the top layer. It consists of elements like Introduction, Organisational Issues, Overview, and Unit. The Unit element contains a sub-layer, consisting of Introduction, Learning Objectives, Quick Quiz, Summary, Outlook, etc. Below this level, there is a topic layer, containing Introduction, Definition, or Example elements. These definitions allow for a consistent structuring of Learning Objects, because the meta-structure for the content types of the Learning Objects is specified [Cis03, pp.4].
4.2
Design
In the Design Stage, the specifications of the Analysis Stage are applied to the Assets, SCOs, and Aggregations. Moreover, all necessary design templates are produced. They build the foundation for the succeeding development of every Learning Object. The first step is the definition and the Design of the Assets and its basic properties. This includes the identification of the Assets that actually appear in the E-Learning offering, e.g. the KM/PM project utilised GIF-, JPG-, RM-, RPM- and TXT-files. Further, in this step the exact size of each Asset, its necessary quality, and its application context are specified. In the analysed production processes, the 9
Intra-SCO-sequencing is used to indicate the sequence of learning materials if the SCO is being defined in a way that allows for more than one content element within one SCO.
892
C. Müller, M. Trier
utilised colours have been defined as neutral as possible (grey, dark blue and white only) to avoid disadvantageous contrasts if a different LMS environment should be selected. Further, the pixel resolution, the file format of images, and the fonts’ types and sizes have been specified. In the succeeding Design of the Sharable Content Objects, the definition of the SCO (in the analysed case an HTML-page) is becoming relevant again. Thus, the audio-based HTML-page about the topic ‘Architecture of a Content Management System’ is comprised of Assets like an audio file with a spoken explanation, an image showing the actual CMS architecture, and an explaining text. In this step of the procedural model, the structure and the properties of the HTML-page are specified. For the Development Stage, a design template needs to be created, called ‘HTML-Template-Page’. The following issues should be considered for this activity: x If a background image is used, it should be a vector-based format. Its HTML parameters should be set to scalable instead of fixed size [Bol+02, Section 7, p.2], x The background colour of an HTML-page should be explicitly defined, because otherwise the colour scheme of the underlying LMS could interfere with the design palette, x If buttons are used, they should not be positioned at a fixed location to ensure there visibility at all times [Bol+02, Section 7, p.3], x The size of an HTML-page should not be larger than the smallest monitor size (i.e. 800x600 pixels) to ensure the visibility of the complete contents at all times. Next to these layout definitions, the SCO has to be specified from a programmer’s perspective. It has to be decided, if the Application Programming Interface of the LMS should be utilised. If the SCO is not exchanging messages via the API (‘noncommunicative SCO’), there is no control possible about the learner’s completion of the learning material. The KM/PM project’s decision to regard a single HTMLpage as a SCO again provided the advantage, that this immanent problem has been ruled out and the employment of the API was not necessary [Jon03]. Still for testing reasons, the courses KM and PM work with communicative SCOs, which fulfil minimum requirements of communicability. A SCO represents a self-sufficient Learning Object. Multiple SCOs can be grouped into Building Blocks, but the SCO itself can not be divided into smaller pieces. To join SCOs into a Building Block the following three issues have to be considered [Rob01]: x The SCO must be embedded in the existing content structure, x The course sequence, i.e. the sequence of SCOs, must be defined, and
A Procedural Model for the Production of E-Learning Offerings
893
x The SCOs and the according description must be stored in a package. Within the Aggregation, it is determined, which SCOs it contains. The structure diagram created in the Analysis stage contains all necessary information required for its design. Further information has already been specified in the Asset and SCO Design steps. The next step of the Design stage is the definition and Design of the course structure. The Author puts the defined content elements Asset, SCO, and Building Block into a structure, which shows the dependencies between the objects, e.g. first layer Aggregation (i.e. Content Package), second layer SCO or Building Blocks, third layer SCO or Assets, and fourth layer Assets. The next step of the procedural model is the Design of the course sequence. It is necessary, because the LMS controls the Inter-SCO-sequencing. The author arranges the available content objects (Assets, SCOs) in a logical sequence and thus designs the course’s storyboard. For that he uses the content structure diagram. The editor applies this taxonomy to define the technical rules of the sequencing. It has to be considered, that SCOs contain no information about a time-scale or a topical sequence [Kai01, pp.58]. With the specification of a predecessor for every content object, a simple learning path can easily be created. This sequence is implemented using the variable ‘prerequisites’, which relates to the variable ‘cmi.core.lesson_status’. This condition is hence oriented backwards, as it is defining the conditions before the SCO can be activated. The default value of the ‘cmi.core.lesson_status’ is ‘not attempted’. If the SCO is becoming initialised, it is automatically preset to this value. When the learner uses the SCO, it can get the status ‘browsed’, ‘incomplete’, ‘completed’, ‘failed’, or ‘passed’. In the KM/PM production, additional elements have been used, which don’t own resources. These special elements (blocks) define the beginning of a certain topic domain (like CSCW, E-Mail, etc.). The SCORM Version 1.2 specification allows relating introductory HTML-pages to these abstract (heading-like) elements. These special HTML-pages are not regarded as common SCOs.
4.3
Conceptual Development10
After the theoretical definition and practical preparation of every Learning Object, the actual content is produced. This stage can not easily be unified in a procedural model, as the conceptual development is a very knowledge-intense business process, which can have multiple approaches depending on the specific scenario and resources (time, budget, persons, etc.). However, in the model some few steps indicate the minimum procedure, recommended. 10
This contribution defines the conceptual development as the content-oriented creation of Learning Objects, which are not yet in their final format. This process element can but does not need to meet the requirement of sustainability.
894
C. Müller, M. Trier
In the production of contents for the KM and PM modules, the production of E-Learning contents starts just like the usual preparation of lectures using Microsoft’s PowerPoint application. This allows easily exchanging and reusing learning material already prepared for classroom or virtual lectures. Within MS PowerPoint, the Graphic Pane is used for drawing figures, the Comment Field is filled with explaining texts and the Slide Structure Navigator contains the sequence of the contents. A presentation is representing a course unit and within the MS PowerPoint based elements, graphical and textual tags are used to signal the intended implementation of special contents like video components, case studies, exercises etc. The production of the according Assets is executed in special processes (step Asset Development). As the most frequent form of presentation is an audio-based Learning Object, this special production process is now introduced in more detail. In the Conceptual Development stage of the procedural model, the author has the task of assembling the actual contents for every Learning Object in MS PowerPoint. He usually starts with researching contents for the topic domains to be explained. The identified and selected material has to be related to slides that are positioned in a sequence which matches the definitions of the structure diagram produced in the Design Stage. He writes the explanatory text and sketches the image. Alternatively, the Author role has to decide in which form the content elements should be presented (video, case, etc.) and mark the presentation’s slide accordingly. A slide show with specific formatting and tagging emerges and indicates the required technical production processes for the Editor role.
4.4
Technical Development
The Technical Development contains the areas Asset and SCO development, the creation of SCO-Aggregations, the definition of the course sequence, and the collection of all Learning Objects into a Content Package. The Asset development includes the specific processes of image-, audio- and video-asset production. These segments are independent of the overall procedural model and are due to their complexity not explained within this contribution. However, in [Trie+03], the KM course’s special approach to cost efficient video production is explained in great detail. Further, the group currently works on improved screen-capture-videos, Flash-asset-production processes, and video-based interviews. It should be highlighted, that the intention of the PELO-model is to have a variable Macro-Layer which can be filled with specific reference processes on the Micro-Layer for the content producer to either select existing processes or to add his own individual production procedures. The step of Asset development finishes, when every required Asset is actually available in the defined form.
A Procedural Model for the Production of E-Learning Offerings
895
Now follows the technical creation of the SCO’s. In the sample case, this means that about 950 HTML-pages are being produced. Based on the analysis of the existing production processes, the SCO development step can now be illustrated by using an example: The automation of the KM/PM production process as demanded by the second identified potential in the reengineering (see section 1). In the practical scenario this was done by introducing an XML-based data format. For this step of the Macro-Layer of the PELO-Model, the Micro-Layer processes for the KM and PM module production are being introduced in more detail in figure 3. PP - File T
Creation and Formatting of Content
Contents in MS PowerPoint Contents created
Import of contents in Open Office Impress Contents imported
SXI - File
File opened Creation of xml2xml XSL
Save content.xml
Stylesheet created
content.xml saved
xml2xml.xsl
<
Creation and Transformation XML - Document
Open File with Winzip
Transformation of Open Office XML -File
content.xml
Creation of HTML Assets and handout preliminary version
Source -XMLFile created
Entering of parameters
template HTML -Page
vbc.contentTRANSFORMER
Parameters entered
handout preliminary version
PHP Script execution
OR
Handout created
Web - pages created
single webpage
Figure 3: The KM and PM course’s SCO Production Process
Originally, the learning contents are stored using the MS PowerPoint file format. As MS Office does currently not provide XML export of the presentation, OpenOffice.org 1.1.0 is utilised to import the PowerPoint document and export the contents in a special file format, which is based on the public XML-standard. This resulting JAR (JavaArchive) Format is a ZIP-file, which includes a manifest that contains a list of the content archive (cf. [Eis04]). The relevant content is located in the tag office:body. Using an XSLT transformation, a reduced and filtered XML file is generated to ease the subsequent automated processing. The most important elements of an XSLT are the localisation path (pattern) and the replacement template. The localisation path has the notation xsl:template. Us-
896
C. Müller, M. Trier
ing the according attribute ‘match’ (containing an XPath pattern), the matching content is being identified. Subsequently, the according element is instantiated and written into the output file. By using the replacement template, this output element can be individually formatted [Jec03, pp.103]. To automate this process, the Javabased XSLT-processor Xalan is utilised [Apa04]. Xalan helps to transform XMLdocuments into HTML, text, or other XML-documents. In the project, Xalan is used to generate the reduced XML file from the OpenOffice.org 1.1.0 output format. Afterwards, the XML-based contents are being automatically converted into the final HTML documents, using the individually created prototype ‘vbc.contentTransformer’. This tool has been implemented in the scripting language PHP, because it is a language which can be embedded in the HTML source code (embedded code). This is then interpreted and executed on the server side. PHP furthermore owns many convenient commands for treating special variables and working with HTML contents. After this step, the multiple SCOs of the course are available as HTML-pages. The according layout of the HTML-pages can easily be changed as the transformer tool incorporates the layout definitions and the special Javascript functions to implement the learning path. The last steps of the Technical Development are the Meta-data description of the artefacts, the Development of the Aggregations, the Implementation of the course sequence and the assembly of all material into a Content Package. All these activities are supported by tools or instruments. Among other applications, the RELOAD Editor Software [REL03] and the MS LRN Toolkit [LRN01] have been applied and examined in terms of usability and ergonomics. Here, the advantage of employing such editing tools is that the organisation (course structure and sequence) can be changed independently of the resources and vice versa. The RELOAD Editor Software and the LRN Toolkit are very similar as far as their basic functionality is concerned. However, the RELOAD Tool is more comfortable, as it allows for a faster Aggregation of contents and a faster annotation of meta-data. Both editors support the ADL SCORM Version 1.2 specification and thereby allow the application of the AICC CMI Data Model. These tools have been employed in the KM/PM production processes to import the resources, create the meta-data, and define the Building Blocks. By connecting the various SCOs within these blocks, the course sequence can be specified.
4.5
Test
In the final Test Phase, the Content Package has to be assessed in the specific learning environment (i.e. LMS). As already introduced, the Author role is testing the content and its sequence and the Editor role checks if the technical development works correctly.
A Procedural Model for the Production of E-Learning Offerings
897
Here, an interesting test was conducted in the reengineering project, which strongly affected the selection of the editing tool. The content-oriented and structurally defined course has been tested as a Content Package in the tools’ RunTime-Environments RELOAD SCORM Player and LRN Viewer. The objective was to check the messaging behaviour and transfer of variables (using the AICC CMI Datamodel) between the SCO and its environment (usually an LMS). Both packages were complete and running. However, it has been identified, that only the Content Package produced with the LRN Toolkit could be integrated into the final Learning Environment, the VGU’s WebCT platform. This required the project team to package the contents with the LRN Editor, despite the favourable results of the RELOAD Tool. The reason is that the LRN Toolkit uses the (older) IMS Content Packaging Information Model Version 1.1.2 just like the current version of WebCT11. Hence, every tool in the process chain has to be checked, if it allows for the respective standard versions.
5
Evaluation of the Production Process
The last step of the reengineering project required to assess the increased efficiency of the new production process. This assessment has been reduced to the measurement of the process segments that caused the most effort. The original process and the new process have been compared using their process models (EPCs). The part of comparing the amount of process segments (and the derived process activities) is now outlined to illustrate this stage of the reengineering. A comparison of the amount of process segments of the original and the new process showed that the complexity in terms of steps could not be reduced. In the Macro-Stage Development, the original process contains seven steps (content development and formatting, creation of image-assets, creation of audio-based HTML-pages, creation of special HTML-pages, creation of Handouts, creation of glossary, and creation of the course structure in WebCT) versus eight steps for the new process (content development and formatting, creation of image-assets, development of XML-documents, development of HTML-pages (SCOs) and the raw version of the Handout, creation of glossary, finalising of the Handout, Creation of the Content Packages, and Migration into WebCT). To extend this comparison, the time needed by the various process steps has been measured. The following evaluation only considers the part of the Learning Objects that have been changed in the new process, i.e. the step of SCO-production. Special Micro-Layer processes like video-based Asset-Production are not in-
11
Quite opposite to the RELOAD Editor, which is supporting the new version IMS Content Packaging Information Model Version 1.1.3.
898
C. Müller, M. Trier
cluded. The new process is taking 72 minutes less to execute as the original production process12. This rather small improvement of 12 percent assumes that the contents are completely new and produced for the first time. However, the comparison should also take into account the time needed to change the actual content material (as an indicator of flexibility). Now, by comparing the old and new production processes of the actual HTML-pages, the new process is clearly advantageous. In the original process, the Editor role needs 106 minutes for the generation of the script and the HTML-pages. With the new process (including tools like the vbc.contentTRANSFORMER), the time needed is reduced to 34 minutes. This equals a time saving of about 70 percent. Further, it should be considered, that the generation of Learning Objects in a SCORM- or IMS-compliant format and its import into an LMS is also saving production time. The organisation of the course sequence has to be conducted only once, because the use of editing tools separates the course’s organisation from the resources. Hence, if resources should need to be replaced (i.e. changing HTML-pages), the already existing course structure would automatically be imported. The initial effort is thus quite high, but afterwards changes in the content structure require only little work on the Content Package.
6
Conclusion
In modern and competitive E-Learning offerings, issues like sustainability and efficiency are growing in their importance. To assess the existing E-Learning production processes, this article introduced a reengineering method consisting of five phases and leading to an improved and standard-compliant structure. By examining a sub-initiative of the BMBF-project ‘MBI - International Master of Business Informatics’, this procedure has been illustrated. This included the application of an instrument to analyse and evaluate the existing E-Learning processes. Further, a Procedural Model to support the Production of reusable and standardcompliant E-Learning Offerings (PELO-Model) has been introduced. Its segregation into a Macro- and a Micro-Layer ensures both, a generic procedural model, which on the Macro-Layer can easily be adapted for the individual scenario, and the specification of detailed procedures on the Micro-Layer. By analysing the SCO-production process of the KM and PM E-Learning offering, it could be shown, that efficiency can be increased with the proposed method. Future research aims at adding further Micro-processes to complete the model for more variable applications and specific guidance in the field of E-Learning content production.
12
The complete process for the production of the whole course is 600 minutes in the original structure versus 528 minutes with the new process.
A Procedural Model for the Production of E-Learning Offerings
899
References [ADL03] Advanced Distributed Learning: SCORM Overview. http://www.adlnet.org /index.cfm?fuseaction=scormabt, 2003, Download 2003-12-12. [ADL04] Advanced Distributed Learning: Sharable Content Object Reference Model Version 1.3 – Sequencing & Navigation. http://www.adlnet.org/index.cfm?fuseaction= scormabt, 2004, Download 2004-02-02. [Apa04] The Apache Software Foundation: Xalan-Java version 2.6.0. http://xml.apache. org/xalan-j/, 2004, Download 2004-01-15. + [Bol 02] Boling, Dr. J. et al.: The SCORM Implementation Guide: A Step by Step Approach. Advanced Distributed Learning. http://www.adlnet.org/, 2002, Download 200401-04.
[Bmbf00] bmb+f: Funding Programs New Media in Education. Teaching and Learning Software. Procpect. http://www.pt-dlr.de/PT-DLR/nmb/Programm/BMBF_NEUE_ ME DIEN_ENG.PDF, 2000, Download 2003-12-12. [Cis03] Cisco Systems Inc.: Reusable Learning Object Strategy: Designing and Developing Learning Objects for Multiple Learning Approaches. White Paper. http://business.cisco. com/servletwl3/FileDownloader/iqprd/104108/104108_kbns.pdf, 2003, Download 2003-12-01. [Cis03B] Cisco Systems Inc.: Reusable Learning Objects Authoring Guidelines: How to Build Modules, Lessons, Topic. White Paper. http://business.cisco.com/servletwl3/ FileDownloader/iqprd/104119/104119_kbns.pdf, 2003, Download 2004-02-10. [CoRo02] Collier G., Robson R.: e-Learning Interoperability Standards. White Paper. Sun Microsystems, Inc. http://www.sun.com/products-n-solutions/edu/elearning/eLearning_ Interoperability_Standards_wp.pdf, 2002, Download 2004-02-15. [Deg03] Degel, G.: Nachhaltigkeit von e-Learning Projekten: Erfahrungen und Erwartungen am Beispiel DaMiT (in German). http://damit.dfki.de/html/publikationen/Nachhaltigkeit.pdf, 2003, Download 2004-05-15. [Eis04] Eisenberg, D. J.: OpenOffice.org XML Essentials. O’Reilly & Associates. http://books.evc-cit.info/, 2004, Download 2003-11-11. [Gers03] Gersdorf, R.: Eine Content Management-Architektur für die Umsetzung verteilter Redaktionsprozesse bei der Erstellung wieder verwendbarer Inhalte für das eLearning (in German). In: Uhr, W. et al. (Edt.) Business Informatics 2003/Volume I. PhysicaVerlag: Heidelberg, 2003, pp. 633-652. [Gra+04] Graumann S., Neinert, F., Gräfe, B., Kahre S.: BMWA-Monitoring Informationswirtschaft (in German). http://www.bmwi.de/Navigation/Unternehmer/e-business, did=5876.html, 2004, Download 2004-05-25. [HaHo04] Haas C., Hoppe U.: Erfolgsfaktoren für nachhaltige E-Learning-Projekte (in German). http://www.fzg.uni-vechta.de/mitarbeiter/schiewe/papers/24_haas_hoppe.pdf, 2004, Download 2004-06-15.
900
C. Müller, M. Trier
[Hor01] Horton W.: Standards for E-Learning. A Consumers’ Guide. William Horton Consulting. http://208.139.207.103/pdffiles/STD_01_preview.zip, 2001, Download 200402-15. [Jec03] Jeckle M.: Vorlesung XML (in German). Lectures Notes. http://www.jeckle.de, 2003, Download 2004-01-03. [Jon03] Jones E.: Dr. Ed’s SCORM Course. Online Course. JCA Solutions, Jones Caudill & Associates Inc. http://www.jcasolutions.com, 2001, Download 2003-09-09. [Kai01] Kaiser R.: Analyse und Anwendung von Standards für e-Learning-Umgebungen unter besonderer Berücksichtigung des SCORM-Modells (in German). Diploma Thesis. http://cbl.fh-hagenberg.at/ links/Diplomarbeit08pdf.pdf, 2001, Download 2003-10-05. [Kra+03] Krallmann, H., Müller, C., Trier, M.: Wiederverwendbarer E-Learning Content mit ontologiegestützten Learning Content Management Systemen (in German). Unpublished Working Paper. TU Berlin. 2003. [LRN01] Microsoft Corporation: Learning Resource iNterchange (LRN 3.0) Toolkit Solution Papers and Tutorial. Product Information. http://www.microsoft.com/technet/ itsolutions/education/toolkits/lrntoolkit/default.mspx, 2001, Download 2003-10-04. [LSAL03] Learning Systems Architecture Lab: SCORM Best Practice Guide for Content Developers. Carnegie Mellon University. http://wwwlsal.cmu.edu/lsal/expertise/projects/developersguide/, 2003, Download 2003-12-03. [Oest95] Österle, H.: Business Engineering: Prozess- und Systementwicklung (in German). Volume 1. Springer: Berlin et al., 1995. [REL03] RELOAD: Reusable eLearning Object Authoring & Delivery. http://www.reload. ac.uk/, 2004, Download 2003-10-05. [Rob01] Robson R.: Learning Object Tutorial. Eduworks Corporation. http://www.edu works.com/LOTT/tutorial/index.html, 2001, Download 2004-01-03. [Sai02] Sailer-Burckhardt R. et al.: IntEgrated Learning – Strategien und Vorteile für ein erfolgreiches E-Learning in der Praxis (in German). SmartBooks Publishing AG: Kösel et al., 2002. [Saut02] Sauter C.: E-Learning- Integraler Bestandteil der zukünftigen E-Generation (in German). http://www.uni-paderborn.de/cs/kooperation/elt/vortraege/PB-ELT20020424sauter.pdf, 2002, Download 2004-01-30. [Trie+03] Trier M., Herzog M., Krallmann H.: Der „Short-Clip“ Ansatz zur Produktion von E-Learning Video-Content für die VGU (in German). In: Uhr, W. et al. (Edt.) Business Informatics 2003/Volume I. Physica-Verlag: Heidelberg, 2003, pp.863-882. [VGU04] Virtual Global University: School of Business Informatics. www.vg-u.de, 2004, Download 2004-05-10.
Transaktionsautomatisierung im E-Learning Markus Schmees Universität Oldenburg
Zusammenfassung: Umsetzung und Durchführung beliebiger E-LearningMaßnahmen sind i.d.R. mit hohen Kosten verbunden. Deshalb sind Erlösmodelle notwendig, die helfen, auftretende Kosten auszugleichen. Bisher fehlt ein Ansatz, derartige Erlösmodelle in elektronische Lernabläufe und insbesondere in Lernplattformen zu integrieren. In dieser Arbeit wird daher ein Instrument konzipiert, dass den Schutz von Funktionalität mit einer automatisierten Durchführung finanzieller Transaktionen kombiniert und mit der Ausführung einer Funktion verbindet. Aufgrund seiner allgemeinen Gestaltung ist dieses Instrument unabhängig von der Art eingesetzter digitaler Lernressourcen und der persönlichen Kontoführung Beteiligter. Es ermöglicht eine Berücksichtigung didaktischer, organisatorischer und ökonomischer Vorgaben und ist damit eine Testumgebung zur Erprobung verschiedenartiger Erlösmodelle im E-Learning. Schlüsselworte: E-Learning, Finanzielle Transaktionen, Lernmanagementsysteme, Umsetzung von Erlösmodellen, Integration von Geschäftsprozessen
1
Einleitung
Lernen ist ein aktiver Prozess, bei dem sich Lernende neues Wissen aneignen [BaPa99]. Aufgrund eigener und zumeist wiederholter Aktivitäten erzielen sie eine meist dauerhafte Verhaltensänderung [Stei01]. Das Lernergebnis repräsentiert eine durch diesen Lernprozess verursachte Veränderung von Lernenden, die aus der Umwandlung von Informationen in verfügbares Wissen oder Können resultiert [Weng00]. Ein Lernkontext fasst Faktoren zusammen, die Auswirkungen auf das Lernergebnis haben. Das sog. E-Learning bezeichnet einen zielgerichteten Einsatz von IKT im Lernkontext [Mina02]. Darin eingesetzte Lernressourcen wie Scripte, Lerneinheiten oder tutorielle Dienste liegen i.d.R. in digitaler Form vor, sind also über Netzwerke hinweg ansprechbar und abrufbar. Dabei handelt es sich um digitale Produkte, näher charakterisiert in [Luxe01] oder [Bole02], und um digitale Dienstleistungen, die z.B. [BrSt02] näher beschreiben. Aufgrund des digitalen Charakters ist kein direkter Kontakt zwischen Anbieter und Empfänger nötig. Lernende können auf diese Weise Lernangebote unabhängig von Ort oder Zeit nutzen. Dies geschieht i.d.R. mit Hilfe von Lernmanagementsystemen (LMS), die auch als Lernportale oder -plattformen bekannt sind [Bau+02]. Während digitale
902
M. Schmees
Dienstleistungen auch eigenständig vorkommen, sind digitale Produkte immer mit digitalen Dienstleistungen verbunden, z.B. zur Recherche oder Auslieferung. Daher genügt zur Berücksichtigung von Lernressourcen und -aktivitäten im ELearning eine Betrachtung digitaler Dienstleistungen. LMS bündeln diese und stellen sie ihren Nutzern in Form von Funktionen zum Ansprechen zur Verfügung. Weiterhin interagieren im E-Learning verschiedene Beteiligte, die Dienstleistungen sowohl erbringen (z.B. Lehrende, Tutoren), als auch beanspruchen (z.B. Lernende). Ist das Angebot kostenlos, sind Beteiligte eher bereit, fremde Dienstleistungen zu nutzen als eigene anzubieten. Insbesondere unter gleichberechtigten Beteiligten ist eine Ausnutzung fremder Ressourcen, das sog. Free-Riding, die Folge [AdHu00]. Ein kostenpflichtiges Angebot beugt diesem Missbrauch vor, da ein Anbieter bei übermäßiger Beanspruchung neue Ressourcen erwerben kann [Gol+01]. Voraussetzung für den Handel sind Geschäftsmodelle, die Geschäftsund Ertragslogik eines Unternehmens repräsentieren und damit die Verbindung zwischen Geschäftsstrategie und -prozessen darstellen [Oste04]. Erlösmodelle sind Teil eines Geschäftsmodells und bilden darin vorgesehene Erlösflüsse ab, z.B. in Form finanzieller Transaktionen. Diese übermitteln in ihrer einfachen Form einen bestimmten Betrag vom Konto eines Senders zum Konto eines Empfängers. In dieser Arbeit wird davon ausgegangen, dass keine Transaktionskosten Markt, Handel oder Verhalten der Beteiligten beeinflussen. Grundlage für einen Handel im E-Learning ist eine funktionierende kommerzielle Infrastruktur, die den Schutz digitaler Güter sicherstellt und eine Umsetzung entsprechender Erlösmodelle erlaubt. Ziel dieser Arbeit ist nicht die Entwicklung eines neuen Geschäftsmodells für das E-Learning, sondern die Konzeption einer konfigurierbaren Testumgebung, die Umsetzung und Erprobung verschiedenartiger Erlösmodelle auf Basis bereits eingesetzter LMS erlaubt. Zur Veranschaulichung sei folgendes Szenario gegeben. Angenommen, eine Hochschule setzt zur Unterstützung der Präsenzlehre ein LMS ein. Mit Hilfe eines Forums soll eine intensive tutorielle Betreuung der Lernenden stattfinden. Um Kosten für Tutoren zu reduzieren und gleichzeitig ihre Motivation zu belohnen, verlangt ein Dozent zur Beantwortung von Fragen im Forum eine Gebühr. Davon geht eine Hälfte an den Dozenten, die andere Hälfte bekommt der Tutor, der als erster eine Frage beantwortet. Das Einfügen von Nachrichten in ein Forum ist eine Funktion, die ein LMS bietet. Dennoch ist die Verknüpfung von Transaktionen mit Funktionen eines LMS sowie ihre bedingte und automatisierte Durchführung im elektronischen Lernkontext bisher nicht vorgesehen. Diese Arbeit stellt in Abschnitt 2 zunächst Gründe und Ziele einer Integration von Geschäftsprozessen in das E-Learning vor. Abschnitt 3 beschreibt ein Konzept, das die Modellierung und Steuerung von Transaktionen sowie ihre automatisierte Abwicklung erlaubt. Darauf aufbauend stellt Abschnitt 4 am Beispiel des LMS Stud.IP die Vorgehensweise bei der Integration des Konzeptes in ein E-LearningSystem vor. Verwandte Ansätze und Arbeiten betrachtet Abschnitt 5, bevor Abschnitt 6 mit einer Zusammenfassung und einem Ausblick schließt.
Transaktionsautomatisierung im E-Learning
2
903
Motivation und Ziele
Der Schutz digitaler Dienstleistungen und die Steuerung einfacher finanzieller Transaktionen sind Voraussetzung für die Umsetzung und Erprobung von Erlösmodellen, Integration geschäftlicher Prozesse in den Lernablauf, Realisierung komplexer Transaktionen, Sicherung von Qualität sowie wirtschaftliches Handeln im E-Learning. Die einzelnen Begründungen werden nachfolgend skizziert. x
Umsetzung von Erlösmodellen: Bei Einführung und Anwendung von ELearning entstehen Kosten, die i. A. sowohl schwer zu bestimmen als auch voneinander abzugrenzen sind [Moon97]. Eine Unterscheidung von einmaligen, laufenden, fixen und variablen Kosten sowie Kosten für Entwicklung, Durchführung, Infrastruktur und Overhead findet sich in [Leh+03]. Typ und Höhe anfallender Kosten hängen i. d. R. von Art, Ausprägung und Umfang einer E-Learning-Maßnahme ab, konkrete Kalkulationen stellen z.B. [Rumb01] oder [Jung03] auf. Voraussetzung zur kontinuierlichen Bereitstellung von E-Learning-Diensten sind Erlösmodelle, die eine nachhaltige Wertschöpfung ermöglichen [Timm98]. Abgesehen von übergeordneten Ansätzen (wie z.B. Subventionierung) fehlt bisher ein Instrument, das eine einfache Umsetzung und Erprobung dieser Erlösmodelle im elektronischen Lernkontext erlaubt.
x
Integration von Geschäftsprozessen: E-Commerce basiert ebenso wie ELearning auf dem gezielten Einsatz von IKT, Geschäftsmodelle bringen beide Konzepte zusammen [HaOt02]. Aus ökonomischer Sicht ist darauf aufbauend die Integration geschäftlicher Prozesse in elektronische Lernabläufe möglich. Eine Lernplattform kann dann, z.B. abhängig vom Verhalten der Nutzer oder auf Basis von Ereignissen, finanzielle Transaktionen vornehmen. Voraussetzung ist ein Instrument, das Modellierung und automatisierte Durchführung von Transaktionen innerhalb von Lernplattformen erlaubt.
x
Modellierung komplexer Transaktionen: Das Erbringen einer einfachen Dienstleistung erfolgt ohne Beteiligung weiterer Dienstleistungen. Komplexe Dienstleistungen bestehen aus einer Menge einfacher oder komplexer Dienstleistungen. Eine kostenpflichtige komplexe Dienstleistung kann somit weitere kostenpflichtige Dienstleistungen beinhalten. Im E-Learning-Bereich erfolgt das Ansprechen einer Dienstleistung durch Aufruf einer zugehörigen Funktion. Ein Instrument ist darum notwendig, das neben der Ausstattung einer Funktion mit einer Transaktionslogik auch die Durchführung komplexer Transaktionen sicherstellt.
x
Sicherung von Qualität: Der Einsatz von IKT trägt zwar zur Sicherung der Qualität im E-Learning bei [ScHe02], dennoch sehen einer Umfrage zufolge 61% der Befragten die Qualität von E-Learning-Angeboten als ausreichend bis schlecht an [Mass02]. Eine transparente Darstellung von Preis und Leistung ermöglicht eine Form der Qualitätssicherung. So ist im Rahmen von
904
M. Schmees
Verbraucherschutz und Markttransparenz davon auszugehen, dass die Sicherung von Qualität durch Marktmechanismen wie z.B. Marktbereinigung erfolgt [Bal+02]. Dazu notwendig ist ein Instrument, das neben der Modellierung und Durchführung von Transaktionen auch die Darstellung von Voraussetzungen übernimmt und ihre Erkundung durch Dritte erlaubt. x
Wirtschaftliches Handeln: Im kostenpflichtigen elektronischen Lernkontext können persönliche Mittel, z.B. in Form von Spielgeld oder Punkten, eingeschränkt sein. Um dennoch größtmöglichen Lernerfolg zu erzielen, sind Beteiligte gezwungen, eigene Mittel zielgerichtet einzusetzen. Neben der Möglichkeit wirtschaftlich zu handeln erhalten sie damit eine größere Eigenverantwortung für den persönlichen Lernerfolg. Gehen Lernende verschwenderisch mit ihren Mitteln um und nehmen z.B. Dienste wahr, die nicht zum Lernerfolg führen, machen sie dies auf eigene Rechnung. In diesem Fall müssen sie z.B. an anderer Stelle Einsparungen vornehmen, um dennoch ein benötigtes Lernergebnis zu erzielen. Dies reduziert einerseits die Ausnutzung von Ressourcen, die nicht zwingend zum Lernerfolg beitragen. Andererseits erhalten Nutzer die Möglichkeit, durch selbstbestimmte Verteilung von Mitteln Lernressourcen zu nutzen, die ihre persönliche Interessenlage repräsentieren. Voraussetzung ist ein Instrument, das ein Ansprechen von Lernressourcen, die Steuerung von Transaktionen und die persönliche Kontoführung beteiligter Nutzer zusammenbringt.
Um diese Ziele zu erreichen ist ein Instrument notwendig, das die von einem LMS angebotenen Funktionen (und damit Lernressourcen) vor unbefugten Zugriffen schützt und die Modellierung, Steuerung sowie automatisierte Durchführung komplexer Transaktionen im elektronischen Lernkontext erlaubt. Der folgende Abschnitt stellt das zugehörige Konzept vor.
3
Konzeption
Voraussetzung zur Verknüpfung finanzieller Transaktionen mit der Erbringung digitaler Dienstleistungen im E-Learning-Bereich ist ein System, das diese Dienstleistungen in Form von Funktionen zum Ansprechen anbietet. Dabei handelt es sich i.d.R. um ein LMS. Das in dieser Arbeit vorgestellte Konzept beruht auf einer solchen Menge von Funktionen (und dadurch repräsentierte Lernaktivitäten) und erfüllt darauf aufbauend insbesondere zwei Anforderungen. Zum einen schützt es den Zugriff auf diese Funktionen und erlaubt ihre Ausführung nur berechtigten Nutzern oder Systemen. Zum anderen verknüpft es die Ausführung einer Funktion mit der Durchführung finanzieller Transaktionen. Schutzmechanismen sorgen dafür, dass nur befugte Nutzer oder Systeme eine Funktion ausführen dürfen. Eine Transaktionslogik hingegen bestimmt Sender,
Transaktionsautomatisierung im E-Learning
905
Empfänger und Höhe einer finanziellen Transaktion und übernimmt ihre Durchführung. Die Integration von Schutzmechanismen und Transaktionslogik in eine Menge bestehender Funktionen muss jedoch bestimmte Anforderungen erfüllen. So darf ihr Zufügen die ursprüngliche Funktionalität einer Funktion nicht verändern und muss ihre Implementierung weitgehend erhalten. Der Aufruf einer Funktion darf nicht verändert werden, um ein problemloses Ansprechen zu gewährleisten und eine Anpassung zugreifender Anwendungen zu vermeiden. Um problemlos auf Änderungen geschäftlicher Vorgaben im Lernkontext zu reagieren, müssen Schutz und Freigabe beliebiger Funktionen auch im Nachhinein ohne großen Aufwand möglich sein. Ein Zielsystem muss dazu sowohl ursprüngliche als auch erweiterte Funktionen verarbeiten können. Um Funktionen vor unbefugten Zugriffen zu schützen, muss eine Ausstattung mit Schutzmechanismen unabhängig von der Ausstattung mit Transaktionslogik möglich sein. Um jedoch ein unbeabsichtigtes Ansprechen und Auslösen von Transaktionen zu vermeiden und das dazu notwendige Einverständnis eines Nutzers sicherzustellen, müssen die mit Transaktionslogik ausgestatteten Funktionen gleichzeitig Schutzmechanismen erhalten. Zudem ist die Verknüpfung mehrerer Transaktionen mit der Ausführung einer Funktion vorzusehen, um größtmögliche Flexibilität bei der Modellierung von Transaktionen zu erhalten. Um Sender, Empfänger und Höhe einer Transaktion auf bestimmte Bedingungen abzubilden, die sich z.B. während der Ausführung einer Funktion ergeben, müssen Modellierung und Durchführung bedingter Transaktionen möglich sein. Zudem darf eine Durchführung erst nach erfolgreicher Ausführung einer Funktion erfolgen, um im Fall eines Fehlers die Transaktion zu vermeiden. Abschnitt 3.1 beschreibt die grundlegende Idee, um die genannten Anforderungen zu erfüllen, nämlich eine Ausstattung von Funktionen mit Prolog und Epilog. Auf diese Weise ist es möglich, bestehende Funktionalität mit einer Rechteverwaltung und interner Abrechnung zu verbinden. Die Modellierung finanzieller Transaktionen beschreibt Abschnitt 3.2. Ihre Kombination mit Rechten und Gültigkeiten erfolgt über Lizenzen, näher aufgeführt in Abschnitt 3.3. Abschnitt 3.4 beschreibt darauf aufbauend die Vorgehensweise bei der Zuteilung und Beanspruchung von Lizenzen. Abschnitt 3.5 schließlich zeigt eine Übersicht über die angedachte Architektur des Gesamtsystems.
3.1
Ausstattung von Funktionen mit Prolog und Epilog
Aus den vorab dargestellten Anforderungen geht hervor, dass Schutzmechanismen bereits vor Ausführung einer Funktion greifen müssen, die Transaktionslogik jedoch erst nach ihrer erfolgreichen Ausführung zum Einsatz kommt. Die grundlegende Idee des vorgestellten Konzeptes ist daher, ursprüngliche Funktionen mit einem Prolog auszustatten, der ihren Schutz übernimmt, sowie einem Epilog, der für die finanziellen Transaktionen zuständig ist.
906
M. Schmees
Der Unterschied zwischen ursprünglichen und erweiterten Funktionen ist auf der linken Seite in Abb. 1 illustriert. Ursprüngliche Funktionen repräsentieren die von einem bestehenden System angebotene Funktionalität. Zugriff darauf ist im Rahmen des Systems möglich, ein zusätzlicher Schutz bzw. eine Verbindung dieser Funktionen mit der Durchführung von Transaktionen i.d.R. nicht vorgesehen. Erweiterte Funktionen sind ursprüngliche Funktionen, die zusätzlich mit Prolog und Epilog ausgestattet sind. Auf diese Weise bleibt ihre Funktionalität erhalten, ebenso die Art ihres Aufrufs. Während ein Prolog in erster Linie für die Klärung von Voraussetzungen zuständig ist, muss der Epilog nach Ausführung der Funktion bestimmte Nachbedingungen herstellen. Erweiterte Funktion ausführen
Funktionsaufruf
Funktion
Auf Prolog prüfen
Prolog ausführen
Funktionsaufruf
Rechteverwaltung
Interne Abrechnung
Funktion ausführen
[Erfolgreich]
[Fehlge-
Epilog ausführen
schlagen]
schlagen]
Funktion Epilog
[Kein Epilog] [Epilog vorhanden]
[Erfolgreich] [Fehlge-
Erweiterte Funktion
Auf Epilog prüfen
[Kein Prolog]
[Prolog vorhanden]
Ursprüngliche Funktion
Prolog
Funktion anfordern
[Fehlgeschlagen]
[Erfolgreich]
Fehlerbehandlung
Abbildung 1: Ausstattung einer Funktion mit Prolog und Epilog
Die Vorgehensweise bei der Ausführung einer erweiterten Funktion ist in Form eines UML-Aktivitätsdiagramms auf der rechten Seite in Abb. 1 dargestellt. Nach Anforderung einer Funktion ist zunächst festzustellen, ob ein zugehöriger Prolog existiert. In diesem Fall klärt er notwendige Vorbedingungen ab, z.B. ob bestimmte Nutzer oder Systeme das Recht haben, die aufgerufene Funktion auszuführen. Voraussetzung dazu ist eine Rechteverwaltung, die eine Verbindung zwischen Rechten, Funktionen und Nutzern herstellt. Weiterhin prüft der Prolog, ob ein Nutzer seine Zustimmung zur Transaktion gegeben hat. Er versucht die Attribute spezifizierter Transaktionen vorab zu bestimmen und prüft, ob ihre Durchführung im Nachhinein überhaupt möglich ist. Sind sämtliche Vorbedingungen erfüllt und das Recht auf Zugriff vorhanden, folgt die Ausführung der Funktion. Ansonsten bricht der Prolog mit einem Fehler ab. Treten hingegen innerhalb der Funktion Fehler auf, bricht sie ihre Ausführung ab und der anschließende Epilog wird nicht erreicht. Somit findet auch keine zugehörige Transaktion statt. Ansonsten folgt im Anschluss an die Ausführung die Ermittlung des zugehörigen Epilogs und, wenn dieser existiert, seine Ausführung. Dort erfolgt das endgültige Festlegen von Transaktionsattributen und die Durchführung zugehöriger Transaktionen. Voraus-
Transaktionsautomatisierung im E-Learning
907
setzung dazu ist eine interne Abrechnung, die interne Konten der beteiligten Nutzer oder Systeme verwaltet. Der Prolog dient also dem Schutz von Funktionalität, der Epilog ist für die automatisierte Durchführung der Transaktionen zuständig. Da ein bezahlender Nutzer immer sein Einverständnis zur Durchführung einer Transaktion geben muss, sind Funktionen, die nur einen Epilog aber keinen Prolog besitzen, im Rahmen des hier vorgestellten Konzeptes nicht vorgesehen. Ebenso wurde von der dynamischen Änderung der Transaktionsattribute im Verlauf der Funktionsausführung abgesehen, da ein zahlender Nutzer am Ende der Funktion dieser veränderten Transaktion erneut zustimmen müsste. Eine Möglichkeit zur Spezifikation und Darstellung bedingter finanzieller Transaktionen beschreibt der folgende Abschnitt.
3.2
Modellierung bedingter finanzieller Transaktionen
Grundlage dieser Arbeit ist die automatisierte Durchführung finanzieller Transaktionen, und zwar nach Ausführung einer auslösenden Funktion. Der Epilog stellt dabei einen Zusammenhang zwischen der Funktion und einer Menge zugehöriger Transaktionen her. Auf diese Weise kann die Spezifikation finanzieller Transaktionen unabhängig von bestimmten Funktionen erfolgen. Die Durchführung einer Transaktion ist nicht in jedem Fall notwendig, sondern hängt von Vorbedingungen ab, die sich im Verlauf der Funktionsausführung ergeben können. Eine Spezifikation dieser Vorbedingungen ist damit ebenfalls Teil einer Transaktion. Um Funktionen und Transaktionen einander zuzuordnen, muss die Spezifikation von Transaktionen und Vorbedingungen vorab erfolgen. Prüfungspunkte 70 Universität Oldenburg 12345 Dozent Müller 54321 100.00 Euro
Abbildung 2: Spezifikation von Transaktionen
908
M. Schmees
Zur Spezifikation bedingter finanzieller Transaktionen wurde ein XML-Schema geschaffen, das Abb. 2 auf der rechten Seite in XMLSpy1-Notation darstellt. Durch das XML-Schema existiert eine einheitliche Darstellung bedingter finanzieller Transaktionen. Auf diese Weise ist einerseits die Spezifikation von Transaktionen durch dritte Stellen, z.B. eine Hochschule, möglich. Andererseits erlaubt diese Form der Darstellung auch eine einfache Veröffentlichung von Transaktionen sowie ihre Erkundung durch Nutzer oder Organisationen, die an ihrer Durchführung beteiligt sind. Die Elemente einer bedingten finanziellen Transaktion, dargestellt als ConditionalTransaction, sind die Folgenden: x
ComplexCondition: Spezifiziert die Vorbedingung, die erfüllt sein muss, damit die zugehörige Transaktion durchgeführt wird. Diese Angabe ist optional - wird sie weggelassen, erfolgt die Durchführung der Transaktion immer. Eine komplexe Vorbedingung kann aus weiteren komplexen oder einfachen Bedingungen bestehen, die über logische UND, ODER oder NOT-Operatoren miteinander verknüpft sind. Eine einfache Bedingung entspricht der bereits im Umfeld von Mehrbenutzerkontexten von [Habe03] als wichtig identifizierten Attributbedingung. Diese erlaubt den Vergleich eines Referenzattributs (ReferenceAttribute) aus dem Kontext des ursprünglichen Systems mit einem Vergleichswert (ComparativeValue). Voraussetzung dazu ist die Verwendung einer Attributauswertung, die Abfrage und Vergleich von Attributen oder Zuständen des zugrunde liegenden Systems ermöglicht.
x
Sender/Recipient: Erlaubt Angaben über Sender und Empfänger einer finanziellen Transaktion, insbesondere den Namen oder eine Beschreibung (Title) sowie einen Identifikator (Identification), um eine eindeutige Zuordnung zu einem internen Konto vornehmen zu können. Auch Gruppen, Kurse, Systeme oder weitere Organisationen können ein Konto besitzen und so in den Abrechnungsprozess integriert werden. Voraussetzung dazu ist die Verwaltung interner Konten. Diese ist im vorgestellten Fall durch die interne Abrechnung realisiert.
x
Amount: Gibt die Höhe (Amount) der zugehörigen Transaktion an, ebenso die Währung (Currency), in der diese Transaktion stattfinden soll.
x
Clearing: Bestimmt Art und Weise, in der ein Ausgleich des internen Kontos eines Senders stattfinden soll. Erfolgt die Angabe PrePaid, muss dieses Konto den zu zahlenden Betrag bereits enthalten, damit die Transaktion stattfinden kann. Bei PayNow erfolgt ein Ausgleich des internen Kontos mit dem persönlichen Konto eines Nutzers zum Zeitpunkt der Transaktion. Ist hingegen PayLater angegeben, erfolgt dieser Ausgleich später, z.B. am Ende eines Monats. Das Konto darf in diesem Fall auch mit negativen Beträgen belastet sein. Voraussetzung ist eine externe Bezahlung, die in Verbindung mit der internen Abrechnung den Ausgleich interner Konten erlaubt.
1
http://www.xmlspy.com/
Transaktionsautomatisierung im E-Learning
909
Auf der linken Seite in Abb. 2 ist ein Beispiel für eine einfache bedingte Transaktion dargestellt. In diesem Fall übermittelt die Universität Oldenburg mit der Kontonummer 12345 dem Dozenten Müller mit dem Konto 54321 einen Betrag von € 100,00. Das Konto der Universität muss diesen Betrag vorab enthalten und die Transaktion wird nur ausgeführt, wenn in einer Prüfung mehr als 70 Punkte erreicht wurden, ausgedrückt durch das Attribut Prüfungspunkte. Transaktion durchführen
Transaktion prüfen
Vorbedingung
Transaktion
Funktion
prüfen
prüfen
prüfen
[Fehlgeschlagen]
[Ungültig] [Erfüllt, nicht vorhanden]
Betrag
Transaktionen
art prüfen
übertragen
bestimmen
[Fehlgeschlagen]
Externe
Deckung von
Bezahldaten
internem
[Keine vorhanden]
[Erfolgreich]
[Vorhanden]
Abrechnungs-
Transaktionen
art prüfen
durchführen
Konto prüfen
[PrePaid, PayLater]
[Gedeckt]
[Erfolg[Kontoausgleich reich] nicht möglich]
[Geschützt]
Abrechnungs-
[PrePaid ]
[Kontoausgleich möglich]
[Ungeschützt]
[Erfolgreich]
[PayNow, PayLater]
prüfen
Epilog ausführen
[Erfolgreich]
[Fehlgeschlagen]
[PayNow]
[Ungedeckt]
[Erfolgreich]
Quellkonto ausgleichen
[Fehlgeschlagen]
[Erfolgreich]
[Erfolgreich]
[Fehlgeschlagen] Quellkonto sperren
[Fehlgeschlagen]
Abbildung 3: Durchführung von Transaktionen
Die Vorgehensweise bei der Ausführung eines Epilogs ist auf der rechten Seite in Abb. 3 dargestellt. Zunächst prüft der Epilog, ob die gerade ausgeführte Funktion eine geschützte Funktion ist. In diesem Fall können zugehörige Transaktionen existieren, die zunächst zu bestimmen und dann durchzuführen sind. Die Durchführung einer Transaktion ist in der Mitte auf Abb. 3 illustriert. Ihr geht eine Prüfung der Transaktion voran, dargestellt auf der linken Seite. Sind angegebene Vorbedingungen erfüllt, richtet sich die weitere Vorgehensweise nach der spezifizierten Art der Abrechnung. Im Fall von PrePaid muss der zu transferierende Betrag bereits auf dem internen Konto des zahlenden Nutzers sein. Bei PayNow oder PayLater erfolgt der Ausgleich dieses Kontos bei oder nach Durchführung der Transaktion. Auf diese Weise können z.B. geringfügige Zahlungen über einen Zeitraum gesammelt und erst dann eingefordert werden. Voraussetzung zum Ausgleich eines internen Kontos ist die Angabe gültiger Daten, die das Ansprechen eines externen Bezahlsystems ermöglichen. Die Prüfung einer Transaktion ist dann erfolgreich, wenn diese Daten gültig sind und mit ihrer Hilfe ein Ausgleich des internen Kontos möglich ist. Nach erfolgreicher Prüfung einer Transaktion überträgt der Epilog den spezifizierten Betrag vom internen Konto des Senders auf das interne Konto des Empfängers. Abhängig von der Abrechnungsart ist der Ausgleich des
910
M. Schmees
Empfängerkontos bereits erfolgt (PrePaid), findet später statt (PayLater) oder ist aktuell durchzuführen (PayNow). Schlägt dieser Ausgleich jedoch fehl, da z.B. ein externes Konto nicht hinreichend gedeckt ist, erfolgt eine Sperrung des internen Kontos, und zwar solange, bis sein Inhaber gültige Bezahldaten angibt oder diesen Ausgleich manuell vornimmt. Mit Hilfe des vorgegebenen Formats ist es möglich, bedingte finanzielle Transaktionen zu spezifizieren. Dritte Stellen, z.B. die Nutzer einer Funktion, können auf diese Weise zugeordnete Transaktionen verstehen und resultierende Konsequenzen abschätzen. Bereits vor Ausführung einer Funktion erlauben die zugehörigen Transaktionen eine Einschätzung, ob ihre Durchführung überhaupt möglich ist. Ist dies nicht der Fall, erhält der Nutzer keinen Zugriff auf die Funktion. Für die Spezifikation ist eine Komponente vorgesehen, ebenso für die Ausführung des Epilogs. Eine Attributkomponente übernimmt die Abfrage systeminterner Attribute und erlaubt damit die Überprüfung von Attributbedingungen. Zum Ausgleich eines internen Kontos muss das Ansprechen externer Bezahlsysteme möglich sein. Diesen Zweck erfüllt eine Bezahlkomponente. Da ein zahlender Nutzer vorab mit der Durchführung einer Transaktion einverstanden sein muss, darf die Ausführung einer Funktion nur erfolgen, wenn diese Genehmigung vorliegt. Um das Recht auf Ausführung mit aufrufenden Nutzern und Transaktionen zu verknüpfen, erfolgt ein Einsatz von Lizenzen. Der folgende Abschnitt geht näher darauf ein.
3.3
Kapselung von Rechten und Gültigkeiten in Lizenzen
Eine Beschränkung des Zugriffs auf Funktionen und damit auf digitale Dienstleistungen kann didaktischen, organisatorischen oder finanziellen Hintergrund haben. Während didaktische Vorgaben z.B. festlegen, welche Lerneinheiten durchgearbeitet sein müssen, bevor eine zugehörige Prüfung durchgeführt werden darf, bilden organisatorische Vorgaben z.B. generelle Ordnungen oder Regelungen einer Hochschule nach. Finanzielle Vorgaben hingegen besagen, dass z.B. Nutzer erst dann Zugriff auf bestimmte Funktionen bekommen, wenn sie zuvor dafür bezahlt oder sich mit einer anschließenden Bezahlung einverstanden erklärt haben. Hinzu kommt, dass für verschiedene Nutzer unterschiedliche Vorgaben gelten können. Nutzer oder Systeme dürfen also erst dann eine Funktion ausführen, wenn sie das Recht dazu haben und festgelegte Vorbedingungen erfüllt sind. Um abstrakte Rechte mit Personen und Gültigkeiten zu verbinden, erfolgt ein Einsatz von Lizenzen. Diese geben an, ob und wann welcher Nutzer auf welche Dienste zugreifen darf. Sie verknüpfen dieses Recht mit Gültigkeiten wie Vorbedingungen, Zielgruppen oder Verbrauchswerten. Dieser Ansatz wurde bereits bei der Konzeption kostenpflichtiger Web Services in Form verschiedener Lizenztypen erprobt [BoSc03]. Lizenzen, deren Einsatz Grundlage für eine Automatisierung von Transaktionen ist, spezifizieren im Rahmen dieser Arbeit folgende Elemente:
Transaktionsautomatisierung im E-Learning
911
x
Inhaber: Besitzer verfügen über eine Lizenz und können sie, falls nötig, widerrufen oder ändern. I.d.R. sind dies Nutzer oder Organisationen, die für Kosten aufkommen, welche im Rahmen zugehöriger Transaktionen entstehen.
x
Zielgruppe: Gibt konkret an, wer eine Lizenz beanspruchen und nutzen darf, z.B. einzelne Nutzer, Gruppen, Kurse oder ganze Systeme. Weiterhin sind Kombinationen daraus oder Lizenzen mit unbeschränkter Gültigkeit möglich.
x
Zielfunktion: Spezifiziert die konkrete Funktion, für die eine Lizenz gilt, und zwar unter Berücksichtigung verschiedener Parameter, die zur Steuerung und zum Ansprechen der Funktion beitragen.
x
Vorbedingungen: Angabe einer komplexen Vorbedingung als Grundlage zur Beanspruchung einer Lizenz. Nur wenn diese Vorbedingung erfüllt ist, ist eine Nutzung der Lizenz möglich. In Verbindung mit Zielfunktion und Nutzer realisiert eine Vorbedingung den für den aktuellen Fall spezifizierten Prolog.
x
Verbrauch: Legt die Intensität fest, in der eine Lizenz beansprucht und damit eine Funktion ausgeführt werden darf. Verbrauchswerte sind z.B. Menge (PayPerUse), Zeit (PayPerTime), Parametergröße, -anzahl oder ein Ressourcenwert. Eine Kombination dieser Verbrauchsgrößen innerhalb einer Lizenz ist ebenso möglich wie unbeschränkte Lizenzen ohne Verbrauch.
x
Transaktionen: Eine Menge bedingter finanzieller Transaktionen, die im Zusammenhang mit der Zielfunktion auszuführen sind. Ihre Spezifikation erfolgt im Voraus, so dass sie bei Aufruf einer Zielfunktion bereits feststehen. Ihre bedingte Ausführung entspricht dem Epilog der Zielfunktion.
Lizenzen verbinden das Recht auf Ausführung einer Funktion mit bestimmten Nutzern. Ebenso spezifizieren sie den zu Funktion und Nutzer zugehörigen Prolog und Epilog. Auf diese Weise erhält eine Funktion individuell angepasste Pro- und Epiloge, jeweils abhängig vom aufrufenden Nutzer. Eine Spezifikation von Vorbedingungen und Transaktionen kann durch dritte und unabhängige Stellen erfolgen, z.B. Fachdidakten im E-Learning-Umfeld. Da die Ausführung einer Funktion Auswirkung auf Attributwerte und damit die Vorbedingung einer Transaktion haben kann, trägt sie zu deren Steuerung bei. Lizenzen repräsentieren weiterhin das Einverständnis ihrer Inhaber zur Durchführung zugehöriger Transaktionen. Ist eine Funktion geschützt, kann sie nur der Nutzer ausführen, für den eine entsprechende Lizenz vorliegt. Der folgende Abschnitt beschäftigt sich näher mit dem Vorgang der Zuteilung und Verwendung von Lizenzen.
3.4
Zuteilung und Verwendung von Lizenzen
Ist eine Funktion geschützt, können Nutzer oder Systeme nur dann darauf zugreifen, wenn sie der Zielgruppe einer zugehörigen und gültigen Lizenz angehören. Bei der Zuteilung einer Lizenz erfolgt ihre Aktivierung sowie eine Zuordnung zu
912
M. Schmees
Inhabern. Eine Zuteilungskomponente nimmt diese Zuteilung automatisiert vor. Voraussetzung dazu sind Angebote, die sämtliche zur Zuteilung notwendigen Informationen darstellen. Sie enthalten insbesondere Zielfunktion, Zielgruppe, Transaktionen und Vorbedingungen. Eine Spezifikation von Angeboten beinhaltet die Auswahl angemessener Transaktionen und erfolgt durch Nutzer oder Systeme, die Verfügungsgewalt über die zugrunde liegende Zielfunktion besitzen. Im einfachen Fall sind diese Anbieter selbst Empfänger der spezifizierten Transaktionen. Akzeptiert ein Nutzer ein derartiges Angebot, erstellt die Zuteilungskomponente auf dessen Basis eine Lizenz. Im Rahmen einer Ökonomisierung des E-Learning muss insbesondere das kostenpflichtige Angebot digitaler Lernressourcen bedacht werden. So ist z.B. nicht jeder Lehrende oder jede Hochschule bereit, Dienste oder Materialien umsonst zur Verfügung zu stellen. Eine kostenpflichtige Gestaltung von Lizenzen erlaubt dies auf einer einfachen Ebene. Die Zuteilung von Lizenzen erfolgt im kostenpflichtigen Fall nicht direkt nach Anforderung und Zustimmung durch einen Nutzer, sondern indirekt nach dessen Bewerbung über Marktmechanismen auf Basis kostenpflichtiger Angebote. Bei der direkten Erlöserzielung stimmen Zielgruppe und Inhaber einer Lizenz überein, im indirekten Fall kommen Inhaber für Transaktionen auf, die eine fremde Zielgruppe auslöst. Auf diese Weise ist eine Umsetzung einfacher Erlösmodelle im E-Learning-Bereich bereits möglich, z.B. das kostenpflichtige Herunterladen digitaler Lernmaterialien oder das Versteigern von Plätzen zu zulassungsbeschränkten Veranstaltungen. Die Vorgehensweise bei der Zuteilung von Lizenzen ist auf der linken Seite in Abb. 4 dargestellt. Nachdem ein Nutzer entsprechende Angebote erkundet und sich für eines entschieden hat, stimmt er damit indirekt den darin enthaltenen Bedingungen und Transaktionen zu. Ist das Angebot kostenpflichtig, findet zunächst eine Preisfindung statt, z.B. als Festpreis, Verhandlung oder Auktion. Erhält der Nutzer daraufhin den Zuschlag, erfolgt die Bezahlung in Form einer einfachen Transaktion. Ist diese ebenfalls erfolgreich, erstellt das System eine Lizenz. Eine Zielgruppe erhält damit das Recht auf Ausführung der Zielfunktion. Umfasst ein Angebot mehrere Transaktionen, müssen sämtliche zahlenden Nutzer zustimmen, damit es zur Zuteilung einer Lizenz kommt. Diese werden dann als Inhaber der Lizenz aufgeführt und können sie bei Bedarf widerrufen. Die Beanspruchung einer Lizenz erfolgt im Rahmen der Durchführung eines Prologs und ist auf der rechten Seite in Abb. 4 illustriert. Nach Aufruf einer Funktion durch einen Nutzer oder ein System folgt die Überprüfung, ob die Funktion öffentlich oder geschützt ist. Während die Freigabe einer öffentlichen Funktion direkt erfolgt, benötigt ein Nutzer zur Ausführung einer geschützten Funktion immer eine zugehörige Lizenz. Der Prolog prüft bei der Lizenz, ob sie sich auf die aufgerufene Funktion bezieht, der aufrufende Nutzer zur Zielgruppe gehört, sämtliche angegebenen Vorbedingungen erfüllt sind, der Verbrauch ausreicht und die angegebenen Transaktionen durchführbar sind. Enthält der Verbrauch einer Lizenz einen Ressourcenwert, ist erst die Ausführung der zugehörigen Funktion nö-
Transaktionsautomatisierung im E-Learning
913
tig, um diesen zu bestimmen und abzuziehen. Eine entsprechende Vorgehensweise ist in [BoSc03] dargestellt und wird im Rahmen dieser Arbeit nicht näher betrachtet. Ist eine Lizenz gültig, wird sie beansprucht, indem der ermittelte vom vorhandenen Verbrauch abgezogen wird. Hat das ebenfalls geklappt, erfolgt die Freigabe der Funktion und der Prolog ist beendet. Lizenz zuteilen
Lizenz beanspruchen
Lizenz prüfen
Prolog ausführen
Angebote
Funktion
Verbrauch
Funktion
erkunden
ermitteln
bestimmen
prüfen
[Nicht zugestimmt] [Zugestimmt]
[Nicht Zielfunktion] [Ist Zielfunktion]
[Lizenz reicht nicht]
[Lizenz reicht]
[Öffentlich] [Fehlgeschlagen]
[Geschützt]
Angebot
Nutzer
Lizenz
prüfen
Verbrauch
prüfen
abziehen
ermitteln
[Erfolgreich]
[Nicht Zielgruppe]
[Kostenfrei] [Kostenpflichtig]
[Ist Zielgruppe]
[Nicht vorhanden] [Vorhanden]
Preis-
Vorbeding-
Lizenz
findung
ungen prüfen
prüfen
[Kein [Ungültig]
[Nicht erfüllt]
Zuschlag] [Zuschlag ]
[Gültig]
[Erfüllt]
Transaktion
Verbrauch
Lizenz
durchführen
prüfen
beanspruchen
[Fehlgeschlagen] [Erfolgreich]
[Fehlgeschlagen]
[Nicht ausreichend]
[Fehlgeschlagen]
[Erfolgreich]
[Ausreichend]
Transaktionen prüfen
Lizenz
Funktion
[Nicht durchführbar]
erstellen [Erfolgreich]
[Durchführbar, Erfolgreich]
freigeben [Fehlgeschlagen]
[Erfolgreich]
Abbildung 4: Zuteilung und Beanspruchung einer Lizenz
Eine Umsetzung komplexer Erlösmodelle, z.B. eine erfolgsabhängige Vergütung für Dozenten oder die Rückerstattung von Studiengebühren auf Basis des Lernerfolgs, ist mit Hilfe automatisierter finanzieller Transaktionen möglich. Ihre Durchführung ist im Zusammenhang mit der Ausführung einer Funktion vorgesehen, nämlich im Epilog. Dieser hat damit direkten Einfluss auf zahlende Nutzer oder Organisationen, da darin modellierte Transaktionen deren Kontostand verändern. Voraussetzung zur Durchführung einer Transaktion ist das Einverständnis der zahlenden Nutzer, die vorab zu einer Funktion zugehörige Transaktionen und deren Auswirkungen kennen müssen. Spezifikation und Veröffentlichung von Transaktionen erfolgen daher innerhalb von Angeboten. Angebote stellen damit einen Zusammenhang zwischen dem Recht auf Ausführung einer Funktion und einer Menge von Transaktionen her. Bereits bei der Erkundung von Angeboten erhalten Interessenten eine Übersicht über Kosten, Vorbedingungen, Transaktionen, darüber ausgedrückte Erlösmodelle sowie Folgen, die im Laufe des Lernprozesses durch ihre Anwendung auftreten. Existieren zu einer Funktion verschiedene Angebote, können Interessenten diese miteinander vergleichen, bevor sie eine Auswahl treffen.
914
M. Schmees
Grundlage für die Spezifikation von Transaktionen und Angeboten ist damit eine Angebotsverwaltung. Ebenso muss ein Zielsystem die Zuteilung von Lizenzen auf Basis dieser Angebote erlauben. Der folgende Abschnitt zeigt zusammenfassend eine Übersicht über die Erweiterung eines ursprünglichen Systems.
3.5
Übersicht über die Gesamtarchitektur
Grundlage für die Automatisierung von Transaktionen im E-Learning ist ein System, das eine Menge von Funktionen zur Ausführung bereitstellt. Um ihre Funktionalität vor unbefugten Zugriffen zu schützen, wird jede Funktion um Prolog und Epilog erweitert. Hinzu kommt eine Systemerweiterung, die sich mit der Verwaltung von Funktionen, Rechten und internen Konten beschäftigt. Eine Übersicht über die Zielarchitektur ist in Abb.5 illustriert. Persönliche
Externe
interne
Bezahldaten
Kontoführung
z.B. Lernender
verwalten
Internes Konto
Interne
Externe Kon-
Abrechnung
toführung
ausgleichen
Funktion 1
Epilog
Prolog
z.B. Externe Banksysteme Funktion aufrufen
Epilog
Funktionen schützen
Funktions-
und freigeben
Funktion 2
Epilog
z.B. Lernender
Prolog
verwaltung z.B. Dozent
Attributauswertung
Angebote und Trans-
..
Angebots-
aktionen spezifizieren
Funktion N
Epilog
Prolog
verwaltung
Prolog
z.B. Fachdidakt Lizenz erwerben,
Lizenz-
Lizenz-
verwaltung
zuteilung
Transaktion zustimmen
z.B. Hochschule
Systemerweiterung
Angepasstes System
Rechte verwalten Aufrufbeziehung
z.B. Lernender
Abbildung 5: Kontrollierter Zugriff auf erweiterte Funktionen
Ruft ein Nutzer eine Funktion auf, kontaktiert der Prolog eine Systemerweiterung und prüft, ob ein Zugriff auf die Funktionalität erlaubt ist. Grundlage der Systemerweiterung ist daher eine Funktionsverwaltung, die angibt, ob eine Funktion geschützt ist, eine Rechteverwaltung, die Aussagen darüber erlaubt, unter welchen Bedingungen welcher Nutzer auf welche Funktionen zugreifen darf, sowie eine interne Abrechnung, die für die Durchführung von Transaktionen zuständig ist. Eine kurze Beschreibung von Komponenten der Systemerweiterung schließt sich nachfolgend an: x
Funktionsverwaltung: Grundlage, um Schutz und Freigabe von Funktionen auf einfache Weise vorzunehmen. Mit ihrer Hilfe überprüft der Prolog, ob ei-
Transaktionsautomatisierung im E-Learning
915
ne Funktion der Rechtekontrolle unterworfen ist und damit eine Lizenz notwendig ist, um sie auszuführen. x
Lizenzverwaltung: Zuständig für Erstellung, Änderung und Verwaltung von Lizenzen, Überprüfung der Gültigkeit sowie ihrer Beanspruchung. Sie realisiert die Rechteverwaltung, die bestimmte Nutzer, Rechte, Gültigkeiten, Vorbedingungen, Funktionen und Transaktionen miteinander verknüpft.
x
Interne Abrechnung: Realisiert eine interne Kontoführung für beteiligte Nutzer oder Systeme und ist zuständig für die Durchführung finanzieller Transaktionen. Sie erlaubt zudem die Überprüfung, ob eine Durchführung von Transaktionen unter aktuellen Bedingungen möglich ist.
x
Prolog und Epilog: Zentrale Komponenten, die für die Ausführung von Prolog und Epilog zuständig sind. Dies ist möglich, da Pro- und Epilog unabhängig von bestimmten Funktionen sind und ihre Ausführung immer in gleicher Weise erfolgt.
x
Attributauswertung: Übernimmt im Rahmen der Ausführung von Pro- oder Epilog die Abfrage von Zuständen und Attributen des ursprünglichen Systems. Sie erlaubt eine Auswertung von Attributbedingungen und ist damit Grundlage für die Ausführung von Funktionen und Transaktionen.
x
Angebotsverwaltung: Erlaubt eine Spezifikation von Angeboten, auf deren Grundlage die Erstellung von Lizenzen möglich ist. Da einzelne Transaktionen im Rahmen von Lizenzen mitverwaltet werden, dient diese Komponente ebenfalls der Spezifikation von Transaktionen. Sie ermöglicht durch ein einheitliches Format eine einfache Spezifikation, Erkundung und den Vergleich mit anderen Angeboten.
x
Lizenzzuteilung: Erstellt nach Auswahl und Zustimmung zu einem Angebot aus den darin spezifizierten Attributen eine Lizenz und teilt diese dem Nutzer zu. Ist eine kostenpflichtige Zuteilung von Lizenzen vorgesehen, übernimmt die Lizenzzuteilung zusätzlich die Preisfindung.
x
Externe Bezahlung: Dient dem Ausgleich eines internen Kontos und übernimmt dazu die Kommunikation mit der persönlichen Kontoführung eines Nutzers oder einer Organisation, z.B. in Form externer Banksysteme. Die Durchführung einer externen Bezahlung und damit der Ausgleich eines internen Kontos erfolgt abhängig von der innerhalb einer Transaktion spezifizierten Art der Abrechnung.
Die im Rahmen dieser Architektur vorgestellte Erweiterung eines ursprünglichen Systems erlaubt die Verwaltung von Lizenzen sowie die automatisierte Durchführung darin spezifizierter Transaktionen. Voraussetzung zum Ansprechen der Systemerweiterung und damit zum Schutz von Funktionen ist die Integration von Prolog und Epilog in ein ursprüngliches System. Der folgende Abschnitt geht darauf an einem konkreten Beispiel näher ein.
916
4
M. Schmees
Vorgehensweise bei der Integration
Das in dieser Arbeit vorgestellte Konzept ist weitgehend unabhängig von geschäftlichen, organisatorischen oder didaktischen Vorgaben, seine Integration daher in verschiedenartige Systeme möglich. Die Universität Oldenburg2 betreibt zur Zeit mit Stud.IP3 Version 1.1 ein serverbasiertes Open-Source LMS, das in der Programmiersprache PHP4 realisiert ist. Am Beispiel von Stud.IP soll im Folgenden kurz aufgezeigt werden, wie bei der Integration des dargestellten Konzeptes in ein konkret eingesetztes System vorzugehen ist. x
Integration von Prolog und Epilog: Die Programmiersprache PHP erlaubt nach Aufruf und vor Ausführung einer Datei zunächst die Ausführung einer in der PHP-Variablen auto_prepend_file angegebenen Datei. Auf diese Weise ist die Integration einer zusätzlichen Datei möglich, die ein Ansprechen und Ausführen des Prologs übernimmt. In gleicher Weise erlaubt die Belegung der PHP-Variablen auto_append_file das Zufügen eines Epilogs. Unabhängig von der Ausführung von Pro- und Epilog bleiben die aktuelle Session und der Aufruf der ursprünglichen Funktion in Form eines Requests zur weiteren Verarbeitung erhalten.
x
Realisierung der Systemerweiterung: Die Realisierung der vorangehend dargestellten Komponenten kann unabhängig vom ursprünglichen System erfolgen. Ist eine Systemerweiterung z.B. in der Programmiersprache Java erstellt, können ihre Funktionen in Form von Web Services veröffentlicht und auf diese Weise über einen entsprechend ausgestatteten Pro- und Epilog mit dem ursprünglichen System gekoppelt werden. Die Attributauswertung hingegen ist die einzige Komponente mit Bezug zur internen Realisierung des ursprünglichen Systems. Sie muss dessen Attribute, Werte und Zustände abfragen können, um so zur Auswertung entsprechender Bedingungen beizutragen. Daher kann die Systemerweiterung auch in der Programmiersprache des ursprünglichen Systems realisiert und diesem zugefügt werden. Auf diese Weise resultiert zudem ein in sich geschlossenes System, das Systembrüche vermeidet.
Das Beispiel Stud.IP zeigt eine einfache Möglichkeit zur Integration des in dieser Arbeit vorgestellten Konzepts in ein bestehendes System. Jede zusätzliche Erweiterung oder Änderung des ursprünglichen Systems ist damit automatisch Teil der zugefügten Systemerweiterung und damit der gleichen Rechtekontrolle bzw. Transaktionsabwicklung unterworfen. Unter Berücksichtigung des dargestellten Konzepts beschreibt der folgende Abschnitt verwandte Arbeiten und Ansätze, die eine gewisse Beziehung und Nähe zur vorgestellten Arbeit haben. 2 3 4
http://www.uni-oldenburg.de/ http://www.studip.de/ http://www.php.net/
Transaktionsautomatisierung im E-Learning
5
917
Verwandte Arbeiten und Ansätze
Digital Rights Management (DRM) Systeme beruhen auf geschützten digitalen Inhalten und der Beschreibung, wer unter welchen Umständen darauf zugreifen darf [Bec+03]. Sobald eine zugehörige Lizenz vorhanden ist, gibt eine Einsatzumgebung (z.B. ein Player) den Zugriff auf diese Inhalte frei. Entsprechende Systeme sind auf digitale Produkte und nicht auf Dienstleistungen ausgerichtet. Ihre Integration in bestehende Abläufe des E-Learning ist daher nicht universell, sondern nur an Stellen möglich, an denen Nutzer auf Inhalte zugreifen. Einen Ansatz zur Spezifikation von Rechten bieten Rechtebeschreibungssprachen z.B. die eXtensible rights Markup Language5 (XrML) [Cont02]. Derartige Beschreibungssprachen berücksichtigen insbesondere den Schutz digitaler Produkte [RoDy03], vernachlässigen jedoch digitale Dienstleistungen. Zudem ist XrML für das vorgestellte Szenario zu mächtig und dementsprechend unübersichtlich. Es berücksichtigt kein automatisiertes Durchführen von Transaktionen, daher wäre eine Erweiterung unumgänglich. Zur Modellierung von Transaktionen stehen ebenfalls verschiedene Spezifikationen zur Verfügung. Die Interactive Financial Exchange6 (IFX) und die Open Financial Exchange7 (OFX) sind XML-Spezifikationen, die elektronische Rechnungslegung und Bezahlung vereinfachen. Sie haben jedoch einen anderen Anwendungsbereich, beziehen sich nämlich auf den Austausch von Bankdaten und Bankdiensten, und sind für die beabsichtigte Nutzung zu komplex. Eine Analyse von Kosten und Nutzen im E-Learning nehmen z.B. [Seib02] oder [Kypr03] vor, mit der Erstellung von Geschäftsmodellen beschäftigen sich z.B. [Seuf01], [Bent02] oder [HoBr03], Beispiele für Geschäftsprozesse bieten z.B. [ObKi00] und [Gut+01]. Abgesehen von übergeordneten Ansätzen (z.B. Subventionierung) fehlt jedoch ein Instrument, das eine Umsetzung geschäftlicher Vorgaben im E-Learning erlaubt, z.B. durch ihre Integration in bestehende LMS. Auf Grundlage eines LMS hingegen beschreiben [ReAp04] das kostenpflichtige Angebot digitaler Kursmaterialien. Sie koppeln dazu die Auslieferungsfunktion für kostenpflichtige Dateien mit einer externen Bezahlung. Sobald die Bezahlung durchgeführt wurde, wird der Verweis auf eine Datei freigegeben und diese kann durch den zahlenden Nutzer heruntergeladen werden. Eine interne Abrechnung ist nicht notwendig, da die Bezahlung direkt erfolgt. Dieser Ansatz berücksichtigt das Ansprechen externer Bezahlsysteme und den Schutz ausgewählter Materialien, ist jedoch für die Automatisierung von Transaktionen und damit für die Umsetzung komplexer ökonomischer Vorgaben nicht allgemein genug.
5 6 7
http://www.xrml.org/ http://www.ifxforum.org/ http://www.ofx.net/
918
6
M. Schmees
Zusammenfassung und Ausblick
Auf der einen Seite hilft E-Learning dabei, bestimmte Kosten einzusparen, die z.B. durch das Versenden von Lernmaterialien beim traditionellen Fernunterricht auftreten. Auf der anderen Seite entstehen jedoch völlig neue Kosten, um z.B. eine technische Infrastruktur bereitzustellen, LMS zu betreiben, Beteiligte zu schulen, laufende Lizenzkosten zu begleichen und/oder Lerninhalte multimedial aufzubereiten. Da bisher genügend öffentliche Mittel zur Verfügung standen, erfolgte der Aufbau einer E-Learning-Infrastruktur oder von Know How in diesem Bereich bisher über Subventionierung, z.B. im Rahmen von Forschungsprojekten. Im Hinblick auf das Auslaufen dieser Förderungen sind jedoch ökonomische Überlegungen notwendig, die ein Weiterführen von E-Learning-Aktivitäten erlauben. Grundlage sind E-Learning-Geschäftsmodelle, die zunächst zu erstellen, dann aber in die E-Learning-Aktivitäten zu integrieren sind. Diese Arbeit stellt ein Konzept vor, dessen Realisierung eine Umsetzung von Erlösmodellen auf Basis bestehender ELearning-Systeme erlaubt. Es erlaubt die Kopplung finanzieller Transaktionen mit der Erbringung digitaler Dienstleistungen. Da es zudem unabhängig von der Art einer persönlichen Kontoführung ist, kann seine Erprobung auch auf Grundlage von Spielgeld oder eines Punktesystems erfolgen. Durch Fokussierung auf eine interne Abrechnung berücksichtigt das vorgestellte Konzept bisher nur die Durchführung finanzieller Transaktionen innerhalb eines Systems. Eine Systemerweiterung kann aber genauso gut mit mehreren und verschiedenen LMS zusammenarbeiten. Sie koppelt die Systeme, indem sie die Verwaltung von Rechten und Durchführung von Transaktionen übernimmt und somit systemübergreifend als Mediator fungiert. Eine weitere Idee ist das Ansprechen externer kostenpflichtiger Funktionen. Dies ist z.B. über das Zufügen von Containerfunktionen möglich, die den Aufruf und die Ausführung externer kostenpflichtiger Funktionen übernehmen. Ein Container kann wie bereits bestehende Funktionen mit Pro- und Epilog ausgestattet werden. Im Rahmen einer PayNowAbrechnung kann dann ein Bezahlsystem angesprochen werden, das den Austausch von Zahlungsmitteln mit dem beteiligten externen System regelt. E-Learning-Systeme und insbesondere LMS entwickeln sich mehr und mehr zur zentralen Plattform einer Hochschule. Sie dienen als Grundlage für die Integration anderer Hochschulsysteme, z.B. Prüfungsverwaltung, Lehrveranstaltungsplanung, Authentifizierung usw. Die Zusammenführung verschiedener Dienste einer oder mehrerer Hochschulen verknüpft eine Menge an Funktionalität miteinander. Der Schutz entsprechender Funktionen vor Missbrauch und ihre Integration in vorab modellierte Arbeitsabläufe ist notwendig. Das in dieser Arbeit vorgestellte Konzept bietet einen ersten Ansatz, um derartige Abläufe auf Basis eines Schutzes individueller Funktionen sowie der automatischen Durchführung finanzieller Transaktionen zu realisieren. Zudem bietet es eine einfache Möglichkeit, angedachte Erlösmodelle auf Basis bereits existierender LMS zu erproben.
Transaktionsautomatisierung im E-Learning
919
Literatur [AdHu00] Adar, E. und Huberman, B. A.: Free Riding on Gnutella. First Monday. 5(10). Oktober 2000. [Bec+03] Becker, E., Buhse, W., Gunnewig, D., und Rump, N.: Digital Rights Management: Technological, Economic, and Legal and Political Aspects. Lecture Notes in Computer Science. Springer Verlag. Berlin. 2003. [Bent02] Bentlage, U.: E-Learning: Märkte, Geschäftsmodelle, Perspektiven. Bertelsmann Stiftung. Gütersloh. 2002. [Bau+02] Baumgartner, P., Häfele, H., und Maier-Häfele, K.: E-Learning Praxishandbuch: Auswahl von Lernplattformen. Marktübersicht - Funktionen - Fachbegriffe. Österreichischer Studien Verlag. Innsbruck. 2002. [Bal+02] Balli, C., Krekel, E. M., und Sauter, E.: Qualitätsentwicklung in der Weiterbildung: Zum Stand der Anwendung von Qualitätssicherungs- und Qualitätsmanagementsystemen bei Weiterbildungsanbietern. Schriftenreihe des Bundesinstituts für Berufsbildung, Heft 62. 2002. [Bole02] Boles, D.: Integration von Konzepten und Technologien des Electronic Commerce in digitale Bibliotheken. 2002. Dissertation, Universität Oldenburg. [BaPa99] Baumgartner, P. und Payr, S.: Lernen mit Software. Reihe Digitales Lernen. Österreichischer Studien Verlag. Innsbruck. 2. 1999. [BrSt02] Bruhn, M. und Stauss, B.: Electronic Services. Gabler Verlag. Wiesbaden. 2002. [BoSc03] Boles, D. und Schmees, M.: Kostenpflichtige Web-Services. In: Uhr, W., Esswein, W., und Schoop, E. (Hrsg.),Wirtschaftsinformatik 2003: Märkte - Medien - Mobilität. Band I. S. 385–403. Physica Verlag. Heidelberg. 2003. [Cont02] Contentguard: XrML 2.0 Technical Overview. 2002. Version 1.0. [Gol+01] Golle, P., Leyton-Brown, K., und Mirnov, I.: Incentives for Sharing in Peer-toPeer Networks. In: Proceedings of the 2001 ACM Conference on eCommerce. 2001. [Gut+01] Guth, S., Neumann, G., und Simon, B.: Universal - design spaces of learning media. In: Sprague, R. H. (Hrsg.), Proceedings of the 34th Annual Hawaii International Conference on System Sciences.Volume 7. IEEE Computer Society. Maui. 2001. [Habe03] Haber, C.: COMMA - eine Entwicklungsmethode für interaktive kooperative Anwendungen. dissertation.de. Berlin. 2003. Dissertation, Universität Oldenburg. [HoBr03] Hoppe, G. und Breitner, M. H.: Business Models for E-Learning. (287). Oktober 2003. [HaOt02] Hasebrook, J. und Otte, M.: E-Learning im Zeitalter des E-Commerce: die dritte Welle. Hans Huber Verlag. Bern. 2002. [Jung03] Jung, H.W.: Praxisorientiertes Geschäftsmodell. In: Ehlers, U.-D., Gerteis, W., Holmer, T., u. a. (Hrsg.), E-Learning-Services: im Spannungsfeld von Pädagogik, Ökonomie und Technologie. S. 465–477. Bertelsmann Verlag. Bielefeld. 2003.
920
M. Schmees
[Kypr03] Kypreos, T.: Building a Business Case for E-Learning. In: eLearn-Magazine. 2003. [Leh+03] Lehner, F., Schäfer, K. J., und Proksch, M.: Was kostet e-Learning. In: Bode, A., Desel, J., Rathmayer, S., u. a. (Hrsg.), DeLFI 2003: Tagungsband der 1. e-Learning Fachtagung Informatik. S. 240–249. Köllen Druck & Verlag GmbH. Bonn. 2003. [Luxe01] Luxem, R.: Digital Commerce: Electronic Commerce mit digitalen Produkten. Josef Eul Verlag. Lohmar. 2. 2001. Dissertation, Universität Münster. [Mass02] Massy, J.: Quality and eLearning in Europe: Summary report 2002. Umfrage von BIZmedia. Juni 2002. [Mina02] Minass, E.: Dimensionen des E-Learning: Neue Blickwinkel und Hintergründe für das Lernen mit dem Computer. SmartBooks Publishing. Kilchberg. 2002. [Moon97] Moonen, J.: The Efficiency of Telelearning. JALN: Journal of Asynchronous Learning Networks. 1(2). August 1997. [ObKi00] Oblinger, D. und Kidwell, J.: Distance learning - are we being realistic? Educause Review. 35. Mai/Juni 2000. [Oste04] Osterwalder, A.: The Business Model Ontology: A Proposition in a Design Science Approach. 2004. Dissertation, Universität Lausanne. [ReAp04] Reil, D. und Appelrath, H.-J.: Kostenpflichtiger Content in Lernportalen. In: Engels, G. (Hrsg.), DeLFI 2004: Tagungsband der 2. e-Learning Fachtagung Informatik. Paderborn. 2004. [RoDy03] Rosenblatt, B. und Dykstra, G.: Content Management with Digital Rights Management: Imperatives and Opportunities for Digital Content Lifecycles. 2003. [Rumb01] Rumble, G.: The Costs and Costing of Networked Learning. JALN: Journal of Asynchronous Learning Networks. 5(2). September 2001. [Seuf01] Seufert, S.: E-learning business models: Strategies, success factors and best practice examples. In: DeFillippi, R. und Wankel, C. (Hrsg.), Rethinking Management Education for the 21st Century. Information Age Publishing. Greenwich. 2001. [Seib02] Seibt, D.: Kosten und Nutzen des E-Learning bestimmen. In: Hohenstein, A., Wilbers, K. (Hrsg.): Handbuch E-Learning: Expertenwissen aus Wissenschaft und Praxis. S. 130-162. Fachverlag Deutscher Wirtschaftsdienst. Köln. 2002. [ScHe02] Scheffer, U. und Hesse, F. W.: E-Learning: Die Revolution des Lernens gewinnbringend einsetzen. Klett-Cotta Verlag. Stuttgart. 2002. [Stei01] Steiner, G.: Lernen und Wissenserwerb. In: Krapp und Weidenmann (Hrsg.), Pädagogische Psychologie: ein Lehrbuch. S. 160–163. Beltz Verlag. Weinheim. 4. 2001. [Timm98] Timmers, P.: Business Models for Electronic Markets. Electronic Markets: Electronic Commerce in Europe. 8(2):3–8. 1998. [Weng00] Wengelowski, P.: Entwicklung organisationalen Lernens: ein Lenkungsmodell. Dissertation. Universität Oldenburg. Deutscher Universitätsverlag. Wiesbaden. 2000.
Effektive Content-Produktion für selbstgesteuerten, polymorphen Wissenstransfer Andreas Auinger, Christian Stary Johannes Kepler Universität Linz
Zusammenfassung: Die didaktische Qualität und die didaktisch wirksame Durchdringung von Lernmaterialien stellt eine Voraussetzung für selbstgesteuerten Wissenstransfer dar. Sie ermöglicht die eigenständige Erschließung von Inhalt anhand unterschiedlich gestalteter Inhaltselemente. Zur methodischen Unterstützung der Herstellung von polymorphem Content entwickelten wir CoDEx (Content Didaktisch Explizieren), ein Prozedere zur strukturierten Explizierung und abgestimmten Aufbereitung von Fachdidaktik und Content. Herausragende Merkmale des Vorgehens mit Hilfe dieser Methode sind die domänenspezifische Strukturbildung von Content, die Belegung von Strukturelementen mit didaktisch relevanten Bedeutungen, die Bestimmung der Granularität von Information je nach Einsatzszenario und Zugriffsgerät (PC, PDA, Smartphone) und die zielgerichtete Anwendung der festgelegten Strukturelemente. Die erhobenen Inhalte können unmittelbar in einer Lerntechnologiestandard-konformen XML-Datenstruktur umgesetzt werden. Wir zeigen dies anhand der Instanzierung von Content im Fach Buchhaltung. Für den Authoring-Vorgang und für die Unterstützung der Lernenden beim selbstgesteuerten Wissenserwerb verwenden wir die skalierbare, offene WebPlattform SCHOLION WB+, die wir im Rahmen der Darstellung der praktischen Erprobung in einem universitären Buchhaltungs-Kurs beschreiben. Sowohl die methodische Unterstützung zur Didaktisierung von Content als auch der zielgerichtete Einsatz der Web-Plattform lassen seitens der Studierenden und Lehrenden eine signifikante Erhöhung der Akzeptanz von digitalem Content in interaktiven Wissenstransferumgebungen erwarten Schlüsselworte: E-Learning, Content-Produktion, Didaktik, Wissenstransfer
1
Einleitung
Neuere Erkenntnisse zu selbstgesteuertem bzw. lernenden-zentriertem Wissenstransfer betonen zwar ingenieurswissenschaftliche Inhalte (vgl. [VrGl03]), enthalten allerdings kaum Konzepte zur Ableitung, Spezifikation oder Umsetzung didaktisch relevanter Content-Elemente in Wissenstransfer-Umgebungen. Die Erkenntnis der Notwendigkeit zur didaktischen Durchdringung von Lehr- bzw. Lerninhalten (i.e. Content) im e-Learning (vgl. [Eul92], [Ker01], [Schu01]) führte me-
922
A. Auinger, C. Stary
thodisch bislang zu keiner Abstimmung von Didaktiken mit technischen Entwicklungskonzepten. Nichtsdestotrotz ist die Qualität der didaktischen Materialien als oberstes Qualitätskriterium virtuellen Lernens zu betrachten [Schu01]. Die Verfügbarkeit von adäquatem Content stellt somit eine Prämisse für erfolgreichen Wissenstransfer per se dar [Vou+99]. Daher gilt es, methodisch und praktisch einen Beitrag zur didaktisch abgestimmten Gestaltung und Umsetzung von digitalem Content zu leisten. Wir verstehen in der Folge unter der Didaktisierung von Content x die domänenspezifische Strukturbildung nach didaktischen Grundsätzen x die Belegung bestimmter Strukturelemente mit didaktisch und domänenspezifisch relevanten Bedeutungen x die zielgerichtete Anwendung der festgelegten Strukturelemente für selbstgesteuerten Wissenstransfer. Ein Beispiel für die domänenspezifische Strukturbildung stellt die Spezifikation von einander aufbauenden Content-Elementen im Bereich Buchhaltung dar: Definition von Konto, Erklärung eines Buchungssatzes. Ein Beispiel für die Belegung bestimmter Strukturelemente mit didaktisch und domänenspezifisch relevanten Bedeutungen in diesem Kontext ist die Auszeichnung (bei Textdarstellung die Betonung des Wortes Konto im Text der Definition von Konto – Def: Ein Konto stellt … dar.). Auszeichnungen können unterschiedliche Content-Elemente betreffen. Eine zielgerichtete Anwendung der festgelegten Strukturelemente im Rahmen des selbstgesteuerten Wissenstransfers ist die interaktiv farbige Markierung des Definiendum (z.B. Konto) im Browser durch Studierende bei der Nutzung einer Web-Transfer-Plattform. Eine Methodik zur Content-Produktion sollte effektiv sein, d.h. didaktische Elemente sollten mit Hilfe von technisch-verarbeitbaren Content-Strukturen direkt umgesetzt werden können. Bei der Didaktisierung kommt zunächst der didaktisch begründbaren Auswahl und Bestimmung von Objekten und Situationen entsprechende Bedeutung zu [Dij01]. In der Verantwortung des Content-Designers bzw. –Produzenten liegt weiters die Erreichung von Standard-Konformität [Paw01]. Entscheidend dabei ist, dass die didaktische Durchdringung der Inhalte nicht, wie etwa beim Curriculum-Design ELM-C (ibid.), ausschließlich Metadaten, wie Lernziele der Lernobjekte, für die Evaluation spezifiziert, sondern lerntechnisch wirksame Strukturen, d.h. tiefere Ebenen (vgl. Assets-Elemente im SCORMStandard bzw. Item-Elemente im IMS-Standard Content Packaging Information Model). Finden sich zusammenhangslose, inkonsistente Strukturen an der Schnittstelle zu Lernenden, wird positiver Wissenstransfer erschwert [Rog03]. Schließlich ist die individuelle Verwendung von Content auf unterschiedlichen, auch mobilen Endgeräten mit zu berücksichtigen (vgl. www.mobiLearn.at). Polymorpher Wissenstransfer setzt sich folglich aus didaktisch effektiv strukturiertem,
Effektive Content-Produktion für selbstgesteuerten, polymorphen Wissenstransfer
923
multi-kodal präsentierbarem, sowie individuell gestaltbarem Content zum selbstgesteuerten Wissenserwerb zusammen. Zur Veranschaulichung unseres durchgängigen Entwicklungsprozesses führen wir in Abschnitt 2 das Vorgehensmodell zur kontext-sensitiven Explizierung von fachdidaktisch relevanten Content-Elementen sowie dessen prinzipieller Umsetzung in Transferumgebungen aus. Abschnitt 3 zeigt die Kodifizierung der didaktisch relevanten Content-Elemente zur Speicherung und weiteren Verarbeitung in der Wissenstransferumgebung SCHOLION WB+. Wir zeigen die Didaktisierung von Content anhand der Domäne Buchhaltung, da der vorgestellte Ansatz im Projekt eBuKoLab (www.jku.at/eBuKoLab) – elektronisches Buchhaltung- und Kostenrechnungs-Labor – erfolgreich angewandt werden konnte.
2
Das Vorgehensmodell
Das Modell gliedert sich in mehrere, auf einander aufbauende Phasen: Phase 1, beschrieben in Abschnitt 2.1, zielt auf die Sicherung und den Erwerb von fachdidaktisch relevanten Content-Elementen ab, unabhängig von technologischen Rahmenbedingungen, wie etwa dem Einsatz einer bestimmten TransferTechnologie. Danach schließt in Phase 2 die Festlegung der Content-Typen an, welche in einer Transferumgebung eingesetzt werden (Abschnitt 2.2). In dieser Phase ist auch festzulegen, welche Granularität das Material aufweisen soll. Die Einbettung der didaktisch relevanten Elemente in Transferstrukturen, wie Kurse bzw. Lerneinheiten, um den praktischen Einsatz des produzierten Content sicherzustellen, wird im Zuge der Umsetzung in Abschnitt 3 gezeigt.
2.1
CoDEx: Strukturierte Explizierung und Aufbereitung von Fachdidaktik und Content
Entschließen sich Lehrende für den didaktik-geleiteten Einsatz einer Wissenstransfer-Plattform, so ist zunächst das Material zu sichten und bezüglich dessen Rolle im Prozess des Wissenstransfers zu hinterfragen und zu strukturieren. Üblicherweise existieren zu Lehrveranstaltungen unterschiedliche Unterlagen und Fachdidaktiken, sodass im Rahmen der Explizierung der Fachdidaktik Materialien vorhanden sind. Um die antizipierte Wirklichkeit des Wissenstransfers und die Möglichkeiten mit den bestehenden Materialien im Rahmen dieses Prozesses abzugleichen, empfiehlt sich zur Erhebung des Inhalts und der Fachdidaktik folgende Vorgehensweise: Strukturierte Interviews mit den Lehrenden bzw. Content-Erstellern sowie Dokumentanalysen. Dies erleichtert später den Abgleich der gelebten Fachdidaktik mit dem digitalen Content, da die Dokumentanalyse die Überprüfung der Interview-
924
A. Auinger, C. Stary
Aussagen anhand der Strukturen von Verschriftlichungen ermöglicht bzw. die Machbarkeitsanalyse neuer Elemente vereinfacht. In der Folge zeigen wir einige Elemente der strukturierten Erhebung und illustrieren Antwort-Optionen für das Interview sowie die Dokumentanalyse. 2.1.1
Strukturiertes Interview
Im Rahmen des Interviews mit Lehrenden bzw. Content-Erstellern sollten Fragen zu unterschiedlichen Schwerpunkten beantwortet werden: Organisationsspezifische Information, individuelle Positionierung der Lehrenden, Wissenstransfer, Kommunikation sowie technische Unterstützung. Die Schwerpunkte orientieren sich an dem in der Folge angegebenen Itemsample: Organisationsspezifische Information. Dieser Abschnitt dient der Erfassung organisationaler Daten inkl. Content- und Lernendenprofil. Somit wird der Kontext des Wissenstransfers beschreibbar. x Wie viele Lehrende unterrichten die Inhalte zur Zeit? x Wie viele Studierende werden im Rahmen dieses Wissenstransfers (z. B. Kurses) betreut? x Wie viele inhaltlich/didaktisch sinnvoll abgrenzbare Teile weisen Lerneinheiten bzw. Module auf? Beispiel: Grundlagen, methodische Vertiefung (2 Teile). x Wie könnte man den Inhalt, den der Wissenstransfer strukturell / didaktisch besitzt, beschreiben?
Standardwissen: Content-Elemente mit festgelegter Bestimmung, keine Varianten. Beispiel: Führerschein-Befähigung: Vorrangregeln.
Wissen mit standardisierten Varianten: Verschiedene Ausprägungen der Content-Elemente werden angeboten, die aber festgelegt sind. Beispiel: Führerschein-Befähigung: Vorrangregeln für Rechts- oder Linksverkehr.
Nach Lehrenden/Lernendenmöglichkeiten und -wünschen anpassbarer Content: Die Content-Elemente können entsprechend der jeweiligen Lehrenden / Studierendenvorstellungen adaptiert werden. Beispiel: Führerschein-Befähigung: Vorrangregeln werden anhand individuell angepasster Beispiele erklärt, und zwar unter Zugrundelegung der eigenen Wohngegend in Szenarien zur Verdeutlichung der einzelnen Regeln.
Effektive Content-Produktion für selbstgesteuerten, polymorphen Wissenstransfer
925
x Welches der folgenden Kriterien ist für den Wissenstransfer am wichtigsten?
Qualität des Inhalts – aktuell, konzept-, handlungsvermittelnd, selbsterklärend, ansprechend?
Produktivität des Wissenstransfers - viel Wissen in kurzer Zeit?
Flexibilität - schnelle Anpassung an spezifische Gegebenheiten bezüglich Zusammenstellung und Volumen?
Praktische Handlungsbefähigung der Studierenden.
Fachliche Konzeptvermittlung.
Reflexion von Handlungs- und/oder Konzeptwissen.
Zufriedenheit der Studierenden.
Innovation - die Entwicklung neuer Content-Elemente oder der Methoden ihrer Generierung?
x Welche Zielgruppe(n) wird (werden) durch die Wissensvermittlung angesprochen? x Welche fachliche Orientierung haben die Studierenden – mehrheitlich kaufmännisch, wirtschaftlich, technisch-naturwissenschaftlich, geisteswissenschaftlich oder sprachlich orientiert? x Welches globale Lehrziel verfolgt der Wissenstransfer dieses Inhalts?
Übung und Vertiefung von bestehendem Wissen (Prozeduralisierung).
Erschließen neuen Wissens.
Vernetzung bestehender Inhalte.
Einbettung von Wissen in Gesamtzusammenhang
x Welche Rahmenbedingungen aus rechtlicher, fachlicher, technisch oder / und organisatorischer Sicht gelten für den Wissenstransfer? x In welcher Form wird der Inhalt derzeit hauptsächlich vermittelt?
Frontaler Präsenzunterricht – wenig Eigeninitiative der Studierenden.
Selbstgesteuerter Präsenzunterricht – synchron supervidierte/moderierte Eigeninitiative der Studierenden.
Klassischer Fernunterricht – synchronisierte hohe Eigeninitiative der Studierenden.
Selbststudium – hohe Eigeninitiative der Studierenden.
926
A. Auinger, C. Stary
x Ist die Gruppe der Studierenden eher heterogen oder homogen, und zwar bezüglich Vorwissen, Teilnahme an Präsenzphasen, Interesse am Thema, Medienkompetenz und Medienakzeptanz? x Welche Medienkompetenz benötigen Lehrende bzw. Studierende beim Wissenstransfer? x Welcher Art stellt sich die Beziehung zwischen den Lehrenden und Studierenden während des Wissenstransfers dar? Sind dies vorwiegend persönliche oder unpersönliche Beziehungen? Individuelle Positionierung. Dieser Abschnitt soll helfen, den individuellen Zugang der Content-Ersteller zur Wissensvermittlung zu erklären und zu verstehen. x Wie viel Zeit verwendet der / die Interviewte für Aktivitäten des Wissenstransfers? x Welchen didaktischen Grundsätzen genügt der Wissenstransfer (z. B. weniger ist mehr)? x Welche Lehrtechnik(en) werden seitens des/r Lehrenden eingesetzt (Frontalunterricht, selbstregulierter Wissenserwerb o. ä.)? x Entsprechend der Lehrtechnik(en): Welchen Spielraum individueller Gestaltbarkeit sollten Unterrichtsmaterialien besitzen (keinen, nur für Studierende oder Lehrende, Hinzufügen von Hintergrundmaterial soll möglich sein, Content entsteht on-the-fly o. ä.)? Wissenstransfer. Dieser Abschnitt dient der Erfassung der Art und der Organisation der Aktivitäten beim Wissenstransfer sowie der Struktur von relevantem Inhalt des Wissenstransfers. x An welchen Aktivitäten des Wissenstransfers nehmen die Lehrenden aktiv teil?
Vorbereitung, wie beispielsweise Content-Elemente auswählen, Fachdidaktik bestimmen Studierendenberatung.
Durchführung, wie beispielsweise Präsenzlehre, Feedback geben, Qualitätschecks.
Leistungsfeststellung.
Evaluierun.
Weiterentwicklung der Lehrinhalte (auf Basis der Evaluierung).
Weiterentwicklung der Vermittlung(sformen).
Weiterentwicklung Web-basierter Werkzeuge.
x Welche Struktur-Elemente des Content werden mit welchen Methoden gelehrt, und zwar unter Angabe der Kodalität (Text, Bild, Audio, Video, Grafik) und
Effektive Content-Produktion für selbstgesteuerten, polymorphen Wissenstransfer
927
des Content-Elementtyps (Definition/Begriff, Erklärung, Vorgehen / Handlungsanleitung / Methode, Beispiel, Hintergrund-Information etc.)? Beispiel: Erklärung (Text im Skriptum) durch Vortrag im Hörsaal. x Welcher Art ist das Material strukturiert (linear/aufbauend, vernetzt/hyper..., hierarchisch, Mischform)? x Finden sich alle Content-Elemente in dem zur Verfügung gestellten Material (z. B. Skriptum)? Wenn nein, obliegt es der Eigenaktivität der Studierenden, (sich) diese Elemente zur erfolgreichen Leistungsfeststellung zu organisieren? Beispiel: Hintergrund-Information ist nicht im Material enthalten, aber durch eigenständige Literatur-Recherche zu besorgen. x Wie kann die Organisation des Wissenstransfers am besten beschrieben werden?
Beispiele:
- Keine ausgeprägte organisatorische Form, isolierte Individuen - Lose organisiert, Individuen eingegliedert in ‚community of practice’ (z. B. Lerngruppen) - Straff organisiert, hierarchische Struktur Lehrende – Lernende - Stark gemeinschaftlich organisiert, Kontakt zwischen Lehrenden und Lernenden spielt sich auf persönlicher und emotionaler Ebene ab
x In welcher Form erfolgt Feedback (LehrendeÆStudierende) zu Beiträgen? x In welcher Form erfolgt die Leistungsfeststellung bzw. -überprüfung? Kommunikation. Dieser Abschnitt dient der Erfassung der Art und Weise, ob, wann und wie die befragte Person kommuniziert, und zwar im Kontext des Wissenstransfers. Die Antworten lassen Rückschlüsse auf die soziale Interaktion im Rahmen des Wissenstransfers zu. x Wie häufig haben Lehrende mit Lehrenden im Rahmen des Wissenstransfers Kontakt? x Kommunizieren Lehrende in elektronischer Form mit Lehrenden? Wenn ja, warum? x Wie häufig haben Lehrende mit Studierenden im Rahmen des Wissenstransfers Kontakt, in welcher Form (E-Mail, Chat-Forum o.ä)? x Welcher Inhalt wird von den Lehrenden bevorzugt elektronisch an die Studierenden kommuniziert (Termine und Organisatorisches, vertiefende Information und Lernhinweise etc.)? x Durch wen wird elektronische Kommunikation mit den Studierenden initiiert?
928
A. Auinger, C. Stary
x Wenn Lehrende mit Studierenden elektronisch kommunizieren, worauf wirkt sich dies aus (Individualisierung, Bevorzugung etc.)? x Sollte bei jeder elektronischen Kommunikation im Rahmen des Wissenstransfers bekannt sein, auf welchen Teil des Materials sich eine Äußerung bezieht? Mit anderen Worten, sollte die Kommunikation kontextsensitiv erfolgen? Beispiel: Bei einer Frage zum Stoff ist die betroffene Definition für Fragende und Antwortende transparent. Technische Unterstützung. Dieser Abschnitt dient der Erfassung der Art und Weise wie Lehre und Wissenstransfer technisch unterstützt werden und in Zukunft unterstützt werden könnten. x Welche (Arten von) IKT-Anwendungen werden im Rahmen des Wissenstransfers genutzt (Content Management, ERP-Systeme etc.)? x Für welche Zwecke wird das World-Wide-Web (Internet) im Rahmen von Transfer-Aktivitäten genutzt? x Gibt es technische Zusammenführungen (für den Datenaustausch) zwischen zwei oder mehreren Anwendungen zur Unterstützung des Lehr- und Wissenstransfer-Prozesses? x Wie könnte man Web-basierte Lehrkonzepte effektiv einsetzen (Anlegen von individuellen Studierendenprofilen für personalisiertes Informationsangebot etc.)? Alle genannten Bereiche der Akquisition erlauben nicht nur die Erhebung struktureller Merkmale von Content sondern auch den Zugang zum Transfer-Prozess inklusive der Kommunikation mit Studierenden und anderen Lehrenden. Ein allgemeines Auswertungsschema für die erhobenen Daten anzugeben ist nicht zielführend, zumal sich nach unserer Erfahrung keine stereotypen Lehrenden- bzw. Content-Produzenten-Profile entwickeln lassen. Auch lassen sich keine stereotypischen Content-Schemata oder Kommunikationsmuster angeben. Dieser Teil der Erhebung sollte vielmehr dazu genutzt werden, den gegenständlichen Wissenstransfer bezüglich seiner unterschiedlichen Aspekte (Organisation bis hin zu Technik) verstehen zu lernen und spezifische Konstellationen (der Ausprägungen) des Transferprozesses zu beschreiben. Ein typischer Fall sind Lehrende, welche eine Vielzahl an Content-Element-Typen benutzen, und diese zielgerichtet in bestimmten Transferphasen und spezifischem organisatorischen Rahmen einsetzen. Generell lässt sich an dieser Stelle festhalten: Falls die Lehrenden bzw. ContentErsteller Inhalts-Elemente (wie Content, Beispiel, Orientierungsinformation – siehe Dokumentanalyse – Abb. 1) angeben können, lässt sich nach dem Interview eine mögliche Übereinstimmung mit den Content-Element-Typen in Dokumenten bzw. einer Wissenstransfer-Umgebung (unter Umständen Document-TypeDefinition-Kategorien in XML) feststellen.
Effektive Content-Produktion für selbstgesteuerten, polymorphen Wissenstransfer
2.1.2
929
Dokumentanalyse
Die Dokumentanalyse dient der Erfassung der Struktur des Inhalts anhand der vorliegenden Wissenstransfer-Dokumente (Skript, Buch, Folien etc.) und der damit verbundenen (didaktisch oder inhaltlich motivierten) Navigations- und Orientierungsmöglichkeiten. Für jedes Dokument sind sämtliche Items zu durchlaufen. Die Ergebnisse können dann den intendierten Lehrzielen und eingesetzten Elementen, welche durch strukturierte Interviews erhoben wurden, gegenübergestellt werden. x Wozu dient das Dokument? x Mit welchen anderen Dokumenten steht es zu welchem Zweck in Zusammenhang? x Welche allgemeinen Content-Elemente (siehe auch Liste bei InterviewSchwerpunkt Wissenstransfer) sind erkennbar? x Falls Elemente unterschieden werden können, wie sieht der Zusammenhang jedes Elementes zu den anderen aus (z. B. nach jeder Definition folgt ein illustratives Beispiel)? x Welche Möglichkeiten gibt es, durch den Inhalt zu navigieren (lineare und nichtlineare Möglichkeiten)? Beispiel: Nach einer Definition kann ein Beispiel durchgerechnet oder die nächste Definition durchgegangen werden. Hier empfiehlt sich die Angabe bzw. der Aufbau einer semantischen Netz-Struktur (Abbildung 1) wobei die Knoten die Content-Element-Typen darstellen und die Beziehungen (auch oben Beziehung genannt) den inhaltlich-strukturellen Zusammenhang zwischen den Knoten widerspiegeln. Das Beispiel zeigt Content, Beispiel und Orientierungsinformation als Knoten und die exklusive OderVerknüpfung bei iterativen Abfolgen der Content-Elemente als Steuerung für didaktisch effektiv einschlagbare Pfade. Beispiel
Content
XOR
Orientierungsinformation
Abbildung 1: Beispielhafter Aufbau einer semantischen Netzstruktur zur Repräsentation von didaktisiertem Content
930
A. Auinger, C. Stary
x Bieten sich bestimmte Strukturen für Gruppenarbeit an, z. B. Diskutieren unterschiedlicher Vorgehensweisen zur Lösung einer bestimmten BeispielAufgabe? Hier sollten Content-Element-Typ, Aufgaben/Beispiel-Typ und Art der Gruppenarbeit angegeben werden. Beispiel: Bilanz, Bilanzierung, Rollenspiel. Die oben angeführten Daten der Dokumentenanalyse erlauben, Übereinstimmungen mit bzw. Abweichungen von den Interview-Ergebnissen festzustellen. Bei Abweichungen empfehlen sich vor der nun folgenden Aufbereitung der ContentElemente Rückfragen bei den betroffenen Lehrenden bzw. Content-Produzenten.
2.2
Aufbereitung von expliziertem Content in didaktischem Kontext zur Einbettung in Wissenstransfer-Umgebungen
Mit Hilfe der Ergebnisse der Explizierung der Struktur der Content-Elemente sowie der Navigationsmöglichkeiten durch die sich aufspannende Topologie ist es nun möglich, die Einbettung in Wissenstransfer-Umgebungen vorzubereiten. Dabei wird eine Menge vorbereiteter Struktur-Elemente, und zwar Block- oder ItemTypen sowie Auszeichnungskategorien zur Anwendung gebracht (Abschnitt 2.2.1). Die tatsächliche Eingabe geschieht nach erfolgter Typ-Zuweisung mit Hilfe von Editoren, und zwar unter Berücksichtigung möglicher Granularitätsstufen (‚levels of detail’) sowie unterschiedlicher Ausgabegeräte (‚rendering’) (Abschnitt 2.2.2). 2.2.1
Typisierung von Content-Elementen
Jeder Inhalt wird in mehrere Lerneinheiten unterteilt, wobei eine Lerneinheit – angepasst an die didaktische 20-Minuten-Regel von [Dör92] - etwa 15-20 Minuten Bearbeitungszeit durch die Lernenden umfasst. Eine Lerneinheit besteht aus mehreren Content-Elementen, sogenannten Blöcken (items) oder Knoten. Es können erfahrungsgemäß unterschiedliche Blöcke unterschieden werden, welche gemäß der Fachdidaktiken mit wirtschafts-, sozial- oder naturwissenschaftlichen Inhalten zur Anwendung gelangen und als Ergebnis der Erhebung mit CoDEx vorliegen sollten (vgl. Abbildung 1). Die wesentlichen Typen werden in der Folge erklärt: x Motivation = Information, welche den Zugang zum (folgenden) Inhalt anhand lebensnaher oder fachspezifischer Szenarien motiviert. x Definition = Bedeutungsgeleitete Begriffs- oder Konzeptfestlegung bzw. Definition im mathematisch/naturwissenschaftlichen Sinn. x Erklärung (explanation) = Visuelle oder textuelle Erklärung von Konzepten, Begriffen, welche die bedeutungsgeleitete Begriffs- oder Konzeptfestlegung
Effektive Content-Produktion für selbstgesteuerten, polymorphen Wissenstransfer
931
im Sinne der Definition (weiter) erläutert bzw. die mathematische Definition oder Teile derselben erläutert. x Information = Hintergrundinformation, um bestimmte Sachverhalte (leichter) verstehen zu können. x Content = Inhalt, welcher nicht anderen Blöcken eindeutig zugeordnet werden kann und keine weitere Typisierung aus der Sicht des Lehrenden zulässt. x Theorem = math. Theorem oder Merk’satz’. x Direktive = Handlungsanweisung, d. i. eine methodisch/inhaltliche Hilfestellung bei praktischen Problemstellungen. x Beispiel (example) = exemplarischer Inhalt. x Fallstudie (case study) = Anwendungsfall, welche Techniken oder Methoden im Kontext zeigt. x Code = Programm-Quelltext. x Übungsaufgabe (exercise) = Aufgabe ohne unmittelbares Feedback durch die Applikation (- siehe Interaktion). x Test = Wissensstandermittlung, -überprüfung. x Verweis (reference) = beschreibender Text und zugehörige Literaturangabe. x Interaktion = interaktive Gestaltung einer Demo oder einer Übungsaufgabe (unmittelbares Feedback an den Studierenden). x Zusammenfassung (summary) = Zusammenfassung einer Lerneinheit, eines Blocks oder eines Themas. Zusätzlich kann in dieser Phase der Aufbau von Content in Abhängigkeit von Lernparadigmen erfolgen (vgl. SELIM-Projekt [ScWo02]), wie folgende Beispiele zeigen: x Behaviouristisches Muster: Definition – Erklärung – Beispiel – Test – Fallstudie – Zusammenfassung. x Behavioristisch / Kognitivistisch-orientiertes Muster: Motivation – Information – Definition – Erklärung – Content – Beispiel – Übungsaufgabe – Test – Zusammenfassung. x Kognitivistisch / Konstruktivistisch-orientiertes Muster : Beispiel – Information – Beispiel – Übungsaufgabe – Definition – Content – Zusammenfassung. x Konstruktivistisch-orientiertes Muster: Interaktion – Fallstudie – Beispiel – Information – Erklärung – Content – Übungsaufgabe. Diese Muster können orthogonal oder ergänzend Lehr/Lernpfaden (vgl. Abbildung 1) eingesetzt werden.
zu
den
erhobenen
932
2.2.2
A. Auinger, C. Stary
Bestimmung der Granularität
Unterschiedliche Granularitätsstufen (LODs - Levels Of Detail) können zur Bestimmung verschiedener Abstraktionsniveaus für das Lernen mit unterschiedlichen Endgeräten verwendet werden (vgl. www.mobiLearn.at). In der folgenden Tabelle werden mögliche Kombinationen für LODs und der technischen Qualität von Zugangsgeräten angeführt: PC/Laptop
PDA Handheld
Mobile Phone
LOD 1 (Schlagworte) LOD 2 (Volltext) LOD 3 (Zusatzinfo)
Die in der Tabelle grau markierten Felder stellen günstige Kombinationen von Endgeräten und LODs dar. Die Verwendung von unterschiedlich granularem Material lässt sich anhand des folgenden Szenarios beschreiben: Peter besucht dieses Semester den Kurs „Media Engineering“. Da der Vorlesungsteil strukturell in die elektronischen Unterlagen in die Wissenstransfer-Plattform SCHOLION-WB+ [AuSt03], [Aui+03] eingearbeitet ist, kann er während der Präsentation auf seinem Notebook die Folien (Level od Detail 1) betrachten und gleich Anmerkungen dazu speichern, die ihm bei der Aufbereitung des Stoffes später behilflich sein könnten. Da sein Notebook eine bessere Auflösung bietet als der Projektor im Hörsaal, kann er bei weniger Sehanstrengung gleichzeitig das Inhaltsverzeichnis zur besseren Orientierung im Auge behalten. Schließlich begünstigt die Vielgestaltigkeit des Content die eigenständige Erschließung der Materialien. Am Ende des Semesters bereitet Peter sich auf die Leistungsüberprüfung vor. Wie die meisten Studierenden, hat er den Stoff nach der Präsenzphase nicht mehr durchgearbeitet und muss daher für die Prüfung in möglichst kurzer Zeit sein Wissen wieder verfügbar machen. Dazu verwendet er die Folienansicht (LOD1), diesmal jedoch um einen möglichst raschen Überblick über den gebrachten Lehrstoff zu bekommen. Bei manchen Lerneinheiten reicht Peter diese kurze Darstellung, um sich an die Erklärungen des Lehrenden zu erinnern, bei anderen Lerneinheiten zieht er die ausführlichen Beschreibungen (LOD 2) vor. Nachdem er den Stoff des Vorlesungsteils derart durchgearbeitet hat, lässt er sich zu jeder Lerneinheit die Verständnisfragen (durch die semantische Filterfunktion) anzeigen, um zu kontrollieren, ob er den Stoff auch wirklich behalten hat. Nach erfolgreicher Leistungsüberprüfung in den Sommerferien absolviert Peter ein Ferialpraktikum bei einer Firma. Zu seiner Aufgabe gehört es, eine XML DTD für ein Projekt zu erstellen. Peter erinnert sich, dass dieses Thema im Präsenzteil behandelt wurde und er sucht die entsprechende Seite im Content. Wie er vermutet hat, findet er bei den weiterführenden Links (Level of Detail 3) jene Vertiefungen, die er noch benötigt hat, um seine Aufgabe zu lösen.
Effektive Content-Produktion für selbstgesteuerten, polymorphen Wissenstransfer
933
Die entsprechenden Inhalte können in einer Plattform wie ScholionWB+ [AuSt03], [Aui+03], wie in Abbildung 2 gezeigt, aussehen – die Inhalte der Granularitätsstufen sind aufeinander abgestimmt. Level of Detail 1 entspricht der Darstellung von Content in der Granularität von Vortrags-Folien. Level of Detail 2 jener des Volltexts, und Level of Detail 3 beinhaltet Zusatzinformation zu einem Content-Typ (Block) in beliebiger Granularität. Zusätzlich kann jeder Block auch in verschiedenen Rendering-Stufen für PC, PDA und Handy editiert werden (Æ polymorphe Content-Gestaltung).
Abbildung 2: Beispiel einer Lerneinheit mit dem Titel „Menschliche Wahrnehmung“ im Modul „Usability Engineering“ in LOD (Level of Detail) 1 und 2
934
3
A. Auinger, C. Stary
Implementierung in webbasierten WissenstransferUmgebungen
Die Umsetzung der mittels CoDEx erhobenen Inhalte wird anhand der Datenstruktur und deren Umsetzung in der Lehr/Lernplattform SCHOLION WB+ [AuSt03; Aui+03] gezeigt. Als ‚enabler’ dienen somit ein entsprechendes Datenmodell (Abschnitt 3.1) sowie dessen domänenspezifische Instanzierung (Abschnitt 3.2) unter Nutzung einer web-basierten Wissenstransfer-Plattform (Abschnitt 3.3).
3.1
Datenmodellierung zur Content-Repräsentation
Die didaktische Aufbereitung von Content nach der CoDEx-Methode verlangt eine geeignete Datenstruktur zur akkuraten Abbildung der explizierten Fachdidaktik-Elemente. Aus diesem Grund wurde auf Basis der Strukturvorschläge aus den wichtigsten Lerntechnologiestandards, nämlich dem IMS Content Package - Information Model (www.imsglobal.org), dem SCORM Standard (www.adlnet.org) und dem LOM – Metadaten Standard (ltsc.ieee.org), eine XML Struktur konstruiert. Abbildung 3 zeigt die Umsetzung der Content-Elemente im Datenmodell der Plattform SCHOLION WB+, welche es erlauben, in den Blättern die Ergebnisse der Erhebung aufzunehmen.
Abbildung 3: Content-Struktur in der Lernumgebung SCHOLION WB+
Der Begriff Kurs steht für die organisatorische Einheit einer Lehrveranstaltung eines bestimmten Typs (z. B. Vorlesung, Übung, Seminar). Das Modul beschreibt
Effektive Content-Produktion für selbstgesteuerten, polymorphen Wissenstransfer
935
Content-Elemente, die im Rahmen eines Kurses vermittelt werden, wobei einem Kurs ein oder mehrere Module zugewiesen sein können. Eine Lerneinheit beschreibt jene Menge an Content, die (1) von Studierenden typischerweise auf einmal konsumiert wird – ein Präsenzlehreäquivalent von etwa 15-20 Minuten sollte daher nicht überschritten werden, (2) ein wohlabgegrenztes Thema behandelt und daher (3) eine natürliche Einheit zur ‚self-contained’-Wiederverwendung durch Autoren von Lehrveranstaltungen darstellt. Die Lerneinheiten sind aus hierarchisch schachtelbaren Blöcken aufgebaut, die einerseits die Möglichkeit der Wiederverwendung bieten und in denen andererseits die Abbildung der didaktischen Elemente verankert ist. Der Inhalt eines Blocks stellt die kleinste, sinnvoll zusammenhängende Informations-Einheit eines Lernmaterials dar. Didaktische Information wird unter anderem in folgenden Konzepten verankert: (1) Typisierung der Blöcke (z. B. Block-Typen wie Definition, Beispiel, Motivation oder Hintergrundinformation) und Schachtelung dieser (z. B. kann der Fachdidaktik entsprechend einer Definition immer eine Erklärung folgen), (2) Levels of Detail und (3) Auszeichnung wichtiger Information innerhalb eines Blocks. Für jeden Block sind drei Detaillierungsebenen vorgesehen (ad 2). Sie erlauben die adäquate Darstellung von Inhalten im Kontinuum von Fernlehre bis zu Präsenzlehre: x Level of Detail 1 (Folienpräsentation): Kurzdarstellung des Stoffs, eher im Telegrammstil gehalten und auch für eine Präsentation im Präsenzunterricht geeignet. x Level of Detail 2 (Volltext): Ausführlichere Darstellung in Anlehnung an ein Vorlesungs-Skriptum, präsentationstechnisch, interaktionsspezifisch und kommunikativ jedoch den Erfordernissen des kollaborativen online-Konsums angepasst. x Level of Detail 3 (Zusatzinformation): Hintergrundinformation, Beispiele, interaktive Elemente, Hinweise auf weiterführende Literatur usw. Auszeichnungen im Text eines Blocks (ad 3) dienen der besonderen Betonung bestimmter Strukturelemente oder Textfragmente. Typische Ausprägungen sind: - Betonung bzw. wichtig, - Begriffsdefinition innerhalb eines Blocks, - Gleichung (bzw. Formel) im weitesten Sinne , Zitat, welches durch die Angabe eines näher spezifiziert werden kann, - Anmerkung des Autors, welche die persönliche Meinung des Autors wiederspiegelt und nicht notwendigerweise veröffentlicht wird, - Abkürzung, die meist ein aussprechbares Wort ergibt, und - Glossareintrag, wobei ein genannter Begriff durch einen Kommentar, d.h. durch eine ausführliche Definition oder Erläuterung ergänzt wird. Die Formatierung und damit die Anzeige der Elemente obliegt der Darstellungsumgebung (SCHOLION WB+). Die o.g. Standards finden sich in der angeführten Struktur folgendermaßen wieder: Die Ebene der „Learning Objects“ und der „Assets“ im SCORM-Standard und der „Items“ im IMS-Standard sind auf Lerneinheiten- und Block-Ebene abgebildet.
936
A. Auinger, C. Stary
Die Paketierung des Contents in Module erfolgt auf Basis des IMS Content Packaging Standards. Metadaten werden gemäß LOM-Standard gespeichert.
3.2
Content-Instanz ‚Buchhaltung’
In diesem Abschnitt illustrieren wir anhand einer Content-Instanz, in welcher Form sich die ursprüngliche didaktische Konzeption durch die Anwendung von didaktisch relevanten Content-Elemente verändert. Die Instanz wurde im Rahmen des Projektes EBuKoLab (www.jku.at/eBuKoLab) an der Johannes Kepler Universität Linz für den Vorkurs aus Buchhaltung entwickelt und wird seit dem WS 2003/04 in der Lehre eingesetzt. Der Content wurde in die vier Module Grundlagen (6 Lerneinheiten), Von der Eröffnungsbilanz zur Schlussbilanz (8 Lerneinheiten), Geschäftsfälle (14 Lerneinheiten) und Jahresabschlusserstellung (9 Lerneinheiten) gegliedert. Jede Lerneinheit folgt im wesentlichen den Lernpfaden, welche in Abbildung 4 dargestellt sind. So folgt einer Motivation eine Zusammenfassung, der sich entweder eine Definition oder nicht näher bestimmter Inhalt aus Buchhaltung anschließt. Danach können Beispiele, Zusatzinformation oder unmittelbar ein Test folgen. Definition
Zusammenfassung
Inhalt
XOR
OR
Beispiel
Motivation
Test
Zusatzsinformation
Abbildung 4: Aufbau einer semantischen Netzstruktur der Buchhaltungsinstanz
Im Gegensatz zu Abbildung 1, welche die Ergebnisse der Conent-Erhebung aus dem Skriptum zu Buchhaltung schematisiert, werden hier komplexere Strukturen sichtbar, welche im Rahmen des selbstgesteuerten Wissenstransfers aufgrund der Content-Typsierung zur Anwendung gelangen können.
Effektive Content-Produktion für selbstgesteuerten, polymorphen Wissenstransfer
3.3
937
Plattform-Einsatz am Beispiel SCHOLION-WB+
Für die Aufbereitung (Authoring), Speicherung und Nutzung von polymorphem Content, und somit zur Unterstützung selbstgesteuerten Wissenstransfers wurde die Web-Plattform SCHOLION WB+ entwickelt. Sie erlaubt die Individualisierung hypermedialer Content-Elemente. Die Individualisierung stellt neben der kontext-sensitiven Kommunikation das Schlüsselkonzept für den selbstgesteuerten Wissenstransfer dar. Die Anpassung an Benutzer erlaubt die Gestaltung nach individuellen Kriterien und Bedürfnissen im Rahmen des Wissenserwerbs. Somit wird der Content auch seitens der Lernenden vielseitig strukturier- und gestaltbar (polymorph). Die Individualisierung wird sowohl durch Annotations-Mechanismen als auch durch Sichten auf Content realisiert. Beide stellen Neuheiten zur softwaretechnischen Realisierung konstruktivistisch orientierter Lernendenunterstützung dar (vgl. [AuSt03]). Annotationen bedeuten in SCHOLION WB+, dass die Lernenden die zur Verfügung stehenden Content-Elemente (Blöcke) an ihre fachliche mentale Modellbildung anpassen können. Funktionalitäten wie Markierungen mit einem virtuellen Textmarker, textuelle Anmerkungen im Text, multimediale Anmerkungen, das Einfügen von Links zu Content-Elementen oder Verweise zu Beiträgen im Diskussions-Forum, Infoboard oder Chat stehen den Lernenden dafür zur Verfügung. Alle persönlichen Anmerkungen werden in sog. Sichten gespeichert, die auch an andere Benutzer weitergegeben werden können. Zur Kommunikation im Rahmen des selbstgesteuerten Wissenstransfers stehen sowohl asynchrone (z. B. Diskussions-Forum, Infoboard) als auch synchrone Werkzeuge (z. B. Text-Chat, Instant Messenger) zur Verfügung. KollaborationsUnterstützung erhalten die Lernenden neben den herkömmlichen Kommunikations-Werkzeugen durch die Möglichkeit der individuellen Anpassung dieser an bestimmte Lehr/Lern-Situationen. Die Vergabe bestimmter Berechtigungs-Profile für die Kommunikations-Werkzeuge oder für die feingranular administrierbaren Gruppen-Workspaces stellt die Grundlage dar. Im Vergleich zu herkömmlichen Plattformen bietet SCHOLION WB+, wie bereits erwähnt, die Möglichkeit der Weitergabe persönlicher Sichten (mit Annotationen) an andere Gruppenmitglieder oder der Austausch dieser in sog. Sichten-Börsen. SCHOLION-WB+ unterstützt die asynchrone und synchrone Kommunikation sowie die Zusammenarbeit virtueller Gruppen in ihrem situativen Kontext, und zwar durch die direkte Verknüpfung von Content-Elementen mit den Kommunikationswerkzeugen. Dies wird durch die Integration verschiedener Funktionalitäten erreicht: (i) Anmerkungen im Kursmaterial, die auf Diskussions-Beiträge, Infoboard-Beiträge oder Chat-Logs verweisen, (ii) Multimediale Anfügungen an Beiträge in den Kommunikations-Werkzeugen, (iii) Weitergabe von Sichten mit Anmerkungen und Links.
938
A. Auinger, C. Stary
Abbildung 5: Kontext-sensitiver selbstgesteuerte Wissenstransfer am Beispiel von animierten Grafiken, Level of Detail 2, Sichten, Annotationen und Selbsttests
Abbildung 5 zeigt einen Bildschirmausschnitt eine Lernenden-Sicht in SCHOLION WB+. Im linken Bildschirmbereich befindet sich die Icon-Leiste mit den Annotations-Werkzeugen, rechts daneben der Navigations-Baum (jeder Eintrag im Baum entspricht einem Block in der Lerneinheit) mit den visuell unterscheidbaren Block-Typen. Der Inhalt befindet sich im Zentrum und zeigt ein annotiertes Dokument sowie das Kontextmenü zum Tätigen von Annotationen. Verwaltungsfunktionen eröffnen die Möglichkeit, jedes Feature für beliebige didaktische Unterrichts-Szenarien anzupassen. Das Authoring der LerneinheitenStruktur erfolgt in einem webbasierten Lerneinheiten-Editor in dem (Block-) Strukturen, Metadaten, Texte und Multimedia-Daten eingebracht werden. Auch alle strukturspezifischen (in der XML-DTD verankerten) Elemente wie BlockTypen oder Auszeichnungen finden hier in Drop-Down-Menüs oder Icon-Leisten Platz. Die Assemblierung der Lerneinheiten zu Modulen und die Anwendung der Module in Kursen erfolgen in der Kurs-Verwaltung. Der Einsatz der SCHOLION WB+-Lösung im Rahmen des Einführungskurses Buchhaltung brachte aus der Sicht der Lehrenden neben den genannten Vorteilen durch die Einbindung didaktischer Elemente im Rahmen der Durchführung der CoDEx Methode auch noch folgende Mehrwerte gegenüber dem Text-Skriptum mit sich:
Effektive Content-Produktion für selbstgesteuerten, polymorphen Wissenstransfer
939
x Animierte Darstellung von Grafiken - z. B. Darstellung der Wechselbeziehungen der Teilgebiete der Unternehmensrechnung (vgl. Abbildung 5). x Gezielte Verlinkung des Kursmaterials – gezielte Navigation zur benötigten Information und zurück zum Ausgangspunkt. x Einbindung aktueller externer Quellen als Schnittstelle zur Praxis – z. B. Formulare des Finanzamtes, laufend aktualisierte gesetzliche Bestimmungen. x Übungsmöglichkeiten und Testmöglichkeiten mit sofortigem Feedback - mittels Selbsttests und Übungsaufgaben. Somit konnten die positiven empirischen Belege des initialen Einsatzes der Plattform aus Lernendensicht [Aui+03] bestätigt werden.
4
Zusammenfassung
Um die Content-Produktion für selbstgesteuerten Wissenstransfer effektiv zu gestalten, wurde ein strukturiertes Vorgehensmodell entwickelt und in mehreren Projekt-Einsätzen verfeinert. Der phasengeleitete Ansatz beginnt mit der Erhebung von didaktischen Elementen und Kontext-Information des Wissenstransfers. Gelingt es, didaktisch relevante Elemente in Abhängigkeit des Zugangs durch Lehrende zu strukturieren und in Transfer-Umgebungen einzubringen, so kann die Effektivität des Wissenserwerbs durch die direkte Umsetzbarkeit der Didaktik sowie der Vielgestaltigkeit (Polymorphie) von Content verbessert werden. Für den Wissenstransfer effektive Content-Strukturelemente sind didaktisch relevante Elementtypen, Auszeichnungen zu betonender Teile, Sichten sowie Levels of Detail (inhaltsgleicher Content auf verschiedenen Detaillierungsebenen). Die Umsetzung dieser anhand einer XML-Datenstruktur zur Abbildung der didaktischen Strukturelemente wurden in diesem Beitrag anhand eines Anwendungs-Szenarios im Fach Buchhaltung mittels der Lernplattform SCHOLION WB+ demonstriert. Die positiven Ergebnisse aus methodischer, inhaltlicher sowie praktischer Sicht ermuntern zur Erschließung weitere Fachgebiete. Die zukünftige Forschung wird schließlich eine Verfeinerung der Erhebungs- die Entwicklung von Evaluierungsinstrumenten mit sich bringen. DANKSAGUNG. Die Autorem möchten an dieser Stelle ihren Dank dem gesamten Team des eBuKoLab-Projekts an der JKU (www.jku.at/eBuKoLab) sowie dem mobiLearn-Konsortium (www.mobiLearn.at) aussprechen.
940
A. Auinger, C. Stary
Literatur [AuSt03] Auinger, A.; Stary, Ch.: Verknüpfung von Content und Kommunikation für selbstgesteuerten, webbasierten Wissenstransfer. In Tagungsband: Mensch & Computer 2003. Tagungsband. GI und ACM German Chapter. Teubner. Stuttgart. 2003 [Aui+03] Auinger, A.; Schwan, S.; Stary, Ch; Mielach, E.: Evaluierung von selbstgesteuertem Wissenstransfer. In Tagungsband: DeLFI 2003, 1. e-Learning Fachtagung Informatik. GI. 16.-18. September 2003 [Dij01] Dijkstra, S.: The Design of Multimedia-Based Training, in: Multimedia Learning. Results and Perspectives, Hrsg.: S. Dijkstra, D. Jonassen, D. Sembill. Peter Lang Verlag. Frankfurt, Berlin, Bern, Bruxelles, New York, Oxford, Wien. 2001 [Dör92] Döring, K.W.: Lehren in der Weiterbildung. Ein Dozentenleitfaden. 4. Auflage, Weinheim: Deutscher Studienverlag 1992 [Eul92] Didaktik des computerunterstützten Lernens : Praktische Gestaltung und theoretische Grundlagen. (Hrsg. Band 3: Holz, H.; Zimmer, G.) BW Bildung und Wissen. Verlag und Software. Nürnberg. 1992 [Ker01] Kerres, M. : Multimediale und telemediale Lernumgebungen: Konzeption und Entwicklung. 2., vollständig überarbeitete Auflage. Oldenburg. München, Wien. 2001 [Paw01] Pawlowski, Jan M.: Das Essener-Lern-Modell (ELM): Ein Vorgehensmodell zur Entwicklung computerunterstützter Lernumgebungen. Dissertation. Universität Essen, 2001 [Rog03] Rogers, P.: Designing Instruction for Technology-Enhanced Learning. Idea Group. London, 2003 [ScWo02] Schudnagis, M.; Womser-Hacker, C.: Multimediale Lernsysteme softwareergonomisch gestalten: Das Projekt SELIM. In: Herczeg, M.; Prinz, W.; Oberquelle, H. (Hrsg.): Mensch & Computer 2002. Vom interaktiven Werkzeug zu kooperativen Arbeits- und Lernwelten. Tagungsband. Teubner. Stuttgart, Leipzig, Wiesbaden. 2002 [Schu01] Schulmeister, R.: Virtuelle Universität – Virtuelles Lernen. Oldenbourg. München; Wien. 2001 [Vou+99] Vouk, M.A.; Bitzer, D.L.; Klevans, R.L.: Workflow and End-User Quality of Service Issues in Web-Based Education. In: IEEE Transactions on Knowledge and Data Engineering. Vol.11. No.4. July/August 1999. S.673-687 [VrGl03] Vrasidas, CH.; Glass, G.V.: Distance Education and Distributed Learning. Information Age Publishing. Eurospan. London. 2003
Einführung in den Track Wissensmanagement – Vom Intra- zum Interorganisationalen Lernen in der eSociety Eric Schoop Technische Universität Dresden
Uwe Hoppe Universität Osnabrück
Joachim Niemeier T-Systems Multimedia Solutions GmbH Die Globalisierung der ökonomischen und gesellschaftlichen Prozesse bei gleichzeitiger Beschleunigung der Prozesszyklen erfordert von Individuen und Organisationen in der eSociety eine ständige Anpassung ihres Verhaltens an die sich verändernden Umgebungsbedingungen. Zu den Erfolgsfaktoren der wissensorientierten eSociety zählen intelligente Beobachtungs-, Kommunikations- und Reaktionssysteme, sowie ein methodisches Wissensmanagement. Es verleiht den normativen Rahmen für die Entwicklung und Verfolgung von Kodifizierungs- und Personalisierungsstrategien des organisationalen Wissens und kann so ein nachhaltiges individuelles, intra- und interorganisationales Lernen sicherstellen. Insbesondere für die entwickelten Gesellschaftsformen mit ihren Wirtschaftssystemen, die durch hohe Produktivität, Automatisierung, Spezialisierung, den Übergang zu Produktion und Handel vermehrt immaterieller Güter und den daraus erwachsenden geänderten Anforderungen an Aufgabenträger und Gesellschaft gekennzeichnet sind, ergeben sich daraus eine Reihe von Fragestellungen. Im globalen Vergleich sehr hohen, wettbewerbskritischen Lohn- und Lohnnebenkosten auf Märkten mit relativ geringen Wachstumsperspektiven steht das Potential langjährig gewachsenen individuellen und organisationalen Erfahrungswissens gegenüber: Produkt-, Prozess- und Marktkenntnis, verbunden mit dem Zugang zu (weltweiten) informationstechnischen und organisatorischen Netzwerken. Wie lassen sich auf dieser Basis strategische Wissensziele durchsetzen, Wissensressourcen identifizieren, ausbauen, produktiv und zielorientiert nutzen, bewerten und in organisationalen Lernprozessen permanent überprüfen? Wie können im Unternehmen, bei Kunden, Lieferanten und Partnern im Netzwerk nachhaltige Wissensorientierung geschaffen, ein Wechsel von eher kurzfristigen, internen, quantitativen hin zu nachhaltigen, qualitativen und zunehmend interorganisationalen und internationalen Strategien und Maßnahmen induziert und die ständige Be-
942
Wissensmanagement – Vom Intra- zum Interorganisationalen Lernen in der eSociety
reitschaft zur Überprüfung bestehender Routinen auf ihre zukünftige Passfähigkeit geweckt und am Leben erhalten werden? Zur Lösung dieser Fragen hat sich Wissensmanagement längst als eine interdisziplinäre Plattform etabliert, die verschiedenste Wissensgebiete und Betrachtungsweisen kombiniert. Für die Wirtschaftsinformatik als betont gestaltungsorientierte ökonomische Disziplin leiten sich aus der Integration systemtheoretischer und kognitionspsychologischer, soziologischer, ökonomischer und informationstechnischer Ansätze aktuelle Herausforderungen ab, die sich vorwiegend in den folgenden Punkten zusammenfassen lassen und Bedarf an modelltheoretischen Analysen, an empirischen Untersuchungen und an effizienter Umsetzung (sinnvolle Automatisierung) in intra- und interorganisationalen Informationssystemen anmelden: x
Wissensgesellschaft und Lernkultur – Unterstützung des lebenslangen Lernens durch ausgefeilte E-Learning Systeme und Konzepte.
x
Wissen als Unternehmenswert – Bereitstellung von Anwendungen zur Wissensbewertung als Instrument wertorientierter Unternehmensführung.
x
Business Intelligence – Integration heterogener Informationsressourcen in Data und Document Warehouses und Entwicklung von Leitstandkonzepten für die zielgruppenorientierte Unternehmenskommunikation.
Track-Programmkomitee Prof. Dr. Eric Schoop, Technische Universität Dresden (Chair) Prof. Dr. Uwe Hoppe, Universität Osnabrück (Chair) Dr. Joachim Niemeier, T-Systems Multimedia Solutions GmbH (Chair) Dr. Gudrun Glowalla, Lerndesign GmbH Prof. Dr. Ulrich Glowalla, Universität Gießen Dr. Lothar Simon, eidon GmbH Prof. Dr. Ralph Sonntag, Hochschule für Technik und Wirtschaft Dresden Jun.-Prof. Dr. Frank Teuteberg, Universität Osnabrück
Prozessorientiertes Wissensmanagement durch kontextualisierte Informationsversorgung aus Geschäftsprozessen Karsten Böhm, Jörg Härtwig Universität Leipzig
Zusammenfassung: Die bedarfsgerechte Bereitstellung von Informationen ist ein wesentlicher Bestandteil des IT-gestützten Wissensmanagements. Während solche Informationsrechercheprozesse in der Vergangenheit oft als eigenständige Problemklasse aufgefasst wurden, versuchen neuere Ansätze das situative Informationsbedürfnis der Benutzer zu berücksichtigen. Dieser Beitrag zeigt unter Bezug auf das laufende Forschungsprojekt PreBIS auf, wie unter Berücksichtigung wertschöpfender Geschäftsprozesse im Unternehmen Kontextinformationen automatisch für die Informationsbereitstellung abgeleitet werden können und wie dieser, als Kontextualisierung bezeichnete Bereitstellungsprozess verallgemeinert werden kann. Schlüsselworte: Kontextualisierung, bedarfsgerechte Informationsbereitstellung, prozessorientiertes Wissensmanagement, Geschäftsprozessmodellierung, Business Process Execution
1
Einführung
Klassische Systeme des informationsgestützten Wissensmanagements entstanden meist aus der Tradition der Informationsmanagementsysteme (z. B. der Dokumenten- oder Content-Management-Systeme bzw. des Information Retrievals) heraus und weisen oft starke Querbezüge zu Ansätzen aus der künstlichen Intelligenz (z. B. zu Expertensystemen) auf, die die explizite Kodifizierung von Wissen zum Ziel hatten (siehe u. a. [Maie02] für eine ausführliche Studie zur Verwendung von Wissensmanagementsystemen im deutschsprachigen Raum). Natürlicherweise standen bei diesen Systemen eine möglichst flexible Speicherung der zu verwaltenden Informationen und der effiziente Zugriff darauf im Vordergrund. Ausgehend von der Annahme, dass die Verfügbarkeit von Informationen allein schon ein wesentlicher Fortschritt auf dem Wege zur Etablierung eines Wissensmanagementsystems ist, lag das Hauptaugenmerk entsprechender Projekte oft auf der Sammlung von Informationen und der Integration selbiger in die entsprechen-
944
K. Böhm, J. Härtwig
den Systeme. Charakterisiert durch Visionen wie „Information at your fingertips“1 entstanden Systemlösungen, die letztendlich in vielen Fällen zu einer Überflutung der Nutzer mit Informationen führten. Gekennzeichnet ist dies durch die Beobachtung, dass „wir in Informationen ertrinken, während wir nach Wissen hungern“2. Obwohl diese Aussage ursprünglich für das massive Informationsangebot im Internet geäußert wurde, trifft dies zunehmend auch für Unternehmensbereiche (Intranets), ja sogar für umfangreichere Einzelprojekte zu. In Folge dieser Entwicklung entstanden Überlegungen, wie die Informationen so gefiltert werden könnten, dass der Nutzer idealerweise nur die Informationen angeboten bekommt, die er in der momentanen Situation benötigt. Dieser Ansatz, der im Folgenden als bedarfsgerechte Informationsversorgung bezeichnet wird, erlebt im Moment im Bereich des geschäftsprozessorientierten Wissensmanagements eine Blüte, die sich durch eine Vielzahl verschiedener Projekte und Ideen äußert (siehe Abschnitt 4). Hintergrund dieses Herangehens ist die Annahme, dass die Entstehung problemspezifischen Wissens bei dem einzelnen Benutzer oder einer Benutzergruppe, die durch ähnliche Interessen und Informationsbedarfe gekennzeichnet ist3, durch die Bereitstellung genau der Informationen, die in dem gegenwärtigen Kontext relevant sind, befördert wird. Diese als Befriedigung eines spezifischen Informationsbedarfs bezeichnete Funktionalität eines Wissensmanagementsystems trägt durch die Verkürzung der für die Informationsrecherche benötigten Zeit („Time to information“) eine Effizienzsteigerung für den Benutzer oder die Benutzergruppe mit sich. Dieser Effekt ist umso größer, je wichtiger die Verarbeitung von Informationen und Wissen für die ausgeführte Tätigkeit ist (Konzept des Wissensarbeiters). Werden entlang von Geschäftsprozessen wissensintensive Aktivitäten identifiziert, sind dort durch massive Unterstützung der Informationsrecherchen erhebliche betriebswirtschaftliche Effekte zu erzielen. Das Aufgabengebiet eines Wissensarbeiters besteht vorrangig aus wissensintensiven Aktivitäten, bei denen ein hohes Maß an Wissen benötigt, also aus vielen ITSystemen abgerufen werden muss, in denen es in strukturierter oder unstrukturierter Form vorliegt. Während der Bearbeitung solcher Aktivitäten ist ebenso eine Unterstützung für die Ablage des dabei entstandenen Wissens notwendig. Eine Fokussierung des kontextorientierten Wissensmanagements auf wissensintensive Prozesse erscheint daher sinnvoll.
1
2 3
Vision über die ubiquitäre Verfügbarkeit von Information als zentrale Zielstellung für die Entwicklung von IT-Systemen in den 90er Jahren, geäußert von Bill Gates, Microsoft, auf der COMDEX 1994. im Original: “We are drowning in information but starved for knowledge.” John Naisbitt (Megatrends: Ten New Directions Transforming Our Lives). Solche oft als „Communities of Practice“ bezeichnete Gruppen entstehen in der Regel emergent aus einer gemeinsamen Interessenlage von Einzelindividuen heraus und sind hinsichtlich Aktivität und Teilnehmern einer hohen Dynamik unterworfen.
Prozessorientiertes Wissensmanagement
945
Einer der momentan zu beobachtenden Trends ist die Kopplung von Informationsmanagementsystemen mit geschäftsprozessorientierten Systemen mit dem Ziel eines prozessorientierten Wissensmanagementsystems. Im Rahmen eines Forschungsprojektes arbeiten die Autoren ebenfalls an einer diesem Bereich zuzuordnenden prototypischen Umsetzung eines entsprechenden Systems. Die Darstellung in diesem Beitrag konzentriert sich auf drei Bereiche: Einen Überblick über das geschäftsprozessorientierte Wissensmanagement im Rahmen des Forschungsprojektes PreBIS gibt der Beitrag in Abschnitt 2, gefolgt von der allgemeinen Beschreibung der Klasse der kontextualisierten Informationssysteme im Hinblick auf deren Eigenschaften und Möglichkeiten (siehe Abschnitt 2.2). Im Anschluss daran werden prozessorientierte Informationsräume kurz vorgestellt, wonach das Hauptthema der Kontextexternalisierung in Abschnitt 3.2 folgt. Darin wird beschrieben, wie die Gewinnung von Kontextinformationen für den Fall des geschäftsprozessorientierten Wissensmanagement in automatischer Weise aus ablauffähigen Prozessen gewonnen werden kann, ohne weitere Modellierungsschritte in den Geschäftsablauf einbringen zu müssen. Eine Betrachtung ähnlicher Ansätze stellt das Kapitel 4, Verwandte Arbeiten, vor. Die sich anschließende Zusammenfassung rundet den Beitrag ab und enthält einen Ausblick auf weitere mögliche Forschungsaktivitäten im Bereich des geschäftsprozessorientierten Wissensmanagements.
2
Prozessorientiertes Wissensmanagement mit PreBIS
Die Verbindung einer bedarfsgerechten Informationsversorgung und dem Ablauf von Geschäftsprozessen in Unternehmen steht im Vordergrund des Forschungsprojekts PreBIS – PreBuilt Information Space4, bei dem der Aufbau und die Nutzung von Informationsräumen als kollektiver Wissensspeicher untersucht wird. Im Rahmen dieses Beitrages wird PreBIS nur im Überblick und mit Fokussierung auf die Kontextualisierung von Geschäftsprozessen vorgestellt, für ausführlichere Darstellungen des Projektes sei der Leser auf [Boeh+03] bzw. [Faeh+03] sowie auf die Projektwebsite verwiesen, die unter http://www.prebis.de erreichbar ist. Der Forschungsansatz verfolgt mit der Orientierung an den wertschöpfenden Geschäftsprozessen im Unternehmen das Ziel der Integration einer Wissensmanagementlösung in die bereits vorhandenen prozessführenden Systeme. Durch die Nutzung eines Rollen- und Aufgabenkontextes, der aus dem Geschäftsprozess
4
Das Projekt PreBIS wird mit Mitteln des Bundesministeriums für Wirtschaft und Arbeit unter dem Förderkennzeichen 01 MD 217 gefördert.
946
K. Böhm, J. Härtwig
gewonnen wird, werden die Benutzer aufgabenorientiert unterstützt und arbeiten in ähnlichen Rollensituationen implizit zusammen. Hiermit soll vermieden werden, dass die Benutzung von Wissensmanagementsystemen, die aus Sicht der Benutzer zunächst als zusätzliche Informationsquellen wahrgenommen werden, von den Mitarbeitern als Mehrarbeit empfunden werden. Die Möglichkeit einer Ablehnung der Benutzung von IT-Systemen besteht in der Tat. Vor allem, da es sich bei dem PreBIS-System (scheinbar) um kein aktives Werkzeug zum Lösen einer Aufgabe handelt, kann die Benutzung anfangs als kontraproduktiv angesehen werden. Eine rasche Wahrnehmung des Nutzens wird ebenfalls durch die Diskrepanz Lernen-durch-Benutzung verstärkt. Das PreBIS-System wird durch das Lernmodul besser durch die Benutzung des Einzelnen sowie durch weitere Mitarbeiter derselben oder anderer Rollen. Die Lösung scheint in dem Kompromiss zu liegen, einerseits anfangs argumentativ durch das Management Überzeugungsarbeit zu leisten und andererseits das PreBIS-System soweit als möglich transparent in die tägliche Arbeitsroutine der Nutzer zu integrieren.
2.1
Das Konzept vorgebauter Informationsräume
Ausgehend von der dargestellten Situation im unternehmensbezogenen Wissensmanagement wurde im Projekt PreBIS die Idee des vorgebauten Informationsraums (engl. Pre-Built Information Space – PreBIS) entwickelt, deren Ziel die Überwindung der bereits genannten Einsatzbarrieren ist. Rollenspezifischer Kontext
Leitprozess
Systemgrenze des Geschäftsprozesses
Interne Interne Daten, Daten, gekoppelt gekoppelt an an GP GP (explizit, (explizit, strukturiert) strukturiert) Externe Externe Daten, Daten, außerhalb außerhalb des des GP GP (implizit, (implizit, vage) vage)
Abbildung 1: Benutzung aufgaben- und rollenspezifischer Kontexte zur Erschließung relevanter Informationen (nach [Boeh03])
Wie in Abbildung 1 dargestellt, wird bei der Modellierung des Informationsbedürfnisses von der Grundannahme ausgegangen, dass die Benutzer im Unternehmenskontext in einem prozessführenden Leitprozess (wertschöpfender Geschäftsprozess) eingebunden sind, den sie in der Regel mit anderen Mitarbeitern im Unternehmen gemeinsam bearbeiten. Unter einem Informationsraum wird die sich aus dem Kontext einer bestimmten Aufgaben- und Rollensituation ergebende Menge von Informationen zusam-
Prozessorientiertes Wissensmanagement
947
mengefasst, die für die Befriedigung des Informationsbedürfnisses in diesem situativen Kontext benötigt wird. Innerhalb des Raumes werden Informationen dabei bezüglich ihrer Relevanz im aktuellen Kontext gewichtet und selektiv präsentiert und vermeiden dadurch eine Überforderung des Benutzers durch zu viele (unwesentliche) Informationen. Der Informationsraum zeichnet sich hierbei durch ein dynamisches Verhalten aus: Aus der Sicht des Benutzers ändert sich der Informationsraum, sobald sich die kontextuellen Rahmenbedingungen verändern, z. B. durch Bearbeitung einer anderen Aufgabe. Andererseits teilen sich die Mitglieder einer bestimmten Rolle einen gemeinsamen Informationsraum und gestalten diesen durch Bewertung der enthaltenen Informationselemente (implizites und explizites Benutzerfeedback) aktiv aus. Aus dieser rollenbasierten Interaktion mit dem System entsteht eine implizite Kooperation zwischen Benutzern mit ähnlichen Interessen, die sich in der Konsolidierung von rollenspezifischem Wissen im Informationsraum äußert (vgl. [Haer+03]). Aus Sicht der Benutzer handelt es sich bei einem Informationsraum um eine veränderliche Zugriffstruktur, die ähnlich einer geographischen Landkarte die Navigation zu den gewünschten Zielen (Informationen bzw. Informationsquellen) erleichtert. Im Gegensatz zu der statisch festen Darstellung einer herkömmlichen Landkarte, die für einen bestimmten Einsatzzweck (vgl. Wanderkarte vs. Straßenkarte) entworfen wird, strukturiert der PreBIS Informationsraum den Zugriff jeweils so, wie er für den aktuellen Kontext angemessen erscheint. Das Konzept der vorgebauten Informationsräume kann also als dokumenten- und wissensobjektorientierte Kodifizierungsstrategie aufgefasst werden. Dabei scheint die Fokussierung auf Geschäftsprozesse als kontextgebende Systeme zunächst eine Beschränkung zu sein, die eine möglichst breite praktische Anwendung einzuschränken scheint. Die Motivation dieser Herangehensweise entstammt der Beobachtung, dass eine effektive operative Wissensmanagementlösung möglichst eng an die wertschöpfenden Kernprozesse im Unternehmen gekoppelt sein muss, um einen nachweisbaren wirtschaftlichen Effekt erzielen zu können. Das zugrunde liegende Konzept des über einen Kontext adaptierten vorgebauten Informationsraums ist hingegen nicht zwingend an einen Geschäftsprozess gekoppelt, sondern kann auch auf andere kontextgebende Systeme adaptiert werden. Dieser Aspekt gewinnt dort an Relevanz, wo die ablaufenden Prozesse schwach strukturiert sind, oder kein prozessführendes System eingesetzt wird.
2.2
Kontextualisierte Informationssysteme
Klassische Informationssysteme beziehen den Kontext einer Anfrage weder in der Weiterverarbeitung der spezifizierten Suchanfrage noch in die Einschränkung der Suchergebnisse ein. Der Benutzer muss selbst dafür Sorge tragen, dass der Kontext, aus dem heraus sein Informationsbedarf resultiert, genügend gut in seiner
948
K. Böhm, J. Härtwig
Spezifikation der Suchanfrage formuliert ist. Da die Art und Weise wie das Retrieval-System aufgebaut wurde (Verschlagwortung, Kollektionen etc.), den meisten Benutzern verborgen ist, erschwert der Abgleich der Begrifflichkeit des Benutzers und die des Informationssystems das Finden der gewünschten Dokumente. Die kontextbezogene Informationsrecherche endet also bei der Übergabe der Suchanfrage an das Retrieval-System und wird bei der Interpretation der Suchergebnisse wieder aufgenommen. Klassische Informationssysteme sind nicht kontextsensitiv. Dies bedeutet insbesondere, dass der Benutzer den Kontext seines Informationsbedürfnisses sowohl in der Anfrage als auch bei der Interpretation der Ergebnisse selbst einbringen muss.5 Kontextualisierte Informationssysteme (kIS) weisen, ähnlich den prozessorientierten Wissensmanagement-Systemen, einen hohen symbiotischen Bezug zu Geschäftsprozessen auf.6 Ein kIS wird in einer Vorbauphase (Pre-Build-Phase) auf eine Organisation eingestellt, d. h. konkret für einen speziellen Einsatz modelliert. Damit wird das im Unternehmen vorhandene Wissen (Corporate Know-how) nicht nur mit einbezogen, sondern um eine zusätzliche Dimension erweitert: Das bekannte Professional Know-how umfasst das ingenieurmäßige Planen und Durchführen von Projekten und Produktzyklen sowie zunehmend die Erbringung von Dienstleistungen. Das Organisational Know-how bildet die Bereiche Unternehmensführung, Strategien, Marketing, Personal-Management etc. ab. Das Cooperative Know-how erweitert das Modell um Rollenkonzepte für die prozessorientierte und aufgabenbezogene Informationsversorgung. Somit unterstützt das Cooperative Know-how in einem kIS einerseits die Basis des Corporate Know-hows und andererseits stellt das Wissen über Teamarbeit, Content-, File- und Tool-Sharing sowie das prozessuale Zusammenarbeiten das Bindeglied zwischen Professional und Organisational Knowhow dar (Abbildung 2).
5
6
Analysen des Anfrageverhaltens bei Internetsuchmaschinen haben ergeben, dass Benutzer oft die Strategie der iterativen Verfeinerung ihrer Suchanfragen anwenden und in dem Ergebnis der Analyse die besten Ergebnisdokumente auf Relevanz überprüfen, um dann zu entscheiden, ob eine weitere Suchanfrageoptimierung notwendig ist. Nach [Maie02] ist der Ansatz von kIS in die vierte und höchste Stufe des dort vorgeschlagenen typischen Verlaufs der Implementierung von KMS einzuordnen, bei der die Bereitstellung integrierter kontextualisierter Wissensspeicher im Vordergrund steht. Entsprechend sind für eine erfolgreiche Umsetzung die Voraussetzungen der vorgelagerten Phasen bereits zu erfüllen (Grundfunktionalitäten, Integration und Interaktion).
Prozessorientiertes Wissensmanagement
949
Corporate Know How
Cooperative
Professional Know How
Organisational Know How
Know How
Abbildung 2: Überblick über die Komponenten des Unternehmenswissens
Bei Kooperationen führen mehrere Menschen oder Organisationen gemeinsam Aktivitäten mit einer klar definierten Zielsetzung aus. Kooperation fördert dabei drei wichtige Faktoren (K-Faktoren): Kostenreduktion, Qualitätsverbesserung der Ergebnisse sowie Arbeitserleichterung aller Beteiligten. Durch kooperative Arbeit wird demzufolge ein messbarer Mehrwert geschaffen. Der Kontext erfährt dabei große Beachtung und kann in 3 Kategorien eingeteilt werden, wobei die Kontextarten mit unterschiedlicher Relevanz auf das kIS einwirken. Der modellierbare Kontext teilt sich auf in: x statischen Kontext: modellierte Rollen, Aufgaben und Informationsbedarfe (Geschäftsprozesse, Ontologien, semantische Netze); x dynamischen Kontext: vom Benutzer änderbare Teile (z. B. Hilfsmittel für die konkrete Aufgabeninstanz, Suchbegriffe und -strategien); x organisationalen Kontext: personell-sozial (Qualifikation, Erfahrung, Werte, Einstellungen, Lernmethodik, Verhalten, Verantwortung), lokale Infrastruktur (Ort, Technik, mediale Umgebung), zeitbezogen (vgl. [Delp+03]). Durch die untrennbare Verbindung zwischen Prozess und Kontext wird ein Synergieeffekt erreicht, der sich durch die Benutzung eines kIS in der Potenzialqualität des Wissensarbeiters (K-Faktor) ausdrückt. Der Wissensarbeiter erlangt schneller mehr Informationen zum Thema, erhält dadurch einen besseren Überblick und lernt die Zusammenhänge aufgabenübergreifend zu verstehen. Gleichzeitig erhöht sich die Produktqualität der ausgelieferten Information (K-Faktor), da sie in das Kontextraster der jeweiligen situativen Arbeitsumgebung passt.
950
K. Böhm, J. Härtwig
Kontextualisiertes Informationssystem Kooperationsrahmen
Wissensarbeiter (in Rolle A)
Intelligent Information Engineering Konzept Retrieval-System Kooperationssachgebiete
Wissensarbeiter (in Rolle B)
Kontext
Prozesse
Abbildung 3: Aufbau eines kontextsensitiven Informationssystems
Durch das kooperative Informationsmanagement über ein kIS werden die Rollenkonzepte kontinuierlich verbessert. Mithilfe des Intelligent Information Engineering Konzepts [Haer+03] kooperieren Wissensarbeiter der gleichen sowie mit unterschiedlichen Rollen (Abbildung 3). Die Kooperationssachgebiete werden durch den Geschäftsprozess begrenzt und bilden mit dem Kontext eine semantische Einschränkung über dem gesamten Suchraum. Geschäftsprozesse weisen oft Kommunikationsbrüche auf. Sofern die Wertschöpfungsketten unternehmens- oder sogar branchenübergreifend angelegt sind, wird die Integrationsproblematik der unterschiedlichen IT-Anwendungen noch deutlicher. Die Wissenseinheiten, bestehend aus einem Softwaresystem und einem Wissensarbeiter (Abbildung 4), sind oftmals lokal an den Standort gebunden und stellen aus Sicht des Wissensmanagers ungenutzte Informationssysteme dar. Der Informationsgehalt und –wert korreliert stark mit der Aufgabe des Wissensarbeiters. Die Rolle des Wissensarbeiters und seine jeweilige Aufgabe stellen einen modellierbaren Kontextausschnitt dar.
Softwaresystem
Softwaresystem
Kontextsensitives Informationssystem
Softwaresystem
Softwaresystem
Abbildung 4: Zusammenschluss von Wissenseinheiten
Prozessorientiertes Wissensmanagement
951
Das kIS fasst Dokumentenkollektionen, Informationsquellen und Wissenseinheiten in einem Informationsraum über einen Informationslogistikplan zusammen (vgl. [Hoof+03], [Delp+03], [Haer+03]). Im Hinblick auf diese aktive Wissensbehandlung wird von komplexen und adaptiven Systemen mit hoher Emergenz gesprochen (vgl. [Rose+02]). Ein kontextualisiertes Informationssystem arbeitet entlang der Geschäftsprozesskette nach dem Prinzip collect and deliver. Die gesammelten Informationen werden nach dem Informationslogistikplan kontextuell bewertet (statischer und teilweise organisationaler Kontext) und in der Struktur im kIS abgelegt oder referenziert (collect). Die Informationsauslieferung berücksichtigt zusätzlich den dynamischen Kontext durch die Verbindung zu der kontextualisierten Instanz eines Geschäftsprozesses (deliver). Damit wird nicht nur der Content sondern auch der Kontext mit den Geschäftsprozessen verknüpft, wodurch das kIS die vom Benutzer spezifizierte Suchanfrage kontextsensitiv verarbeiten kann. Durch die Anbindung des PreBIS-Systems an die Geschäftsprozesse wird die Arbeit der Wissensarbeiter effizienter und gleichzeitiger qualitativ höherwertiger. Wie unten ausgeführt wird, steuern prozessausführende Systeme (bspw. Workflow-Systeme oder ERP-Systeme) die Transaktionen sowohl zwischen Systemen als auch zwischen Maschine und IT-System. Eine verbesserte Qualität der Ergebnisse der Wissensarbeiter ist nicht direkt messbar, sondern durch analytische Qualitätsmetriken zu prüfen. Die Veränderung in der Abarbeitung ist durch ein Monitoring des prozessausführenden Systems nachzuvollziehen. Die bedarfsgerechte Informationsversorgung sorgt dabei für eine Verringerung der Durchlaufzeit bei wissensintensiven Aktivitäten, die zu messbaren Effekten führt. Allerdings sei auf die Abhängigkeit hingewiesen, die Effizienzgewinn und Qualität in wissensintensiven Lösungen verbinden. Durch die bessere Fokussierung in der Informationsversorgung und die Einbindung von ursprünglich prozessexternen Informationen steigt die Qualität bei der Abarbeitung der unterstützten Aktivitäten, da relevante Informationen einfacher verfügbar sind und durch die kooperative Komponente von Erfahrungen von Kollegen mit ähnlichem Intention und Zielen partizipiert werden kann. Messbar werden diese Effekte beispielsweise an den Einarbeitungszeiten neuer Mitarbeiter oder bei qualitativen Analysen zur Prozessqualität (etwa der Falllösequote in Call-Centern).
3
Kontextualisierung von Geschäftsprozessen
Für die bedarfsgerechte Informationsversorgung ist es entscheidend, dass der Kontext des zu unterstützenden Geschäftsprozesses möglichst genau in automatischer Weise abgeleitet werden kann. In diesem Abschnitt wird dargestellt, was unter einem prozessorientierten Informationssraum verstanden werden kann und wie dieser mit Hilfe des Prozesskontextes aus Rolle und Aufgabe sich entsprechend an-
952
K. Böhm, J. Härtwig
passt. Dabei wird auf die unterschiedlichen Abstraktionsniveaus der verschiedenen Prozessmodellierungsansätze aus betriebsorganisatorischer und technischer Sicht eingegangen. Schließlich wird ein generischer Ansatz für die Kontextexternalisierung aus Geschäftsprozessen beschrieben, der bei der algorithmischen Umsetzung eine Transformation der formalen Prozessbeschreibung in einem Standardformat durchführt.
3.1
Prozessorientierte Informationsräume
Ausgehend von dem Konzept der vorgebauten Informationsräume wird in diesem Abschnitt betrachtet, wie diese sich mit dem Kontext von Geschäftsprozessen verbinden lassen. Wesentlich ist hierfür die Unterscheidung zwischen abstrakten Geschäftsprozessen, die primär für die Strukturierung von betrieblichen Abläufen gedacht sind und in der Regel als planerische Unterlagen für die durchzuführenden Strukturierungsmaßnahmen Anwendung finden. Für die Modellierung von Geschäftsprozessen stehen eine Reihe von Methoden und unterstützenden Softwarewerkzeugen zur Verfügung; genannt seien exemplarisch die Methode der erweiterten Prozessketten (eEPK) die vom Werkzeug ARIS7 unterstützt wird und die Kommunikationsstrukturanalyse (KSA), die mit Hilfe des Werkzeuges SemTalk8 modelliert werden kann.
Komplexe Aktivitäten Organisatorische Rollen
Abbildung 5: Ausschnitt eines abstrakten Geschäftsprozesses im SAP Solution Composer
7 8
Informationen zu der ARIS-Prozessplattform sind auf der Website des Herstellers IDS-Scheer verfügbar: http://www.ids-scheer.de/. Weitere Informationen zum Werkzeug SemTalk und der Modellierungsmethode KSA finden sich auf der Unternehmenswebsite der Semtation GmbH: http://www.semtation.de/.
Prozessorientiertes Wissensmanagement
953
Demgegenüber stehen ablauffähige Geschäftsprozesse, die auf die systemische Ausführung von Geschäftsprozessaktivitäten durch informationstechnische Systeme abzielen und demnach eher infrastrukturelle Fragen wie Interaktion und Integration von IT-Systemen in den Vordergrund stellen. Dieser als Business-ProcessModelling bezeichnete Bereich führt dabei Aspekte des Enterprise Application Integration (EAI) und der verteilten Ausführung von Geschäftsprozessen (Workflows, Process Execution Engines) zusammen. In Bezug auf die Informationsräume ist diese Unterscheidung deshalb interessant, weil die prozesseigenen Kontexte auf der Basis von Rollen und Aufgaben oft in den abstrakten Geschäftsprozessen modelliert sind (organisatorische Rollen, z. B. „Marketing“ und komplexe Aktivitäten wie „Anforderungsanalyse durchführen“). Der in Abbildung 5 dargestellte Ausschnitt des SAP Solution Composers9 verdeutlicht diese Granularität anhand eines Referenzprozesses für die Produktentwicklung. Der prozesseigene Kontext einer spezifischen Rollen- und Aufgabenzuordnung, wie sie für eine bedarfsgerechte Versorgung mit (zusätzlichen) Informationen notwendig ist, kann auf dieser Modellierungsebene gut abgeleitet werden. Bei der Kopplung des Informationsversorgungssystems an ausführbare Geschäftsprozesse werden die Prozesse oft so modelliert, dass sie eine technische Sicht auf den Geschäftsprozess abbilden. Die einzelnen Aktivitäten entsprechen dort oft Interaktionen mit den beteiligten IT-Systemen (z. B. einem CRM-System oder einer Finanzbuchhaltung) und beschreiben, statt einer organisatorischen Rollenzuordnung, oft eher eine Rollenverteilung in Bezug auf Produzenten oder Konsumenten von Information. Die Darstellung in Abbildung 6 illustriert dies beispielhaft anhand der Prozessmodellierung einer Finanzierungsanfrage im Collaxa BPELDesigner10. Dargestellt sind dort die einzelnen Prozessaktivitäten, die jeweils eine Kommunikation mit einem externen IT-Service darstellen, sowie ihre Ablaufreihenfolge und eine Beschreibung der einzubindenden Dienste. Diese gegenläufigen Problemstellungen stellen zunächst eine Hürde für diesen Ansatz dar, da das Informationsversorgungssystem diesen konversationalen Kontext der beteiligten Informationssysteme nicht direkt im Sinne eines Rollen- und Aufgabenkontextes im oben ausgeführten Sinne auswerten kann. Gleichzeitig sind aber die in den entsprechenden Ablaufumgebungen ausgeführten Geschäftsprozesse die einzigen kontextgebenden Systeme, woraus die Herausforderung entsteht technische und betriebswirtschaftlich-organisatorische Geschäftsprozessmodellierung aufeinander abzubilden. In diesem Bereich ist mit der Durchsetzung der Business Process Modeling Notation (BPMN, siehe [White04]) mit einer weiteren
9 10
Informationen über die Collaborative Business Maps und den SAP Solution Composer finden sich unter: http://www.sap.com/solutions/businessmaps/. Informationen zu dem BPEL-Designer und dem BPEL-Server der Firma Collaxa finden sich auf der Website http://www.collaxa.com/.
954
K. Böhm, J. Härtwig
Annäherung zwischen Modellierungssystemen für abstrakte und ausführbare Geschäftsprozesse zu rechnen.
Ablaufplan des Geschäftsprozesses
Geschäftsprozessaktivitäten zur Kommunikation mit IT-Services
Schnittstellenbeschreibungen der eingebundenen Dienste
Abbildung 6: Ausschnitt eines ausführbaren Geschäftsprozesses im Collaxa BPEL-Designer
Bei der Lösung dieses Problems kann die Tatsache ausgenutzt werden, dass die beiden Modellierungsebenen in der Regel unterschiedliche Abstraktionsgrade darstellen und hinter einer abstrakten Geschäftsprozessaktivität oft ein kompletter ausführbarer Teilprozess hinterlegt ist. Sofern dieser Zusammenhang bei der stufenweisen Implementierung des Geschäftsprozesses erhalten bleibt, können die benötigten Kontextinformationen aus der abstrahierten Ebene über diese Beziehung im Prinzip auf die in der Ablaufumgebung ausgeführten Aktivitäten abgebildet werden. Dies kann über das Mitführen entsprechender Metainformationen in dem ablauffähigen Prozess erfolgen, die dann an das Informationsversorgungssystem weitergegeben oder abgefragt werden können. Alternativ könnte die Zuordnung auch vom Informationsversorgungssystem selbst hergestellt werden, wenn es die abstrahierte Prozessrepräsentation einlesen kann und eine Beziehung zu den jeweils aktiven Geschäftsprozessaktivitäten herstellen kann. Neben einer entspre-
Prozessorientiertes Wissensmanagement
955
chenden Importschnittstelle ist hierbei vor allem ein Benachrichtigungssystem zwischen Prozessausführungssystem und Informationsversorgungssystem zu etablieren. Der folgende Abschnitt beschreibt, wie diese Anforderung durch eine Transformation der formalen Prozessbeschreibung erfolgen kann.
3.2
Kontextualisierung aus ablauffähigen Geschäftsprozessen
Für die Unterstützung der Informationsversorgung der Benutzer bei der Ausführung eines Geschäftsprozesses sind vor allem Informationen über die momentan ausgeführte Aktivität und die dabei eingenommene funktionale Rolle entscheidend (oben als statischer Kontext bezeichnet). Darüber hinaus kann es entscheidend sein, Kenntnis über Informationen zu erhalten, die während des Prozessablaufs erzeugt oder verändert werden (dynamischer Kontext). Da PreBIS als Informationsversorgungssystem an der eigentlichen Prozessausführung nicht direkt teilnimmt, kann die Gewinnung dieser Kontextinformationen im Prinzip auf verschiedene Weisen erfolgen: x Das Prozessleitsystem könnte (zyklisch) auf den aktuellen Zustand des ausgeführten Prozesses hin abgefragt werden. Dieser Ansatz setzt allerdings das Vorhandensein einer Abfrageschnittstelle bzw. Abfragesprache (z. B. BPQL) oder eines Auditing-Moduls voraus. x Im Prozessleitsystem könnten in programmatischer Weise Ereignisse (Events) generiert werden, die das PreBIS-System über einen Kontextwechsel informieren. Da für die Umsetzung dieser Lösung in das Prozessablaufsystem eingegriffen werden muss, entsteht hier eine unerwünschte Abhängigkeit von einem speziellen Anwendungssystem. x Die formalisierte Beschreibung des Geschäftsprozesses könnte in automatischer Weise so transformiert werden, dass das PreBIS-System ein Teilnehmer des Prozesses wird11 und unmittelbar vor bzw. nach jeder, aus Kontextsicht relevanten, Änderung des Prozesszustandes über eine Nachricht informiert wird. Für unseren Ansatz wurde die letztgenannte Variante gewählt, da sie erstens die Vorteile besitzt, unabhängig von einem konkreten Prozessablaufsystem zu sein, zweitens keine Eingriffe in die am Prozess beteiligten Partner erforderlich zu machen und drittens automatisch einen bereits vorhandenes GPM um die relevanten Informationen ergänzen kann. Bei dem gewählten Ansatz besteht lediglich die Abhängigkeit zum eingesetzten Modellierungsstandard. Um eine möglichst hohe Bandbreite möglicher Einsatz-
11
Hierbei nimmt das PreBIS-System die Rolle eines Beobachters (Auditors) ein und greift nicht verändernd in den Prozess selbst ein.
956
K. Böhm, J. Härtwig
szenarien gewährleisten zu können, wurden verschiedene Standards von Modellierungsverfahren für Geschäftsprozesse untersucht und auf die Möglichkeit einer automatischen Kontextualisierung hin untersucht. Bei den derzeit verfügbaren Standards und den sich abzeichnenden Entwicklungen lag der Fokus auf zwei wesentlichen Standards: Einerseits wird die Entwicklung der Business Process Execution Language for Web Services (BPEL4WS, siehe [Andr+04]), die mittlerweile in der Version 1.1 vorliegt, vorangetrieben, um verteilte Geschäftsprozesse mit Hilfe von Webservices automatisiert abwickeln zu können. Eine ähnliche Zielstellung wird mit der Business Process Modelling Language (BPML, siehe [Arki02]) verfolgt, die ebenfalls auf Web-Services für den Informationstransport aufsetzt. Hinter beiden Standards stehen starke Industriekonsortien, die auf eine lange Tradition bei der Modellierung ausführbarer Geschäftsprozesse zurückblicken können. Es ist daher aus der gegenwärtigen Situation heraus schwer abzuschätzen, welcher Standard letztlich dominieren wird. Beide Standards basieren auf XML und setzen weitere XML-Standards für die verschiedenen Teilbereiche ein (Namespaces, XML Schema, WSDL). Damit eigenen sie sich sehr gut für eine automatische Interpretation und Umformung für eine kontextualisierte Geschäftsprozessrepräsentation. Für die nachfolgenden Betrachtungen wird auf den BPEL4WS-Standard aufgesetzt, da hier einerseits eine bessere Werkzeugunterstützung verfügbar ist und andererseits die Spezifikation explizit darauf hinweist, sowohl für die Modellierung von konzeptuellen Geschäftsprozessen (abstrakte Geschäftsprozesse), als auch für die Modellierung von ablauffähigen Geschäftsprozessen geeignet zu sein. Prinzipiell ist das vorgeschlagene Vorgehen jedoch auch auf BPML übertragbar; eine Kontextualisierung würde dort in ähnlicher Weise über das Einfügen von Aktivitäten erfolgen, die das angebundene Informationsversorgungssystem benachrichtigen, wenn ein Kontextwechsel stattfindet (in BPML ist hierfür bereits das Konzept eines rekursiv einbettbaren Ausführungskontextes (context-Element) angelegt).
3.3
Umformung von Geschäftsprozessen
Nachfolgend wird der Prozess der automatisierten Umsetzung eines in BPEL4WS modellierten Geschäftsprozesses kurz vorgestellt. Dabei wird davon ausgegangen, dass der Geschäftsprozess schon mit einem entsprechenden Werkzeug12 im Zielformat entwickelt bzw. in dieses überführt wurde.
12
Für die Erstellung und Ausführung von BPEL4WS-Prozessbeschreibungen steht eine Reihe von Werkzeugen zur Verfügung. Stellvertretend seien hier der Microsoft BizTalk Server 2004 und das BPWS4J-Framework von IBM genannt.
Prozessorientiertes Wissensmanagement
957
Prozessleitsystem (BizTalk 2004)
Modellierungswerkzeug Prozessmodell
BPEL4WS-Import
Kontext-Schnittstelle (WebService)
PreBIS-Kernsystem (obere Ebene, Ausschnitt) Prozessmodell-Import
Rollen- und Aufgabenextraktion
Kontext-Import
Ontologie-Import automatische Transformation der Prozessbeschreibung zur Kontextualisierung des Geschäftsprozesses
Kontextualisierung des Prozessmodells
Kontext-Import (Rollen/Aufgaben)
Kontextschnittstelle
interne Repräsentation
Ontologie-Import Kontextualisierung der Informationsbereitstellung durch Benachrichtigungen über Kontextwechsel vom Prozessleitsystem
Abbildung 7: Komponentendarstellung der Kontextualisierung von Prozessbeschreibungen
Wie in Abbildung 7 dargestellt, wird die Prozessbeschreibung dann von der Prozessmodell-Import-Komponente in das PreBIS-System übernommen und dort in zwei Schritten in eine kontextualisierte Prozessbeschreibung umgewandelt. Zuerst werden aus der Prozessbeschreibung die vorhandenen Rollen und Aufgaben extrahiert und so die Dimensionen der Kontextualisierung für diesen Prozess festgelegt. Anschließend erfolgt die eigentliche Kontextualisierung der Prozessbeschreibung, indem spezielle Aktivitäten, so genannte Kontextverankerungen (ContextHooks), in den Prozess eingefügt werden. Die transformierte Prozessbeschreibung wird danach an die Prozessablaufumgebung übergeben und dort zur Ausführung gebracht. Durch die eingebrachten Verankerungen erfolgt bei Kontextwechseln automatisch eine Benachrichtigung des PreBIS-Systems über eine bereit gestellte Web-Service-Schnittstelle. Die Kommunikation zwischen dem prozessausführenden System und dem PreBIS-System ist dabei in Bezug auf das Kommunikationsmodell aus Sicht des Geschäftsprozesses eine Producer/Consumer-Beziehung, die als solche auch in die Prozessbeschreibung eingefügt wird. Die nachfolgende Abbildung stellt diesen Zusammenhang schematisch und mit Querbezügen zu den Dienst- und Prozessbeschreibungen in den korrespondierenden XML-Dateien (WSDL und BPEL) dar. Technisch erfolgt die Kommunikation über einen Web-Service für die Übergabe der Kontextinformationen, den das PreBIS-System zur Verfügung stellt und der über die modifizierte Prozessbeschreibung aus dem Prozessausführungssystem heraus angesprochen wird.
958
K. Böhm, J. Härtwig
Kontextverankerung (angereichert) Geschäftsprozessaktivität (modelliert)
...
...
{send/invoke}
ROLLE : ... Prozessleitsystem
Ausschnitt der XML Servicebeschreibung (WSDL): < Plnk : partnerLinkType name ="
contextualInformationProvisionLT
"
xmlns : plnk =" http :// schemas . xmlsoap . org/ ws/ 2003 / 05/ partner - link/" > < plnk : role name =" informationContextProvider " > < plnk : portType name ="
informationContextProviderPT "/>
< / plnk : role > < plnk : role name ="
informationContextConsumer ">
< plnk : portType name ="
informationContextConsumerPT
"/>
< / plnk : role > < / plnk : partnerLinkType >
ROLLE : ...
PreBIS - System
Geschäftsprozessaktivität (modelliert)
Kontextverankerung (angereichert)
...
{receive}
Rolle: contextProvider
...
Prozessleitsystem
Ausschnitt der XML - Prozessbeschreibung (BPEL 4 WS ): < PartnerLink name =" informationContext” PartnerLinkType =" prebis: contextualInformationProvisionLT” partnerRole =" informationContextConsumer " myRole =" informationContextProvider "/>
Rolle : ContextConsumer
PreBIS - System
Abbildung 8: Prozessbeschreibung mit eingefügten Kontextverankerungen und Darstellung der Kommunikation zum Informationsversorgungssystem
Bei der Transformation der Prozessbeschreibung zur Kontextualisierung des Geschäftsprozesses sind im Wesentlichen zwei Grundfunktionen zu integrieren: 1. Die Identifikation aller Stellen im Geschäftsprozess, an denen ein Kontextwechsel auftritt, verbunden mit dem Einfügen einer Kontextverankerung sowie
Prozessorientiertes Wissensmanagement
959
2. die Synchronisierung der Benachrichtigungen über die Kontextwechsel mit der richtigen Prozessinstanz13. Insbesondere kann nur die erstgenannte Funktion im Hinblick auf den funktionalen Umfang der Spezifikation allgemeingültig beantwortet werden. Im Falle von BPEL4WS genügt es, sich auf die atomaren Aktivitäten send, receive und invoke zu beschränken und die jeweiligen Parameter der Operation in der Kontextnachricht mitzuliefern, da sich alle komplexeren Geschäftsprozesse aus diesen drei Grundoperationen durch Komposition aufbauen lassen. Für das Einfügen der Kontextverankerungen ist es dabei durchaus relevant, ob die Benachrichtigung des Informationsversorgungssystems vor oder nach der Ausführung der eigentlichen Prozessaktivität erfolgt. Betrachtet man den allgemeinen Fall, lassen sich hier zwei Klassen von Geschäftsprozessaktivitäten unterscheiden: Handelt es sich um Aktivitäten, die der Klasse der send- oder invokeAktivitäten zuzuordnen sind, so muss die Benachrichtigung über den Kontextwechsel vor der eigentlichen Aktivität erfolgen; im Falle von receiveAktivitäten jedoch erst nach Ausführung der Geschäftsprozessaktivität, da die Prozessausführung hier bis zum Eintreffen einer Nachricht von außen blockiert wird. Einen Sonderfall bilden die Blockkonstrukte pick und flow, bei denen die Reihenfolge der Ausführung der geklammerten Aktivitäten nicht vorbestimmt ist. Die Kontextverankerungen müssen hier, wie in Abbildung 9 dargestellt, jeweils einzeln in einen sequence-Block geklammert werden, um eine ablaufgetreue Benachrichtigung des Informationsversorgungssystems sicherzustellen. Wird die Klammerung von Geschäftsprozessaktivität und zugehöriger Kontextverankerung in einem sequence-Block in generischer Weise bei der Transformation der Prozessbeschreibung angewendet, so ist keine Betrachtung von Spezialfällen notwendig, jedoch ist die entstehende Beschreibung des Geschäftsprozesses durch verschachtelte sequence-Blöcke etwas aufwendiger.
13
Da in der Prozessausführungskomponente durchaus mehrere Prozesse ablaufen und sogar mehrere Instanzen eines Prozesses aktiv sein können, ist eine eindeutige Zuordnung zu den Kontextualisierungsnachrichten wichtig, Realisiert wird dies über ein CorrelationSet, in dem eine eindeutige Prozess-ID mitgeführt wird, die vom PreBIS-System beim Start des Prozesses erzeugt wird.
960
K. Böhm, J. Härtwig
Geschäftsprozessaktivität (modelliert)
...
Sequenzblöcke (sequence)
Kontextverankerung (angereichert)
{ receive }
... { send / invoke }
... Pick - oder Flow - Block Prozessleitsystem
Abbildung 9: Sicherstellung der Benachrichtigungsreihenfolge der Kontextwechsel in pick- oder flow-Blöcken
4
Verwandte Arbeiten
Die Betrachtung von Wissensmanagementlösungen aus der Perspektive der Geschäftsprozesse ist in Teilaspekten bereits intensiv untersucht worden; einen Überblick über aktuelle Arbeiten gibt beispielsweise [Abec+02]. In Bezug auf die Erfassung derjenigen Informationen, die für eine am Kontext des Geschäftsprozesses ausgerichtete Informationsversorgung relevant sind, kann auf die Ergebnisse des DECOR-Projekts verwiesen werden (siehe [Abec+03]), das die bereits im Projekt KnowMore verfolgten Ansätze der Kopplung von Geschäftsprozessen und WM-Systemen von stark strukturierten auf schwach strukturierte Prozesse auszudehnen versucht. Im Unterschied zu unserem Ansatz wird hier jedoch ebenso wie bei der Umsetzung wissensintensiver Prozesse mit Hilfe der KMDL (Knowledge Modelling Description Language) ein starker Fokus auf die spezifische Modellierung entsprechender Wissenstransferprozesse gelegt (siehe [Gron03]). In beiden Ansätzen werden klassische Modellierungsmethoden für Geschäftsprozesse um spezifische Wissensmanagementfunktionen erweitert und in der Modellierungsphase durch spezifische Werkzeuge unterstützt, beispielsweise den K-Modeler für die KMDL. Im Ergebnis entsteht jedoch kein ablauffähiger Geschäftsprozess, sondern eine Modellierung, die sich eher für analytische Einsatzfälle empfiehlt (z. B. zur Schwachstellenanalyse der vorhandenen Wissensmanagementprozesse im Unternehmen). Ein weiterer Ansatz ist die im Projekt POKER (Process-Oriented Knowledge Delivery, siehe [Fens02]) anvisierte Orientierung am Prozess als kontextgebendes System, die hier jedoch schwach strukturierte Abläufe in den Vordergrund stellt,
Prozessorientiertes Wissensmanagement
961
die oftmals mit den Standardwerkzeugen moderner Arbeitsplatzsysteme abgewickelt werden (Textverarbeitung, Tabellenkalkulation und vor allem der WebBrowser) und nicht auf ein zentrales Prozessleitsystem orientieren. Der Fokus dieses Ansatzes liegt auf der automatischen Erkennung von Prozessteilen (Template Matching) und der Umsetzung von Verfahren zur Beobachtung der Nutzeranwendungen (Client-Side Monitoring) und ist daher in Bezug auf unseren Ansatz als ergänzende Methodik einzuordnen.
5
Zusammenfassung und Ausblick
In dem Beitrag wurde die Bedeutung der Kontextualisierung der Informationsversorgung als ein Mittel dargestellt, der zunehmenden Informationsflut zu begegnen und so eine Effizienzsteigerung beim Einsatz von Wissensmanagementsystemen herbeizuführen. Anhand des Kontextes aus Geschäftsprozessen können wertvolle Informationen über die Relevanz bestimmter Informationen abgeleitet werden. Ausgehend von einer allgemeinen Darstellung der Eigenschaften kontextueller Informationssysteme wurde gezeigt, wie im Rahmen des Projekts PreBIS der Rollen- und Aufgabenkontext aus Geschäftsprozessen für eine bedarfsgerechte Informationsversorgung benutzt werden kann. Die für diesen Ansatz erfolgskritische Gewinnung von Kontextinformationen aus ablaufenden Geschäftsprozessen wurde anhand des Beispiels der Business Process Execution Language for Web Services vorgestellt. Das vorgeschlagene Verfahren erlaubt dabei die Kontextexternalisierung von Geschäftsprozessen durch automatische Transformierung von Prozessbeschreibungen, vermeidet die Einführung von inhaltlichen oder systembezogenen Abhängigkeiten und kommt ohne zusätzliche Modellierungsschritte bei der formalen Beschreibung von Geschäftsprozessen aus. Die Umsetzung des Konzepts bestätigte dabei die Machbarkeit des Ansatzes, zeigte aber auch, dass die Unterstützung des noch recht neuen BPEL4WS-Standards in den Prozessausführungssystemen noch nicht vollständig umgesetzt ist. Weitere Experimente mit realen Einsatzszenarios und der Evaluation der im Beitrag angegebenen Kenngrößen für erzielbare Effekte sind geplant.
Literatur [Abec+02] Abecker, A.; Hinkelmann, K.; Maus H.; Müller, H.-J. (Hrsg.): Geschäftsprozessorientiertes Wissensmanagement, Springer, 2002.
962
K. Böhm, J. Härtwig
[Abec+03] Abecker, A.; Papavassiliou, G.; Ntioudis, S.; Mentzas G: Business Process Modelling and Entactment for Task-Specific Information Support, in Procceedings of the WI-2003, Band I, Physica-Verlag, 2003. [Andr+04] Andrews, T., et. al: Business Process Execution Language for Web Services, Version 1.1; 2004, verfügbar unter: http://www-106.ibm.com/developerworks/webservices/library/ws-bpel/. Abgerufen am 15.10.2004 [Arki02] Arkin, A.: Business Process Modeling Language, Intalio, 2002, verfügbar unter: http://www.bpmi.org/specifications.esp/. Abgerufen am 15.10.2004 [Boeh+03] Böhm, K.; Fähnrich, K.-P.: Rollen- und aufgabenorientiertes Wissensmanagement durch Geschäftsprozessorientierung. Beitrag zur KnowTech-2003, München, verfügbar unter http://www.knowtech.net/ [Delp+03] Delp, Martin; Engelbach, Wolf: Kontextbezogene Informationsversorgung: Anwenderanforderungen und Granularität der Modellierung. In: Leipziger Beiträge zur Informatik, Band 1, Klaus-Peter Fähnrich; Heinrich Herre (Hrsg.). Leipzig: Universität, 2003 [Faeh+03] Fähnrich, K.-P., Böhm, K.: Rollen- und aufgabenzentriertes Wissensmanagement . In: Forschungs- und Technologiemanagement, Dieter Spath (Hrsg.). München, Wien, Hanser, 2003 [Fens02] Fenstermacher, K: Process-Aware Knowledge Retrieval, in Proceedings of the 35th Annual Hawaii International Conference on System Sciences (HICSS'02), Volume 7, S. 209 ff., Hawaii, 2002 [Gron03] Gronau, N.: KDML - Eine Sprache zur Beschreibung wissensintensiver Geschäftsprozesse, Vortrag auf der WM 2003, 2. Tagung Professionelles Wissensmanagement, Luzern 2. - 4. April 2003 [Hoof+03] Hoof, A. v.; Fillies, C.; Härtwig, J.: Aufgaben- und rollengerechte Informationsversorgung durch vorgebaute Informationsräume. In: Leipziger Beiträge zur Informatik, Band 1, K.-P. Fähnrich; H. Herre (Hrsg.). Leipzig: Universität, 2003 [Haer+03] Härtwig, J.; Fähnrich, K.-P.: Grundkonzepte des Wissensmanagements im Informationsraum. In: Leipziger Beiträge zur Informatik, Band 1, K.-P. Fähnrich; H. Herre (Hrsg.). Leipzig: Universität, 2003 [Maie02] Maier, R.: State-of-Practice of Knowledge Management Systems: Results of an Empirical Study in: INFORMATIK, Zeitschrift der schweizerischen Informatikorganisationen (SVI), S 14 ff., Nr. 1/2002, Zürich [Rose+02] Rosenfeld, L.; Morville, P.: Information Architecture for the World Wide Web. 2. Auflage, Sebastopol: O’Reilly & Associates, Inc., 2002 [White04] White, S. A.: Business Process Modeling Notation, IBM Corporation, verfügbar unter: http://www.bpmi.org/downloads/BPMN-V1.0.pdf. Abgerufen am 15.10.2004
A Tool for IT-supported Visualization and Analysis of Virtual Communication Networks in Knowledge Communities Matthias Trier Technical University Berlin
Abstract: This article introduces Virtual Communities of Practice (CoP) as a valuable and complementing instrument of Knowledge Management (KM). After discussing the role and benefits of Community Software, it is identified, that although sophisticated features are available for members, the coordinating moderators still lack special software support for their complex task of monitoring and managing the expert network structure. Based on a detailed analysis of this management role, a software tool is proposed, which automatically captures the networks of expert communities within virtual discussion groups using existing communication data. Founded on theories of Network Analysis and Information Visualization, practical examples illustrate how the communication networks can be visualized and presented in a web-enabled Management Cockpit to help a Community Moderator to increase the transparency of his Community of Practice for internal members and external stakeholders. Keywords: Communities of Practice, People Networks, Topic Networks, Analysis and Visualization, Network Theory, Software
1
Introduction
There are two basic alternatives for the implementation of Knowledge Management (KM) in an enterprise: the document- and knowledge-object oriented codification strategy and the network- and cooperation-oriented personification strategy [Hans+99]. The latter alternative primarily aims at developing networks of employees, which eventually constitute Communities of Practice (CoP), because they consist of people bound by informal relationships who share common practices [BrDu98, LaWe91]. Hence, supporting knowledge workers includes the identification of social processes and relationships that are applied to solve a business problem [Thom+01]. The increasing emphasis on the personification strategy is also observable in corporate practice, because instead of analyzing a set of related documents, employ-
964
M. Trier
ees prefer to directly contact reference persons or experts in their problem domain to gather relevant information and hence enterprises move towards pursuing this strategy [Alle00]. How Communities of Practice complement Knowledge Management instruments is demonstrated by the model shown in Figure 1. It positions the entities People, Process/Activity, Document, and Topic as the main elements of the corporate KM domain in a relationship network and highlights their relationships [Trie03b]. The primary objective of corporate KM is now to achieve transparency about the various relationships between the four entities in order to enable efficient access to the actual resources stored in the organizational knowledge structure. For example, KM Systems are employed to provide information about the interrelations between some documents but also about the relationships between instances of a process and the documents connected to it, the persons who created the documents, and the topics, which are related to the persons. The model also illustrates the strong link between the approach of Communities of Practice and of Process Orientation. While the latter is modelling the interrelations of activities and their connection to related documents or responsible people, communities focus on the network of relations between people and their connection to topics and documents. Both disciplines are obviously partially covering the entities of the overall knowledge structure of an enterprise (Figure 1). The importance of the community perspective for KM is also underlined in the literature, which suggests that KM Systems should much more consider the social processes between people that combine distributed knowledge into an integrated perspective instead of concentrating on classification and storage systems for knowledge 'objects' [HoLo99].
Process / Activity
Document
Employee
Topic
Business Process Management Communities of Practice
Figure 1: The Knowledge Management Entity Model [Trie03b]
IT-supported Visualization and Analysis of Virtual Communication Networks
2
965
Communities in Corporate Applications
There are various practical examples, which illustrate how enterprises approach a community-oriented Knowledge Management. These cases provide a first substantiation of the importance of moderators in corporate expert groups. For example, Siemens is employing ‘Communities of Excellence’ [Enke+02]. There, virtual groups focus on functions, like process-engineering teams in the production or software engineers in the development division. The groups have members of the respective topical areas, processes, and projects. An IT-platform is utilized, containing discussion boards, ‘urgent request’ facilities, member directories, chat features, search functionality, news pages, and link collections. Official coordinators have been established and are responsible for tracking the flow of contributions to develop their subject area. Next to this individual contribution of various practical insights, members have bi-annual meetings and special community projects. In this way, the Virtual Community is enriched and backed by personal contact. A second example for the successful application of virtual Communities of Practice is Shell International Ltd [She01]. Many informal groups already existed. They have been identified and migrated into an official global network in 1999. This network is Shell’s system of Communities of Practice. Informal Groups have been officially recognized and legitimized by this procedure and hence became integrated into the enterprise’s organizational structure. Shell’s strategy is to have rather large groups of 1500 to 2000 people, although this must mean, that there are no real social relationships possible in such a big group. The company also established moderating responsibles, called ‘hub-coordinators’. The questions and discussions mainly deal with applying a colleague’s expertise to exceptional situations in the business processes, for example drilling methods. A special department is analysing all the semi-formal contributions and utilizes the insights contained to produce new process standards for the whole enterprise. Many more corporate examples illustrate the successful application of this special instrument of Knowledge Management, e.g. ChevronTexaco Corp., BP p.l.c, IBM Corp., Unilever p.l.c, or DaimlerChrysler AG. In such professional applications of communities in enterprises, often a coordinating role is established as an organizing and steering contact person to account for the increased responsibility of the group. Such a moderating role is also identified and characterized in the literature. Examples are McDermotts Community Leader [McDe99] or Fontaine’s concept of a facilitator [Font01]. By analysing existing communities and their success factors on a more detailed level, Kim even develops a seven role model including the three roles host, event coordinator, and greeter [Kim00]. A similar concept is found by Wenger [Weng98] who even identifies seven leadership roles. Among them, there is an institutional leader who is the link to the organization, an interpersonal leader who supports tight social net-
966
M. Trier
works between group members, and a day-to-day leader, organizing activities. In the end, all these roles can also be interpreted as special organizing tasks, which can be attributed to a more general organizing role, referred to as ‘Community Manager’. Although the name of the role implies that communities are manageable, this task is very special because of the principle of voluntarism in such networks. Members dislike to be instructed and rather feel like a group of volunteers who contribute their insights to a topic only, if they need to do it. This renders management more a facilitating context management, which enables members to work on their ideas [Font01]. The generation of a strong identity and the emphasis on relationship networks is next to the content-related work a very important factor for managing such a CoP. According to this special situation, CoP managers are often emerging from the group and are equipped with strong expert legitimation to strategically and tactically be able to influence the community development. Johnson [John01] attributes this effect to the various constructivist properties of Communities of Practice. They involve ill-structured problems, learning in a context of real-world-problems, shared goals, and the use of cognitive tools to organize knowledge. Ill-structured problems cannot be solved by any individual alone and hence the instructor is changing towards a facilitating coach for guiding the learning and helping the team develop. This moves the control away from the instructors to the group and a network of people emerges. In addition to this special internal configuration, there are external tasks like acquiring external resources, communicating results, or connecting to other communities.
3
Supporting CoPs with IT
To design appropriate IT functionality for the coordinating roles in an expert group, the opportunities of supporting communities with software platforms have to be analysed. CoP platforms are especially helpful for areas, in which tacit knowledge of experts can directly be applied to a related business problem [BrDu98, Weng98, WeSn00]. The people requesting help do not need to tediously analyse documents and protocols of similar scenarios to find and interpret a case with an appropriate fit to their problem. Instead, they can directly enter their request into a platform. A suitable subject matter expert can then apply his existing knowledge to this special context and does not need to explicate his experience into a broad and generic problem solution first. By answering questions of others and receiving the appropriate feedback about the practical implementation of their advice, experts are also frequently updated and reassess or even extend their experience in new concrete
IT-supported Visualization and Analysis of Virtual Communication Networks
967
application scenarios. For the initiator of the request, this method is a better way to learn by applying other’s experiences. Next to this ad-hoc mode of problem solving, Community Software provides the community with a means to discuss, develop, and integrate distributed partial approaches from projects or business processes to best practice standards. Communities of Practice are living longer than projects, which last only for a limited period. This long-term perspective of topic-oriented people networks helps the organization to maintain important competencies achieved in various related projects even after they have been completed [Weng98]. Experts generate their insights in projects and can nurture and develop their knowledge in communities. They can visually establish themselves as subject matter experts in a relevant topic field. Additionally, a valuable archive of the members’ contributions is being created. A good example for the increasing importance of IT support during the stages of the community lifecycle is British Petrol p.l.c. In the beginning, they conducted formal meetings in order to exchange expert knowledge. Next to such planned events, a large number of informal and unidentified networks existed without any rules. After the implementation of the community initiative, these groups became visible and officially recognized. The identification of these groups increased public attention and hence the relevant groups attracted more members and grew in size. Over time, the members existed in geographically very widespread locations and face-to-face contact became increasingly expensive. To compensate for the size, the communities were supported with a very sophisticated IT-platform, which provided features like mail centres, public folders, discussion boards, an integrated document storage facility, and yellow pages [McFa00]. The necessity of a central place for communication has also been substantiated theoretically by Nonaka and Teece. They established the concept of Ba, stating that knowledge transfer always requires a place like in this setting the platform in order to work. “Ba” is the Japanese word for place and represents the context in which knowledge is created, shared, systemized, and exercised [NoTe01]. In order to utilize all these advantages of software infrastructures, the manager needs to successfully migrate the very informal and invisible initial relationships of his group of experts to this platform. However, the adoption and movement to a platform has to be in line with the life cycle stage of the community [Trie02]. The expert group originally emerges from informal relationships between people, who start to develop a network without the application of information technology. Over time, the growth in group size and the geographical distribution of members directs the attention to the issue of technical support for these groups and the application of a central Community Software platform together with related service processes. The main difficulty in employing software support is the change in network structure. A formerly decentralized network with many social elements is becoming centralized on a platform. Persons with very exclusive relationships (sometimes
968
M. Trier
established over years) could be afraid of losing their special network position. Moreover, the social character of the relationships is likely to be reduced, because IT can only support social interactions between the members of a community, but technology can rarely completely replace personal contact [Sta97] and its important contexts necessary for strong social relationships. These adverse effects have to be compensated by the manager by means like faceto-face meetings or the establishment of a strong and visible group identity. On a technical level, communities in an enterprise mainly develop by following one out of three migration paths [Trie03]. In the first scenario, the community platform develops from the initial application of groupware to support teams in various corporate projects. These tools are becoming modified to host defined topics and support the new user group of CoP-members. Afterwards they are offered to emerging CoPs as an internal service. In the second scenario, the organization decides to officially align the existing expert networks and targets at connecting relevant employees without introducing a central document-centred system. When the company follows this strategy, it either develops typical CoP-functionality for internal communication and networking or it implements targeted software from a platform vendor. In the third scenario, the enterprise already adopted the codification strategy [Hans+99] and runs a conventional primarily document-based knowledge management system (KMS). This system is being utilized by various informal groups of users. Although initially, the grouping of users is not directly intended, they form invisible communities because of their identical interests and the establishment of various relationships over time. Often companies broaden their approach towards the personification strategy [Hans+99] to directly connect their employees and reduce the problems arising from maintaining large volumes of documents, often referred to as knowledge objects. To identify and actively support the existing groups, corporate KMS’s are becoming enriched by special community features for direct communication between the experts. These multiple paths leading to IT support for expert groups already imply the heterogeneity and dynamic development of this software segment. From various related fields of applications, vendors are extending their product towards improved community support. Examples for such moving market segments are document-based knowledge bases and knowledge exchange systems, project spaces and groupware, conventional discussion boards, tools for synchronous interaction and Internet-Community software. The most widespread and conventional features of CoP platforms include discussion boards, urgent request facilities, blackboards, e-mail listservers, or membership directories. Advanced applications may additionally offer synchronous communication spaces like chats (text or video-based), document storage, evaluation systems, buddy lists, alert agents, mail centers, and calendars [Trie03].
IT-supported Visualization and Analysis of Virtual Communication Networks
969
This development towards an integrated product segment increases the risk of putting too much functionality into one platform. This can result in detrimental complexity effects affecting usage, e.g. training processes are taking longer, or researching information takes more effort. Moreover, information exchange can get inefficiently distributed over various communication channels (i.e. e-mail, discussion group, instant messaging, telephone). This segregates the expert groups into sub-groups working on the same topic but missing each other because of a preference for different communication channels. Despite the sophisticated and very comprehensive functionality of CoP platforms, it can be recognized, that the features primarily focus community members in their communication. The coordination aspect of Communities of Practice and the according support for the responsible and moderating Community Manager is still insufficiently available. Although some simple logging functionality may be provided, it is still very unsystematic and unergonomic. Hence, the complex tasks of a moderator are not suitably supported, although this target group is in charge of important tasks like giving orientation to the group, facilitating participation, coordinating members and topics, or connecting the semi-structured contributions to generate insights. Appropriate software support should help the manager to answer questions like: ‘How is the new topic, set up by management, accepted and developed in the group of experts?’, ‘Who are the central persons in the development of a specific subject field?’, ‘Where are the most valuable contributions and how big was the effort to produce them?’, ‘Who was helping others continuously without being sufficiently recognized in public?’, or ‘Where are inefficient parts in the expert networks that need to be actively worked on?’. Next to the analysis of outputs, it is beneficial to provide measurements and visual insights into the actual structure of the Knowledge Community using modern and theoretically founded analysis methods. They enable a management feedback loop, consisting of observation and measurement, interpretation of measured results, and derived management interventions. This allows for a cycle of monitoring and controlling to actively manage Communities of Practice. Another factor, necessitating measurement and analysis is the requirement to report the results of community work. This is because working in an expert group is competing for time with the normal project or process work. Important stakeholders are CoPmembers and sponsors (like line-, product-, top-managers). Such a monitoring of communities is being substantiated by IBM’s Watson Research Center. They concluded, that ‘social translucence’, which is the rich virtual impression of social structure of the communication network, is an important success factor for the effectiveness of a Community of Practice [Eric+99]. The importance of systematic monitoring and measurement has also been emphasized by the American Productivity and Quality Center APQC. Assessing the ‘health’ of the community has been identified as being a very important factor for knowledge management in an enterprise. Next to the incorporation of general stra-
970
M. Trier
tegic objectives of the organization and leadership qualifications of the moderating persons, the community structure is an important element of management. This institution demands, that CoPs need to set up objectives and measure the actual performance using monitoring and controlling instruments [APQC01]. Currently in corporate practice, enterprises are required to conduct survey-based audits to check the communities’ status. Using questionnaires, the current conditions and outputs of the groups are estimated [Hein99]. The available data about the virtual communication is not used and integrated into this measurement approach. Summarizing, a potential can be identified to develop software to support the monitoring and management of virtual Communities of Practice (Figure 2). Management - oriented Facilities Potential Functionality Monitoring of ( social ) Group Structure Monitoring of ( social ) Group Activities Topic management (Portfolio) Report - generation ...
Logged Protocol - Data Conventional Functionality Discussion boards Urgent - Requests Blackboards E- Mail Listserver Member List synchronous Communication
Extended Functionality Search Feature Document Storage Evaluation Systems Buddylists Mailcenter Calender Features
Member - oriented Facilities
Figure 2: Adding management functionality to CoP platforms [Trie03].
4
Deriving Tool Requirements from Business Objectives
The development of appropriate software functionality for community coordinators first needs to capture the requirements of this special target group. This section now analyzes the tasks and objectives of this role. These coordinating tasks can be divided into content-related and socially motivated activities. In the next section, it is shown, how management objectives determine the definition of a useful scope for the data sets, elicited from community platforms. Subsequently, the requirements also affect the design of useful measurements and visualizations for
IT-supported Visualization and Analysis of Virtual Communication Networks
971
the communication data to finally present useful graphs of the expert group structure in a management cockpit. In bigger Virtual Communities, direct personal contact is increasingly replaced by indirect communication via the creation and subsequent reception of written contents. Typical and additional work domains for such communities are the transformation of unstructured information, e.g. by analyzing written interactions, to quickly identify emerging information and connect this to create structured knowledge. Further activities are the diffusion of community knowledge, the use of newsletters or e-mail, the provision of relevant content from external sources, the establishment of ergonomic user interfaces, the adaptation and improvement of interaction and problem-solving structures, the generation of content for multiple reuse, the socialization of users, e.g. with membership programs, the measurement of interaction, the identification of established social relationships (‘strong ties’) and key persons, the connection of related persons and groups, the creation of necessary incentives, the execution of events like off-site meetings of new members with CoP-Experts, and membership management [Scho00, Par01]. Next to these content-related and transactional tasks, the literature discusses various indicators for the dominance of social motives of a Community Moderator. This includes tasks like fostering and maintaining participation with valuable feedback [LaWe91], communicating purpose, objectives, and progress [LaWe91, Hild+98, NaGo98], analyzing specialization and roles of individuals to form role architectures that increase group stability [Weng+02], balancing group autonomy versus openness [Pree99], creating relationship networks with tight connections and transparent visibility of members within the network [Hild+98, NaGo98], establishing an environment of obligation, mutual trust, and commitment and weaken detrimental factors like concurrence and unsupportive personal profiling [NaGo98, Thom+01], foster and communicate homogeneity and similarity in groups [LaMe54], or influencing orientation and objectives (polarization versus diversity) [HeWe50]. These suggestions can be extended by tasks like balancing solution exchange and solution development, creating a group identity, integrating isolated participants to improve inefficient parts of the network, monitoring the quality of interactions, sharing best practices, understanding existing informal CoP structures in order to be able to formalize a group, increasing the informal learning activities, fostering innovations, creating a familiarity between persons, or analyzing interaction and interactivity.
5
Focussing Discussion Groups
Every approach targeted at identifying patterns in network-oriented expert communication has to take into account the multiple available communication chan-
972
M. Trier
nels. They together comprise the communication network and include personal communication, phone, e-mail, instant messages, and discussion groups. If a considerable part of interaction is based on computer-mediated communication, the expert group can be called a Virtual Community. This very widespread sub-form of a Community of Practice lends itself to further analysis, because its networks are partially visible and analyzable. Communication via discussion groups is considered a research challenge because it is still insufficiently examined and the current interface is merely text-based. This form allows for a central and topic-oriented storage of messages between experts. Compared to this means of information exchange, the currently much researched e-mail networks have the disadvantage of being a decentralized peer-topeer communication concept, where it is very likely to not oversee the overall content within the network. Quite contrary, discussion groups provide a consistent and complete access to the insights stored in it. The content is organized in topic threads. This makes discussion groups a suitable tool for targeted conversation generating conclusions or integrated perspectives. Examples are the development of an XML-extension to a web-based programming language, the development of an integrated design of a new business process, or the management of product problems. In all these scenarios, there are requests for expert advice in subdomains within a larger topic area. The moderator is responsible for giving orientation and maintaining momentum within the discussing group. On the other hand, current discussion boards are not very ergonomic. They provide features like the generation of threads. One member initiates a posting and others can reply to it. Over time a tree-like structure of comments forms around an initial question in a topic area. In larger boards, there can be thousands of semistructured text elements posted by many hundreds of people. This makes it quite difficult to quickly work into the group’s structure or to identify the most important areas and most important experts. In large groups, like the general discussions dealing with the Microsoft Operating System, the size is causing redundant contributions, so that constant analysis of the board has been implemented to identify large overlaps and cross-postings. The main reason for such inefficiencies can be seen in the user interface, which has not much changed since the first introduction of discussion board technology. Obviously, looking at online discussions, the notion of visual components that has already been implied by the concept of social translucence as introduced in the previous section can also be applied to improve the experts’ communication network: Oliver et al. find that interactive materials are essential in a virtual environment, as opposed to pure text-based scaffolding [Oliv+98]. Further, Johnson frames the question: Can Communities of Practice in their true definition be set up, maintained, and supported using current web-based applications, which are mainly text-based environments [John01]?
IT-supported Visualization and Analysis of Virtual Communication Networks
973
Following this research direction, this contribution now examines how the value creation in electronic discussions of communities can be analyzed by automatically extracting and visualizing useful and already existing data about the community structure, consisting of the entities employees, topics, and documents as well as their many relationships. In this context, another advantage is, that the analysis of discussion groups does not cause a privacy problem like with e-mail networks, because the information contained in it is meant to be public to the members of the group. This public visibility of contributions also causes less ‘noise’ in the messages. This means, that in a professional application, there are almost no unrelated messages, distorting the overall conversation. All these issues render the discussion groups a focal communication channel to further examine, analyse and visualize the exchange of knowledge in expert communities. The main objective is to make online discussions more transparent and hence easier manageable. Only then, the previously introduced requirement of regularly observing and monitoring the work of a Community of Practice becomes feasible. The following section introduces a software tool targeted at these issues.
6
Technical Concept
With the definition of management objectives and tasks and the restricted focus on virtual expert discussions, the technical architecture for a software application to support social translucence for community facilitators can be defined (Figure 3). First, the available data sources of Virtual Communities are identified, selected, and automatically accessed to retrieve the data of the communication network. These functions are provided by the application’s Data Preparation Component. The data sets can then be automatically processed by the Analysis Component, using sophisticated network-oriented methods as provided by statistical and sociological approaches. They analyse author properties, thread properties, topic structures and network properties. Useful visualizations like most active or prominent authors, the acceptance level and spread of new topics, or the identification of isolated parts of the network help to generate intuitive network overviews (see section 8). These visualizations also help with the analysis of network roles or the concentration of expertise. They are then incorporated and presented in the final web-enabled Management Cockpit. Selecting, manipulating, and interpreting the visualizations and the related measurements guides management activities and helps to report important developments to stakeholders and to the members of the group. The next sections introduce the three components together with their most innovative functionality in more detail.
974
M. Trier
Automated Analysis Method
Insight-Report
Circle-Graph
Analyzer Visualizer Function
Bulletin BB Boards (Data) (Data Sources)
Data Extractor Component
socket/ odbc
Data Base (MySQL)
socket/ odbc
Meas.-Log 2D-FR-Anim
Automated Data Preparation socket/ http
Spring-Graph
JavaJung JavaPDF Java2D JavaSwing
Matrix Generator Function
Topic-Cluster Meas.-Charts
PDFReport Text Image Image Text
J-Applet/ JJung J-Applet/ JJung
Moderator:
J-Applet
…
HTML Cockpit
Manual Analysis Method Agna
Pajek
Meas.-Log
Agna
Pajek
Circle-Graph
Dendrogram
2D-FR-VRML …
…
Cluster-VRML
Text Image Image
Monitoring
J-Applet/ /Cosmo
Circle-VRML
J-Applet/ /Cosmo
3D-FR-VRML
J-Applet/ /Cosmo
Figure 3: Technical framework and components
7
Data Elicitation and Preparation Component
The first important element of the software tool for community monitoring and management is the Data Preparation Component, which mainly includes the various Data Extraction Connectors necessary to access the virtual communication networks of selected community platforms, like Usenet Newsgroups, PHP Bulletin Board Software, and Lotus Notes Discussion Databases. These multiple connectors are necessary, because as of today, there is no standard for storing the communication network in discussion boards. However, a very widespread format to store virtual discussions is the Network News Transport Protocol (NNTP) standardized in RFC977 [KaLa86]. It is the foundation for Internet-based Newsgroups. This format defines only very few elements for storing an expert communication network on the Newsgroup Server, like a unique message identification string, the user name, the posting topic, and the posting body. Useful, but not captured are passive readers of a posting or topic keywords. To access the Newsgroup Servers, the tool’s Newsgroup Data Connector establishes a socket connection on port 119. Using the RFC 977 standard, the connector sends data requests and the newsgroup server replies a variety of standardized headers, which can be parsed and interpreted to capture the necessary data. In order to keep the succeeding tool elements independent of the diverse formats of the source platforms, the original data is transformed into a standardised data
IT-supported Visualization and Analysis of Virtual Communication Networks
975
set and stored in a MySQL-Database. The Data Connector further analyses the content of the communication using a keyword extraction algorithm. The most important keywords are then stored in the database. Later, this enables the Analysis Component to generate content-oriented analyses of the communication network. To elicit the actual people network from the various postings, the Data Preparation Component analyses the references between the postings. They actually indicate answers or comments to a previous posting and hence a communication relation between two persons. These relations between authors are the fundamental information for creating an expert network from the data set. An example for such a hidden communication relation between two authors of a NNTP-based discussion group is shown in Figure 4.
Post-Nr. Username User-Adress Post-Date Post Topic Post Content Post ID Post-Nr. Username User-Adress Post-Date Post Topic Post Content Post ID Refers to Post ID
549 Anywhere
[email protected] Thu, 10 Jul 2003 10:57:10 +0800 Apache2.0 can't start? ...I cant'st start Apache2.0 service... 550 Hans Karlson
[email protected] Thu, 10 Jul 2003 13:40:43 +020 Re: Apache2.0 can't start? ...put the filename between quotes...
Figure 4: Relation between online discussants in NNTP
After the communication data has been stored in the database, the Data Preparation Component executes the Matrix Generator Function. This element is responsible for transforming the tabular data structure stored in the database into a special matrix called sociomatrix. This is the main instrument for the sociometrical approach of Social Network Analysis (SNA), which provides a large theoretic body and collection of network measurements. One example is network density, which is the relation between the links actually present in the matrix versus the theoretically possible relationships. It shows how much of the theoretically possible communication relations are actually present. Further measures are centrality of authors, prominence, longest paths, closed loops, and various activity proxies (like in- or out-degree) for authors derived from network data [WaFa94].
976
8
M. Trier
Visualization Forms for Knowledge Networks
Based on the concept of sociomatrices for network analysis, analytical approaches concentrating on network graphs have been developed. They enable a visual analysis of large people networks. The visualization approaches actually originate in the works of Moreno in 1932 [More32], who introduced points representing actors and edges indicating the link between actors. This idea started several stages of development, like the introduction of computational procedures in the 1950’s, first screen-oriented graphs of large networks in the 1970’s or the event of statistical social network analysis tools in the 1990’s [Free00]. The creation of such graphs from the sociomatrix generated in the Data Preparation Component is the objective of the succeeding Analysis Component. Its browser-based Java-Applets manipulate and process the matrix to generate textual analysis fragments and to render different visualizations. These results are loaded into content containers of the succeeding web-enabled Cockpit Component. A very important such visualization element is the clustered 2D network graph using the Spring Embedder Algorithm [FrRe91]. It provides a detailed insight into the structure of a virtual discussion group. The underlying mechanism simulates a force system of virtual springs, attached between authors. In the beginning, a matrix is computed, containing the optimal distance between any two members. This distance is derived from the strength of their connection. Authors who have a strong relationship are bound by a higher attractive force and hence should have a smaller distance than authors with a weak relationship. Then, nodes representing community members are randomly allocated on a twodimensional plane. This results in a random actual distance. Afterwards, the complex system of springs is relaxed. The simulation compares the current with the optimal distances. The differences are stored in a force matrix. It is used to compute attractive forces that reduce a positive difference (i.e. where the actual difference is still higher than the optimal) or repulsive forces that increase a negative difference. Following [FrRe91], the formula for the repulsive force acting on a pair of nodes is -k2/d and the attractive force is equal to d2/k, where d is the distance between two nodes and k is a spring constant. By adding one node’s forces towards or away from all other nodes, a final force vector can be calculated to move every node for a certain distance into the resulting direction. This process is repeated until the complete force system approaches an energy minimum. This implies that the sum of the differences between the actual and the optimal distances has been found with the current configuration of nodes and the spring system is in its most relaxed position. Thus, during multiple iterations, a clustered network graph is emerging, showing areas of strong relationships versus areas where there are no relationships.
IT-supported Visualization and Analysis of Virtual Communication Networks
977
Figure 5: Two-dimensional clustered network graph of a virtual discussion
Figure 5 shows project results for a visualization of a virtual discussion group of 88 people, developing an XML-extension for the web-based programming language PHP. Isolated persons are moving to the edges of the graph. Clusters of people are visible around person 88 and 74. Obviously, they are the centre of this virtual discussion. The light relationships imply a weak relation between the two clusters. If the important bridging people were taken out of the network, it would break in two parts. For the project, this visualization has also been migrated into a three-dimensional world. This provides a more intuitive model, as it can be rotated to get a better impression of its structure. The result is shown in Figure 6. The same discussion network is visualized. To improve the transparency of this molecular-like model of this expert group, isolated people are hidden, and important authors are indicated by larger node sizes. Very intuitively, the observer can identify the two most important persons. The two experts in Figure 6 obviously do not talk to each other directly and hence build two dominating clusters around them. Still, there are four bridges between the two clusters. The four connecting people actually represent knowledge brokers, linking two sections of the network. Further it can be observed, that various people are only very indirectly linked to the network by hanging on ‘tails’. They are very dependent on the person who attaches them to the network.
978
M. Trier
Figure 6: Three-dimensional clustered network graph of a virtual discussion
The keyword extraction algorithm of the Data Preparation Component has already been introduced in section 7. The keywords identified can also be utilized for a content-oriented analysis of the people network, like shown in the example in Figure 7. The discussion group introduced above involves the members Y, S, H, and F. The keywords extracted for the communication between Y and S have been analysed and compared. The terms ‘Fopen’ (indicating file manipulation) and ‘HTTP’ have been found in both contributions and hence are put into the middle of this relationship. The concepts ‘id’, ‘bugs’ and ‘net’ have only been used by Y and are hence placed nearby this node. The subnet shows that H also talked about ‘Fopen’ in a conversation with Y. The moderator can now search for topical concepts in his network and highlight the according subnet. For example, searching for the concept ‘Fopen’ results in colouring the according nodes H, S, and Y, the edges in between, and the found search terms. This visualization gives insights about the actual topic domains and their distribution across the members of the network. The moderator can select topics and assess how they are developing. Just as in a real discussion it gets much clearer, who in the group talks about which topic. This perspective is hence much more realistic than hierarchically structured listings of texts and authors distributed across the whole discussion board.
IT-supported Visualization and Analysis of Virtual Communication Networks
979
Figure 7: Integrating Topic and People Network Analysis
9
Conclusion
This contribution introduced Communities of Practice as a very well accepted approach to Knowledge Management. Its complementary position has been indicated in the literature and can be conceptualized by locating the concept of Communities of Practice in a systematic model of the relevant entities of Knowledge Management. The employment of this KM instrument in practice is implying organizational issues of coordination, monitoring, and management as well as technical issues of moving a group of experts onto a supporting CoP-platform. By comparing the tasks and objectives of the coordinating roles with the currently available IT-support for virtual Communities of Practice, it becomes obvious that this target group is not sufficiently recognized. This gap and the deficient design of current discussion group interfaces motivated the development of a module, which can be added to current platforms. It aims at eliciting the structure of the expert group by analysing the communication networks stored in data archives. Using sophisticated mathematical, physical, statistical, and sociological methods, this set of data can be visualized as an actual network of experts. Here, the integration of topic and people network analysis is regarded as the most innovative functionality. The modular visualizations are stored as complex objects and are presented in the final WebCockpit. Here, the coordinating role can consult automatically produced textual analysis and link it to the computed graphs. The manager can furthermore add
980
M. Trier
manually editable comments, like planned activities or phenomena to be documented. In the end, a detailed report can be produced, which contains selected and individually configured graphs, conveying major insights. This helps the moderator to visualize and communicate the benefits and outputs of his expert network to his group and the external stakeholders in his organization. Future research will focus on practical applications of the Commetrix System [Comm04] to analyze existing virtual networks and further exploration and development of innovative visualization forms, including topic-people networks, evolving time-based networks, and three-dimensional graphs.
References [AdFr00] Adams, E. C.; Freeman, C.: Community of Practice - bridging technology and knowledge assessment. Journal of Knowledge Management 1, 2000: pp. 38-44. [Alle00] Allee, V.: Knowledge Networks and Communities of Practice. OD Practitioner Online 4, 2000. [APQC01] APQC: Assessing the Health and Effectiveness of Communities of Practice. http://old.apqc.org/free/articles/dispArticle.cfm?ProductID=1389, 2001, Download 2003-01-20. [Boyd+02] Boyd, D.; Lee H.-Y.; Ramage, D.; Donath, J.: Developing Legible Visualizations for Online Social Spaces. Proceedings of Hawaii International Conference on System Sciences, Big Island, Hawaii, 2002. [BrDu97] Brown, J., Deguid, P., 1997. Organizational learning and communities-ofpractice: toward a unified view of working, learning, and innovation. Organizational Science February 2, 1997, pp. 40–57. [BrDu98] Brown J. S., Duguid P.: Organizing Knowledge. California Management Review 3, 1998: pp. 90-111. [Comm04] URL: http://www.commetrix.de [Enke+02] Enkel, E.; Heinold P., Hofer-Alfeis, J., Wicki, Y.: The power of communities: How to build Knowledge Management on a corporate level using a bottom-up approach. In: Davenport, T., Probst, G. (Edts.) Knowledge Management Case Book. Wiley: Erlangen, 2002, pp. 108-127. [Eric+99] Erickson, T.; Smith, D. N.; Kellogg, W. A.; Laff, M.; Richards, J.T.: Bradner, E.: Socially Translucent Systems: Social Proxies, Persistent Conversation, and the Design of Babble. Proceedings of CHI 1999. ACM Press: New York, 1999. [ErLa01] Erickson, T.; Laff, M. R.: The Design of the ‘Babble’ Time-line: A Social Proxy for Visualizing Group Activity over Time. Extended Abstracts. Proceedings of CHI 2001. ACM Press: New York, 2001.
IT-supported Visualization and Analysis of Virtual Communication Networks
981
[Font01] Fontaine, M.: Research report and toolkit: Understanding, identifying and selecting the roles needed to staff and support communities of practice. Research Report. IBM Institute for Knowledge Management, Cambridge, 2001. [Free00] Freeman, L.C.: Visualizing Social Networks. Journal of Social Structure 1, 2000. [FrRe91] Fruchterman, T. M. J.; Reingold, E. M.: Graph Drawing by Force-Directed Placement. Software - Practice & Experience 11, 1991, pp. 1129-1164. [Hans+99] Hansen, M.T.; Nohria, N.; Tierney, T.: What’s your strategy for managing knowledge? Harvard Business Review, Mar-Apr 1999: pp. 106-116. [Hein99] Heinold P., “The power of communities: how to build Knowledge Management on a corporate level using a bottom-up approach”. Online Proceedings of Workshop MK2, Munich, 2000. http://www11.in.tum.de/forschung/foren/mkmk/proceedings/ community/heinold.ppt, Download 2003-08-20. [HeWe50] Hemphill, J.K.; Westie, C.M.: The Measurements of Group Dimensions. Journal of Psychology 29, 1950: pp. 325–342. [Hild+98] Hildreth, P.; Kimble, C.; Wright, P.: Computer Mediated Communications and Communities of Practice. Proceedings of Ethicomp'98, Erasmus University, Niederlande, 1998: pp. 275-286. [HoLo99] Hoffmann, M.; Loser, K.-U.: Supporting Community Knowledge Processes with Prospective Awareness and Prospective Control. Proceedings of ECSCW'99, Workshop on Community Knowledge. Copenhagen, Denmark, 1999. [John01] Johnson, C.M.: A survey of current research on online communities of practice. Internet and Higher Education 4, 2001, pp. 45–60. [KaLa86] Kantor, B.; Lapsley, P.: RFC 977: Network News Transfer Protocol - A Proposed Standard for the Stream-Based Transmission of News. http://www.w3.org/Protocols/rfc977/ rfc977.html, 1986, Download 2004-01-12. [Kim00] Kim, A. J.: Community Building on the Web. Peachpit Press: Berkeley, 2000. [LaWe91] Lave, J.; Wenger, E.: Situated Learning. Legitimate Peripheral Participation. Cambridge University Press: Cambrige, 1991. [LaMe54] Lazarsfeld, P.; Merton, R.K.: Friendship as social process: a substantive and methodological analysis. In: Berger, M., Abel, T., Page C. (Edts.) Freedom and Control in Modern Society. Octagon Books: New York, 1954, pp. 18–66. [McDe99] McDermott, R.: Designing communities of practice: Reflecting on what we’ve learned. Proceedings of Communities of Practice 2001, Cambridge, 1999. [McFa00] McLure-Wasko, M.; Faraj, S.: It is what one does: why people participate and help others in electronic communities of practice. Journal of Strategic Information Systems 9, 2000: pp. 155-173. [More32] Moreno, J. L.: Application of the Group Method to Classification. National Committee on Prisons and Prison Labor, New York, 1932.
982
M. Trier
[NaGo98] Nahapiet, J.; Ghoshal, S.: Social Capital, Intellectual Capital, and the Organizational Advantage. Academy of Management Review 2, 1998: pp. 243. [NoTe01] Nonaka, I.; Teece, D. J.: Managing industrial knowledge - Creation, transfer and utilization. SAGE Publications Ltd.: London et al., 2001, pp. 344. [Oliv+98] Oliver, R.; Omari, A.; Herrington, J.: Exploring student interactions in collaborative World Wide Web computer-based learning environments. Journal of Educational Multimedia and Hypermedia 2, 1998: pp. 263–287. [Par01] Participate: Driving Sales Force Effectiveness Through Knowledge Sharing. White Paper, 2001. [Pree99] Preece, J.: What happens after you get online? Information Impacts Magazine, Dec 1999. [Scho00] Schoen, S.: Gestaltung und Unterstützung von Communities of Practice (in German). Dissertation, Technical University Munich, 2000. [She01] Shell International Exploration and Production: Stories from the Edge: Managing Knowledge through New Ways of Working within Shell’s Exploration and Production Business. White Paper, 2001. [Sta97] Stamp, D.: Community of Practice – Learning is Social. Training is Irrelevant? In: Training, Feb 1997, pp. 35-42. [StBr96] Steward, T. A.; Brown, V.: The invisible key to success. Fortune, Aug 1996, pp. 1-4. [Thom+01] Thomas, J. C.; Kellogg, W. A.; Erickson, T.: The knowledge management puzzle: Human and social factors in knowledge management. IBM Systems Journal 4, 2001. [Trie02] Trier, M.: Communities - Management und Unterstützung (in German). In: Gronau, N. (Edt.) Wissensmanagement - Strategien, Prozesse, Communities. Gito-Verlag: Aachen, 2002, pp.149-159. [Trie03] Trier, M.: Anforderungen an die IT-Unterstützung für Communities of Practice (in German). Industrie Management 3, 2003: pp.49-53. [Trie03b] Trier, M.: IT-gestütztes Management virtueller Communities of Practice (in German). Extended Abstract of DoIT-Kongress Karlsruhe 2003. http://www.integratastiftung.de/files/p14_trier.pdf, 2003, Download 2003-12-12. [WaFa94] Wasserman, S.; Faust, K.: Social Network Analysis: Methods and Applications. Cambridge University Press: Cambridge, 1994. [Weng98] Wenger, E. C.: Communities of Practice: Learning as a Social System. Systems Thinker 5, 1998. [Weng+02] Wenger, E.; McDermott, R.; Snyder, W.: Cultivating Communities of Practice: A Guide to Managing Knowledge. Harvard Business School Press: Boston, 2002. [WeSn00] Wenger, E.C.; Snyder, W.M.: Communities of Practice: The Organizational Frontier. Harvard Business Review, Jan-Feb 2000, pp. 139-145.
Integration von Business Software – Eine Studie zum aktuellen Stand in Schweizer KMU Uwe Leimstoll, Petra Schubert Fachhochschule beider Basel
Zusammenfassung: Die Integration von Informationssystemen ist ein Thema, das in der Literatur schon lange diskutiert wird. Aufgrund der technologischen Entwicklung haben sich die Voraussetzungen für Integration in den letzten Jahren erheblich verbessert. Der vorliegende Beitrag konzentriert sich auf die Integration von Business Software in KMU und zeigt anhand empirischer Primärdaten den aktuellen Stand in der Schweiz auf. Dabei wird unter anderem deutlich, welche Erfahrungen in bisherigen Integrationsprojekten gemacht wurden und welche Anforderungen an zukünftige Business-Software-Lösungen gestellt werden. Es zeigt sich, dass bei einigen Software-Modulen die Intensität der Nutzung und der Grad der Integration von der Unternehmensgrösse abhängig ist. Schlüsselworte: Business Software, E-Business, Integration, KMU
1
Einführung
Der folgende Beitrag beschäftigt sich mit dem State-of-the-Art der Integration von Business Software und E-Business-Applikationen in der unternehmerischen Praxis. Um ein Bild vom aktuellen Stand des Einsatzes in Schweizer KMU zu erhalten, wurde im Herbst 2003 eine repräsentative Studie durchgeführt [Det+04]. Darin wurde bestätigt, dass die Unterstützung von Geschäftsprozessen mit Business Software mittlerweile auch in kleinen und mittleren Unternehmen weit verbreitet ist. Die am Markt verfügbaren Lösungen werden zunehmend in modularer Form angeboten und erfüllen sowohl leistungs- als auch kostenseitig immer mehr die besonderen Anforderungen kleinerer Unternehmen. Es zeigt sich eine starke Konkurrenz unter sehr vielen alternativen Anbietern, was zu einer starken Ausrichtung auf individuelle Kundenbedürfnisse führt. Diese Situation hat in der Schweiz eine heterogene Angebotsvielfalt entstehen lassen, die neben Standardsoftwarepaketen auch Nischen für spezialisierte Lösungen zulässt. Ein zentrales Thema, das im Zusammenhang mit der informationstechnischen Unterstützung von Geschäftsprozessen schon seit längerer Zeit in der Literatur disku-
984
U. Leimstoll, P.Schubert
tiert wird, ist das Thema der Integration. Die Ende der 80er und Anfang der 90er Jahre beschriebenen CIM-, CIB- und CIE-Konzepte1 können als gescheitert bezeichnet werden. Zumindest für KMUs waren diese Konzepte nicht geeignet. Seinerzeit fehlten zum einen geeignete technische Systeme, zum anderen aber auch eine ausreichende Ausrichtung der organisatorischen und systemtechnischen Integration am Bedarf der Unternehmen [Sche96, S. 255; Dürs98, S. 97]. Integrierte Lösungen blieben damit lange Zeit zunächst grösseren Unternehmen vorbehalten. Mit der zunehmenden technischen Entwicklung und dem Trend zu einer mehr prozessorientierten Organisationsgestaltung ebnete sich ab Mitte der 90er Jahre der Weg zu mehr Vernetzung und Integration. Diese Entwicklung betraf zunächst überwiegend unternehmensinterne Anwendungen (z. B. EnterpriseResource-Planning(ERP)-Systeme) und dehnte sich später auf unternehmensübergreifende Applikationen (z. B. E-Business-Systeme) aus. Bis heute haben sich die technischen und organisatorischen Bedingungen für eine Integration von Informationssystemen deutlich verbessert. Zum einen nahm die für die Übertragung der Daten nötige Bandbreite erheblich zu, womit sich die Übertragungsrate bei gleichzeitig sinkenden Kosten erheblich erhöhte. Mit der Verbreitung der Internetprotokolle und weiterer Standards zum Austausch von Daten (XML, SOAP, etc.) entstand eine wichtige Basis für unternehmensübergreifende Anwendungen. Heute existieren im Bereich der Business Software viele Anwendungen mit integrierten E-Business-Modulen. Weitere Schritte zur direkten B2B-Integration heterogener ERP-Systeme sind im Gange. Die Entscheidung, bis zu welchem Grad Business Software integriert werden soll, ist für kleine und mittlere Unternehmen auch heute noch schwierig. Den vermeintlichen ökonomischen Vorteilen, wie die Vermeidung von Medienbrüchen und eine höhere Kundenbindung, stehen gewichtige Nachteile gegenüber. Letztere entstehen in erster Linie aufgrund der Komplexität integrierter Systeme. Die Probleme der Systemkomplexität kommen in KMU besonders zum Tragen: häufig fehlen das nötige Know-how oder die finanziellen Ressourcen, um Integrationsprojekte zu realisieren. Auch der Return on Investment fällt in kleineren Unternehmen aufgrund der niedrigeren Transaktionshäufigkeit tendenziell niedriger aus als in grösseren Unternehmen [Leim01, S. 233 f.]. Vor diesem Hintergrund soll der vorliegende Beitrag aufzeigen, welche Erfahrungen Schweizer KMU in Integrationsprojekten gemacht haben und welche Erwartungen sie mit zukünftigen Anwendungen verknüpfen. Im Zentrum der Diskussion stehen die Ergebnisse einer empirischen Studie [Det+04]. Auf der Grundlage theoretischer Überlegungen werden darüber hinaus Hypothesen formuliert und getestet, die Aussagen zu Abhängigkeiten zwischen Unternehmensgrösse, Umsatzentwicklung, Integrationsgrad und Unternehmenserfolg machen. 1
CIM = Computer Integrated Manufacturing; CIB = Computer Integrated Business; CIE = Computer Integrated Enterprise [Sche91]
Integration von Business Software
985
Der vorliegende Beitrag gibt zunächst einen kurzen Überblick über Begriffe und theoretische Grundlagen zum Thema Integration von Business Software und EBusiness-Applikationen. Danach werden die Untersuchungsziele näher spezifiziert und Hypothesen formuliert. Kapitel 4 beschreibt das Design der empirischen Studie. Im Anschluss daran werden ausgewählte Ergebnisse einer deskriptiven Analyse vorgestellt, bevor die Hypothesen getestet werden. Eine Zusammenfassung schliesst den Beitrag ab.
2
Integration und Business Software
Die Frage nach dem optimalen Grad an E-Business-Integration ist ein fundamentales Thema der Wirtschaftsinformatik. Wie Davydov in seiner folgenden Aussage deutlich macht, ist E-Business auf das Herstellen von Verbindungen sowohl zwischen Unternehmensbereichen als auch zwischen Geschäftspartnern ausgerichtet: Fundamentally, e-business is, first and foremost, about breaking all kinds of „walls“ – internal corporate „walls“ that exist between functional departments, but more importantly, external “walls” that limit companies’ willingness and actual abilities to engage in new business relationships and accept new ideas. [Davy01, S. 17]
Im Rahmen des vorliegenden Beitrags wird in Erweiterung dieses Zitats die folgende Definition des Begriffs „E-Business-Integration“ zugrunde gelegt: E-Business-Integration ist die Verbindung von Geschäftsprozessen und Informationssystemen mit dem Ziel, in einer verteilten Wertschöpfungskette eine zusammenhängende Leistung (für den Kunden) zu erzeugen.
Die Integration von Informationssystemen kann auf verschiedenen Ebenen vollzogen werden: auf der Präsentationsebene, der Applikationsebene und der Datenebene. Dabei wird zwischen interner und externer Integration unterschieden. Die Applikationssicht der internen Integration wird in der Literatur unter dem Stichwort „Enterprise Application Integration (EAI)“ behandelt und betrachtet die Integration von Informationssystemen innerhalb eines Unternehmens [Davy01; Buh+01; Dett02; ScWi02; Kell02; Kaib02; VoZe02; Holt03]. Das entsprechende Pendant dazu, die Applikationssicht der externen Integration, wird unter dem Begriff „B2B Application Integration (BBAI)“ diskutiert und ist in der Praxis noch wenig verbreitet [Lint01; ScDo02]. Ihr Ziel ist es, durch den Einsatz von definierten Formaten und Protokollen Unternehmensgrenzen zu überbrücken. Beispiele hierfür sind die Integration eines E-Shops in die E-Procurement-Lösung des Kunden oder die automatische Übertragung von Auftrags- und Konfigurationsdaten in die Auftragsbearbeitung und Produktionsplanung des Lieferanten. Abbildung 1 zeigt einen systematischen Überblick über Managementkonzepte, Applikationen und involvierte Parteien. Dabei steht die Betrachtung eines konkreten Unternehmens im Zentrum (skizziert durch die gestrichelte Linie). Das Unter-
986
U. Leimstoll, P.Schubert
nehmen verfügt über ein ERP-System, mit dessen Hilfe verschiedene Aufgaben der Unternehmensführung wie Einkauf, Verkauf und Rechnungswesen unterstützt werden. Eine detaillierte Beschreibung der aufgeführten Begriffe findet sich in [Det+04]. E-Business E-Procurement
E-Organization
E-Commerce
Business Software ERP-System
Geschäftspartner
Sell-Side/ Buy-Side
Einkauf & Verkauf
B2B CMS/DMS/ Portal Supplier Relationship Management (SRM)
B2E/E2E
E-Business-Sicht Applikationssicht
Kunde
B2B B2C Customer Relationship Management (CRM) Supply Chain Management (SCM)
Supply Chain Management (SCM) Legende
E-Shop, CRM
PPS
F&E und Produktion
Management-Sicht
Abbildung 1: Begriffssystematik: ERP und E-Business; Quelle: [Schu04, S. 2]
Die folgenden Ausführungen befassen sich schwerpunktmässig mit ERPSystemen und damit verbundenen E-Business-Applikationen. In diesem Kontext bezeichnen wir die Kopplung von Informationssystemen als Integration, also z. B. eine Verbindung verschiedener ERP-Module wie Buchhaltung und Bestellwesen oder die Kopplung der ERP-Auftragsverwaltung mit einem E-Business-Modul wie etwa einem E-Shop [Sch+03]. Der Begriff Business Software dient als Überbegriff für betriebswirtschaftliche Software. Sie schliesst damit sowohl ERP-Software als auch E-Business-Software ein. ERP-Software-Basismodule unterstützen in erster Linie die unternehmensinternen Funktionsbereiche und Geschäftsprozesse. Finanzbuchhaltung, Warenwirtschaft, Einkauf und Vertrieb bilden meist die Kernbereiche für den Einsatz von ERP-Systemen. E-Business-Software-Module unterstützen schwerpunktmässig die unternehmensübergreifenden Geschäftsprozesse. Tabelle 1 gibt einen Überblick über die untersuchten Software-Module. ERP-Module (unternehmensintern)
E-Business-Module (unternehmensübergreifend)
Finanzwirtschaft (Debitoren, Kreditoren, FiBu, KoRe, AnBu)
E-Procurement (Beschaffung)
Warenwirtschaft (Logistik und Lager-
E-Organization (Collaboration, Projektmana-
Integration von Business Software
987
haltung)
gement, Leistungserfassung und -verrechnung)
Einkauf
E-Commerce (E-Shop)
Vertrieb und Auftragsabwicklung
Marketing und Customer Relationship Management (CRM)
Service und Dienstleistungen (Leistungs- und Projektabrechnung)
Supply Chain Management (SCM)
Produktionsplanung und -steuerung
Mobile Applikationen (z. B. mobiler Zugriff auf Produktkataloge, Kundendaten; mobile Auftragserfassung)
Betriebsdatenerfassung
Content Management (CM)
Personalwirtschaft (Lohnbuchhaltung, Human Resources Management)
Branchensoftware (branchenspezifische Module, z. B. Preiskalkulation mit vorgegebenen Branchentarifen)
Controlling, Führungsinformationssystem (FIS) Tabelle 1: Untersuchte Software-Module
3
Gegenstand der Untersuchung und Hypothesenbildung
Um den aktuellen Stellenwert der Business-Software-Integration in Schweizer KMU abbilden zu können, gilt es zunächst zu erfassen, welche Verbreitung ERPund E-Business-Software in KMU gefunden hat und welche Bedeutung der internen und externen Integration heute zukommt. Die Erfahrungen aus bisherigen Projekten können aufzeigen, welche Schwierigkeiten bisher beobachtet worden sind. Um Aussagen über die zukünftige Entwicklung machen zu können, sollen die Ziele erfasst werden, die Schweizer KMU anstreben, wenn sie künftig Integrationsprojekte in Angriff nehmen. Für die Software-Branche dürfte vor allem interessant sein, welche Anforderungen in diesem Zusammenhang an künftige Systeme gestellt werden. Neben der beschreibenden Analyse sollen im Folgenden Faktoren ermittelt werden, die den Einsatz und die Integration von Business Software in KMU beeinflussen. Zudem sollen Aussagen darüber gemacht werden, ob Einsatz und Integration von Business Software positive Auswirkungen auf den Unternehmenserfolg haben. In einem ersten Schritt bilden die Unternehmensgrösse und die Umsatzentwicklung als Beispiele für Charakteristika von Anwenderunternehmen exogene Fakto-
988
U. Leimstoll, P.Schubert
ren. Damit wird ergründet, ob organisationale Eigenschaften einen Einfluss auf die Nutzung von Business Software und den Grad der Integration haben. Die Unternehmensgrösse (Anzahl der Mitarbeitenden) erscheint als Einflussfaktor sehr plausibel. Mit steigender Mitarbeiterzahl nehmen die betrieblichen Aufgaben zu, was einen höheren Abwicklungs- und Steuerungsaufwand verursacht [Leim01, S. 405 f.]. Damit wächst der Bedarf an unterstützenden Informationssystemen. Als weiterer exogener Faktor wird die Umsatzentwicklung herangezogen. Ein steigender Umsatz erhöht in der Regel die Transaktionshäufigkeit und begünstigt meist den Cashflow. Diese Effekte könnten sich positiv auf den Nutzen integrierter Business Software auswirken. In einem zweiten Schritt bilden der Einsatz und die Integration von Business Software die exogenen Faktoren, um ihren Einfluss auf den Unternehmenserfolg zu prüfen. Der Einsatz von Informationssystemen als erfolgswirksamer Faktor in KMU wird bisher durch mehrere Studien belegt [Ray+95, S. 10 f.; Lyba96, S. 52; Sch+93; LePo98, S. 193; Leim01, S. 445 ff.] Abbildung 2 zeigt die beschriebenen Zusammenhänge grafisch auf. Sechs Hypothesen lassen sich auf dieser Basis formulieren. Die Nummern in der Abbildung beziehen sich auf die Nummerierung der folgenden Hypothesen. Alle unterstellten Zusammenhänge sind positiv. 1a
Unternehmensgrösse
+ 1b
3a +
2a Umsatzentwicklung
Einsatz von ERP- und EBusiness-Modulen
+ 2b
Integration von ERP- und EBusiness-Modulen
Erfolg des Unternehmens
3b
Abbildung 2: Wirkungsrichtung der unterstellten Zusammenhänge
Hypothese 1a: Grössere Unternehmen setzen häufiger ERP- und E-BusinessModule ein als kleinere Unternehmen. Hypothese 1b: In grösseren Unternehmen werden diese Systeme häufiger integriert als in kleineren Unternehmen. Hypothese 2a: Je mehr im Unternehmen der Eindruck entsteht, die Umsatzentwicklung verlaufe positiv, desto mehr sind die Unternehmen bereit, ERP- und EBusiness-Systeme einzusetzen. Hypothese 2b: Je mehr im Unternehmen der Eindruck entsteht, die Umsatzentwicklung verlaufe positiv, desto mehr sind die Unternehmen bereit, ERP- und EBusiness-Systeme zu integrieren.
Integration von Business Software
989
Hypothese 3a: Unternehmen, die in grösserem Umfang ERP- und E-BusinessSysteme einsetzen, verzeichnen einen grösseren Unternehmenserfolg als andere Unternehmen. Hypothese 3b: Unternehmen, die in grösserem Umfang ERP- und E-BusinessSysteme zu einem Gesamtsystem integrieren, verzeichnen einen grösseren Unternehmenserfolg als andere Unternehmen.
4 4.1
Forschungsdesign Untersuchungsmethodik
Zur Erhebung der Primärdaten wurde im Herbst 2003 eine schriftliche Umfrage durchgeführt. Dazu wurden 5'032 Schweizer Unternehmen und andere Organisationen mit 10 bis 250 Beschäftigten in den Wirtschaftssektoren zwei (Industrie) und drei (Dienstleistungen) befragt. Das Schweizer Bundesamt für Statistik zog eine zufällige, nach Branche und Unternehmensgrösse geschichtete Stichprobe aus der Grundgesamtheit der über 33'500 KMU (Abbildung 3). Auswahl der Untersuchungsregion: gesamte Schweiz (d, f, i)
Auswahl der Grundgesamtheit: Organisationen der Wirtschaftssektoren zwei und drei mit 10 bis 250 Mitarbeitenden (33‘607 Unternehmen)
Auswahl einer nach Branche und Grösse geschichteten, gewichteten Stichprobe (5‘032 Unternehmen)__
Versand eines schriftlichen Fragebogens mit überwiegend geschlossenen Fragen im September/Oktober 2003
Abbildung 3: Vorgehen bei der Datenerhebung
In Zusammenarbeit mit industriellen Forschungspartnern wurde ein standardisierter Fragebogen entwickelt und in Pretest-Interviews mehrfach geprüft. Er richtete sich an Mitglieder der Geschäftsleitung. Wegen der weiten Verbreitung des Internets in der Schweiz wurde zusätzlich zum gedruckten Fragebogen eine OnlineVersion des Fragebogens zur Verfügung gestellt. Insgesamt antworteten 819 Unternehmen (16.3 %) auf den erhaltenen Fragebogen. Darunter waren viele Absagen, die häufig auch begründet wurden. 15.5 % der absagenden Unternehmen haben z. B. keine Business Software im Einsatz. 494 Unternehmen sandten einen ausgefüllten Fragebogen ein, was einer Rücklaufquote von 9.8 % entspricht. 463 dieser Fragebogen konnten letztlich für die Auswertung verwendet werden, was einer Netto-Rücklaufquote von 9.2 % entspricht. Tabelle 2 fasst die Eckdaten der Datenerhebung zusammen.
990
U. Leimstoll, P.Schubert
Erhebungszeitraum
September/Oktober 2003
Erhebungsregion
gesamte Schweiz (Sprachregionen D, F, I)
Erhebungsmethode
schriftliche Umfrage mit standardisiertem Fragebogen (ein PrintFragebogen wurde verschickt, zusätzlich stand ein OnlineFragebogen zur Verfügung)
Unternehmensgrösse
KMU mit 10 bis 250 Beschäftigten (Vollzeitäquivalent)
Branche
Wirtschaftssektoren zwei (Industrie) und drei (Dienstleistungen)
Zielgruppe
Geschäftsführer und Informatik-Verantwortliche in KMU
Stichprobe
5'032 Unternehmen, geschichtet nach Unternehmensgrösse und Branche
Rücklauf
463 verwertbare Fragebogen; Quote: 9.2 %
Tabelle 2: Eckdaten der empirischen Erhebung im Überblick
Der Anteil kleiner Unternehmen ist in der Grundgesamtheit deutlich höher als in der Stichprobe. Die Daten für die deskriptive Auswertung werden deshalb nach der Unternehmensgrösse gewichtet und dürfen für Schweizer KMU, die ERPSysteme einsetzen, als insgesamt repräsentativ betrachtet werden.
4.2
Charakterisierung der Stichprobe
Aufgrund der inhaltlich anspruchsvollen Fragestellung sollte davon ausgegangen werden, dass sich verstärkt solche Unternehmen an der Umfrage beteiligten, die sich bereits intensiv mit den Themen „ERP-Systeme“ und „E-Business-Integration“ auseinander gesetzt hatten. Um einen Eindruck von der Zusammensetzung der vorliegenden Stichprobe zu vermitteln, beschreiben die nächsten Abschnitte einige wesentliche Eigenschaften der Unternehmen. Unternehmen nach Unternehmensgrösse Die Verteilung der Unternehmen nach Unternehmensgrössenklassen zeigt ein recht gleichmässiges Bild. Die Unternehmensgrösse wurde an der Anzahl der Beschäftigten gemessen, wobei das Vollzeitäquivalent erfasst wurde. Der Hauptanteil der Unternehmen in der Stichprobe (39 %) beschäftigt zwischen 10 und 49 Mitarbeitende (MA). 28 % der Unternehmen beschäftigen zwischen 50 und 99 Mitarbeitende, 33 % zwischen 100 und 250 Mitarbeitende (Abbildung 4). Die Grössenverteilung in der Stichprobe entspricht damit nicht der Verteilung in der Grundgesamtheit, in der die kleineren Unternehmen einen wesentlich grösseren Anteil ausmachen. Die Ergebnisse der deskriptiven Analyse basieren deshalb auf Daten, die nach der Unternehmensgrösse gewichtet wurden. So lassen sich repräsentative Aussagen über die KMU in der Schweiz machen.
Integration von Business Software
991
100 bis 250 Mitarbeitende 33% 10 bis 49 Mitarbeitende 39%
50 bis 99 Mitarbeitende 28%
Abbildung 4: Unternehmen in der Stichprobe nach Anzahl der Beschäftigten, N=424
Unternehmen nach Branche In der Stichprobe sind Unternehmen der Wirtschaftssektoren zwei (Industrie) und drei (Dienstleistungen), also fast aller Branchen vertreten. Den grössten Anteil macht das Gesundheits- und Sozialwesen aus (17 %), dicht gefolgt vom Verarbeitenden Gewerbe und der Industrie (16 %) sowie den Sonstigen Dienstleistungen (16 %). Auch das Baugewerbe (15 %) und die Öffentliche Verwaltung einschliesslich des Unterrichtswesens (13 %) sind recht stark vertreten (Abbildung 5). In den betrachteten drei Unternehmensgrössenklassen zeigt die Branchenverteilung ein recht einheitliches Bild.
Sonstige Dienstleistungen 16%
Gesundheits- und Sozialwesen 17%
Öffentliche Verwaltung; Unterrichtswesen 13% Verkehr; Nachrichten; Kreditgewerbe; Versicherungen etc. 8%
Verarbeitendes Gewerbe und Industrie; Energie 16%
Baugewerbe 15%
Handel und Reparatur 7% Gastgewerbe 8%
Abbildung 5: Unternehmen in der Stichprobe nach Branche, N=442
992
5
U. Leimstoll, P.Schubert
Deskriptive Auswertung
60 % der Schweizer KMU äussern, dass die Kosten von Integrationsprojekten für sie zu hoch seien. Diese Aussage resultiert aus den Erfahrungen mit bisherigen Projekten zur Integration von Informationssystemen. Beobachtet wurde ausserdem, dass durch Integration zu viele Schnittstellen entstehen (48 %). Ein weiterer kritischer Punkt bildet die Nutzenproblematik, wobei hier zwischen der Höhe und der Bewertung des Nutzens unterschieden wird. Für fast die Hälfte der KMU lässt sich zum einen der Nutzen der Integration im Voraus nicht eindeutig bewerten und zum anderen erscheint der Nutzen von Integrationsprojekten als zu gering (Abbildung 6). Erfahrungen aus bisherigen Projekten zur Integration von Informationssystemen N = 352, gewichtet nach Unternehmensgrösse
60.7%
Die Kosten für Integrationsprojekte sind für uns zu hoch.
48.4%
Durch Integration entstehen zu viele Schnittstellen.
Der Nutzen der Integration lässt sich im Voraus nicht eindeutig bewerten.
46.9%
Der Nutzen von Intergrationsprojekten ist für uns zu gering.
46.2% "stimme zu" und "stimme eher zu"
Die vorhandene ERP-Software ist für die Integration von EBusiness-Anwendungen ungeeignet.
38.6%
0%
20%
40%
60%
80%
100%
Abbildung 6: Erfahrungen aus bisherigen Projekten zur Integration von Informationssystemen
Welchen Nutzen kann die Integration von Business Software nun konkret generieren? Auf der Datenebene stehen der Zugriff auf eine einheitliche Datenbasis und die medienbruchfreie Übertragung der Daten zwischen verschiedenen Applikationen oder Systemmodulen im Vordergrund. Auf der organisatorischen Ebene werden die Beschleunigung und die qualitative Verbesserung funktionsübergreifender Prozesse hervorgehoben [Dürs98]. Bei der unternehmensübergreifenden Integration kommen ausserdem strategische Vorteile, wie etwa eine höhere Kundenbindung, hinzu. Die Schweizer KMU bringen zunächst zum Ausdruck, dass sie die Bedeutung von integrierten Systemen in stärkerem Masse in der Unterstützung unternehmensinterner Prozesse sehen. Rund 80 % der KMU sagen aus, dass integrierte Systeme
Integration von Business Software
993
zur Abwicklung von Transaktionen innerhalb des Unternehmens wichtig seien und künftig die interne Zusammenarbeit wesentlich erleichterten. Demgegenüber sagen gut 60 % der KMU aus, dass integrierte Systeme zur Abwicklung von Transaktionen über die Unternehmensgrenzen hinweg wichtig seien und künftig die Zusammenarbeit mit Kunden und Lieferanten wesentlich erleichterten (Abbildung 7). Aussagen zu integrierten Systemen N = 390, gewichtet nach Unternehmensgrösse Integrierte Systeme sind wichtig zur Abwicklung von Transaktionen innerhalb des Unternehmens. ERP-Systeme (und nicht E-Shops oder Content Management Systeme) werden künftig den Kern von E-Business-Lösungen darstellen. Integrierte Systeme werden uns künftig die interne Zusammenarbeit wesentlich erleichtern. Integrierte Systeme sind wichtig zur Abwicklung von Transaktionen über Unternehmensgrenzen hinweg. Integrierte Systeme werden uns künftig die Zusammenarbeit mit Lieferanten wesentlich erleichtern. Integrierte Systeme werden uns künftig die Zusammenarbeit mit Kunden wesentlich erleichtern. Für unser Unternehmen ist es zukünftig notwendig, Internettechnologien zur Unterstützung von Geschäftsprozessen zu verwenden. 0%
stimme zu
stimme eher zu
20%
40%
stimme eher nicht zu
60%
80%
100%
stimme nicht zu
Abbildung 7: Aussagen zu integrierten Systemen
Der Grund, dass die Integration von Business Software mehr auf die unternehmensinternen Prozesse abzielen wird, mag darauf zurückzuführen sein, dass KMU den unternehmensinternen Bereich in stärkerem Masse mit Business Software unterstützen. ERP-Software-Basismodule werden heute im Durchschnitt jeweils von etwa der Hälfte der KMU eingesetzt. E-Business-Software-Module kommen demgegenüber im Durchschnitt lediglich jeweils auf knapp 10 %. Letztere werden künftig allerdings eine deutliche Zunahme verzeichnen: In den kommenden zwei Jahren wird sich der Einsatz von E-Business-Software-Modulen in Schweizer KMU durchschnittlich verdoppeln [Det+04]. Worin liegt nun im Einzelnen der Nutzen, den Schweizer KMU zukünftig mit Integrationsprojekten erzielen möchten? Über die nächsten zwei Jahre betrachtet wird hier die Erhöhung der Datenqualität genannt, fast gleichauf mit technischen Aspekten (Reduktion der Schnittstellen, Reduktion des Wartungsaufwandes, Reduktion von Datenredundanzen) und der Vereinheitlichung der Informationssysteme. Diese drei informatikorientierten Aspekte stehen mit jeweils rund 80 % Zustimmung im Vordergrund. Sie werden gefolgt von drei mehr betriebswirtschaftlich ausgerichteten Nutzenaspekten, die jeweils rund 70 % Zustimmung erhalten:
994
U. Leimstoll, P.Schubert
die Beschleunigung der Auftragsabwicklung, die Reduktion der Auftragsabwicklungskosten und die Steigerung der Produktivität (Abbildung 8). Künftige Auslöser für unternehmensübergreifende Integrationsprojekte N = 368, gewichtet nach Unternehmensgrösse Erhöhung der Datenqualität Technische Aspekte (Reduktion der Schnittstellen, Reduktion des Wartungsaufwandes, Reduktion von Datenredunanzen) Vereinheitlichung der Informationssysteme Beschleunigung der Auftragsabwicklung Reduktion der Auftragsabwicklungskosten Steigerung der Produktivität Wünsche der Kunden Wünsche der Lieferanten 0%
stimme zu
stimme eher zu
20%
stimme eher nicht zu
40%
60%
80%
100%
stimme nicht zu
Abbildung 8: Künftige Auslöser für die Durchführung von Integrationsprojekten
Etwas überraschend fällt demgegenüber die Erfüllung von Kundenwünschen ab. 60 % der KMU geben hier ihre Zustimmung, dass sie Integrationsprojekte künftig in Angriff nehmen, um die Wünsche der Kunden zu erfüllen. Diese Einschätzung passt wiederum zum bereits erwähnten stärker unternehmensintern orientierten Fokus der Integration. Ebenfalls passt dazu die Beobachtung, dass die Wünsche der Lieferanten eine eher untergeordnete Rolle spielen (Abbildung 8). Damit die Integration von Informationssystemen den gewünschten Nutzen erzielt und nicht gleichzeitig durch eine höhere Komplexität der Systeme für KMU zu unhandlich oder zu teuer wird, sind geeignete Systeme erforderlich. Genau genommen handelt es sich um ERP-Systeme, die Erweiterungen für den E-BusinessBereich optional bereithalten. 84 % der KMU, die dazu eine Aussage machen können, tendieren zu der Meinung, dass ERP-Systeme künftig den Kern von EBusiness-Lösungen bilden werden (Abbildung 7). Die Anforderungen an künftige ERP-Systeme sind auf Seiten der KMU sehr hoch. Unter den kaufentscheidenden Kriterien steht die Abdeckung von Schweizer Bedürfnissen (Vorschriften für Rechnungslegung, Lohnabrechnung, Buchhaltung, etc.) an erster Stelle. Mehr als die Hälfte der Schweizer KMU bezeichnet dieses Kriterium als „kaufentscheidend“. An zweiter Stelle folgen Flexibilität und Releasefähigkeit der Systeme, gefolgt von der kurzen Reaktionszeit des Anbieters oder seines Support-Partners im Support-Fall und der Erweiterbarkeit der Systeme. Berücksichtigt man zur Einstufung „kaufentscheidend“ noch die Bewertung
Integration von Business Software
995
„wichtig“, dann erreicht jede dieser vier Anforderungen über 90 % der Nennungen (Abbildung 9). Demzufolge spielen die Aspekte der Weiterentwicklung und der Wartung der Systeme neben der Abdeckung der Schweizer Bedürfnisse eine herausragende Rolle. Anforderungen an künftige ERP-Systeme und deren Anbieter N = 403, gewichtet nach Unternehmensgrösse Flexibilität und Releasefähigkeit Abdeckung von Schweizer Bedürfnissen Erweiterbarkeit Kurze Reaktionszeit des Anbieters oder seines SupportPartners im Support-Fall Kurze Reaktionszeit des Anbieters bei System-Anpassungen nach der Implementierung Moderne, zukunftsweisende Software-Architektur Vollständige Integration von ERP-Basismodulen und EBusiness-Modulen Hohe Verbreitung der Software Hohe Bekanntheit des Anbieters 0%
20%
kaufentscheidend
40%
wichtig
60%
80%
weniger wichtig
100%
unwichtig
Abbildung 9: Anforderungen an künftige ERP-Systeme und deren Anbieter
Abbildung 9 zeigt einige weitere Anforderungen an ERP-Systeme, die zum Teil auch recht häufig als „wichtig“ eingestuft werden. Dies trifft zum Beispiel auf die vollständige Integration von ERP-Basismodulen und E-Business-Modulen zu. Die Bewertungen „kaufentscheidend“ und „wichtig“ zusammengenommen, kommt dieses Kriterium auf 60 % der Nennungen. Dies bestätigt wiederum die These, dass ERP-Systeme eine zentrale Grundlage von E-Business-Lösungen bilden und Einführung und Integration von E-Business-Lösungen künftig zunehmen werden. Wie eingangs schon erwähnt, zeichnet sich der Schweizer Markt für Business Software durch eine grosse Heterogenität aus. Selbst der Marktführer Abacus kommt nur auf einen Marktanteil in Höhe von etwa 16 %. Den Rest teilen sich mehr als 200 verschiedene Hersteller und Händler.2 Neben den eher kleinen, aber sehr wettbewerbsfähigen Schweizer Anbietern tummeln sich die Tochterfirmen der international bekannten Anbieter auf diesem Markt. Einige Anbieter haben sich auf die Anforderungen einzelner Branchen spezialisiert und innerhalb dieser Nischen etabliert. Für den Anwender stellt sich ob dieser Vielfalt die Frage, welcher Anbieter nun der Richtige für ihn wäre. 2
Genaue Zahlen und die Namen der führenden Anbieter finden sich in [Det+04, S. 15 ff.].
996
U. Leimstoll, P.Schubert
Besonderen Wert legen die Schweizer KMU auf die Offenheit der SoftwareModule, damit die Module beliebiger Hersteller miteinander kombiniert werden können. Auch darin steckt wiederum ein Hinweis auf die wachsende Bedeutung der Integration und auf den Wunsch nach Flexibilität. Neben der Offenheit der Systeme wird gleichzeitig gewünscht, alle Software-Module eines ERP-Systems von demselben Anbieter zu beziehen. Dies wiederum unterstreicht das Bedürfnis der KMU nach einer einfachen und direkten Koordination mit dem Anbieter, der – so die überwiegende Meinung – möglichst in der Nähe des Anwenders niedergelassen sein sollte. Die besondere Bedeutung regionaler Händler und Integratoren wird darin wieder sichtbar (Abbildung 10). Ansprüche an ERP-Systeme und deren Anbieter N = 404, gewichtet nach Unternehmensgrösse ERP-Systeme und deren Module sollten so offen sein, dass Module beliebiger Hersteller miteinander kombiniert werden können. Wir möchten alle Module, die mit unserem ERP-System integriert werden sollen, vom selben Anbieter beziehen ("alles aus einer Hand"). Für uns kommt nur Business Software in Frage, die auf unsere Branche zugeschnitten ist.
Wir bevorzugen den Kauf von Business Software bei einem regionalen Anbieter in unserer Nähe.
Technologie ist nebensächlich, für uns zählt nur die Leistungsfähigkeit der Software. 0%
stimme zu
stimme eher zu
20%
40%
stimme eher nicht zu
60%
80%
100%
stimme nicht zu
Abbildung 10: Aussagen zu ERP-Systemen und deren Anbieter
6
Analytische Auswertung
Für den Test der sechs formulierten Hypothesen liegen kategoriale Daten vor, die sich in Kontingenztafeln übersichtlich darstellen lassen [Stei93, S. 11 ff.]. Zur statistischen Analyse der Kontingenztafeln wird der Chi-Quadrat-Test nach Pearson angewendet [z. B. Bac+96; Sach92]. Er erlaubt qualitative Aussagen über die Ab-
Integration von Business Software
997
hängigkeit zwischen zwei Merkmalen (Unabhängigkeitstest) sowie die Ermittlung des zugehörigen Signifikanzniveaus.3
Hypothese 1 Hypothese 1 untersucht den Zusammenhang zwischen der Unternehmensgrösse und dem Einsatz und der Integration von ERP- und E-Business-Modulen. Die Unternehmensgrösse wird an der Anzahl der Mitarbeitenden gemessen. Die Antworten werden in die drei Klassen (1) 10 - 49, (2) 50 - 99 und (3) 100 - 250 Mitarbeitende zusammengefasst. Einsatz und Integration der ERP- und E-BusinessModule werden daran gemessen, ob das betreffende Modul vorhanden/integriert ist oder nicht. Dabei werden die Module untersucht, die in Tabelle 1 aufgeführt sind. Im Falle der Unternehmensgrösse als Determinante des Einsatzes (Hypothese 1a) von ERP-Modulen kann der Chi-Quadrat-Test auf alle Module angewendet werden. Tabelle 3 zeigt, dass ein signifikanter Zusammenhang mit der Unternehmensgrösse für den Einsatz der ERP-Module Vertrieb und Auftragsabwicklung, Warenwirtschaft und Einkauf beobachtet werden kann. Diese Module werden in grösseren Unternehmen häufiger eingesetzt als in kleineren Unternehmen. Für den Einsatz von E-Business-Modulen können keine signifikanten Zusammenhänge nachgewiesen werden. Die Nullhypothese der Unabhängigkeit ist für diese Module aufrechtzuerhalten. In den meisten Fällen – dies gilt auch für die weiteren Hypothesen – kann der Test wegen zu geringer Erwartungshäufigkeiten nicht angewendet werden. Die geringen Erwartungshäufigkeiten resultieren aus der Tatsache, dass E-Business-Module in den untersuchten KMU (noch) nicht weit verbreitet sind und vergleichsweise wenige Unternehmen Aussagen zu der zugrunde liegenden Frage nach dem Einsatz und der Integration der E-Business-Module machen. Der Chi-Quadrat-Test ist nur anwendbar auf den Zusammenhang zwischen der Unternehmensgrösse und dem Einsatz der E-Business-Module E-Commerce, Marketing und CRM, Mobile Applikationen, Content Management und Branchensoftware. Ein statistischer Zusammenhang liegt nicht vor, der Einsatz dieser Module ist von der Unternehmensgrösse unabhängig. Die Unternehmensgrösse bestimmt zum Teil auch den Grad der Integration (Hypothese 1b) der ERP-Module. Dies ist der Fall bei den Modulen Finanzwirtschaft, Warenwirtschaft, Einkauf sowie Controlling und FIS. Diese Module sind
3
Von einem signifikanten Zusammenhang wird dann ausgegangen, wenn die Irrtumswahrscheinlichkeit Į = 0.05 oder weniger beträgt. Dies entspricht einem geforderten Signifikanzniveau von 5 %.
998
U. Leimstoll, P.Schubert
in grösseren Unternehmen häufiger integriert anzutreffen als in kleineren Unternehmen. Der Einfluss der Unternehmensgrösse auf die Integration der E-Business-Module lässt sich wegen zu geringer Erwartungshäufigkeiten nur für die Module ECommerce, Marketing und CRM und Branchensoftware untersuchen. Diese Zusammenhänge sind nicht signifikant. Die Unternehmensgrösse hat folglich keinen Einfluss darauf, ob E-Commerce-, Marketing- und CRM- und BranchensoftwareModule in ein Gesamtsystem integriert werden oder nicht. Hypothese
Merkmal 1
Merkmal 2
Modul
Signifikanz *)
Signifikanzniveau **)
1a
Unternehmensgrösse
Einsatz von ERP-Modulen
Vertrieb und Auftragsabwicklung
0.008
1.0 %
1a
Warenwirtschaft
0.010
1.0 %
1a
Einkauf
0.043
5.0 %
Finanzwirtschaft
0.007
1.0 %
1b
Warenwirtschaft
0.006
1.0 %
1b
Einkauf
0.024
5.0 %
1b
Controlling und FIS
0.044
5.0 %
Vertrieb und Auftragsabwicklung
0.041
5.0 %
1b
Unternehmensgrösse
Integration von ERP-Modulen
2a
Umsatzentwicklung
Einsatz von ERP-Modulen
*)
Asymptotische Signifikanz (zweiseitig) im Chi-Quadrat-Test nach Pearson
**)
Verbleibende Irrtumswahrscheinlichkeit Į im zweiseitigen Test
Tabelle 3: Signifikante Teilergebnisse der Zusammenhangsanalyse zwischen den Merkmalen Unternehmensgrösse und Umsatzentwicklung und dem Einsatz und der Integration von ERP- und E-Business-Modulen
Hypothese 2 Hypothese 2 untersucht den Zusammenhang zwischen der Umsatzentwicklung und dem Einsatz und der Integration von ERP- und E-Business-Modulen. Die Umsatzentwicklung der Unternehmen wird daran gemessen, wie sich der Umsatz in den letzten drei Jahren (2001 – 2003) im Grossen und Ganzen entwickelte. Die Antworten werden in fünf Klassen eingeteilt: (1) stark gesunken, (2) gesunken, (3) stabil (stagnierend), (4) gestiegen und (5) stark gestiegen.
Integration von Business Software
999
Die Umsatzentwicklung als Determinante von ERP-Einsatz (Hypothese 2a) und ERP-Integration (Hypothese 2b) zeigt einen signifikanten Einfluss nur auf den Einsatz des Moduls Vertrieb und Auftragsabwicklung (Tabelle 3). Je besser die Umsatzentwicklung eines Unternehmens ist, desto häufiger werden ERP-Module zur Unterstützung von Vertrieb und Auftragsabwicklung eingesetzt. Bei vielen anderen Modulen ist der Test wegen zu geringer Erwartungshäufigkeiten nicht anwendbar.4 Dies gilt auch für den Zusammenhang zwischen der Umsatzentwicklung und der Integration von ERP-Modulen. Der Zusammenhang zwischen der Umsatzentwicklung und dem Einsatz und der Integration von E-Business-Modulen kann nicht untersucht werden. In allen Fällen sind die Erwartungshäufigkeiten zu gering, um den Test anzuwenden.
Hypothese 3 In Hypothese 3 bilden der Einsatz (Hypothese 3a) und die Integration (Hypothese 3b) von ERP- und E-Business-Modulen den exogenen Faktor. Geprüft wird, ob aus dem Einsatz oder der Integration dieser Module positive Auswirkungen auf den Unternehmenserfolg resultieren. Für die Messung des Unternehmenserfolgs wird die Umsatzentwicklung eines Unternehmens mit der Umsatzentwicklung der betreffenden Branche in Verbindung gebracht. Dabei gehen die Umsatzentwicklung des Unternehmens und die Umsatzentwicklung im Vergleich zur Branche zu gleichen Teilen in die Bewertung ein. Der daraus entstehende Bewertungsindex für den Unternehmenserfolg wird für die Assoziationsanalyse wie folgt klassiert: (1) weniger erfolgreich, (2) erfolgreich, (3) sehr erfolgreich. Ein signifikanter Einfluss auf den Unternehmenserfolg kann nur im Falle der Integration des ERP-Moduls „Betriebsdatenerfassung“ beobachtet werden (Tabelle 4). Unternehmen, deren Betriebsdatenerfassung in ein ERP-System integriert ist, sind hoch signifikant häufiger erfolgreich als andere Unternehmen.
4
Dies trifft zu auf die Module Finanzwirtschaft, Einkauf, Service und Dienstleistungen, Produktionsplanung- und -steuerung, Betriebsdatenerfassung, Personalwirtschaft und Controlling/FIS.
1000
U. Leimstoll, P.Schubert
Hypo these
Merkmal 1
Modul
Merkmal 2
Signifikanz *)
Signifikanzniveau **)
3b
Integration von ERP-Modulen
Betriebsdatenerfassung
Erfolg des Unternehmens
0.004
1.0 %
*)
Asymptotische Signifikanz (zweiseitig) im Chi-Quadrat-Test nach Pearson
**)
Verbleibende Irrtumswahrscheinlichkeit Į im zweiseitigen Test
Tabelle 4: Signifikante Teilergebnisse der Zusammenhangsanalyse zwischen den Merkmalen Einsatz und Integration von ERP-und E-Business-Modulen und dem Erfolg des Unternehmens
Der Zusammenhang zwischen dem Unternehmenserfolg und den E-BusinessModulen kann nur im Falle des Einsatzes der Module E-Commerce und Branchensoftware sowie im Fall der Integration des Moduls Branchensoftware analysiert werden. Diese Zusammenhänge sind nicht signifikant. Der Einsatz von ECommerce- und Branchensoftware wirkt sich folglich nicht signifikant auf den Unternehmenserfolg aus. Dies gilt auch für die Integration von Branchensoftware. Die Hypothese, der Einsatz und die Integration von E-Business-Modulen wirke sich positiv auf den Unternehmenserfolg aus, kann damit nicht bestätigt werden.
7
Zusammenfassung und Ausblick
Insgesamt machen die Untersuchungsergebnisse deutlich, dass Schweizer KMU sehr hohe Ansprüche an Business Software stellen, allen voran die Anpassungsfähigkeit der Systeme und die Kundennähe des Anbieters. Die Schwerpunkte der Integration von Business Software werden weiterhin im unternehmensinternen Bereich liegen. Als ein anhaltender Trend erweist sich der Auf- und Ausbau von EBusiness-Applikationen, in dessen Rahmen die KMU das Thema der unternehmensübergreifenden Integration verstärkt angehen werden. Die regionalen Schweizer Anbieter haben deshalb einen Wettbewerbsvorteil, wenn sie ERPSysteme anbieten, die neben der Integration der Basismodule auch die Integration von E-Business-Modulen vorsehen. Für die KMU bringt das zunehmende Angebot solcher Lösungen die grosse Chance, integrierte Lösungen mit einem überschaubaren Aufwand umsetzen zu können. Tendenziell wird dies in zunehmendem Masse auch für die kleinen unter den KMU gelten. Heute hängt der Umfang der Integration noch sehr stark von der Unternehmensgrösse ab. Die Module Finanzwirtschaft, Warenwirtschaft, Einkauf und Controlling sind in den grösseren KMU signifikant häufiger in ein Gesamt-
Integration von Business Software
1001
system integriert als in den kleineren KMU. Dies könnte sich in den nächsten Jahren ändern.
Literatur [Bac+96] Backhaus, K. et al.: Multivariate Analysemethoden. Eine anwendungsorientierte Einführung. 8. Aufl., Springer: Berlin et al., 1996. [Buh+01] Buhl, L.; Christ, J.; Pape, U.: Marktstudie. Softwaresysteme für Enterprise Application Integration. In: Dangelmaier, W.; Bohner, M. (Hrsg.): ALB-HNI-Verlagsschriftenreihe, Band 7, Fraunhofer Anwendungszentrum für Logistikorientierte Betriebswirtschaft: Paderborn, 2001. [Davy01] Davydov, M. M.: Corporate Portals and E-Business Integration. A Manager's Guide. McGraw-Hill, 2001. [Dett02] Dettling, W.: EAI oder die Sehnsucht nach einer heilen Welt. In: Netzguide "Enterprise Application Integration", Oktober 2002, S. 7. [Det+04] Dettling, W.; Leimstoll, U.; Schubert, P., Netzreport'5: Einsatz von Business Software in kleinen und mittleren Schweizer Unternehmen. Basel: Fachhochschule beider Basel (FHBB), Institut für angewandte Betriebsökonomie (IAB), Arbeitsbericht EBusiness Nr. 15, 2004. [Dürs98] Dürselen, A.: Integrationspotentiale in kleinen und mittleren Unternehmen. Eul: Lohmar, Köln, 1998. [Holt03] Holten, R.: Integration von Informationssystemen. In: Wirtschaftsinformatik 45, 2003, 1, S. 41-52. [Kaib02] Kaib, M.: Enterprise Application Integration. Grundlagen, Integrationsprodukte, Anwendungsbeispiele. Deutscher Universitätsverlag: Wiesbaden, 2002. [Kell02] Keller, W.: Enterprise Application Integration. Erfahrungen aus der Praxis. dpunkt, 2002. [Leim01] Leimstoll, U.: Informationsmanagement in mittelständischen Unternehmen. Eine mikroökonomische und empirische Untersuchung. Frankfurt am Main et al.: Peter Lang, 2001. [LePo98] Levy, M.; Powell, P.: SME flexibility and the role of information systems. In: Small Business Economics 11, 1998, S. 183-196. [Lint01] Linthicum, D.: B2B Application Integration. Addison-Wesley Longman: Amsterdam, 2001. [Lyba96] Lybaert, N.: Information. Erfolgsfaktor in industriellen KMU am Beispiel Belgiens. In: Internationales Gewerbearchiv 44, 1996, 1, S. 43-54.
1002
U. Leimstoll, P.Schubert
[Ray+95] Raymond, L.; Paré, G.; Bergeron F.: Matching information technology and organizational structure. An empirical study with implications for performance. In: European Journal of Information Systems 4, 1995, 1, S. 3-16. [Sach92] Sachs, L.: Angewandte Statistik. Anwendung statistischer Methoden. 7. Aufl., Springer: Berlin et al., 1992. [Sche91] Scheer, A.-W. (Hrsg.): CIM im Mittelstand. Fachtagung. Saarbrücken, 20.-21. Februar 1991. Springer: Berlin et al., 1991. [Sche96] Scheer, A.-W.: Architekturen für das Information Engineering. In: Heilmann, H.; Heinrich, L. J.; Roithmayr, F. (Hrsg.): Information Engineering. Wirtschaftsinformatik im Schnittpunkt von Wirtschafts-, Sozial- und Ingenieurwissenschaften. Oldenbourg: München, Wien, 1996, S. 235-260. [ScWi02] Schelp, J.; Winter, R.: Enterprise Portals und Enterprise Application Integration. Begriffsbestimmung und Integrationskonzeptionen. In: HMD, Praxis der Wirtschaftsinformatik, Nr. 225, Juni 2002, S. 6-19. [Sch+93] Scholl, M.; Lippold, H.; Hilgenfeldt J.: Vernetzung von IuK-Techniken. Chancen und Risiken der Informations- und Kommunikationstechniken für kleinere und mittlere Unternehmen. Vieweg: Braunschweig, Wiesbaden, 1993. [ScDo02] Schopp, B.; Dold, D.: Beim Zauberwort EAI darf die Benutzersicht nicht vergessen werden. In: Netzguide "Enterprise Application Integration", Oktober 2002, S. 2224. [Schu04] Schubert, P.: E-Business mit betriebswirtschaftlicher Standardsoftware. In: Schubert, P.; Wölfle, R.; Dettling, W. (Hrsg.): E-Business mit betriebswirtschaftlicher Standardsoftware. Einsatz von Business Software in der Praxis. Hanser: München, Wien 2004, S. 1-8. [Sch+03] Schubert, P.; Wölfle, R.; Dettling, W. (Hrsg.): E-Business-Integration. Fallstudien zur Optimierung elektronischer Geschäftsprozesse. Hanser: München, Wien, 2003. [Stei93] Steinborn, D.: Die Analyse nominal-skalierter Daten in Kontingenztafeln mit Assoziationsmaßen unter besonderer Berücksichtigung von Datenvariationen. Lang: Frankfurt am Main et al., 1993. [VoZe02] Voigtmann, P.; Zeller, T. (2002): Enterprise Application Integration und B2B Integration im Kontext von Electronic Business und Elektronischen Marktplätzen. Teil 1: Grundlagen und Anforderungen. FORWIN-Bericht, FWN-2002-013, Nürnberg, 2002.
A Comparison of Paradigmatic Views in Knowledge Management: An Empirical Case Study on Shortcomings in KM Bertolt Meyer, Wolfgang Scholl Humboldt-University Berlin
Abstract: Four Paradigmatic views that explain shortcomings of knowledge management systems (KMS) in literature are identified: Organizazional barriers, codification vs. personalization, importance of a clear working definition of knowledge and impossibility to manage knowledge or certain forms of it. Their validity is analyzed by comparing them to a case study in which shortcomings of two KMS in an international company were analyzed. Factor analyses and linear structural models identified three factors that account for the acceptance of one of the systems: system quality, personal attitude towards KM and organizational culture / barriers. The linear structural model partly supports the first three paradigmatic views. Further efforts for incorporating different concepts in KM into a single conceptual framework appear necessary and possible. Keywords: Knowledge management, knowledge management systems, barriers
1
Introduction
The significance of knowledge as a vital resource for the world’s economies has been underlined in science and politics. Examples include Stehr’s introduction of the term “knowledge society” [Steh94] and the ambitious aim of the European Union to become one of the world’s “leading knowledge-based economies” [Euro00, p. 1]. Especially in times of highly competitive and rapidly changing environments, knowledge forms the basis for innovation and economic success [DaPr98; Druc93; NoTa95; Scho04; ScGe03]. Knowledge management (KM) is the strategy for the management of this vital resource, and has evolved from a hyped buzzword to an accepted strategy, as a study on future management strategies indicates [Noac03]. However, the early enthusiasm has faded since concrete applications of KM concepts in business, especially in form of IT-based knowledge-management-systems (KMS), fell short of expectations [Malh04; Schn01; ScGe03; Schü03; Snow02]. This paper seeks to give an overview of different views that intend to explain the
1004
B. Meyer, W. Scholl
shortcomings of systems in use, evaluate them empirically, and derive some ideas for an integrative framework. The empirical research pertains to two knowledge management systems (referred to as systems A and B) within a large multinational service company with more than 100,000 employees which were evaluated in an empirical field study. The situation within this organization appeared as follows: System A was in operation since 1999 and was designed as a global knowledge management system. It took more than two years to develop it; the development was carried out by a central team that included many external consultants but had little contact with the employees intended to use the system. Planned as a global platform for collaboration and communication, its core is a database system to which employees supply documents which are categorized on three dimensions mapping the structure of the organization. In this way, the database structure is intended to allow the employees to specify the context in which they work and to easily retrieve all documents relevant to them. The system also contained communication tools and a facility for searching CVs. Three years after introduction, the system was hardly used, internal strategy papers referred to “not only positive experiences”, and employees nicknamed the system “nirvana”. System B was designed by employees of a specific department in 2000 in order to elude the shortcomings of system A, as the initiator of the system put it. It is a intranet website with access to different sets of documents, guidelines and archives. The content is structured with a simple menu-based navigation; communication and collaboration tools are not included. It was used more frequently than the system A but it had also some shortcomings, e.g. no search function. In order to explore the shortcomings of both systems, the literature was scanned for other experiences and explanations of KMS shortcomings, which are grouped in section 2. The situation in the cooperating organization was then surveyed with interviews and questionnaires (section 3). Factor analysis of the questionnaire data led to four factors that condition the acceptance of system B. The factors were then inserted into a structural model in order to quantify their influence on the systems’ acceptance (section 4). In section 5, the results are compared to the paradigmatic views identified in section 2 and are integrated into a conceptual framework for barriers in knowledge management systems.
2
Paradigmatic Views on Shortcomings in KM
Before analyzing knowledge management strategies and systems, it is vital to provide working definitions for the terms “knowledge” and “knowledge management”. Since no definition can claim prime usefulness, a working definition for
A Comparison of Paradigmatic Views in Knowledge Management
1005
knowledge is chosen that is broad enough to incorporate all different forms of knowledge, including both individual and organizational knowledge1: “Knowledge is the entirety of all products of learning, in which data is perceived as information and is stored as structural connectivity patterns” [Güld99, p. 161, own translation].
Knowledge management is then defined as the coordinated, structured and supported use, creation and sharing of knowledge within an organization. [ReMa00, p. 9]. Knowledge processes in organizations are usually supported by IT-based knowledge management systems, a heterogeneous group of systems [GrKa02], that often focus on the externalization and storage of explicit2 knowledge [Schü03]. However, these systems frequently failed or fell short of expectations [FaPr98; Malh04; Schn01; Snow02]. The hypothetical reasons proposed in the literature can be categorized into four groups: 1. Organizational barriers, both structural and cultural, that exist on both individual and collective levels. These include a lack of time or insufficient motivation for KM, lead to stock-piling of knowledge and exertion of power [Ambr00; Nort99]. Furthermore, insufficient budgets and the small scale of some projects belong into the category of organizational barriers [Ambr00], as well as limiting organizational paradigms and traditions [Schü96; VKro98] 2. Hansen, Nohira and Tierney [Han+99] as well as Sveiby [Svei01] claim that failure of IT-based KM-systems is due to the fact that organizations employ either codification or personalization strategies in KM, where they ideally should be doing both. Codification refers to a database-orientated strategy as outlined above, whereas personalization refers to the linkage of people in real face-toface contact. 3. The third group is dominated by criticism of a missing or ill-conceived working definition of knowledge in the design of IT-based KM-systems [FaPr98; Malh04; Schn01; Snow02]. The (implicit) assumption that knowledge is a storable “thing” or “object” when designing a KM-system leads to an emphasis on storage and a neglect of knowledge flows. An ill-conceived or missing definition of knowledge also leads to the assumption that humans gather and process knowledge in a similar way as computers process information [FaPr98]. The lack of a good working definition of knowledge also leads to a neglect of socio-technical system design [Schn01], and to an ignorance of the importance of shared context [NoKo98; Snow02].
1 2
Extended discussions of the term “knowledge” can be found in Amelingmeyer [Amel02], Güldenberg [Güld99], and Davenport and Prusak [DaPr98]. Compare [NoTa95] for the concept of explicit knowledge.
1006
B. Meyer, W. Scholl
4. For the most radical group, the view is that knowledge in general or some forms of it are entirely unmanageable. Schreyögg and Geiger [ScGe03] state that tacit knowledge, as Nonaka and Takeuchi [NoTa95] define it, is unmanageable, because an externalization of tacit knowledge is impossible since embodied knowledge, as Polanyi saw it, cannot be made explicit (otherwise, it would not be tacit knowledge) [Pola66]. Stacy [Stac01] takes up the most extreme position by stating that knowledge is entirely unmanageable.
3
Method
The two knowledge management systems A and B were evaluated in an empirical field study. In order to meet Snowden’s criticism that empirical research in KM tends to prove every theory that is being tested [Snow02], the employed questionnaire was not derived from the above views but was constructed on the basis of prior semi-structured interviews with 34 senior managers. Partly based on the critical incident technique [Flan54; Foun99], these interviews were used to develop hypotheses and appropriate questionnaire items on possible shortcomings of these systems, independently from the above views. After having completed the survey, the sample was split in two sub-samples. Basic variables were identified by the use of factor analysis on the first sub-sample. These factors were then incorporated into a linear structural model, predicting the degree of acceptance of of each KMS; the reaulting models were cross-validated with the second subsample. Finally, the results of the models were compared to the four paradigms, allowing a test of their theses.
3.1
Interviews
34 interviews were conducted with members of the senior staff (all participants had managerial responsibility) of one large department with multiple locations in Germany. They were partly based on the critical incident technique [Flan54]. which is well described by Fountain: “Incidents typically include three features: a description of the situation, an account of the actions or behavior of the key player in the incident, and the outcome or result. Incidents are typically reported as examples of ‘effective’ or ‘ineffective’ actions” [Foun99, p. 1]. The senior managers had an average affiliation with the company of 12.25 years, and their assessments of the systems were thought to be crucial. The interviewees were asked about (a) their expectations of system A and whether they were met, (b) misgivings towards the system, (c) their perception of the introduction of system A and (d) the experience of critical incidents in which either system, A or B,
A Comparison of Paradigmatic Views in Knowledge Management
1007
failed to function in the desired manner. The incident was then further specified. In addition, their current demand for information was surveyed by asking what kind of information they access, most frequently (e). Finally, they were asked whether they agreed with the company’s internal strategists that system A had fallen short of expectations (f). If the interviewee agreed, he or she was asked for possible reasons. The next step was a simple content analysis: keywords were located in answers to questions (a), (d) and (f). Whenever keywords of answers were similar, these answers were grouped into categories which were then labeled. For (a) and (d), the assignment of the different categories to all answers was done by nine independent expert raters with an average inter-rater-correlation r = .79 for (a) and r = .74 for (d). The analysis of the answers to question (f) did not require outside raters, as no data-reduction was intended on this exploratory level. The analysis of answers for questions (a), (d) and (f) supplied the statements about barriers which were then used to construct the questionnaire.
3.2
Questionnaire
The questionnaire consisted of 45 items: Two items asked for the frequency of system usage for system A and system B. These items had frequency scales with seven alternatives (from 1 = almost every day to 6 = never and 7 = I do not know this system). 28 items were derived from 14 interview statements that referred to the systems (questions (a), (d) and (f)), two were general evaluation items (“all in all, I think that system A/B is a good thing.”). Two items were specific to system A: The usage of the system manual and the participation in training (both were not available for system B). The next block of eleven items asked for organizational and motivational factors with regard to the use of KMS which had been derived from interview statements as well. All these items were presented as statements with five-level agreement scales (1 = strongly agree, 3 = partly agree, partly disagree, 5 = strongly disagree). The questionnaire was completed by 615 of 2500 employees from one specific department in Germany (return ratio of 24.6 %), The items of each block were displayed at random order and their polarity altered. Personal data such as sex, age, position, department etc could not be gathered due to privacy protection regulations. The sample is assumed to be largely representative on the basis of its large size and the – compared to other surveys – relatively good participation rate.
3.3
Factor Analysis
The sample was divided into two sub-samples, using random assignment of cases: sample 1 (N=307) and sample 2 (N=308). Two factor analyses (oblimin rotation due to probable factor intercorrelation) were performed on sample 1: one for sys-
1008
B. Meyer, W. Scholl
tem A and one for system B. Factor analysis reduces the complexity of a set of variables or items by identifying groups of items that seem to be influenced by a single underlying variable (factors).
3.4
Linear Structural Models
If a factor for system acceptance could be found, it would be desirable to quantify the effect of the other factors on it. Since the factors are latent (not directly observable) variables between which a causal relation is assumed, linear structural modeling is the preferred method [JöSö93; JöSö79]. Linear structural modeling allows the estimation of relationships between latent variables (factors). The models were developed with the SIMPLIS command language [JöSö93] and LISREL 8.54 [JöSö03]. Due to the fact that ordinal questionnaire data was used, the weighted least-squares algorithm for polychoric correlations was employed, including the asymptotic covariance matrices [JöSö93, 44]. Models were developed exploratively on sample 1 by iteratively considering modification indices supplied by LISREL. The complete model was then tested on sample 2.
4 4.1
Results Interviews
85 % of the interviewees said that they had expectations on the introduction of system A (which was the first system to be introduced). 83 % stated that their expectations towards system A were partly or fully disappointed (question (a)). When questioned on the reasons for their impression of the system’s shortcomings, the following were stated (frequency in brackets): inability to locate information (either because it was not in the system or it could not be found) (12), lack of process orientation (2), problems with reference to organizational culture (2), poor or insufficient data (2), superiority of informal information channels (2), technical flaws of the system (1), and a feeling of information overload (1). The interviewees were also asked whether they had any fears or reservations about the introduction of a knowledge management system; only five (14%) agreed and only one interviewee stated that his fear actually had come true. When questioned about critical incidents with the system, 80% of the interviewees were capable of remembering such a situation. Fourteen reported cases occurred with system A, nine with system B, and five with other systems. The case in which information was undiscoverable occurred 21 times, superiority of unofficial channels was stated four times, poor or insufficient quality of search results three times and the
A Comparison of Paradigmatic Views in Knowledge Management
1009
feeling of information overload twice. When questioned on the kind of information that they access most frequently (e), none of the respondents specified a need for personal experience reports, CVs, best practices, or public discussions. Answering the last question regarding the fulfillment of the original KM vision of a global company- and world-wide platform for collaboration and communication, 82 % of the interviewees stated that they do not see that this vision had come true. The specified reasons along with their frequencies can be found in table 1.
a
Nr.
Stated reasons
Stated
Stated in %
1 2
global focus unsuitable
13
29 %
desired information undiscoverable
9
20 %
3
superiority of informal communication
4
9%
4
poor data
3
7%
5
blurred responsibilities and poor organization
3
7%
6
information overload
2
4%
7
unsuitable for mobile working
2
4%
8
no time for knowledge sharing
2
4%
9
problems with organizational culture
2
4%
10
excessive expectations about the system
1
2%
11
poor integration of existing systems
1
2%
12
no need for knowledge management
1
2%
13
language difficulties
1
2%
14
technical flaws
1
2%
45
98 % a
the difference to 100 % is caused by truncation
Table 1: Stated reasons for the perceived failure of the original KM vision
1010
4.2
B. Meyer, W. Scholl
Questionnaire
Label Information overload
Items targeting the systems as presented in the questionnaire The system contains too much. I have a feeling of “information overload”.
Retrievability
When I look for information, I usually find what I am looking for.
Keywording / Meta Data
The information I find in the system has good keywords or metatags.
Lack of ‘glanceability’
The system is easy to glance and assimilate at a grasp.
Content meets requirements
The information I find on the system… …meets my requirements completely.
Specificity
...is specific and concrete enough for my requirements.
Up-to-dateness
...is up-to-date.
Availability
The system is available whenever I need it.
Load time
The system responds quickly with short loading (?) times.
Belief in relevance of system
I credit relevance to the system.
Content in required language
The information I get from the system is in the required language.
Technical flaws
I encountered technical flaws while using the system.
Bad experiences
I had some bad experiences using the system.
Process orientation
The system is designed in accordance with business processes.
Label
Items targeting organizational culture & barriers
No time or resources for knowledge sharing
Unfortunately, my responsibilities do not give me enough time to care for KM. If I want to know something, I pick up the phone instead of searching in system A, B or elsewhere I am afraid of making my material public because I fear to be judged by colleagues
Superiority of unofficial information channels Fear of knowledge sharing ‘Knowledge is power’ attitude
Feeling of inadequate knowledge about KM
Sharing knowledge bears the risk of making me less needed. In our company, legal barriers prevent the free sharing of knowledge. In our company, the responsibilities concerning KM are adequately defined. In our company, one is not rewarded in any way for commitment to KM. In our company, the actual meaning and definition of KM has been poorly communicated.
Equating KM with KMS Development beyond personal needs and requirements Belief in the general relevance of KM
In my view, KM primarily (has something to do with) is about IT. There was insufficient analysis of whether I need a KM system, and what it should look like. All in all, I consider KM to be an important thing, to which our company should be committed .
Legal barriers Responsibilities for KM Insufficient rewards for KM
Table 2: Questionnaire items (derived from interview statements)
A Comparison of Paradigmatic Views in Knowledge Management
1011
Example statements from the interviews that led to the categories described above were presented as items in the questionnaire (see table 2). In order to verify the impression that system B is more widely accepted than system A, the means for general evaluative items are compared with T-tests3 (see table 3). The impression that system B is more popular and used more frequently than system A is statistically supported. All values differ significantly and to a very large degree (all effect sizes are above .80). Evaluated system A Item
n
Frequency of usage a
M
B SD
M
SD
p(t)
dc
615
3.40 1.25 5.57
1.06 .000 1.87
General 443 evaluation b
3.44 1.06 4.49
.69
.000 1.22
Relevance b 438
3.44 1.02 4.47
.70
.000 1.17
Notes. a inverted frequency scale with seven alternatives from 7 = almost every day to 2 = never, 1 = I do not know this system. b agreement scale with five alternatives from 1 = strongly disagree to 5 = strongly agree; for items see table 2. c Effect size: Cohen’s d. Table 3: Comparison of means between system A and B (t-test with paired samples), evaluating and judging items
The rest of the items with reference to the specific systems (upper section of table 2) differ in similar ways as those in table 3: system B receives better ratings for every single item. T-tests for paired samples are significant on 0.001-level for every item; Cohen’s d is larger than .80 for all items except for ‘Keywording’ (.72) and ‘Required Language’ (.76). Thus, the simpler, local system B is seen as superior to A in every respect.
4.3
Factor Analyses
Factor analyses are intended to identify groups of items that are influenced by a single underlying construct by being highly correlated. If a separate factor of system acceptance can be found, the influence of other factors on that acceptance factor can be analyzed. In the following, two factor analyses are performed: one for system A and one for system B.
3
See [Labo70] for the validity of using ordinal data for t-tests.
1012
4.3.1
B. Meyer, W. Scholl
System A
The factor analysis for system A included all items with reference to system A as well as the items with reference to organizational aspects. The first factor had a relatively high variance (25.5 %). The scree test indicated a four-factor solution, which was adopted with an oblique rotation leading to the best available simple structure. The factor correlations were low, the highest being -.11 between factor I and II. The rotated four factor solution accounts for 46.6 % of the overall variance. The pattern matrix is omitted in this conference paper and is available from the authors on request. Factor I incorporates nine highly loading items (> .7). On the one hand, these consist of seven items with reference to the system quality: ‘Specificity’, ‘Retrievability’, ‘Glanceability’, ‘Process orientation’, Content meets requirements’, ‘Keywording’ and ‘Up-to-dateness’. On the other hand, it includes two overall evaluative items: ‘General evaluation’ and ‘Relevance of system A’. A third item with general relevance, ‘Frequency of usage’, loads with .52. This factor is thus a mixture of system A’s specific features and its general acceptance and use. Taking into account that this factor has high loadings from more than 50% of items from different domains, one has to arrive at the conclusion that this factor represents the generalized attitude towards system A. Factor II consists of the items ‘Inadequate time and resources for KM’, ‘Inadequate reward for KM’ and ‘ Development beyond personal requirements’. The weaker loadings of ‘Clear responsibilities in KM’ (with a negative algebraic sign), ‘Legal barriers’ and ‘Inadequate knowledge about KM’ support the label ‘Organizational barriers’ for this factor. Factor III incorporates the ‘Knowledge is power’ and ‘Fear of judgment’ items. It is thus named ‘Personal attitude towards KM’, since these items both refer to a specific (anxious) attitude towards KM . Factor IV refers to ‘Knowledge about system’ A. Although it only consists of one item loading > .6 (‘Usage of system manual’), the weaker loadings of ‘Participation in system training’ and ‘Technical flaws’ support this interpretation. Since it was not possible to identify a separate factor for the acceptance of system A, the influence of other factors onto the acceptance of System A cannot be estimated with the help of linear structural modeling. 4.3.2
System B
In the analysis of system B on sample 1, a well interpretable solution with five correlated factors emerged with eigenvalues of 4.51, 3.91, 2.52, 2.52 and 2.30. The factor matrix of the five-factor solution, which accounts for 46% of the overall variance, is omitted in this conference paper, since the loadings are shown in
A Comparison of Paradigmatic Views in Knowledge Management
1013
the linear structural equation models (cf section 5). Pattern matrices can be obtained from the authors. The analysis of factor intercorrelations reveals a medium correlation of .35 between the first and the second factor. All other correlations are smaller with absolute values of .23 or below. Factor I represents the quality of system B. It includes items from the field of usability (‘Keywording’, ‘Glanceability’ and ‘Retrievability’) and data quality (‘Specificity’ and ‘Content meets requirements’). It also includes the item ‘Process orientation’ which could be assigned to both of these domains. Factor II represents the acceptance of system B. It includes the ‘Frequency of usage’, ‘General evaluation and ‘Relevance of system B’ items. Furthermore, the ‘Information overload’ item has a negative loading on this factor, indicating that the feeling of information overload correlates negatively with the other three items. The existence of such a specific acceptance factor is the precondition for further structural analyses, because the causal influences on system B’s acceptance can now be estimated. Factor III represents organizational barriers. It consists of the ‘Legal barriers’, ‘Lack of time and resources for KM’, ‘Reward for KM’, ‘Adequate knowledge about KM’ and ‘System development beyond personal requirements’ items. Factor IV is the personal attitude towards KM, because ‘Belief in the general relevance of KM’ and, with a negative algebraic sign, ‘Fear of judgment’ load highly on this factor. Factor V is labeled negative experiences with system B. It includes the ‘Experience of technical flaws’ and ‘Bad experiences’ items. In summary, five more general aspects were identified that underlie the items with reference to system B and to organizational culture: Quality of the system, acceptance of the system, organizational barriers, personal attitude towards KM, and negative experiences with system B. The relations between these factors that underlie the usage of this knowledge management system can now be analyzed with linear structural models.
4.4
Linear Structural Models
For an analysis of the acceptance of system B, the factors identified above are inserted into a linear structural model. Linear structural models allow - among other possibilities - testing of hypotheses about causal influence between latent (not directly observable) variables. Since factors, as identified in the previous section, are latent variables (constructs that influence groups of items), hypotheses about their influence on each other can now be tested. The general hypothesis is that system acceptance is causally influenced by the other four factors system quality, organ-
1014
B. Meyer, W. Scholl
izational barriers, negative experiences with system B and personal attitude towards KM. In figures of linear structural models, factors are displayed as circles. The items that are influenced by these factors are displayed as boxes. Causal influences are displayed as pointed arrows with path coefficients (between -1 and 1) that indicate the strength of the causal relation. Correlations are displayed as bidirectional arrows. By quantifying the influence of the factors on the items, the model may confirm the factor analysis from the previous section. It should be noted that linear structural modeling can only reject hypotheses but cannot prove a model since other models might explain the data, too. The completed model for sample 1 with all standard errors (numbers next to boxes), path coefficients and correlations is depicted in figure 1.
.33
.24
Specificity
.65
Keywording
.43
Glanceability
.41
Retrievability
.30
Process orientation
Cont. meets requirements Technical flaws .88
.68 .52
.70
Bad. experiences Belief in general relevance of KM
Fear of judgment .92 .82 .82
Legal barriers
.87 .59 .75 .77 .84 .87
System qualitya -.36
.32
Neg. experiences
1.00 .34 .16 .69 -.55
Inadequate time & .29 ressources f. KM .43 Inadequate reward for KM .43
.36
System design beyond personal requirements
.80
Feeling of inadequate knowledge about KM
.57
.57
ȗ
.66 .63 .07
n.s.
-.29
Attitude towards KM -.48
.16
.48
Acceptance of sys.B
.02
.60
Information overload
.61
-.62 .90 .87
n.s.
Frequency of usage
Belief in relevance of sys B
.20
General evaluation
.25
Organ. barriersa
Note. Correlations between measurement errors are omitted. Coefficients marked ‘ns’ do not have a significant t-value. All other coefficients are significant on the 5% level. a System quality and organizational barriers correlate with r = -.48. Figure 1: Linear structural model for the acceptance of system B for sample 1 (N=307).
Except for the path coefficients between negative experiences and acceptance and between organizational culture and acceptance, all path coefficients have a significant t-value at a level of significance of 5 %. Goodness of fit statistics shows a chi square value of 82.63 with 94 degrees of freedom, leading to a p-value of
A Comparison of Paradigmatic Views in Knowledge Management
1015
0.774. Other indices equally support the impression of a excellent model fit: a Root Mean Square Error of Approximation (RMSEA) of 0.000, a Goodness-of-Fit Index (GFI) of 0.99 and an Adjusted Goodness-of-Fit Index (AGFI) of 0.99. The hypothesis that acceptance is influenced by at least three factors (circles) is not disproved: System quality influences the acceptance of system B to the strongest extent (.66). The second strongest influence on the acceptance is the employees’ attitude towards knowledge management (.48). Negative experiences with the system and organizational barriers do not have a direct significant influence on the systems’ acceptance. However, there is a substantial negative correlation (-.48) between organizational barriers and the attitude towards knowledge management, indicating an indirect influence of organizational barriers on the acceptance of knowledge management via this attitude. The excellent fit indices of this model may be inflated since the model was developed on the basis of the same sample that produced the factors. The test of the model on sample 2, which remained unused so far, will prove to be more illuminating. The model for sample 2 gives a chi-square value of 137.95 with 94 degrees of freedom, leading to a p-value of 0.002. This comparatively poor value is contrasted by a sufficient RMSEA value below 0.05 (0.04), and very good GFI- and AGFI-values (0.99 and 0.97, respectively). The Q-plot of standardized residuals of the second model is still close to the main diagonal of standardized residuals and very close to the plot of the previous model, which also indicates a good model fit [Balt94]. In summary, the indices do not speak for a rejection of the second model, although they are not as good as the fit of the first model. The only relevant difference between the coefficients in the second and in the first model is a significant weak negative path coefficient (-.19) between organizational barriers and the acceptance of system B in the second model. Since all other indices differ only slightly in comparison to the first model and do not alter its general strength nor its interpretation, it is not separately displayed. The negative correlation between organizational barriers and attitude towards KM is also present (-.46) and almost as large as in the first model. This is a further indicator for the influence of organizational factors on the acceptance of system B. However, the system quality is still the dominant influence (.67) on the systems’ acceptance, followed by the employees’ attitude towards knowledge management. The implications of the model are discussed in the following section.
4
Note that in linear structural models, the model hypothesis is that the empirical parameter matrix and the model matrix are not different, thus the p-value has to be as high as possible and not below 0.05.
1016
5
B. Meyer, W. Scholl
Discussion
The results from the comparison of means show clearly that system B is much more accepted and more frequently used than system A. The differences in ratings are not only highly significant, but also – with effect sizes above one standard deviation – very large. System A’s lack of ‘glanceability’, process orientation, retrievability and specificity of included content along with poor keywording, led to a generalized negative view of the system. Factor analysis for system B indicated a more differentiated perception of the system which enabled the analysis of the influence on its acceptance with structural modeling. The linear structural analysis of system B shows that three factors determine its acceptance: Its quality (with reference to usability and content), the general attitude of the employees towards KM, and organizational barriers. In the following section, these findings are discussed further, applying them to the four paradigmatic views outlined in section 2.
5.1
Comparison of the Findings to the Organizational Barriers’ Perspective
As discussed in section 2, some authors claim that organizational barriers are responsible for shortcomings in knowledge management systems. These thinkers are supported by the employees’ assessment of system A in this study. Employees here stated that they are inadequately rewarded for their initiatives in KM and by the fact that they report insufficient time and resources for KM activities. The linear structural models for system B provide a more differentiated picture. Given the negative experiences with system A, which was introduced prior to system B, it is not surprising that system quality influences acceptance most strongly. Surprisingly, the ‘Negative experiences’ factor does not appear to influence the system’s acceptance significantly. However, there is a significant correlation (.29) between negative experiences and the ‘personal attitude towards KM’ factor, which influences the acceptance of system B to the second strongest extent. This ‘Personal attitude towards KM’ factor also has a seizable correlation ( -.47, averaged over both models) with organizational barriers, which shows a significant direct influence on acceptance only in the second structural model. This correlation cannot tell which factor influences which, but it appears to be more plausible that the perception of existing organizational barriers influence the personal attitude towards KM more than the other way round. The inclusion of the ‘Time and resources for KM’ and ‘Inadequate reward for KM’ items in the organizational barriers factor also supports the first group. The contradiction between this group and those thinkers who blame extrinsic motivation in KM for its failure can be solved by taking a middle position: employees should be primarily intrinsically motivated to make use of a KM-system, and should then be rewarded extrinsically in return for their efforts [FrOs02]. This im-
A Comparison of Paradigmatic Views in Knowledge Management
1017
plies that employees do not require rewards every single time they actually use or feed the system. The latter leads to camouflage behavior [Snow02], but the complete neglect of motivation and acknowledgement for expected behavior will also preclude desired outcomes.
5.2
Comparison of the Findings to the Codification versus Personalization Perspective
Authors from the second group, who blame the absence of a flanking personalization approach next to codification efforts, could be supported by the observation that the organization undertook no endeavors in the field of organized personalization methodologies like supporting, for instance, communities of practice. This is currently being discussed inside the organization, as a strategy paper indicates. However, the slight rejection of the ‘Superiority of unofficial information channels’ item, the lack of interest in communication tools (which were removed from system B due to a lack of usage) and the demand for structured, formal and specific information do not provide strong empirical support for this view.
5.3
Comparison of the Findings to the Ill-Conceived Understanding of Knowledge Perspective
The fact that system A was designed as a “knowledge repository” (quote from the system handbook) supports critiques from the third view that questions the suitability of knowledge storage. Furthermore, the obvious lack of socio-technical system design, derived from the fact that end user requirements were not properly taken into account, also supports this group. The importance of the idea that proper knowledge should be context specific can be seen in the success of system B in comparison with system A: system B was designed within the context of a specific local department. Its navigation, its contents, its interface and its language are specific to a subgroup of the organization whose members share a working context. System A did include a filtering mechanism that was intended to provide relevant context as well, but this pre-defined mechanism based on a theoretical taxonomy only affected the selection of content, whereas all other aspects of the system were identical worldwide.
5.4
Comparison of the Findings to the KM Sceptics’ Perspective
The fourth group's view that at least implicit knowledge is not manageable, may be supported by the fact that system B apparently doesn't attempt to manage implicit or tacit knowledge. System features like discussion forums and the CV
1018
B. Meyer, W. Scholl
search facility – which could be seen as a way of opening access to others' implicit knowledge – were removed from system B because they were not used. Of course, system B is in an early stage of development; so, it is not precluded that ITsystems could be able to support access to implicit knowledge. But the more radical assumption that KM is entirely useless is contradicted by the high acceptance and frequent usage of system B. The item ‘All in all, I consider KM to be an important thing in which our company should show commitment.’ received the highest agreement (4.5 on average where 5 is “totally agree”) in the entire questionnaire. The good acceptance of system B also refutes this position.
5.5
Integration of the Findings towards a Conceptual Framework
None of the existing views can claim to explain all possible shortcomings sufficiently. The fact that shortcomings from two domains, organizational barriers and the concept of knowledge, were clearly identified and that shortcomings from the second domain, codification versus personalization, proved fruitful for the discussion demonstrates the importance of a broader conceptual framework – a framework that incorporates the pitfalls for the establishment of any knowledge management system. The first aspect to consider is the quality of the system with regard to its design and its content. In this particular case, it is evident that the quality of an IT system had a strong influence on its acceptance. Generally speaking, this means that a poorly designed system will not be used and will eventually be abandoned and viewed as irrelevant with the risk of discrediting knowledge management in general. Systems will be perceived as good if they contain specific information with good meta tags that make it easy to find and retrieve it, and if they are geared to the needs of the employees and their daily work processes. This requires detailed knowledge of the employees’ requirements when designing KM systems, which can hardly be achieved without intensive user involvement. The common notion of IT systems as “hygiene factors” [Snow02], i.e. an engineering task for ITspecialists, or “x % technology and y % culture” [Snow00, p. 240] creates the impression that KM systems are somewhat simple and almost natural: that the actual challenges come after the implementation of these systems. This study underlines the complexity and difficulty of the design of good and usable systems. The required processes start well before systems are introduced, and make the early inclusion of employees during strategic development essential. Thus, and this is the second aspect of any useful framework, the users and their needs have to be the focus of KM, especially in the early stages of development and implementation. Development without proper consideration of end users’ requirements will lead to a failing system, as seen with system A. The social and human aspects of KMS are most probably more important than the technical as-
A Comparison of Paradigmatic Views in Knowledge Management
1019
pects [Sch+04]. The disregard of socio-technical system design, as formulated by thinkers from the third paradigmatic view, is a barrier which is clearly visible in this case. This focus on people also includes care for the personal attitudes of employees towards knowledge management. This can be addressed by preventing that the members of the organization develop a fear of being judged when they share their knowledge. The personal attitudes can also be targeted by supporting the belief in the general relevance of knowledge management. This could include vivid communication on what the organization is trying to achieve with knowledge management as well as the active system use by higher management persons becoming models for all others. The third aspect for a realistic KMS framework is attention to organizational barriers. This includes the targeting issues that have been mentioned in literature [Nort99] such as adequate time and training for system use, prevention of legal barriers, and motivation for knowledge management. Organizational aspects also include giving appropriate information on this management strategy, and eliciting appreciation for and insight in the intricacies of usable, needed knowledge in quality circles. Finally, the system design should balance all three piles of any KMS framework: IT-system, people, and organization [ReMa00]. However, in this study and probably in most other cases, the central element are people and their requirements towards which the other factors should be oriented. This is supported by the findings of the delphi study on the future of knowledge management [Sch+04], which also indicate that successful knowledge management is one that has a primary focuse on human aspects. The focus on people implies that a gradual, piecemeal development strategy is much better able to satisfy the most urgent knowledge needs of employees, and thus is more likely to be successful and to guide further developments as is evident from the much more successful system B. It is interesting that already long ago the philosopher Karl Popper recommended such an approach with the decisive argument that human knowledge is always imperfect; thus, a holistic plan, even from the most experienced specialists, is always likely to fail [Popp61]. Learning is a gradual process, for individuals and even more for organizations, and this holds perhaps in no area more true than in the area of knowledge management.
6
Conclusion
The integration of the four paradigmatic views about likely obstacles to successful knowledge management into a single multi-dimensional framework appears necessary and possible, as references to three out of four paradigmatic views were
1020
B. Meyer, W. Scholl
identified in this study. Such a framework would include the three piles of ITsystem, people and organization, with a prime focus on people. Further theoretical and empirical efforts appear necessary for the concretion and testing of such a framework. For example, a theoretical and empirical refinement of the developed questionnaire could even more precisely point to possible shortcomings of system design and organizational barriers prior to their occurrence. The prospects of such a framework are promising. The very existence of four divergent paradigmatic views of shortcomings in KM systems and the identification of their usefulness in evaluating KM systems in practice show convincingly that much can be gained in the field of knowledge management by an integrative framework.
References [Ambr00] Ambrosio, J.: Knowledge management mistakes. Online Journal Article. http://www.computerworld.com/industrytopics/energy/story/0,10801,46693,00.html, 2000, Accessed 2000-08.03. [Amel02] Amelingmeyer, J: Wissensmanagement. Analyse und Gestaltung der Wissensbasis von Unternehmen. Dt. Univ.-Verl.: Wiesbaden, 2002. [Balt94] Baltes-Götz, B.: Einführung in die Analyse von Strukturgleichungsmodellen mit LISREL 7 und PRELIS unter SPSS. Online Script. http://www.uni-trier.de/urt/user/ baltes/docs/lisrel/lisrel7.pdf, 1994, Accessed 2003-08.10. [DaPr98] Davenport, T. H.; Prusak, L.: Working knowledge: how organizations manage what they know. Harvard Business School Press: Cambridge, MA, 1998. [Druc93] Drucker, P.: Post-capitalist society. Econ: New York, 1993. [Euro00] European Council: Lisbon European Council 23 and 24 March 2000: presidency conclusions. http://www.europarl.eu.int/summits/lis1_en.htm, 2000, Accessed 2003-0924. [FaPr98] Fahley, L.; Prusak, L.: The eleven deadliest sins of knowledge management. California Management Review 40, 1998: pp. 265-276. [Flan54] Flanagan, J. C.: The critical incident technique. Psychological Bulletin 51, 1954: pp. 327-359. [Foun99] Fountain, J. E.: A note on the critical incident technique and its utility as a tool of public management research. Paper presented at the Annual meeting of the Association of Public Policy and Management, November 4-6, 1999. http://www.ksg.harvard.edu/prg/fountain/citechnique.pdf, 1999, Accessed 2004-9-27 [FrOs02] Frey, B. S., & Osterloh, M. (Eds.): Successful management by motivation. Balancing intrinsic and extrinsic incentives. Springer: Berlin, Heidelberg, New York, 2002. [GrKa02] Gronau, N.; Kalisch, A.: Knowledge content management system - a framework integrating content management and knowledge management. In: Arabnia, H (Ed.) Pro-
A Comparison of Paradigmatic Views in Knowledge Management
1021
ceedings of the International Conference on Information and Knowledge Engineering (IKE’02), Las Vegas 2002. IKE publisching: Las Vegas, 2002, pp. 150-153. [Güld99] Güldenberg, S.: Wissensmanagement und Wissenscontrolling in lernenden Organisationen. Gabler / Dt. Univ. Verl.: Wiesbaden, 1999. [Han+99] Hansen, M.; Nohira, N.; Tierney, T.: What's your strategy for managing knowledge? Harvard Business Review 77, 1999: pp. 106-116. [JöSö79] Jöreskog, K. G.; Sörbom, D. (Eds.): Advances in factor analysis and structural equation models. Abt Books: Cambridge, MA, 1979. [JöSö93] Jöreskog, K. G.; Sörbom, D.: Structural equation modeling with the SIMPLIS command language. Lawrence Erlbaum Associates: Hillsdale, NJ, 1993. [JöSö03] Jöreskog, K. G.; Sörbom, D.: LISREL 8.54: SSI Central, 2003. [Labo70] Labovitz, S.: The assignment of numbers to rank order categories. American Sociological Review 35, 1970: pp. 515-524. [Malh04] Malhotra, Y.: Why Knowledge Management Systems Fail? Enablers and Constraints of Knowledge Management in Human Enterprises. In: Holsapple, C.W. (Ed.) Handbook on Knowledge Management 1: Knowledge Matters. Springer-Verlag: Heidelberg, 2004, pp. 577-599. [Noac03] Noack, H.-C.: Worauf sich Unternehmen in der Zukunft konzentrieren: Welche Managementmethoden haben Vorrang. Frankfurter Allgemeine Zeitung 18, 2004: p.18. [NoKo98] Nonaka, I.; Konno, N.: The concept of "ba": building a foundation for knowledge creation. California Management Review 40 (3), 1998: pp. 40-54. [NoTa95] Nonaka, I.; Takeuchi, H.: The knowledge-creating company. Oxford University Press: New York, 1995. [Nort99] North, K.: Wissensorientierte Unternehmensführung (2. Aufl.). Gabler: Wiesbaden, 1999. [Pola66] Polanyi, M.: The tacit dimension. Doubleday: Garden City, NY, 1966. [Popp61] Popper, K. R.: The poverty of historicism. 2nd ed., Routledge: London, 1961. [ReMa00] Reinmann-Rothmeier, G.; Mandl, H.: Ein pädagogisch-psychoplogischer Ansatz zum Wissensmanagement - ein Widerspruch in sich? Forschungsbericht, LudwigsMaximilians-Universität, Institut für Pädagogische Psychologie und Empirische Pädagogik München, 2000. [Schn01] Schneider, U.: Die 7 Todsünden im Wissensmanagement. Frankfurter Allgemeine Buch: Frankfurt a. M., 2001. [Sch+04] Scholl, W.; König, C.; Meyer, B.; Heisig, P.: The future of knowledge management: an international delphi study. Journal of Knowledge Management 8 (2), 2004: pp. 19-35. [Scho04] Scholl, W.: Innovation und Information. Wie in Unternehmen neues Wissen produziert wird. Hogrefe: Göttingen, 2004.
1022
B. Meyer, W. Scholl
[ScGe03] Schreyögg, G.; Geiger, D.: Kann die Wissensspirale Grundlage des Wissensmanagements sein? Diskussionsbeiträge des Institut für Managements 20, 2003: pp. 2-31. [Schü96] Schüppel, J.: Wissensmanagement: Organisatorisches Lernen im Spannungsfeld von Wissens- und Lernbarrieren. Gabler: Wiesbaden, 1996. [Schü03] Schütt, P.: Die dritte Generation des Wissensmanagements. KM-Journal 1, 2003: pp. 1-7. [Snow00] Snowden, D.: The social ecology of knowledge management. In. Despres, C.; Chauval, D. (Eds.) Knowledge Horizons. Butterworth: Boston, 2000, pp. 237-265. [Snow02] Snowden, D.: Complex acts of knowing - paradox and descriptive selfawareness. Online paper. http://www-1.ibm.com/services/files/complex.pdf, 2002, Accessed 2002-09-07. [Stac01] Stacy, R.: Complex responsive processes in organizations: learning and knowledge creation. Routledge: London, 2001. [Steh94] Stehr, N.: Knowledge societies. Sage: London, 1994. [Svei01] Sveiby, K.-E: What is knowledge management? http://www.sveiby.com/ KnowledgeManagement.html, 2001, Accessed 2003-07-04. [VKro98] Von Krogh, G.: Care in knowledge creation. California Management Review 40, 1998: pp. 133-153.
Erfahrungswissen sichern und aufbereiten – Zur effizienten Gestaltung von Wissensmanagementprozessen bei der BMW AG im Projekt „Werksaufbau Leipzig“ Bärbel Fürstenau, Johanna Langfermann Technische Universität Dresden
Fritz Klauser, Volker Born Universität Leipzig
Zusammenfassung: Während des Aufbaus eines neuen Automobilwerks sammeln die Mitarbeiter und Führungskräfte umfangreiches Erfahrungswissen, das genutzt werden kann, um die Unternehmensprozesse optimal zu gestalten und bei künftigen Projekten Fehler zu vermeiden. Bisher wird die systematische Sicherung und Aufbereitung von Erfahrungswissen allerdings vielfach vernachlässigt. Dies u. a. deshalb, weil in Theorie und Praxis nur wenige Ansätze existieren, um Projekterfahrungen zu sichern und für künftige Verwendungen zielgerichtet zur Verfügung zu stellen. Dieses Defizit greift der vorliegende Beitrag am Beispiel der inhaltlichen und strukturellen Gestaltung von Lessons Learned auf. Dabei geht es vor allem darum, die bei der BMW AG im Projekt „Werksaufbau Leipzig“ entstehenden Lessons Learned für künftige Verwender aufzubereiten und, über bestehende technische Ansätze zur Erschließung von Erfahrungswissen hinausgehend, nachfragerorientiert zu gestalten. Lerneffekte sollen erzielt und organisationale Veränderungsprozesse gefördert werden. Schlüsselworte: Wissensmanagement, Projekt, Automobilindustrie, Erfahrungswissen, Lessons Learned, Dokumentation, Prozessunterstützung
1
Problemstellung
Der Umgang mit der Ressource Wissen ist eine zentrale Herausforderung für die Automobilindustrie, wie das Fraunhofer Institut für Arbeitswirtschaft und Organisation in einer neueren Studie feststellte [Bu+03]. Die Gestaltung von Wissensmanagementprozessen ist dementsprechend eine strategische Aufgabe in Automobilwerken.
1024
B. Fürstenau, F. Klauser, V. Born, J. Langfermann
Im Projekt „Aufbau des BMW Werks Leipzig“ entstehen umfangreiche Erfahrungsbestände zu Verfahren der Problembearbeitung, zu optimierten Prozesslösungen und zu strukturellen Funktionen des Werks. Um dieses beim Werksaufbau entstandene Wissen und Können wiederzuverwenden und um künftige Prozesse zu optimieren, werden die Erfahrungsbestände der Mitarbeiter und Führungskräfte des Aufbauteams in Erfahrungsberichten, sog. Lessons Learned1, festgehalten. Untersuchungen, die im BMW-Werk Leipzig durchgeführt wurden2, zeigen, dass Mitarbeiter und Führungskräfte ihre Projekterfahrungen nur bedingt aussagekräftig dokumentieren. Die erstellten Dokumente entsprechen nicht den Bedürfnissen künftiger Nachfrager bzw. Verwender, Textverständlichkeit und Transparenz sind vielfach defizitär. Ein systematisches Lernen aus den Erfahrungsbeständen wird daher kaum ermöglicht. Es besteht die Gefahr, dass Lessons Learned ihre Funktion zur Prozessunterstützung und Prozessoptimierung sowie zum Lernen aus Erfahrungen nur unzureichend erfüllen. Der vorliegende Beitrag thematisiert die beschriebene Problematik. Exemplarisch wird dargestellt, welche strukturellen und inhaltlichen Aspekte bei der Dokumentation zu berücksichtigen sind, um eine nachfragerorientierte Verwendung des Wissens und Könnens, der Erfahrungen, zu sichern. Es wird weiterhin aufgezeigt, wie nachfragerorientiert gestaltete Lessons Learned organisationale Veränderungsprozesse unterstützen können.
2 2.1
Wissenssicherung in komplexen Projekten Bedarf und Praxis
Der Bau eines Automobilwerks ist „ein einmaliges, zeitlich, sachlich und räumlich begrenztes Vorhaben, das unter Verwendung knapper Ressourcen durchzuführen ist“ [Bühn01, S. 631]. Die Sicherung von Erfahrungsbeständen während des Projektes „Werksaufbau“ ist eine komplexe Herausforderung für die Projektleitung sowie für die Mitarbeiter und Führungskräfte des Aufbauteams, und zwar aus folgenden Gründen: x Organisations- und Prozessstrukturen verändern sich permanent,
1 2
Eine Definition des Begriffes Lessons Learned erfolgt unter 3.2. Der Lehrstuhl für Berufs- und Wirtschaftspädagogik der Universität Leipzig und der Lehrstuhl für Wirtschaftspädagogik der Technischen Universität Dresden führen im Auftrag der BMW AG ein Projekt zum betrieblichen Wissensmanagement im BMW Werk Leipzig durch. Die zitierten Untersuchungen fanden in diesem Rahmen statt.
Erfahrungswissen sichern und aufbereiten
1025
x Mitarbeiter kooperieren nicht nur in vertikalen, sondern auch in horizontalen Organisationsstrukturen, x neue Akteure sind permanent zu integrieren, weil die Belegschaft und die Anzahl der Kooperationspartner (z. B. Zulieferer, Bauunternehmen, Behörden) kontinuierlich bis zum Serienbetrieb des Werks anwachsen, x die beteiligten Akteure sind im Verlauf der Aufbauarbeit oftmals mit neuartigen Herausforderungen und Problemen konfrontiert, x Problemstellungen sind zumeist nur interdisziplinär lösbar, x ein großer Teil der Mitarbeiter arbeitet erstmalig projektorientiert, x auf erprobte und standardisierte Prozesse kann nicht zurückgegriffen werden und x bei den Mitarbeitern und Führungskräften existiert kaum ein Bewusstsein für die Gesamtstruktur des Werks. Der Veränderungs- und Anpassungsdruck an Entwicklungen des Marktes erfordert von Automobilwerken bereits während der Aufbauphase, geplante Strukturen zu überdenken und ggf. zu verändern. Die Erfahrungen, die Mitarbeiter und Führungskräfte während des Werksaufbaus erwerben, haben daher eine besondere Bedeutung für später anlaufende Teilprozesse, den Dauerbetrieb des Werks und künftige vergleichbare Strukturvorhaben (z. B. den Bau weiterer Produktionsstandorte). In den einzelnen Projekten des Werksaufbaus entsteht umfangreiches Erfahrungswissen x zur Grundstruktur des Werks (z. B. Struktur der Flächennutzung, Struktur der Kernprozesse), x zur Planung und Implementation von Verfahrensabläufen, x zu Anpassungen der Planungsprämissen3 und Strukturvorgaben sowie x zu Planungs- und Umsetzungsentscheidungen und deren Hintergründen. Nach Freimuth wurde das Potenzial von Projekten für das Wissensmanagement bisher unterschätzt, obwohl sie „äußerst effektive Formen der organisationalen Wissensproduktion“ sind [Frei97, S. 145]. In der Praxis werden Erfahrungen der Planung und Durchführung von Großprojekten vielfach kaum systematisch gesichert und dokumentiert. Schindler [Schi03] konstatiert einen Bedarf zur Entwick-
3
Prämissen sind grundlegende Vorgaben und Richtlinien für betriebliches Handeln. Eine Prämisse des BMW Werks Leipzig ist das tägliche Produktionsziel von 650 Fahrzeugeinheiten.
1026
B. Fürstenau, F. Klauser, V. Born, J. Langfermann
lung geeigneter Verfahren und Methoden für die Aufbereitung von Projekterfahrungen durch die Forschung.
2.2
Sicherung von Erfahrungswissen – Defizite und Folgen
Die Leitung des BMW Werks Leipzig verfolgt das Ziel, nicht nur zum Abschluss, sondern schon während des Werksaufbaus Erfahrungsbestände zu sichern. In Dokumenten mit der Bezeichnung „Lessons Learned“ werden Erfahrungen aus den einzelnen Prozessen des Aufbauprojektes festgehalten. Lessons Learned werden jeweils zum Abschluss eines Projektmeilensteins (z. B. nach der personellen Besetzung eines Projektteams) erstellt. Dokumente sind nach Schoop „jede Art schriftlich fixierter Informationen“ [Scho99]. Sie dienen der Handlungsvor- und -nachbereitung. Durch die Dokumentation werden der innerbetriebliche Informationsfluss formalisiert und relevante Informationen gesichert [KiKu92]. Dokumente unterstützen die Mitarbeiter und Führungskräfte bei der Bearbeitung der anfallenden Aufgaben. Lessons Learned sollen weiterhin künftige Aufbauprozesse unterstützen. Die nutzergerechte Aufbereitung von Lessons Learned ist eine zentrale Voraussetzung für die Wiederverwendbarkeit bereits existierender Erfahrungsbestände und stellt ein Erfolgskriterium für die Generierung neuen Wissens dar. Die effiziente Verwendung der Dokumentation solchen Wissens wird jedoch vielfach dadurch erschwert, dass4 x Dokumente der Prozessbeschreibung (planungs-)technisch ausgerichtet sind und die Beschreibung entscheidungsrelevanter Faktoren fehlt, x die Kontexte von Entscheidungen sowie die Historie von Beschlüssen nicht bzw. nicht fortlaufend dokumentiert werden, x Strukturen und Prozesse nicht transparent dargestellt werden, x Dokumente der Prozessbeschreibung autorenbezogen und nicht nutzergerecht erstellt werden, x relevante Informationen in den Dokumenten nur mit hohem Zeitaufwand für den Leser auffindbar sind und x den Autoren das Handwerkszeug fehlt, um Prozesse so zu dokumentieren, dass sie zukünftig wiederverwendet werden können. Abbildung 1 gibt einen Überblick über die zentralen Defizite der Prozessdokumentation.
4
Die im Folgenden aufgeführten Defizite der Dokumentation und ihre Auswirkungen wurden im Rahmen umfangreicher Interviewstudien mit zahlreichen Projektverantwortlichen des Werksaufbaus erhoben.
Erfahrungswissen sichern und aufbereiten
1027
Abbildung 1: Defizite der Prozessdokumentation
Die Folgen dieser Defizite sind, dass x die Ergebnisse und Erfahrungen aus den Planungs- und Umsetzungsprozessen von (Teil-)Projekten verloren gehen, x insbesondere die Erfolgsfaktoren für die effiziente Bearbeitung einzelner Prozessphasen nicht identifiziert werden können, x die Struktur von Prozessabläufen für die Mitarbeiter oftmals intransparent bleibt und x Teilprojekte nicht oder nur in geringem Maße von Problemlösungen bereits laufender bzw. abgeschlossener Projekte profitieren können. Zudem können Erfahrungsbestände nicht umfassend für systematisches Lernen genutzt und zur Optimierung der Unternehmensprozesse verwendet werden. In den folgenden Abschnitten wird aufgezeigt, wie diesem Problem durch eine strukturierte Aufbereitung von Erfahrungsbeständen entgegengewirkt werden kann.
3 3.1
Effiziente Sicherung von Erfahrungswissen Kennzeichen von Erfahrungswissen
In der Literatur ist nicht einheitlich definiert, was unter Erfahrung bzw. Erfahrungswissen zu verstehen ist. „Oft werden Begriffe wie ‚Erfahrungswissen’, ‚An-
1028
B. Fürstenau, F. Klauser, V. Born, J. Langfermann
wendungswissen’, ‚Handlungswissen’, ‚konditionalisiertes Wissen’, ‚tacit knowledge’, ‚praktische Intelligenz’ oder ‚praktisches Wissen’ in vergleichbarer Weise verwendet“ [GrMa96, S. 18]. Dabei steht Erfahrungswissen in engem Zusammenhang mit Expertise. Erfahrung und Expertise haben den gemeinsamen lateinischen Ursprung experior (versuchen, erproben, prüfen) [DaPr98, S. 36]. Experten zeichnen sich durch ein hohes Maß an Erfahrung in einer spezifischen Domäne aus und bringen in dieser dauerhaft herausragende Leistungen [Posn98]. Dabei verfügen sie über eine umfangreiche Wissensbasis, haben überdurchschnittlich großen Erfolg beim Erkennen und Bearbeiten von Problemen, ihre Handlungen sind gekennzeichnet durch hohe Effizienz, Fehlerfreiheit und große Genauigkeit und sie sind besonders flexibel gegenüber neuen Problemstellungen [GrMa96, S. 19]. Erfahrungswissen wird nicht abstrakt, sondern durch Handlungen in konkreten Arbeitssituationen erworben [BüHe03, S. 55]. „Es enthält den für das eigene Handeln bedeutsamen Zusammenhang von Ereignis und Folge in einer Form, wie er für das Handeln unmittelbar nützlich ist“ [Fisc96, S. 234]. Erfahrungswissen lässt sich also im Gegensatz zu begrifflich-abstrakt erworbenem Wissen, das oft träge bleibt [Renk96], zur Bewältigung von Situationen anwenden.
3.2
Lessons Learned: Eine Möglichkeit zur Sicherung und Aufbereitung von Erfahrungswissen
Die Sicherung und Weitergabe von Erfahrungswissen kann kodifiziert und/oder personifiziert geschehen. Kodifizierung bedeutet, dass die Realität unter Einsatz von Sprache, Logik und Mathematik dokumentiert wird [Boga98, Ha+99]. Im Vordergrund der Personifizierung steht der interpersonelle Wissensaustausch. Damit „Wissen unter den Beteiligten ausgetauscht werden kann“ [Ha+99, S.87], ist die Entwicklung von sozialen Netzwerken5 in Organisationen unverzichtbar. Im Projekt Werksaufbau der BMW AG ist der Bestand von sozialen Netzen durch den Start des Dauerbetriebs zeitlich begrenzt. Die Projektteams lösen sich in der Regel spätesten zu diesem Zeitpunkt bzw. nach dem Abschluss des jeweiligen Teilprojekts auf, die Mitarbeiter kehren in ihre Fachabteilungen zurück. Die Erfahrungen der Projektmitarbeiter stehen dem Unternehmen danach nur noch mittelbar zur Verfügung. Um die Projekterfahrungen langfristig für das Unternehmen zu sichern, eignen sich Verfahren der Kodifizierung von Wissen, z. B. Lessons Learned. Lessons Learned haben das Ziel, vergangene Tätigkeiten unter der Perspektive erfolgreicher und weniger erfolgreicher Resultate bzw. Fehler zu dokumentieren und aufzubereiten, um daraus systematisch zu lernen. „Als Ergebnis bündeln Lessons 5
Soziale Netzwerke sind informelle Organisationsstrukturen. Sie geben die tatsächlichen Kommunikations- und Beziehungsstrukturen in Arbeitsabläufen wieder (vgl. Wald 2003).
Erfahrungswissen sichern und aufbereiten
1029
Learned in klarer und knapper Form den Kern der kritischen Erfahrungen, die in einem geschäftsrelevanten Feld oder Projekt gemacht wurden […]“ [Re+01, S. 115]. Zum einen werden dadurch Projekterfahrungen für die Organisation verfügbar gemacht, zum anderen ergibt sich für das Projektteam während der Laufzeit und zum Projektabschluss ein Lerneffekt, der für die Arbeit in den Fachabteilungen genutzt werden kann. [Pr+03, S. 134]. 3.2.1
Analyse von Lessons Learned bei BMW
Wenn Lessons Learned dazu dienen sollen, Projekterfahrungen zu einem späteren Zeitpunkt nachzuvollziehen, um dadurch bewährte Handlungsweisen übernehmen und Fehler vermeiden zu können, müssen sie im Hinblick auf die potenziellen Bedürfnisse der zukünftigen Nutzer verfasst werden, d. h., Lessons Learned sind didaktisch aufzubereiten. Ein Problem besteht bei BMW in diesem Zusammenhang darin, dass es keinen definierten Prozess für die Dokumentation von Lessons Learned gibt: Jeder Teilprojektleiter ist für die Sicherung seiner Projekterfahrungen verantwortlich. Wie das geschieht, ist nicht verbindlich geregelt. Handlungsleitend ist lediglich die Fragestellung: „Wie wäre ich effizienter zum Ziel gekommen?“ Dabei werden die Mitarbeiter durch einen Katalog mit Fragen zu Verantwortlichkeiten und zur Akzeptanz der Aufgaben im Projekt, zum Zeitplan sowie zu den eingesetzten Ressourcen unterstützt.6 Diese Form der Erfahrungssicherung birgt Schwierigkeiten: Zum einen sind die Mitarbeiter nur unzureichend über den Nutzen dieser Zusatzarbeit informiert, so dass sich ein Akzeptanzproblem ergibt. Zum anderen fehlen vielen Mitarbeitern die Fähigkeiten und Fertigkeiten zu entscheiden, welche Erfahrungen in Zukunft relevant sein könnten und wie detailliert Wissen gesichert werden sollte. Da gegenwärtig keine Richtlinien für die Gestaltung von Lessons Learned Dokumenten vorliegen, werden die Erfahrungen kaum zielgerichtet und systematisch gesichert. Das Resultat sind Dokumente, die in der Qualität stark variieren. Häufig fehlen Maßnahmen, die zur Zielerreichung eingeleitet wurden, es werden keine Empfehlungen für Folgeprojekte abgeleitet, Erfahrungsträger und Referenzdokumente werden nicht angegeben, Wichtiges wird nicht hervorgehoben (vgl. Abb. 2).
6
Abbildung 2 dokumentiert die Erfahrung zu einem Meilenstein des Teilprojektes „Zentrales Projektmanagement“.
1030
B. Fürstenau, F. Klauser, V. Born, J. Langfermann
Abbildung 2: Ausschnitt aus einem Lessons Learned Dokument
Durch das uneinheitliche Vorgehen kann sich für künftige Nachfrager das Problem ergeben, dass bedeutsame Informationen nur schwer wiedergefunden und kaum genutzt werden können. Das Wiederfinden relevanter Erfahrungen wird außerdem dadurch erschwert, dass Mitarbeiter ihre Projekterfahrungen auf Grund fehlender verbindlicher Strukturierungs- und Ausgestaltungsregeln aus einer subjektiven Sichtweise heraus beschreiben oder den Kontext vernachlässigen, in welchem die Erfahrung erworben wurde. In dem abgebildeten Lessons Learned Ausschnitt wird beispielsweise nicht deutlich, worin der Kern der Erfahrung besteht. Es traten offenbar Abstimmungsund Kommunikationsprobleme zwischen den einzelnen Teilprojekten und dem Gesamtprojektmanagement auf. Deshalb wird die Bedeutung des Projektsteuerers als Verbindungsglied zwischen den Schnittstellen betont. Diese Information ist für den Leser jedoch nur nach mehrmaligem Lesen erkennbar. Verfasser der Lessons Learned verwenden zudem zahlreiche projektinterne Abkürzungen sowie unspezifische und abstrakte Formulierungen, beispielsweise im Hinblick auf Zeitbezüge und Aufgaben (vgl. Abb. 2). Dies hat zur Folge, dass der Nutzer keine konkreten Handlungsanweisungen aus dem Erfahrungsbericht ableiten kann.
Erfahrungswissen sichern und aufbereiten
1031
Zusammenfassend ist festzustellen, dass die Mitarbeiter jeweils individuelle Vorgehensweisen für die Sicherung von Projekterfahrungen entwickelt haben. Für eine effiziente und nutzergerechte Dokumentation ist es hingegen notwendig, dass die Dokumente die im folgenden Kapitel genannten Anforderungen erfüllen. 3.2.2
Anforderungen an die Gestaltung von Lessons Learned
Ansätze aus der Forschung zum Textverstehen/Textverständnis können einen wichtigen Beitrag für die nachfrageorientierte Strukturierung und Formulierung von Lessons Learned leisten. Langer, Schulz v. Thun und Tausch [Lan+99] unterscheiden unter anderem folgende Dimensionen, die Aufschluss über die Formulierung und Strukturierung verständlicher Texte geben: x Sprachliche Einfachheit: Sprachlich einfache Texte sind gekennzeichnet durch eine einfache Darstellung, kurze und geläufige Sätze und Wörter, erklärte Fremdwörter, konkrete und anschauliche Formulierungen, aktive Verben sowie aktiv-positive Formulierungen. x Gliederung/Ordnung: Diese Dimension bezieht sich zum einen auf die innere Ordnung und zum anderen auf die äußere Gliederung von Texten. Verständliche Texte sind gegliedert, folgerichtig, übersichtlich, heben wichtige Konzepte hervor, haben einen roten Faden und unterscheiden Wesentliches von Unwesentlichem. x Kürze/Prägnanz: Mit Hilfe dieses Merkmals lässt sich die Länge des Textes im Verhältnis zum Informationsziel bewerten. Verständliche Texte beschränken sich z. B. auf das Wesentliche und sind auf das Lernziel konzentriert. Langer et al. [Lan+99] konnten zeigen, dass Texte, die im Hinblick auf diese drei Dimensionen optimiert wurden, besser verstanden und behalten werden. Neben den o. g. Dimensionen für verständliche Texte, die für die lesergerechte Aufbereitung unterschiedlicher Textsorten herangezogen werden können, müssen Lessons Learned zusätzlich weitere Anforderungen erfüllen, um den spezifischen Bedürfnissen von BMW zu genügen:7 x Erfahrungswissen wird in Projekten unter dem Einfluss vieler Faktoren und Rahmenbedingungen generiert und ist nicht losgelöst von diesen zu verstehen. Deshalb ist es wichtig, dass Erfahrungen eingebettet in ihren Kontext dargestellt werden. x Der Erfahrungsträger sollte über die Projekterfahrungen reflektieren, deren Relevanz für künftige Projekte antizipieren und diese aus einer übergeordneten Perspektive niederschreiben.
7
Die Anforderungen resultieren aus Interviewstudien und Dokumentenanalysen bei der BMW AG.
1032
B. Fürstenau, F. Klauser, V. Born, J. Langfermann
x Für den effizienten Zugriff auf relevante Informationen ist entscheidend, dass Erfahrungen zu definierten Themengebieten oder Teilprojekten dokumentiert werden. Zwischen den Themengebieten und Teilprojekten müssen Verknüpfungen bestehen. x Wichtig ist zudem, dass ähnliche oder vergleichbare Inhalte bezüglich der Formulierung und Darstellung einheitlich behandelt werden, so dass sich Verbindungen zwischen Dokumenten schnell herstellen und Informationen innerhalb eines Dokumentes leicht auffinden lassen. x Erfahrungen sollen nicht lediglich beschrieben werden, sondern müssen zudem im Hinblick auf ihre Relevanz für Folgeprojekte bewertet werden. Dafür ist es erforderlich, neben den konkreten Erfahrungen Maßnahmen zu dokumentieren, die als Reaktionen eingeleitet wurden. x Zudem sollte das Ergebnis beschrieben werden, das sich aus den eingeleiteten Maßnahmen ergibt. Die Dokumentation von Referenzdokumenten und Erfahrungsträgern ermöglicht es dem künftigen Nutzer, sich ausführlicher zu den in den Lessons Learned beschriebenen Projekterfahrungen zu informieren. 3.2.3
Gestaltung von Lessons Learned
In der Wissensmanagement- und Projektmanagement-Literatur werden verschiedene Methoden zur Sicherung von Projekterfahrungen diskutiert. Viele der beschriebenen Instrumente, wie z. B. der Projektabschlussbericht oder die Projektrevision, fokussieren in erster Linie auf x die Erfassung standardisierter Kennzahlen, x die Beschreibung des Projektverlaufs sowie x die Dokumentation des Projektergebnisses. Sie vernachlässigen jedoch die Sicherung der Hintergründe von Projekterfahrungen. Die Dokumentation erfolgt hier ausschließlich mit dem Ziel, die Auflösung eines Projektes zu beschreiben [ScEp02, S. 67]. Andere Instrumente stellen die Erhebung von Erfahrungswissen mit Hilfe von Workshops oder Interviews in den Mittelpunkt, geben jedoch meist wenig Hinweise auf die Sicherung und Kommunikation der Erfahrungen im Unternehmen. Von Krogh schlägt beispielsweise die Methode des Projekt-Debriefings vor [vKro98]: Mit Hilfe strukturierter Interviews und Workshops wird das Erfahrungswissen eines Projektteams oder eines einzelnen Mitarbeiters durch einen neutralen, geschulten Dritten, den so genannten Debriefer, erhoben und von ihm dokumentiert. Der Debriefer unterstützt das Projektteam bei der Reflexion über die gewonnenen Erfahrungen und prüft die erhobenen Erfahrungen auf Verständlichkeit. Die Wiedergabe subjektiver, d.h. missverständlicher Sichtweisen, soll damit weitgehend ausgeschlossen werden.
Erfahrungswissen sichern und aufbereiten
1033
Auf Grund der engen zeitlichen und personellen Restriktionen in der Endphase des Projektes „Werksaufbau“ ist die Sicherung von Erfahrungen durch aufwändigere Methoden, wie das Projekt-Debriefing, bei der BMW AG derzeit nicht möglich. Es muss daher ein Instrument gefunden werden, das sowohl Hilfestellung bei der inhaltlichen als auch bei der strukturellen Gestaltung von Erfahrungsberichten leistet, so dass der Erfahrungsträger befähigt wird, seine Projekterfahrungen selbständig zu sichern. Die inhaltliche und strukturelle Gestaltung von Lessons Learned Dokumenten kann über eine Einteilung in jeweils in sich geschlossene Informationseinheiten erreicht werden. Diese sind mit einem Titel zu versehen. Die Titel legen für den Autoren fest, welche Erfahrungen gesichert werden sollen und erleichtern dem Nutzer die Navigation in dem Lessons Learned Dokument. Mit Hilfe der Information Mapping® Methode [Horn89] können Lessons Learned sowohl inhaltlich als auch strukturell nutzergerecht aufbereitet werden. Information Mapping® basiert auf 30 Jahren wissenschaftlicher Forschung zur Informationsverarbeitung des menschlichen Gehirns und zu Leserreaktionen. Die Methode wurde von dem Kommunikationswissenschaftler und Psychologen Prof. Dr. Robert Horn an der Harvard University, USA, entwickelt, um Studenten ein effektiveres Lernen mit geschriebener Information zu ermöglichen. Die Methode unterscheidet grundsätzlich zwischen den Informationseinheiten Map und Block. Ein Block ist die kleinste abgeschlossene Informationseinheit und besteht aus einem oder mehreren Sätzen mit einem logisch und sachlich zusammenhängenden Inhalt sowie einem Titel, der den Inhalt des Blocks widerspiegelt. Ein Block enthält einen der sechs für Information Mapping® entwickelten Informationstypen, so dass eine nutzergerechte Aufteilung der Information in kleine Module erreicht wird. Die Informationstypen legen fest, welche Arten von Informationen in einem Block zusammengefasst werden. Mögliche Informationstypen sind Anleitungen, Prinzipien und Fakten. Für jeden Informationstyp werden Empfehlungen über die optimale Darstellungart gegeben. Derart gestaltete Texte sind daher sprachlich einfach gehalten, gegliedert und prägnant. Optisch sind die Blöcke voneinander durch Linien getrennt. Mehrere Blocks bilden eine Map zu einem abgeschlossenen Thema. Abbildung 3 zeigt eine mögliche Umsetzung der formulierten Anforderungen für das in Abbildung 2 vorgestellte Lessons Learned Dokument der BMW AG. Die Struktur lehnt sich dabei an die Information Mapping® Methode an.
1034
B. Fürstenau, F. Klauser, V. Born, J. Langfermann
Abbildung 3: Gestaltungsvorschlag für Lessons Learned (Map)
Die vorgestellten Methoden und Verfahren bedürfen einer systematische Fort- und Weiterbildung der Mitarbeiter und Führungskräfte. In einem ersten Schritt erscheinen dafür insbesondere folgende Trainingseinheiten sinnvoll:
Erfahrungswissen sichern und aufbereiten
1035
Als Reaktion auf die Probleme, die sich im Hinblick auf die Formulierung von Lessons Learned Dokumenten ergeben, sollte ein Schreibtraining auf der Grundlage von Ergebnissen der Textverstehens-/Textverständnisforschung und der Didaktik entwickelt werden. Um die Fähigkeiten und Fertigkeiten der Mitarbeiter zur Bewertung der eigenen Projekterfahrungen im Hinblick auf ihre Relevanz für Folgeprojekte zu schulen, ist ein Training zur Förderung metakognitiver Kompetenzen erforderlich. Zudem sind die Ziele und Vorteile der Sicherung von Projekterfahrungen für die Mitarbeiter transparent zu machen, damit die Akzeptanz zur Dokumentation gefördert wird.
4
Prozessunterstützung durch Lessons Learned
Dokumente dienen nicht nur dazu, Wissen und Erfahrungen zu sichern, sondern haben in Unternehmen auch die Aufgabe, betriebliche Prozesse effizient zu gestalten und zu steuern. Sie unterstützen die Mitarbeiter als Funktionsträger im Arbeitsprozess. Insbesondere Lessons Learned Dokumente haben ein hohes Potenzial zur effizienten Prozessunterstützung. Mitarbeiter werden im Rahmen von Projekten mit Prozessen konfrontiert, die nicht in Handbüchern abgebildet sind. Ziel der Erfahrungssicherung für den Werksaufbau ist es, gerade diese einmaligen Prozesse für die Zukunft zu dokumentieren. Zudem dienen die in den Lessons Learned dargestellen kritischen Erfahrungen und aufgetretenen Fehler dazu, Prozesse zu optimieren. Vorgehensweisen und Arbeitsabläufe der o. g. Werkserweiterung können ressourcensparender umgesetzt werden. Unternehmensweite Veränderungsprozesse lassen sich effizienter realisieren. Damit Lessons Learned Funktionen der Prozessunterstützung und –optimierung erfüllen können, werden neben der strukturierten Aufbereitung der Dokumente weitere Anforderungskriterien entwickelt. Analysiert man die existierende Literatur, die in erster Linie im Bereich der Ingenieurwissenschaft angesiedelt ist, so lassen sich eine Vielzahl unterschiedlicher Einflussfaktoren identifizieren. Insbesondere der Sicherung von Hintergründen von Entscheidungen und Festlegungen wird eine wichtige Rolle beigemessen [GeWe00, S. 543]. In diesem Zusammenhang wird ein Konzept zur Fortschreibung von Dokumenten von sich verändernden Prozessen entwickelt. Dadurch bleibt ohne aufwändige Su-
1036
B. Fürstenau, F. Klauser, V. Born, J. Langfermann
che nachvollziehbar, wie und aus welchen Gründen die Fakten, Festlegungen und Beschlüsse verändert wurden. Damit „Lessons Learned“ Prozesse beschreiben können, die sich in größeren zeitlichen Abständen wiederholen, erfolgt die Dokumentation so, „dass sich Möglichkeiten ergeben, während praktisch ablaufender Prozesse die tatsächliche Folge von Vorgängen zu dokumentieren.“ [Pens98, S. 67]. Dies ist wichtig, weil auf diese Weise Abläufe des Werksaufbaus transparent gemacht und die Grundlage für eine Bewertung und Optimierung der Prozesse des Werksaufbaus geschaffen werden können. Gleichzeitig bietet die Information Mapping® Methode durch die abgeschlossenen Informationsblöcke die Möglichkeit zur arbeitsteiligen Dokumentation. Dies ist bedeutsam, da Prozesse der betrieblichen Leistungserstellung durch arbeitsteilige Vorgehensweisen gekennzeichnet sind [Pens98, S. 71] und nur eine arbeitsteilige Dokumentation gewährleistet, dass der Prozess vollständig abgebildet werden kann. Zentral für die prozessunterstützende Verwendung der Lessons Learned ist weiterhin, dass die Erfahrungsberichte nicht nur als Ganzes zur Verfügung stehen, sondern dass sie auch in Teilen nutzbar sind. Prozessbeschreibungen sind dazu modular zu gestalten: „Da kein Projektablauf dem anderen gleicht und diese sich vielmehr hinsichtlich Bedeutung, Umfang und Dauer unterscheiden, gewährleistet eine baukastenartige Prozessbeschreibung, dass das Wissen für alle Projekte des Produktionsstandortaufbaus und –anlaufs genutzt werden kann, indem die Module in Abhängigkeit der Planungsaufgabe individuell zusammengefügt werden können.“ [La+01 S. 366]. Die Abhängigkeiten zwischen den einzelnen Modulen müssen erkennbar bleiben. Auch dies kann durch die beschriebene Methode des Information Mapping erreicht werden.
5
Fazit und Ausblick
Zur Zeit wird evaluiert, welche Erfolge durch die genannten Ansätze der strukturellen und inhaltlichen Gestaltung von Lessons Learned erzielt werden können. Erste Rückmeldungen von Projektverantwortlichen verweisen auf eine deutliche Unterstützung der Autoren bei der strukturierten Sicherung und Aufbereitung von Projekterfahrungen durch die vorgestellten Ansätze. Insbesondere das Erfassen wichtiger Kontextinformationen konnte sichergestellt werden. Die Evaluation der Projektergebnisse erfolgt kontinuierlich mit der Implementierung eines Redaktionsprozesses zur Erstellung und Verwendung von Lessons Learned Dokumenten im Rahmen eines umfassenden Feldversuches. Die Evaluationsergebnisse des Feldversuchses werden für weitere Konstruktions- und Implementierungsprozesse nutzbar gemacht. Das betrifft sowohl die Re-Konstruktion projektspezifischer
Erfahrungswissen sichern und aufbereiten
1037
Lessons Learned als auch die Entwicklung von Verfahrensregeln zur Durchführung des Redaktionsprozesses. Diese Entwicklungsergebnisse sind in weiterführenden Schulungen zu thematisieren. Derzeit gibt es vor allem technische Ansätze, Erfahrungen sichtbar und nutzbar zu machen [Stru00; GeWe00]. Die Bedürfnisse der künftigen Nutzer werden darin allerdings vielfach nur in geringem Maße berücksichtigt. Dokumente sind inhaltlich und strukturell so aufzubereiten, dass künftige Nachfrager die dokumentierten Erfahrungen zur Unterstützung von Unternehmensprozessen wieder verwenden können. Hier kann die Wirtschaftspädagogik mit den dargestellen Ansätzen und Methoden einen wichtigen Beitrag leisten und zugleich komplementäre Modelle und Vorgehensweisen zu den technisch orientierten Herangehensweisen entwickeln.
Literatur [Be+03] Becker, J., Kugeler, M. & Rosemann, M. (Hrsg.): Prozessmanagement: Ein Leitfaden zur prozessorientierten Organisationsgestaltung. (4.Aufl.). Springer: Berlin; Heidelberg; New York, 2003. [Boga98] Bogaschewsky, R.: Wissensorientiertes Management. Eine kritische Literaturanalyse. Dresdner Beiträge zur Betriebswirtschaftslehre, Nr. 15/98. Technische Universität Dresden. Fakultät Wirtschaftswissenschaften, 1998. [Bühn01] Bühner, R. (Hrsg.): Management-Lexikon. Oldenbourg: München, Wien, 2001. [Bu+97] Bullinger, H.-J., Wörner, K. & Prieto, J.: Wissensmanagement heute. Daten, Fakten, Trends. Stuttgart: Fraunhofer Institut für Arbeitswirtschaft und Organisation, 1997. [Bu+03] Bullinger, H.-J.; Kiss-Preußinger, E. & Spath, D.: Automobilentwicklung in Deutschland – wie sicher in die Zukunft? Chancen, Potenziale und Handlungsempfehlungen für 30 Prozent mehr Effizienz. Fraunhofer IRB-Verlag: Stuttgart, 2003. [BüHe03] Büssing, A.; Herbig, B.: Implizites Wissen und Wissensmanagement – Schwierigkeiten und Chancen im Umgang mit einer wichtigen menschlichen Ressource. Zeitschrift für Personalpsychologie, 2, 2003, S. 51-65. [DaPr98] Davenport, Th. H. & Prusak, L.: Das Praxisbuch zum Wissensmanagement. Verlag Moderne Industrie: Landsberg, 1998. [Fisc96] Fischer, M.: Überlegungen zu einem arbeitspädagogischen und –psychologischen Erfahrungsbegriff. Zeitschrift für Berufs- und Wirtschaftspädagogik, 1996, S. 229-244. [Frei97] Freimuth, J.: Projektmanagement – Unterschätzte Chance für Personalmanagement und Wissensmanagement. In J. Freimuth, J. Haritz, B.-U. Kiefer (Hrsg.), Auf dem Weg zum Wissensmanagement. Göttingen: Verlag für angewandte Psychologie, 1997, S. 145-155.
1038
B. Fürstenau, F. Klauser, V. Born, J. Langfermann
[GeWe00] Gerken, H. & Weyrich, M.: Technologien zum Wissensmanagement in der CAD/CAM Prozesskette. Zeitschrift für den wirtschaftlichen Fabrikbetrieb, 95 (11), 2000, S. 543-546. [Grub99] Gruber, H.: Erfahrung als Grundlage kompetenten Handelns. Huber: Göttingen, 1999. [GrMa96] Gruber, H. & Mandl, H.: Erfahrung und Expertise. In H. Gruber & A. Ziegler (Hrsg.), Expertiseforschung. Theoretische und methodische Grundlagen (S. 18-34). Westdeutscher Verlag: Opladen, 1996. [Hack99] Hacker, W.: Informationsökonomie aus psychologischer Sicht: Wissensmanagement; Frühes Prototyping bei der Produktentwicklung. Forschungsberichte des Instituts für Allgemeine Psychologie und Methoden der Psychologie der TU Dresden: Band 70. Dresden: TU Dresden, 1999. [Ha+99] Hansen, M., Nohria, N. & Tierney, T.: Wie managen Sie das Wissen in Ihrem Unternehmen? Harvard Business Manager. Nr. 5/99, 1999, S. 85-96. [Horn89] Horn, R.: Mapping Hypertext. Linkage, and Display of Knowledge for the Next Generation of On-Line Text and Graphics. Lexington: Massachusetts, 1998. [KiKu92] Kieser, A. & Kubicek, H.: Organisation. de Gryter Verlag: Berlin, 1992. [Klug99] Kluge, A.: Erfahrungsmanagement in lernenden Organisationen. Verlag für Angewandte Psychologie: Göttingen, 1999. [vKro98] Krogh, G., von: Care in Knowledge Creation. Califonia Management Review, Volume 40, Number 3, Spring 1998, Haas School of Business, University of Califonia, Berkeley, 1998, pp. 133-153. [La+01] Laik, Th., Hiller, M., Wagenknecht, Ch. & Warnecke, G.: Erfahrungssicherung bei der Fabrikplanung. Zeitschrift für wirtschaftlichen Fabrikbetrieb, 96 (7-8), 2001, S. 365-368. [Lan+99] Langer, I., Schulz v. Thun, F. & Tausch, R.: Sich verständlich ausdrücken. Ernst Reinhardt: München, 1999. [NoKo98] Nonaka, I. & Konno, N.: The Concept of „Ba“: Building a Foundation of Knowledge Creation. California Management Review, Volume 40, Number 3. Haas School of Business, University of California, Berkley, 1999, pp. 673-683. [Pens98] Penschke, St.: Erfahrungswissen in der Produktentwicklung. Erfassung und Aufbereitung prozeßorientierter Informationen in Konstruktionsprojekten. Forschungsbericht VDI Reihe 16, Nr. 98. VDI Verlag: Düsseldorf, 1998. [Posn98] Posner, M. I.: What is it to be an expert? In M. T. H. Chi, R. Glaser & M. J. Farr (Eds.), The nature of expertise (pp. 24-36). Erlbaum: Hillsdale, NJ, 1998. [Pr+03] Probst, G., Raub, St. & Romhardt, K.: Wissen managen. Wie Unternehmen ihre wertvollste Ressource optimal nutzen. (4. Aufl.). Gabler: Wiesbaden, 2003. [Re+01] Reinmann-Rothmaier, G., Mandl, H. Erlach, Ch. & Neubauer, A.: Wissensmanagement lernen. Ein Leitfaden zur Gestaltung von Workshops und zum Selbstlernen. Beltz: Weinheim, 2001.
Erfahrungswissen sichern und aufbereiten
1039
[Renk96] Renkl, A.: Träges Wissen: Wenn Erlerntes nicht genutzt wird. Psychologische Rundschau, 47 (2), 1996, S. 78-92. [Schi03] Schindler, M.: Wissensmanagement in der Projektabwicklung. Eul: Köln, 2003. [ScEp02] Schindler, M. & Eppler, M. J.: Vom Debriefing zum kontinuierlichen Erfahrungslernen. Organisationsentwicklung, 1, 2002, S. 58-71. [Scho99] Schoop, E.: Dokumentenmanagement. In: WISU o. Jg. 10, 2., 1999, S. 1346 – 1360. [Stru00] Strunk, H.-M.: Lektion gelernt. Automobilzulieferer nutzt softwareunterstützt FMEA-Wissen für Folgeprojekte. Qualität und Zuverlässigkeit, 45 (5), 2000, S. 574580. [Thie01] Thiesse, F.: Prozessorientiertes Wissensmanagement: Konzepte, Methode, Fallbeispiele. St. Gallen: Hochschule für Wirtschafts-, Rechts- und Sozialwissenschaften. Dissertation, 2001. [Wald03] Wald, A.: Netzwerkstrukturen und -effekte in Organisationen: Eine Netzwerkanalyse in internationalen Unternehmen. Gabler: Wiesbaden, 2003.
Corporate Management Education – Untersuchung zum Lernverhalten von Führungskräften Frank Habermann imc information multimedia communication AG
Zusammenfassung: „Management“ gehört zu den Schlüsselkompetenzen in einem Unternehmen. Durch Management können aus Ideen marktfähige Produkte werden und durch Management werden Arbeitsprozesse effektiv und effizient. Doch wie kommen Manager zu ihrem Wissen, und welche Medien und Werkzeuge nutzen sie hierzu? Eine empirische Untersuchung zum Lernverhalten von Führungskräften soll helfen, Antworten auf diese Fragen zu finden. Die Studie umfasst eine breit angelegte Online-Befragung, qualitative Interviews mit Führungskräften aus DAX 30 Unternehmen sowie Beobachtungen zum Nutzungsverhalten von Softwarewerkzeugen. Die auf 15 Monate angelegte Untersuchung wurde im Dezember 2003 begonnen und dauert noch bis Jahresbeginn 2005 an. Dieser Beitrag beschreibt den Aufbau und erste Ergebnisse der Untersuchung. Schlüsselworte: Learning and Knowledge Management, Lernverhalten von Führungskräften, Empirische Untersuchung
1
Manager lernen anders!?
Manager sind offenbar eine besondere Spezies – und zudem eine weit verbreitete. Sehr viele Menschen kennen einen Manager oder nehmen selbst Managementaufgaben war. Die Eingabe des Wortes „Manager“ bei der Suchmaschine Google führt zu über 60 Millionen Treffern, der Begriff „Management“ gar zu über 150 Millionen. Kein Wunder also, dass mit Managern nahezu jeder eine Erfahrung und ein (Vor)Urteil verbindet. Dies zeigt auch der Welterfolg der Cartoon-Reihe „Dilbert“. Mit der immer neuen Variation der Kernaussage „Managers are inept, deal with it“ trifft sie den Nerv von Millionen Lesern. Tatsache ist, dass „Management“ einen Schlüsselfaktor zur Erreichung von Wettbewerbsvorteilen bildet. Nur durch Management können aus kreativen Ideen marktfähige Produkte werden und nur durch Management werden Arbeitsprozesse effektiv und effizient. Nicht selten wird der Erfolg oder der Misserfolg eines Unternehmens direkt auf „das Management“ oder „die Manager“ zurückgeführt. Ma-
1042
F. Habermann
nager stehen somit im Blickpunkt der unternehmensinternen und -externen Öffentlichkeit. Sie prägen die Unternehmenskultur und leben sie. Dazu gehört auch die Art und Weise, wie Manager lernen und sich informieren. Doch was zeichnet gute Manager aus und wie kommen sie zu ihrem Wissen? Die Forschung zu diesem Thema betrifft die Felder Organisationsentwicklung, Personalentwicklung und Organisationales Lernen, zu denen eine Vielzahl theoretischer Konzepte existiert. Ansätze zur Systematisierung dieser Konzepte finden sich u.a. bei Shrivastava [Shri83], Blackler [Blac95] und Klimecki/Thomae [KlTh97]. Wissensmanagement als relativ junge Disziplin baut auf diesen umfassenden Arbeiten auf. Es fokussiert die wettbewerbsrelevante Rolle von Wissen im Unternehmen und behandelt die aus den oben genannten Forschungsgebieten abgewandelte Frage: „Wie ist das organisationale Wissen zu planen, zu organisieren und zu steuern, um die Leistungsfähigkeit eines Unternehmens auf Dauer zu sichern?“ [Qui+96, S. 71; Alle97, S. 29]. Dieser Beitrag vertieft die Frage „Wie lernen Führungskräfte?“ und damit einen Teilaspekt des o.g. Forschungsgebiets. Die Relevanz dieser Frage wird nicht nur durch die zahlreichen theoretischen Arbeiten, sondern in mindestens gleichem Maße durch die Unternehmenspraxis bestätigt. Unternehmen aus nahezu allen Branchen etablieren „Knowledge Officers“ oder „Learning Officers“ und führen IT-Systeme ein zur Verwirklichung von Manager-Portalen und Manager-Communities [Dav+98; MüDö99; Shri99; Hab+02]. Gleichzeitig ist die fortschreitende Gründung von Corporate Universities und Unternehmensakademien eine Folge der Erkenntnis, dass Managementwissen einen hohen Wert darstellt, in hohem Maße „on the job“ und „from the job“ gebildet wird und es firmen- und rollenspezifischer Lernangebote bedarf, um diesen Unternehmenswert zu bewahren und weiter zu entwickeln [Meis98; KrMü01]. Im Folgenden wird eine Untersuchung zum Lernverhalten von Führungskräften vorgestellt. Die Untersuchung verfolgt das Ziel, Lernbedürfnisse, -situationen, -gewohnheiten und -instrumente von Führungskräften zu identifizieren, um auf dieser Basis Erkenntnisse für die Gestaltung geeigneter Softwareumgebungen zu gewinnen. Dabei sollen die Ergebnisse entsprechender Vorarbeiten [s. z.B. MüPl91, Ala+97; Metz97; HaSc00; Habe01; Siev02] empirisch fundiert und detailliert werden. Die Untersuchung umfasst eine breit angelegte Online-Befragung, qualitative Interviews mit Führungskräften aus DAX 30 Unternehmen sowie Usability-Tests in Zusammenarbeit mit ausgewählten Corporate Universities. Die auf fünfzehn Monate angelegte Untersuchung wurde im Dezember 2003 begonnen und dauert noch bis Jahresbeginn 2005 an.
Untersuchung zum Lernverhalten von Führungskräften
2
1043
Aufbau der Untersuchung
Zielgruppe der Untersuchung sind Führungskräfte in großen und mittleren Unternehmen mit Stammsitz in Deutschland. Betrachtet werden die oberen Management-Ebenen, gegliedert in drei Stufen: x Executives: Vorstände und Geschäftsführer x Senior Managers: Bereichs- und Abteilungsleiter mit Umsatz- und Personalverantwortung x Emerging Leaders: Projekt-, Stabs- und Gruppenleiter mit mindestens dreijähriger Berufserfahrung (Führungsnachwuchskräfte) Die Gesamtstudie ist längerfristig, über einen Zeitraum von fünfzehn Monaten, angelegt. Sie umfasst drei zeitlich und logisch aufeinander aufbauende Phasen. Die folgende Abbildung illustriert den Phasenplan. Aufgaben
Phase 1: Initialisierung
P L A N U N G / K O N Z E P T I O N
Phase 2: Fundierung
Nutzungs beobachtung
Qualitative Interviews
Dez
Jan
03
04
Feb
Mär
Apr
Mai
P L A N U N G / K O N Z E P T I O N
Phase 3: Spezialisierung
P L A N U N G / K O N Z E P T I O N
Online Befragung
Qualitative Interviews
Jun
Jul
Aug
Sep
Okt
Lösungskonzeption/ Prototyping
Nutzungs beobachtung Qualitative Interviews
Zeit
Nov
Dez
Jan
04
05
Feb
Mär
Abbildung 1: Phasenplan der Untersuchung
Jede einzelne Untersuchungsphase hat eine Dauer von fünf Monaten, wobei diese Zeitspanne eine jeweils einmonatige Planungs- und Konzeptionsphase einschließt. Im Folgenden werden die drei Phasen näher beschrieben.
1044
2.1
F. Habermann
Die Initialisierung (erste Phase)
Die erste Phase der Untersuchung hat zwei Hauptziele. Zum Ersten wird das Layout der Gesamtuntersuchung entwickelt und erprobt. Zum Zweiten werden – basierend auf theoretischen Erkenntnissen (s. Abschnitt 1) – die Eingangsthesen der Untersuchung formuliert und anhand einer kleinen Stichprobe evaluiert. Zum Ende der Initialisierungsphase ist folglich bekannt, (a) ob und wie das Untersuchungslayout für die weiteren Phasen angepasst werden muss sowie (b) ob und wie die Eingangsthesen vor den weiteren Untersuchungsphasen zu modifizieren sind. Die Initialisierung fungiert somit sowohl als Konzeptions- als auch als Pilotphase. Die folgende Abbildung veranschaulicht den dargestellten Zusammenhang. Theoretische Erkenntnisse / Vorarbeiten
Eingangs Thesen Befragung
Phase 1 (Initialisierung)
Beobachtung
Evaluation
Evaluation
Untersuchungs -
Thesen
layout
Thesen Phase 2 (Fundierung)
Phase 3 (Spezialisierung)
Befragung
Konzeption / Beobachtung
Abbildung 2: Funktion der Initialisierungsphase
Als Erhebungsmethoden dienen persönliche und telefonische Befragung (strukturierte qualitative Interviews auf Basis eines Interviewfragebogens) und Beobachtung (Selbstbeobachtung kombiniert mit der Methode des lauten Denkens sowie Fremdbeobachtung durch Übungsleiter). Diese Erhebungsformen werden in der ersten Phase hinsichtlich ihrer Eignung für das Untersuchungsobjekt erprobt.
Untersuchung zum Lernverhalten von Führungskräften
1045
Die Pilotierung der Untersuchung erfolgte in Kooperation mit der E.ON Academy GmbH. Die E.ON Academy ist die Corporate University des E.ON Konzerns und verfolgt das Ziel einer systematischen Führungskräfteentwicklung. Zielgruppe der E.ON Academy sind die Top-Manager aller E.ON Gesellschaften (E.ON Energie, Ruhrgas, Powergen, Sydkraft, LG&E). Im Folgenden wird das pilotierte Untersuchungslayout näher beschrieben. 2.1.1
Befragung (Qualitative Interviews)
Befragt wurden n = 25 Führungskräfte. Als Grundgesamtheit diente die Zielgruppe der E.ON Academy GmbH (ca. 1.000 Führungskräfte des E.ON Konzerns). Die Stichprobenauswahl erfolgte zufällig über alle Management-Ebenen (Executives, Senior Managers, Emerging Leaders). Die Rekrutierung der Teilnehmer geschah durch die E.ON Academy (telefonische Terminverabredung mit den Sekretariaten bzw. den Teilnehmern selbst). Der Erhebungszeitraum umfasste knapp sieben Wochen. Nach der telefonischen Terminverabredung erfolgte die Terminbestätigung per eMail und die damit einhergehende Versendung des Interviewfragebogens zur Vorabinformation der Interviewteilnehmer. Die Interviews wurden in der Regel persönlich in den Büroräumen der jeweiligen Führungskräfte durchgeführt, bei Gesprächspartnern an internationalen Standorten auch per Telefon. Die Interviews wurden in mehreren „Wellen“ bzw. „Blöcken“ durchgeführt (siehe die folgende Abbildung). Pre -
n=5
Test
Formale Optimierung
Interview block
n = 10
Weitere Infos erforderlich? nein
ja
Interviews
Interviews
beenden
fortführen
Abbildung 3: Pilotierung der Befragung
1046
F. Habermann
Am Anfang stand ein Pre-Test, der dazu diente, das grundlegende Fragebogendesign zu erproben. Im Anschluss wurden einzelne Formulierungen in den Fragen angepasst und bestimmte Formatierungen des Dokuments optimiert. Im Folgenden wurden zehn Interviews in kurzer Folge durchgeführt, nach denen ein Review der Ergebnisse stattfand. Dieser Prozess sollte so lange wiederholt werden, bis sich die Ergebnisse ausreichend verdichten. Bereits nach der „zweiten Welle“ à zehn Interviews ergab sich ein klares Bild hinsichtlich der Untersuchungsthesen und des weiteren Forschungsbedarfs. An dieser Stelle wurde die Befragung beendet. Folgende Erkenntnisse konnten aus der Befragung gewonnen werden: x Das Fragebogenlayout hat sich bewährt und kann weitgehend (mit medienbedingten Anpassungen) auf die weiteren Untersuchungsphasen übertragen werden. x Inhalt und Umfang der Fragen sind hinsichtlich des Befragungsziels, d.h. der zu untersuchenden Thesen, angemessen (zu den Thesen s. Abschnitt 3 dieses Beitrags). x Inhalt und Umfang der Fragen sind auch hinsichtlich der Befragungsform (persönliches Gespräch mit dreißig Minuten Dauer) angemessen. In diesem Zusammenhang fiel auf, dass es sich insbesondere für die Zielgruppe Führungskräfte bewährt hat, den Interviewfragebogen vorab zu versenden. x Bemerkenswert bei der Durchführung der Interviews war, dass alle Teilnehmer vorbereitet und sehr konzentriert waren. Kein einziger Termin wurde abgesagt. Dies legt den Schluss nahe, dass „Lernen“ und „Bildung“ ein Thema ist, dass von den Führungskräften (für die eigene Karriere) sehr ernst genommen wird. x Weiterhin beachtlich war die durchgängig sehr offene Gesprächsatmosphäre. So blieben nicht nur Antworten aus, die man in die Kategorie „sozial erwünscht“ einstufen müsste. Vielmehr haben die Teilnehmer zum Ende des Interviews häufig die Gelegenheit genutzt, eigene Themen einzubringen und Teilaspekte zu vertiefen. x In der Summe stellte sich die vermeintlich schwierige Zielgruppe „Führungskräfte“ als weitaus weniger homogen und weitaus weniger prätentiös dar, als es das Vorurteil ausdrückt. Das verdeutlicht die Notwendigkeit, aber auch die Chance, die Befragung auszuweiten. Dies ist Zielsetzung der zweiten Phase „Fundierung“, in der eine breit angelegte Befragung von Führungskräften durchgeführt wird (s. unten Abschnitt 2.2). 2.1.2
Beobachtung (Usability Tests)
Mit der Beobachtung von Führungskräften bei der Benutzung von „Lernsoftware“ sollen Schlüsse für die Gestaltung geeigneter Softwaresysteme ermöglicht werden. Aus den Ergebnissen der Befragung kann hauptsächlich gefolgert werden, was Führungskräfte als geeignete Werkzeuge zur Unterstützung ihrer Lern-
Untersuchung zum Lernverhalten von Führungskräften
1047
anforderungen ansehen. Mit der Beobachtung wird vertieft, wie diese Werkzeuge gestaltet sein sollten. Insbesondere ermöglicht die Beobachtung, implizite Nutzungsgewohnheiten und -präferenzen offen zu legen, die nicht durch die Befragung erfassbar sind. Zum Zweck der Beobachtung wurde ein Usability Test in den Räumen der E.ON Academy aufgesetzt. Dieser Usability Test ist Bestandteil der Partnerschaft der E.ON AG und der IMC AG zur Weiterentwicklung des Anwendungssystems CLIX® – Corporate Learning and Information eXchange. Neben den bereits bestehenden Produktlinien „Enterprise“ (fokussiert die Bedarfe der Personalentwicklung in Betrieben) und “Campus“ (spezialisiert auf die Prozesse in Hochschulen) zielt die Partnerschaft auf eine neue Produktlinie, welche die speziellen Anforderungen der Führungskräfteentwicklung erfüllt. Diese Produktlinie wird als CLIX® Corporate University bezeichnet. Das System ist in einer ersten Version unter dem Namen „Academy Online“ seit Oktober 2003 im E.ON Konzern im Einsatz. Nach Abschluss der Entwicklungspartnerschaft zum Jahresende 2004 wird das System am offenen Markt erhältlich sein. Insgesamt wurden mit 24 Führungskräften aus allen E.ON Gesellschaften jeweils einstündige standardisierte Einzeluntersuchungen durchgeführt. Die folgende Abbildung zeigt das Sample für die Nutzungsbeobachtung. E.ON Manager nein
Erfahrung mit Academy Online? ja
Teilnehmer an Academy Programmen
Nicht-Teilnehmer an Academy-Programmen
Computer- & Internetexpertise? stark ausgeprägt
ausgeprägt
Senior Manager & Executives
A
My Home
B
A
Kursräume
Emerging Leader
B
A
B
24 Teilnehmer
Kataloge
Abbildung 4: Sample der Nutzungsbeobachtung
Da Usability-Untersuchungen bewusst auf lange Einführungen verzichten, um eine möglichst hohe intuitive Verständlichkeit (Selbstbeschreibungsfähigkeit) eines Softwaresystems anzustreben, mussten die potenziellen Teilnehmer über folgende Teilnahmevoraussetzungen verfügen (Verfahren der Konstanthaltung, geringe Variabilität):
1048
F. Habermann
x Allgemeine Internet- und Computerexpertise x Teilnehmer eines ausgewählten Academy Programms x Erfahrungen in der Handhabung von Academy Online Insgesamt wurden in einer Vorauswahl 70 Academy Online Mitglieder identifiziert, die diese Vorraussetzungen erfüllten. Aufgrund der kleinen Stichprobe, wurden die Gruppen Senior Managers und Executives, die Ähnlichkeiten bezüglich Alter, Internetaffinität und Zeitverfügbarkeit aufweisen, zusammengefasst. Die an der Untersuchung beteiligten Personen waren zum einen der Versuchsteilnehmer und zum anderen zwei Mitarbeiter der IMC AG (Versuchsleiter und Protokollant). Die Tests wurden in deutscher und englischer Sprache durchgeführt und verliefen planmäßig und reibungslos. Als Versuchsunterlagen wurden in jeder Untersuchung ein Aufgabenblatt, ein Protokollbogen sowie ein Interviewfragebogen verwendet. Anhand der eingerichteten Testsysteme wurden zum einen der aktuelle Funktionsumfang von „Academy Online“, zum anderen prototypische Lösungskonzepte untersucht. Folgende Themenkreise wurden derart getestet: x Online Kataloge: Informationssuche, Katalogdarstellung (Tabelle, Baum) x Kursraum: Lernpfad, Ergänzungsmaterialien, Teilnehmerlisten usw. x Startseite (my Home): Anmeldung, Personalisierung Neben zahlreichen interessanten Einzelergebnissen, die jedoch aufgrund der geringen Stichprobe und des speziellen Unternehmensumfelds (noch) nicht verallgemeinerbar sind (und deshalb in den Folgephasen weiter untersucht werden), können zum Abschluss der ersten Untersuchungsphase zwei Aussagen getroffen werden: x Führungskräfte unterscheiden nicht zwischen „Software“ und „Content“: Es findet keine intellektuelle Trennung zwischen Lerninhalten statt und z.B. den Beschreibungstexten in einem Katalog oder zentralen Funktionen wie z.B. Informationsabonnements. Führungskräfte nehmen das Gesamtsystem wahr und bewerten es hinsichtlich der Summe aus Nützlichkeit („guter Inhalt“) und Nutzbarkeit („gute Suchfunktion, um Inhalte zu finden“). Nur wenn beide Dimensionen erfüllt sind, wird die Akzeptanz der Zielgruppe erreicht. x Führungskräfte unterscheiden nicht zwischen „Lernen“ und „Informations- oder Wissenssuche“: Führungskräfte fragen sich nicht, ob sie gerade lernen, Wissen austauschen oder Informationen suchen. Letztlich wollen sie immer ein Problem lösen. Diese ganzheitliche Sicht der Führungskräfte auf das Thema Lernen und Information stellt einen hohen Anspruch an die Gestaltung von IT-Lösungen für Wissens- und Informationsdienste. Heute sind häufig in o.g. Fragen noch zu viele unterschiedliche Abteilungen involviert, die als fachlicher Betreiber „ihres Systems“ ihre eigenen Vorstellungen verfolgen. So hat
Untersuchung zum Lernverhalten von Führungskräften
1049
häufig „das Wissensmanagement“ einen ganz anderen Lösungsansatz als „die Personalentwicklung“. Aus Perspektive der Führungskräfte ist jedoch eine integrierte Gesamtsicht erforderlich, um ein solches „System“ als nutzbar zu bezeichnen. Selbst wenn die technische Integration gelöst ist, schlägt sich aus Nutzersicht zu oft die Heterogenität der beteiligten Abteilungen in Systembrüchen nieder (unterschiedliche Benutzungsoberfläche, unterschiedliches Wording, unterschiedliche Ansprechpartner für fachlichen Support usw.).
2.2
Die Fundierung (zweite Phase)
Zur Erweiterung der empirischen Basis und Fundierung der in der ersten Phase gewonnenen Erkenntnisse wird in der zweiten Phase zunächst eine breit angelegte Internet-Befragung durchgeführt. Verantwortlich für die Durchführung der Befragung ist die Fachzeitschrift „IM Information Management & Consulting“, unter deren Internet-Adresse die Befragung auch publiziert wird. Abbildung 5 veranschaulicht die Benutzungsoberfläche des Online-Fragebogens. Kategorisierung zur besseren Orientierung und Einordnung der Fragen Partnerlogos Fortschrittsbalken
Freitext Antwort Skalenfrage (Einstufung der einzelnen Antworten)
Vor - / Zurück Navigation (mit Datenerhaltung)
Abbildung 5: Beispielseite der Online-Befragung
Befragt werden n 500 Führungskräfte aus großen und mittleren Unternehmen, wobei für die Stichproben der einzelnen Untergruppen gilt, dass nexecutives 50, nsen-managers 150 und nem-leaders 100. Die Rekrutierung der Panellisten erfolgt über Online- und Print-Anzeigen (z.B. Fachzeitschrift „IM Information Management & Consulting“ und Management Portale wie „Competence Site“), Newsletter und persönliche Anschreiben (Adressdienste).
1050
F. Habermann
Zu erklärende Variable ist die Nutzung der Lernmedien Konferenzen/Seminare, Persönliche Gespräche mit Experten/Tutoren, Fachzeitschriften/Fachbücher, Internet (Suchmaschinen/Portale), Intranet, Datenbanken, Online-Lernmodule (mit Tests / ohne Tests) und Online-Communities operationalisiert als (1) Relative Nutzungshäufigkeit, (2) Nutzungspräferenz in verschiedenen Lernsituationen. Als Determinantengruppen werden berücksichtigt: (1) Personale Bestimmungsfaktoren (Management-Ebene, Unternehmensgröße, Branche), (2) Medienspezifische Vorbildung (Computererfahrung, eLearning-Erfahrung), (3) Situationsmerkmale (bei der Zielvariablen Nutzungspräferenz). Befragungs Teilnehmer
Internet
http://
Server
PHP
Datenbank
Auswertung
SQL
Consultant
Grafische Auswertung
Abbildung 6: Architektur der Online-Befragung
Der Online-Fragebogen wurde für eine durchschnittliche Bearbeitungsdauer von zehn Minuten konzipiert. Um die Datenqualität zu erhöhen, gehen nur vollständig ausgefüllte Fragebögen in die Auswertung ein, die mit einer Mindestdauer von fünf Minuten bearbeitet wurden.
Untersuchung zum Lernverhalten von Führungskräften
1051
Technisch wurde die Internet-Befragung als PHP-basierte Datenbankanwendung realisiert. Die Ergebnisse der Befragung werden per SQL ausgelesen und grafisch visualisiert. Die obige Abbildung illustriert den technischen Aufbau. Die Internet-Befragung erfolgt grundsätzlich anonym, d.h. ein Rückschluss auf die Person des Befragten ist nicht möglich. Jedoch wird den Teilnehmern am Ende der Online-Befragung angeboten, ein zusätzliches halbstündiges Telefoninterview zu verabreden. Nach Hinterlassen der Kontaktdaten und Absenden der InterviewAnfrage durch den Teilnehmer erfolgt die Terminvereinbarung durch einen Consultant (Interviewer). In der Summe wird für diese qualitativen Interviews eine Stichprobe von n 50 und eine Abdeckung aller DAX 30 Unternehmen angestrebt. Als Anreiz für die Teilnahme an einem persönlichen Interview wird eine Verlosung (Jahresabonnement einer Fachzeitschrift) aufgesetzt.
2.3
Die Spezialisierung (dritte Phase)
Die Befragung wird zu Ergebnissen führen, welche Anforderungen Führungskräfte an die Gestaltung geeigneter Lernumgebungen aufweisen. In der anschließenden dritten Untersuchungsphase sollen signifikante Anforderungen ausgewählt und hierfür Lösungen konzipiert werden. Die Lösungskonzepte werden prototypisch implementiert und in Usability Tests mit Führungskräften auf ihre Eignung hin untersucht. Grundlage für die Lösungskonzeption ist das in Kooperation mit E.ON entwickelte Softwareprodukt CLIX® Corporate University (CU). Um durchgängige Testszenarien in einem schlüssigen Gesamtsystem abbilden zu können, werden die erarbeiteten Prototypen in das aktuelle Release des Softwareprodukts integriert. Mögliche Testszenarien betreffen die Themenkreise Personalisierung, Wissenssuche, Prozesse zur Buchung und Genehmigung von Lernveranstaltungen sowie Online Kollaboration und Virtuelle Gemeinschaften. Die Rekrutierung für die Usability Tests erfolgt ab Oktober 2004. Angestrebt wird eine Stichprobe von n = 50 Führungskräften. Grundgesamtheit sind die „CLIX® Enterprise“ Kunden der IMC AG, wie z.B. Allianz, Bayer, DaimlerChrysler, KPMG, Nokia, TUI, UBS und Volkswagen sowie potenzielle Kunden der neuen Produktlinie CLIX® CU, die ab Frühjahr 2005, nach Abschluss der partnerschaftlichen Entwicklung mit E.ON, am offenen Markt erhältlich ist (Release 2.0).
1052
3
F. Habermann
Fünf Thesen zum Lernverhalten von Managern – und erste Untersuchungsergebnisse
Auf die Vorurteile und Vorarbeiten zum „Lernverhalten von Managern“ wurde eingangs dieses Artikels hingewiesen. Beides führte zur Formulierung von Thesen, die zunächst in einem abgegrenzten Pilotszenario (s.o. Phase „Initialisierung“, Abschnitt 2.1) und dann in einem breiteren Betrachtungsfeld (s.o. Phase „Fundierung“, Abschnitt 2.2) untersucht wurden bzw. werden. Zum Zeitpunkt der Erstellung dieses Beitrags ist die Online-Befragung in vollem Gange. Im Folgenden können daher erste Hinweise auf die Bestätigung oder Nichtbestätigung der Thesen entsprechend der abgeschlossenen ersten und der laufenden zweiten Erhebungsphase gegeben werden. Dieser Auszug aus der laufenden Untersuchung hat den Charakter eines Zwischenergebnisses, das naturgemäß eine Tendenzaussage darstellt und (noch) keinen Anspruch auf Validität hat.1
3.1
These 1: Manager haben wenig Zeit zu lernen
Die weit verbreitete Meinung, Manager hätten nie Zeit und schon gar keine Zeit, sich weiter zu bilden, kann nicht bestätigt werden. Was auffällt ist allerdings, dass Führungskräfte ein sehr weites Begriffsverständnis von „Lernen“ haben, das von traditionellen Lernformen („Seminare“) bis hin zu „Informationsbeschaffung“ reicht („eine Art des Lernens“). Besondere Bedeutung messen Führungskräfte offensichtlich der eigeninitiativen Wissensaneignung („Selbststudium“) bei. Zwei Drittel der Befragten gaben an, mindestens ein bis vier Stunden pro Woche für intensives Lernen zu investieren. Für Lernen im Sinne von „sich Informieren“ verwenden sogar 85% der Befragten mindestens ein bis vier Stunden pro Woche (s. Abbildung 7). 15%
34%
66%
85%
Informationsrecherche
intensives Lernen
Abbildung 7: Zeitaufwand für Selbststudium
1
Der ausgewertete Stichprobenauszug ist n=400.
weniger als 1 Stunde pro Woche mindestens 1 bis 4 Stunden pro Woche
Untersuchung zum Lernverhalten von Führungskräften
3.2
1053
These 2: Manager lernen doch am Arbeitsplatz
Externe Konferenzen, unternehmensinterne Foren oder Seminare bei Business Schools haben für Führungskräfte unter anderem den Vorteil, dass sie weit entfernt vom eigenen Büro stattfinden. Allerdings ist dies auch der Grund, warum sie nicht viel öfter als einmal im Jahr besucht werden. Manager müssen sich indessen stetig „up-to-date“ halten und haben diese Notwendigkeit zum „Selbststudium“ auch erkannt (s.o.). Trotz einzelner gegenläufiger Aussagen wie „Lernen am Arbeitsplatz kommt meist zu kurz, denn dafür bleibt man ja auch nicht länger“ und der Feststellung, dass der Arbeitsplatz keine optimale Lernumgebung ist („zu viele Störungen“), lernt über die Hälfte der Befragten am häufigsten am Arbeitsplatz und zu Hause. Nur 11% der befragten Führungskräfte schließt das eigene Heim kategorisch als Lernstätte aus („zu Hause ist Lernen kein Thema; die Zeit verbringt man besser mit der Familie“). Nur für knapp ein Viertel der Befragten ist auch Reisezeit oft die beste Studienzeit, wobei sie doch von knapp der Hälfte gelegentlich gern genutzt wird. (s. die folgende Abbildung).
Am Arbeitsplatz
52%
Zu Hause Auf Reisen
41%
52% 24%
7%
37% 42% sehr oft
11% 34%
gelegentlich
selten
Abbildung 8: Bevorzugte Orte für Selbststudium
Lernen ist für Führungskräfte fast immer situationsabhängig. Gelernt wird z.B., um ein neues fachspezifisches Problem zu verstehen, sich in einer neuen Situation zurechtzufinden oder neue Trends und Entwicklungen frühzeitig zu erkennen. 73% der Führungskräfte gaben ein neues Projekt als die häufigste Motivation für Selbststudium an, 61% persönliches Interesse an einem Thema. Kommentare der Befragten hierzu lassen darauf schließen, dass auch persönliches Interesse bei den meisten Befragten sehr stark durch konkrete Geschäftsbedarfe geprägt ist. Die folgende Abbildung veranschaulicht diese Einschätzung der wichtigsten Gründe für das „Selbststudium“.
1054
F. Habermann
73%
Vorbereitung eines Projektes 61%
persönliches Interesse
52%
Ausarbeitung eines Vortrags
45%
Vorbereitung eines Meetings
Abbildung 9: Wichtigste Gründe für Selbststudium
3.3
These 3: Manager sind Technologie-avers
Wer glaubt, Manager lassen sich alle Informationen grundsätzlich nur von ihren Mitarbeitern zusammentragen und alle eMails vom Sekretariat ausdrucken, sollte lieber noch einmal genauer nachsehen. Nur jeder vierte Manager bemüht als erstes seine Mitarbeiter, mehr als zwei Drittel aller Befragten recherchieren auch selbst nach den notwendigen Informationen. Nahezu jeder hat hierzu schon einmal ein Online-Tool benutzt, z.B. Internet-Suchmaschinen. Alle befragten Führungskräfte stufen den eigenen PC als unverzichtbar für ihre Arbeit ein. Dieses Bild spiegelt sich auch bei der Untersuchung der meist genutzten Informationsmedien wider. Als wichtigste Quelle für neues Wissen gelten – überraschenderweise – nicht Fachzeitschriften, sondern das Internet. Fast alle Befragten (94%) gaben an, sehr häufig das Internet als Informationsquelle zu nutzen. Demgegenüber wurden Fachzeitschriften an zweiter Stelle (61%) genannt. In diesem Zusammenhang auch ein verblüffendes Ergebnis: Dem firmeneigenen Intranet wird von Führungskräften eher eine sehr geringe Bedeutung für die Lösung der eigenen Wissensprobleme beigemessen, ebenso wie Datenbanken. Die folgende Abbildung illustriert dieses Ergebnis. 94%
Internet Fachzeitschriften/ Fachbücher
61%
Datenbanken
26%
Tageszeitungen
25%
Firmen - Intranet
24%
Abbildung 10: Wichtigkeit von Wissensquellen für Führungskräfte
Untersuchung zum Lernverhalten von Führungskräften
3.4
1055
These 4: Manager nutzen Online-Lernmedien
Untersucht wird ebenfalls die Frage, ob Führungskräfte Online-Selbstlernen am Bildschirm annehmen. Nach dem bisherigen Stand der Studie kann diese Frage grundsätzlich bejaht werden. Immerhin 80% haben angegeben, sich online gestellte Medien üblicherweise auf Ihren eigenen PC herunterzladen. Nur reichlich die Hälfte der befragten Manager (53%) drucken sich Dokumente lieber aus. Auch in Ergänzung zu klassischen Seminarformen („Präsenztrainings“) werden OnlineLernunter-lagen gewünscht. Didaktisch komplexere, interaktive Lernmodule stuft knapp ein Drittel der befragten Manager als geeignet für den eigenen Lernbedarf ein (s. Abbildung 11 auf der folgenden Seite). Insgesamt stehen Manager interaktiven Online-Lernmedien (WBT, CBT) kritisch gegenüber. Als großes Plus aber auch als unabdingbares Muss wird eingeschätzt, dass hierbei Abkürzungen und optionale Vertiefungen möglich sind. Auch wird die Gefahr der Bevormundung des Nutzers bezüglich Lernstil und Lerntempo hervorgehoben. Lernmodule mit Testoptionen zur Einschätzung des eigenen Wissensstandes werden als nützlich bewertet. Dokumente zum Download auf den eigenen PC
80%
Dokumente zum Ausdrucken
53%
Interaktive Lernmodule Dokumente zum Download auf einen PDA
29% 11%
Abbildung 11: Wichtigkeit von Online-Medien für Führungskräfte
3.5
These 5: Manager wollen elektronische Netzwerke
Führungskräfte leben nicht zuletzt von ihren persönlichen Netzwerken. Zahlreiche Unternehmensakademien haben dies erkannt und verfolgen gerade das Ziel, Führungskräfte, die auf verschiedene Standorte des Unternehmens verteilt sind, regelmäßig miteinander in kreativen Austausch zu bringen. Hierzu werden z.B. interne Foren zu strategischen Themen organisiert oder maßgeschneiderte Fallstudien zusammen mit Business Schools durchgeführt. Doch bilden Führungskräfte auch lernende virtuelle Gemeinschaften („Learning eSocieties“)? Die bisherigen Befragungsergebnisse zeigen: Derzeit sind Internetoder Intranet-Gemeinschaften unter Führungskräften noch nicht besonders stark verbreitet. Allerdings besteht ein hohes Interesse an Online-Netzwerken und Onli-
1056
F. Habermann
ne-Kollaboration, wie z.B. Virtuellen Meetingräumen. 67% der Befragten haben angegeben, unbedingt Online-Gemeinschaften nutzen zu wollen, knapp ein Viertel würde es mal ausprobieren. Lediglich 11% der befragten Führungskräfte schließen Online Communities als ungeeignet aus (s. folgende Abbildung). 22% würden vielleicht Online Communities nutzen
22%
11% 11% möchten keine Online Communities nutzen
67% wollen unbedingt Online Communities nutzen
67%
Abbildung 12: Virtuelle Lerngemeinschaften für Führungskräfte
Über die Hälfte aller Befragten möchte Online-Communities etwa dazu nutzen, über den Zeitraum eines Präsenzseminars hinweg mit den anderen Teilnehmern in Verbindung zu bleiben, z.B. in Expertenforen.
4
Resümee und Ausblick
Dieser Beitrag behandelte die Frage, wie Führungskräfte lernen und wie Software zur Unterstützung des Lernens von Führungskräften gestaltet sein muss. Die Besonderheit der Benutzergruppe „Manager“ ist spätestens seit der Diskussion um Management-Informationssysteme in den frühen 70er Jahren des vergangenen Jahrhunderts offenkundig. Auch aktuell gibt es z.B. mit „Unternehmensportalen“ und „Business Intelligence Systemen“ Softwarethemen, die nicht zuletzt an den besonderen Informations- und Nutzungsbedarfen von Führungskräften orientiert sind. Aus langjähriger Erfahrung eines Anbieters von Lösungen für Lern- und Wissensmanagement, der über die Hälfte aller DAX 30 Unternehmen bedient, kann die Frage, ob Manager auch anders lernen, ebenfalls bejaht werden. Dabei liegt der Unterschied häufig im Detail. So zeigen die bisherigen Ergebnisse der vorgestellten empirischen Untersuchung, dass Manager nicht grundsätzlich andere Lernumgebungen erfordern als die übrigen Mitarbeiter. Es wurde etwa deutlich, dass Führungskräfte einen Großteil des Lernens am eigenen Arbeitsplatz absolvieren, das Internet häufig nutzen und sowohl eLearning als auch Online-Lerngemeinschaften – wenn auch weitgehend unerfahren – neugierig und aufgeschlossen gegenüber stehen. Andererseits haben die Besonderheiten der
Untersuchung zum Lernverhalten von Führungskräften
1057
Berufsanforderungen im Management auch Auswirkungen auf das Rezeptionsund Interaktionsverhalten. So haben Führungskräfte offenkundig eine besondere Sensibilität für die durchdachte Gestaltung von Lernprozessen und stellen einen sehr hohen Qualitätsanspruch an Methoden und Gestaltungsmittel. Dazu kommt eine extrem eingeschränkte Aufmerksamkeitsspanne und ein aggressives Reagieren auf Vorschriften. Manager suchen intuitiv nach Abkürzungen und reagieren positiv auf Optionen sowie dargestellte Risiken und Chancen. Inwieweit diese Erkenntnisse signifikant sind und verwertbare Hinweise für die Gestaltung geeigneter Softwarewerkzeuge geben, wird der weitere Verlauf der Befragung zeigen, die noch bis Oktober 2004 andauert. Für besonders wichtig erscheinende Anforderungen werden im Anschluss, bis März 2005, Lösungen konzipiert und prototypisch erprobt. Die gesamten Ergebnisse der Untersuchung zum „Lernverhalten von Führungskräften“ werden dokumentiert und als umfassende Studie im Frühsommer 2005 verfügbar sein.
Literatur [Ala+97] Alavi, M., Yoo, Y, Vogel, D.: Using information technology to add value to management education, Academy of Management Journal 40(1997)2, S. 1310-1333. [Alle97] Allee, V.: The knowledge evolution: expanding organizational intelligence, Oxford 1997. [Blac95] Blackler, F.: Knowledge, Knowledge Work and Organizations: An Overview and Interpretation, Organization Studies 16(1995)6, S. 1021-1046. [Dav+98] Davenport, T., De Long, D., Beers, M.: Successful Knowledge Management Projects, Sloan Management Review 39(1998)2, S. 43-57. [Habe01] Habermann, F.: Management von Geschäftsprozesswissen, IT-basierte Systeme und Architektur, Wiesbaden 2001. [Hab+02] Habermann, F., Thomas, O., Botta, C.: Organisational-Memory-System zur Unterstützung informationstechnisch basierter Verbesserungen von Geschäftsprozessen, in: Becker, J., Knackstedt, R. (Hrsg.): Wissensmanagement mit Referenzmodellen: Konzepte für die Anwendungssystem- und Organisationsgestaltung, Heidelberg u.a. 2002, S. 291-322. [HaSc00] Habermann, F., Scheer, A.-W.: Knowing the Impacts of Information Technology: Towards an Organisational Memory System as a Tool for IT-Management, in: Sprague, R. (Hrsg.): Proceedings of the 33rd Annual Hawaii International Conference on Systems Sciences, Los Alamitos CA 2000, o. S.
1058
F. Habermann
[KlTh97] Klimecki, R., Thomae, M.: Organisationales Lernen: Eine Bestandsaufnahme der Forschung, in: Klimecki, R. (Hrsg.): Management Forschung und Praxis, Nr. 18, Konstanz 1997. [KrMü01] Corporate Universities und e-Learning - Personalentwicklung und lebenslanges Lernen. Strategien - Lösungen - Perspektiven, Wiesbaden 2001. [Meis98] Meister, J.: Corporate Universities – Lessons in Building A World-Class Work Force, Revised and Updated Edition, New York 1998. [Metz97] Metzger, C.: Wie können Führungskräfte ihr Lernverhalten optimieren?, iomanagement, o.Jg.(1997)11, S. 78-84. [MüDö99] Mühleck, K., Dörner, A.: Nutzung der Informationstechnologie für die Gestaltung eines ganzheitlichen Wissensmanagements, in: Scheer, A.-W. (Hrsg.): Electronic Business und Knowledge Management – Neue Dimensionen für den Unternehmungserfolg, Heidelberg 1999, S. 133-142. [MüPa91] Müller-Stewens, G., Pautzke, G.: Führungskräfteentwicklung und organisatorisches Lernen, in: Sattelberger, T. (Hrsg.): Die lernende Organisation, Wiesbaden 1991, S. 183-205. [Qui+96] Quinn, J. et al.: Managing Professional Intellect: Making the Most of Best, Harvard Business Review 74(1996)3, S. 71-80. [Siev002] Sievert, H.: Will Management Education ever be virtual?, Professional Education within the Context of Current Developments in German e-learning, EURAM: Innovative Research in Management, Stockholm 2002, URL: http://www.bertelsmannstiftung.de/medien/pdf/ACFmmjeqd.pdf. [Shri83] Shrivastava, P.: A Typology of Organizational Learning Systems, Journal of Management Studies 20(1983)1, S. 7-28. [Shri99] Shrivastava, P. Management Classes as Online Learning Communities. Journal of Management Education, 23(1999)6, S. 691-702.
Einführung in den Track Electronic / Mobile Private Services Udo Winand Universität Kassel
Reinhard Gillner Fachhochschule Fulda
Reinhard Keil-Slavik Universität Paderborn
Tom Sommerlatte Arthur D. Little Der private Sektor, also Privatpersonen und private Haushalte, entwickelt sich zunehmend zum integralen informations- und kommunikationstechnischen Wertschöpfungspartner von Wirtschaft und öffentlicher Verwaltung. Die traditionelle Rolle des privaten Sektors als Kunde wandelt sich dank neuer kundenorientierter kooperativer Geschäftsmodelle und sie unterstützender IuK-Systeme zum „Prosumenten“ und Leistungsanbieter. Diese Einbindung des privaten Sektors in die Wertschöpfungsprozesse von Unternehmen und Verwaltungen (z. B. durch Inund Outsourcing von Aktivitäten im Bereich der Qualitätssicherung, der Informationsbeschaffung, der Bestellkonfiguration oder der Erfassung von Transaktionsdaten) befördern ihn zum Erfahrungsobjekt der Wirtschaftsinformatik, dessen Wertschöpfungspotenzial für die Gestaltung von Anwendungssystemen zu optimieren ist (z. B. durch die adäquate Nutzung von Optionen zur räumlichen und zeitlichen Verlagerung der Kundenschnittstelle in den privaten Haushalt). Flankierend zu dieser Entwicklung zur Wertschöpfungspartnerschaft zwischen Unternehmen / Verwaltungen und privatem Sektor mutiert der private Sektor zunehmend auch zum Leistungsanbieter für Privatpersonen (z. B. durch Beteiligung in communities oder als Anbieter im Privat-zu-Privat-Geschäft im Rahmen von Auktionssystemen). Diese Wertschöfpungsaktivitäten rechnen ebenfalls zum Erfahrungobjekt der Wirtschaftsinformatik. Aufgrund der „betrieblichen“ Besonderheiten privater Haushalte resultieren eine Reihe spezieller Anforderungen an die Gestaltung unterstützender Anwendungssysteme, speziell des Benutzerinterfaces. Aber auch die besonderen Erwartungen des privaten Sektors an Privatheit, Sicherheit, Vertrauen und Datenschutz erfordern alltagstaugliche Lösungen. Die Erfül-
1060
Electronic / Mobile Private Services
lung dieser Anforderungen ist im privaten Bereich besonders erfolgskritisch, da die Nutzung dieser Anwendungssysteme i.d.R. nicht „angeordnet“ werden kann. Besondere Brisanz gewinnt der private Sektor als Wertschöpfungspartner durch die hohe Durchdringung mit mobilen, IuK-technisch immer leistungsstärkeren Endgeräten und Sensorsystemen. Das Konzept des ubiquitous (allfälligen) computing findet hier seine raum-zeitliche Erweiterung in den bislang „rechnerfreien“ Raum und die „rechnerfreien“ Tageszeiten. Mit dem Konzept des pervasive (alldurchdringenden) computing, dessen Umsetzung in die Breite bereits begonnen hat, werden Lebenswelten ermöglicht, die angemessen auf die Gegenwart von Personen oder Konstellationen reagieren, ohne dass Nutzer explizit mit einem Rechner interagieren müssen. Internet-, Datenübertragungs- und Lokalisierungstechnologien liefern die Grundlage für diese Entwicklung. Angemessene Profilund Rollenbeschreibungskonzepte und rechtliche Regelungen hingegen stecken noch in den Anfängen. Die Ausschöpfung des Potenzials mobiler Anwendungssysteme legt es nahe, ihre Funktionalität und Benutzerinterfaces einfach und vertraut zu gestalten. Dazu bietet es sich an, Konzepte und Lösungen aus bewährten betrieblichen und privaten Anwendungssystemen auf die mobilen Systeme zu transportieren, um deren Nutzungskomplexität weitestgehend zu entlasten.
Track-Programmkomitee Prof. Dr. Udo Winand, Universität Kassel (Chair) Prof. Dr. Tom Sommerlatte, Arthur D. Little (Chair) Prof. Dr. Reinhard Gillner, Fachhochschule Fulda Prof. Dr. Reinhard Keil-Slavik, Universität Paderborn
Mobile Datendienste für Privatkunden Arno Wilfert Arthur D. Little GmbH
Zusammenfassung: Die Mobilfunknetzbetreiber setzen vermehrt auf mobile Datendienste als zusätzlichem Umsatzträger. Bislang beschränkt sich die Nutzung von mobilen Datendiensten aber fast ausschließlich auf das Versenden und Empfangen kurzer Textnachrichten (SMS). Der vorliegende Artikel untersucht, welche Chancen mobile Datendienste im Privatkundensegment haben und welche Barrieren für die Entwicklung eines Massenmarktes zu überwinden sind. Schlüsselworte: Mobilfunk, Mobilität, Netzeffekt, mobile Datendienste
1
Der Mobilfunkmarkt in Deutschland
In Deutschland gibt es derzeit vier Mobilfunknetzbetreiber; der Markt ist durch oligopolistisches Verhalten gekennzeichnet. Die grossen Netzbetreiber T-Mobil und Vodafone verfügen über fast 80% Marktanteil, die beiden kleineren (E-Plus und O2) kämpfen um die Position als drittstärkster Anbieter. Ende September 2004 verfügten bereits 81% aller Bundesbürger über einen Mobiltelefonanschluss. Erklärtes strategisches Ziel aller Netzbetreiber ist es, über das Angebot mobiler Datendienste den durchschnittlichen Umsatz pro Kunde (sog. ARPU1) zu steigern. Ausser über das Versenden und Empfangen kurzer Textnachrichten (sog. SMS – Short Message Services), die derzeit noch immer über 90% der Datenumsätze im Mobilfunk ausmachen, gibt es hier aber bisher keine Erfolgsgeschichten.
2
Treiber für die Nutzung mobiler Datendienste
Mobile Datendienste müssen den Parameter Mobilität berücksichtigen, wenn sie am Markt erfolgreich sein sollen. Da mobile Datendienste in aller Regel teurer sind als vergleichbare Dienste über das Festnetz2, sind die meisten Kunden nur 1 2
ARPU = Average Revenue per User; liegt in Deutschland bei ca. 25 € pro Monat. Dies liegt an den Produktionskosten pro Einheit (z. B. pro Megabyte), die im Mobilfunk höher sind als im Festnetz.
1062
A. Wilfert
dann bereit diese Dienste zu nutzen, wenn sie den "Parameter" Mobilität unterstützen. Aus der Analyse des Nutzungsverhaltens bei der Sprachtelefonie ist bekannt, dass die Kunden durchaus bereit sind, eine Prämie für "Mobilität" zu bezahlen. Durch den Netzwerkeffekt ist der individuelle Nutzen für Pionierkunden begrenzt. Die Wahrscheinlichkeit, dass sie einen Kommunikationspartner finden, der den gleichen Dienst nutzt, ist (noch) gering. Deshalb sind abgesehen von sog. "Early Adopters" nur wenige Kunden bereit, ein entsprechendes Endgeräte zu kaufen oder einen entsprechenden Dienst zu abonnieren. Die Anbieter müssen deshalb durch Endgerätesubventionen und Perioden kostenloser Nutzung massive Anreize schaffen, damit die Barriere des Netzwerkeffektes überwunden wird.
3
Portfolio Mobiler Datendienste für Privatkunden
Das derzeit bekannte Portfolio mobiler Datendienste für Privatkunden berücksichtigt die Treiber Mobilität und den Netzwerkeffekt häufig nur unzureichend. Ein großer Teil der angebotenen Dienste wird deshalb keine Akzeptanz im Massenmarkt finden und sich lediglich zu einem Nischenangebot entwickeln. Dies gilt z. B. für das Herunterladen von Musikstücken und/oder Videoclips auf das Mobiltelefon. Hier ist der Treiber Mobilität unzureichend berücksichtigt, denn es gibt keinen nachvollziehbaren Grund, warum Musikstücke über die (teurere) Luftschnittstelle heruntergeladen werden sollten, wenn dies über das Festnetz günstiger und komfortabler erfolgen kann. Der Netzeffekt wird z. B. beim Dienst Videotelefonie zu wenig berücksichtigt. Hier kann sich ein Massenmarkt erst dann entwickeln, wenn möglichst viele Kunden mit videotelefoniefähigen Endgeräten ausgestattet sind. Dies erfordert eine aggressive Marktentwicklung durch die Subvention entsprechender Endgeräte durch die Netzbetreiber, was derzeit allerdings nicht in Sicht ist. Die Erfolgsaussichten für den Dienst Videotelefonie sind deshalb kurzfristig eher begrenzt.
4
Fazit
Da mobile Datendienste aufgrund der ungünstigeren Kostenposition der Mobilfunknetzbetreiber in der Regel teurer angeboten werden als Datendienste über das Festnetz, müssen mobile Datendienste das Bedürfnis nach "Mobilität" unterstützen, um eine Preisprämie zu rechtfertigen. Datendienste, deren Erfolg von der Überwindung des Netzwerkeffektes abhängt, werden dann zum Selbstläufer, wenn eine bestimmte Marktdurchdringung erreicht wird – den Zeitruam bis dahin können die Netzbetreiber durch ihren Aktionsparametereinsatz selbst mitgestalten.
Evaluation der Akzeptanz und des Nutzens einer systematisch entwickelten Virtuellen Community für Krebspatienten Jan Marco Leimeister, Helmut Krcmar Technische Universität München Zusammenfassung: Virtuelle Communities (VC) bieten zeit- und ortsunabhängigen Zugang zu Informationen und Austausch mit Menschen in ähnlichen Lebenslagen. Besonders geeignet erscheinen sie daher für Patienten mit chronischen / lebensbedrohenden Krankheiten, da diese über besonders starke Informations- und Interaktionsbedarfe verfügen. Aufbauend auf Vorarbeiten zum bedarfsgerechten Aufbau der VC krebsgemeinschaft.de evaluiert dieser Beitrag die bei der systematischen Entwicklung zugrunde gelegten Designelemente und Erfolgsfaktoren anhand der Akzeptanz und des Nutzens des Angebots. Hieraus werden empirisch untermauerte Erkenntnisse zum systematischen Aufbau und Betrieb von VCs für Patienten im deutschen Gesundheitswesen gewonnen. Schlüsselworte: Virtuelle Gemeinschaft, Virtuelle Community, Patienten, Community-Building, Evaluation.
1
Rahmenbedingungen und Potentiale Virtueller Communities für Krebspatienten
Krebserkrankungen sind mit ca. 338000 Neuerkrankungen jährlich die zweithäufigste Todesursache in Deutschland [Deut03]. Umso erstaunlicher ist, dass bis zum Jahr 2001 kaum Informations- und Interaktionsangebote für Patienten im deutschsprachigen Internet zu finden waren [Daum+01]. Ausgehend von dieser Erkenntnis wurde im Rahmen des COSMOS1-Forschungsprojektes eine VC für Krebspatienten entwickelt, eingeführt und betrieben. Dieser Beitrag behandelt aufbauend auf Vorarbeiten zum systematischen, bedarfsgerechten Aufbau der VC krebsgemeinschaft.de die Evaluation der Akzeptanz und des Nutzens des Angebots für Krebspatienten. Nach einer Darstellung der Ausgangssituation von Patienten wird auf die Potentiale von VCs für Patienten eingegangen. Daran schließt 1
Das Forschungsprojekt COSMOS (Community Online Services and Mobile Solutions) ist ein Verbundprojekt der Technischen Universität München und O2 (Germany) GmbH & Co. OHG. Das Projekt wird vom Bundesministerium für Bildung und Forschung, FKZ 01 HW 0107 –0110, gefördert. Weitergehende Informationen sind zu finden unter http://www.cosmos-community.org.
1064
J. M. Leimeister, H. Krcmar
sich eine Zusammenfassung zentraler Designelemente eines bedarfsgerechten Angebots sowie deren Ausprägungen im Fall von krebsgemeinschaft.de an. Auf dieser Grundlage werden die Akzeptanz und der Nutzen des Angebots evaluiert und die Implikationen der Erkenntnisse dargestellt.
1.1
Bedarfe von Krebspatienten
Die Diagnose der Krebserkrankung trifft den Patienten meist völlig unerwartet. Die oft langwierigen Behandlungszyklen dominieren den Tagesablauf und die mittelfristige Lebensplanung. Arbeit und Privatleben bzw. Familie verlieren aufgrund dieser veränderten Lebenssituation an Priorität. Ausgelöst durch die lebensbedrohende Diagnose stürzt der Patient oftmals auch psychisch in eine Krise. Diese Krisen lösen einen starken Bedarf nach einem Sense-Making-Prozess der neuen Lebenssituation aus [Mada97]. Verstehen, was mit dem Betroffenen passiert, setzt Information über die Krankheit voraus. Doch der Wunsch nach harten Fakten ist nur ein Teil eines „Coping2“ -Prozesses (d. h. Verarbeiten und Bewältigen von Lebenskrisen). Neben dem Bedarf an Informationen kann es auch ein Verlangen nach Verständnis und emotionaler Unterstützung durch andere Betroffene sowie nach Interaktion mit diesen geben. 1.1.1
Informationsbedarfe
Krebspatienten entwickeln oft einen hohen Informationsbedarf, z. B. nach der Diagnose oder während einer Therapie [BiDe96; Hind+95; McTh95; MiSu99]. Dieser Bedarf kann u. a. aus einer asymmetrischen Informationsverteilung zwischen Arzt und Patient resultieren. Welche Art von Informationen von den Patienten im Detail nachgefragt wird, zeigen neuere Forschungsergebnisse über die Art der Bedürfnisse der Krebspatienten. Kaminski [Kami01] bspw. identifizierte unter anderem eine starkes Interesse an Informationen aus unterschiedlichen Bereichen, z. B. Auswirkungen der Erkrankung auf andere Lebensbereiche, wie Arbeit, Familie oder Sexualität. Mit diesen Fragen ist der behandelnde Arzt oftmals überfordert. Dabei geht es den Patienten nicht nur um medizinische Kompetenz im engeren Sinne, sondern vor allem um Kommunikation und einen menschlichen Umgang mit dem individuellen Leiden der Einzelnen [Hill01]. Wechselseitige Akzeptanz, mehr Zuwendung, Empathie und Ganzheitlichkeit sowie eine höhere Qualität und bessere Zusammenarbeit zwischen den verschiedenen Akteuren im Behandlungsprozess werden als Problemfelder genannt.
2
Abgeleitet aus dem Englischen: „to cope“: mit einer Situation fertig werden, ihr gewachsen sein [SeUd93, S. 150f].
Virtuelle Community für Krebspatienten
1.1.2
1065
Interaktionsbedarfe
Oftmals ist auch im direkten Umgang mit betroffenen Menschen das Bedürfnis nach Empathie und zwischenmenschlicher Interaktion spürbar. Interaktion mit Gleichgesinnten/Menschen mit gleichem Schicksal kann eine große Rolle spielen [Forb01]. Die Bedarfe der Patienten beschränken sich nicht nur auf reine Fakten, vielmehr wollen sie, dass Informationen begründet und hinsichtlich ihres Krankheitsbildes ausgewertet und für ihre Lage interpretiert werden (vgl. hierzu auch [MiSu99; Moel96; SEKI00]. Um die neue Situation zu verarbeiten, das Wissen um Behandlungsmöglichkeiten oder Informationen über Heilungschancen zu diskutieren, braucht der Betroffene einen oder mehrere Gesprächspartner. Besonders interessiert ist er an Erfahrungen oder ähnlichen Fällen [BiDe96; Lieb+03; Mana+02]. Zwar ist im Falle einer Krebserkrankung nicht immer mit einem aktiven Umgang in Form von Informationssuche und Interaktion mit anderen Menschen zu rechnen. Dass aber Menschen, die aktive Krankheitsbewältigung mittels Informationssuche und Austausch betreiben, einen Vorteil hieraus ziehen können, ist in der Literatur mehrfach belegt (vgl. hierzu bspw. [McPh+01]).
1.2
Gesetzliche Rahmenbedingungen bei medizinischen Internetangeboten in Deutschland
Das Gesundheitswesen ist in Deutschland ein hoch reglementierter Bereich. Beteiligte am Gesundheitswesen unterliegen qua ihrer Berufszugehörigkeit oder Anstellung bei einer bestimmten Einrichtung bestimmten Rechtsnormen. Darüber hinaus regeln weitere Gesetze den Gegenstandsbereich. Medizinische und PatientenInformationsangebote im Internet unterliegen den allgemeinen Anforderungen an Internetangebote. Es bestehen nur wenige Sonderregelungen, die beim Angebot medizinischer Inhalte zu beachten sind [Dier+03, S. 95]. Es sind insbesondere der Mediendienste-Staatsvertrag, das Teledienstegesetz (TDG), sowie die Novellierungen im Rahmen des Gesetzes über die rechtlichen Rahmenbedingungen für den elektronischen Geschäftsverkehr (BGBl. I, S. 3721) zu berücksichtigen. Besondere Beachtung verdienen insb. die folgenden Aspekte: Die Regelung der Haftung des Inhaltes fremder Websites (Verlinkung), die Berücksichtigung heilberufsrechtlicher Grenzen (in Form der Unterscheidung zwischen Information und Beratung), Aspekte des Datenschutzes in Zusammenhang mit Telediensten sowie Besonderheiten der Weitergabe von Fachinformationen an nicht autorisierte Laien. Diese rechtlichen Rahmenbedingungen haben dergestalt Einfluss auf Internetangebote in Deutschland, dass sie bspw. entsprechende Nutzer- und Nutzungsvereinbarungen sowie Disclaimer erfordern. Außerdem führen sie dazu, dass individuelle Beratungsangebote für Patienten über das Internet nicht zulässig sind und nur durch Informationsangebote annähernd ersetzt werden können.
1066
1.3
J. M. Leimeister, H. Krcmar
Potentiale von Virtuellen Communities für Patienten
Im Gesundheitswesen sind bisher bestehende Angebote für Patienten im allgemeinen und Krebspatienten im Besonderen meist an einen Ort oder an bestimmte (Öffnungs-) Zeiten gebunden. Eine Beratungsstelle ist zu festgesetzten Zeiten geöffnet – der Patient oder Angehörige muss sich physisch dorthin bewegen. Herkömmliche Selbsthilfegruppen treffen sich ebenfalls immer zu einer festgesetzten Zeit an einem physischen Ort, meist in einem Ballungsraum. Dementgegen sind Internetangebote und Virtuelle Communities hieran nicht gebunden und gerade für schwach besiedelte Gebiete interessant. Lange Anfahrtswege stellen nicht nur für Personen ohne eigenes Auto ein Problem dar, sondern auch für diejenigen, die aufgrund der Therapie oder durch Medikamente vorübergehend nicht am Straßenverkehr teilnehmen sollen. 1.3.1
Aktualität, Anonymität und Bedarfsgerechtigkeit
Die Aktualität von Informationen kann im Internet oftmals wesentlich höher sein als dies bei anderen Medien der Fall ist. Dies kann im Kontext gesundheitsbezogener Informationen (bspw. zu neuen Behandlungsansätzen, Versorgungsleistungen, etc.) bei entsprechend dringendem Interesse von Patienten ein großer Vorteil für das Medium sein. Neue Forschungsergebnisse oder aktuelle Entwicklungen sind über das Internet viel schneller verfügbar. Außerdem lässt sich oftmals im Internet eine größere Offenheit der Menschen feststellen, insbesondere wenn es bspw. um lebensbedrohende Krankheiten, schwierige Situationen oder Tabu-Themen geht. Dies lässt sich unter anderem durch das Gefühl der Anonymität der Teilnehmer im Netz erklären. Die Bedarfsgerechtigkeit eines Internetangebots kann deutlich höher sein als bei Angeboten in anderen Medien, da der Nutzer die einzelnen Bestandteile nach seinen Wünschen einfach zusammenstellen kann, bspw. über welches Thema, wann und wie er sich informiert. Aus dem unterschiedlichen Nutzungsverhalten von Informationen in Abhängigkeit vom verwendeten Medium ergeben sich teilweise andere Anforderungen als an Texte für papierbasierte Medien. 1.3.2
Interaktion, Empathie und Stärkung der Patienten
Daneben bietet das Internet durch seine Dienste multilaterale Interaktionsmöglichkeiten. Ein Dienst sorgt dafür, dass Informationen verteilt und verwaltet werden und dass Kommunikation stattfinden kann. Er stellt eine Verbindung zwischen den Kommunikationspartnern her. Ein weiteres Merkmal der Interaktivität ist die Integration eines Feedback-Kanals sowie eine kollaborative Massenkommunikation, was bedeutet, dass alle Personen zugleich Sender- und Empfängerrollen übernehmen können [Döri03, S. 41f;RaLa93]. Die Interaktion in Virtuellen Gemeinschaften ermöglicht oftmals eine stark ausgeprägte Empathie unter den Mitgliedern sowie eine damit verbundene emotionale Integration in eine Gemein-
Virtuelle Community für Krebspatienten
1067
schaft. Empathie lässt sich i. A. durch drei Eigenschaften charakterisieren [LeRu92, S. 234]: a) wissen, was eine andere Person fühlt, b) fühlen, was eine andere Person fühlt und c) mitfühlend antworten/agieren auf das Elend/Leid einer anderen Person. Beispiele hierfür lassen sich zahlreich in der Literatur finden [Pree99; Pree00; Pree01]. Die themenspezifische Interaktion der Teilnehmer generiert einen Informationspool hoher Objektivität und Glaubwürdigkeit [Schu99, S. 100; PeRo97, S. 244]. Die durch soziale Interaktion entstehende Erhöhung der Markttransparenz kann zu einer Informationsasymmetrie zugunsten der Mitglieder einer Gemeinschaft führen, da die Nachfrager nicht mehr primär auf die Informationen der Anbieter angewiesen sind [WiLi01, S. 288]. Zugleich können sich potentielle Kunden zu einer Gemeinschaft zusammenschließen, wodurch sie möglicherweise ein höheres Marktpotenzial und eine entsprechende Marktmacht erhalten könnten [LeSc01; Schu99, S. 99]. Angesichts des hoch reglementierten, nicht auf Wettbewerb ausgerichteten und sehr intransparenten deutschen Gesundheitssystems ist diese Folgerung jedoch leider als sehr visionär einzuschätzen.
2
Zentrale Designelemente bedarfsgerechter Virtueller Communities für Patienten am Beispiel von krebsgemeinschaft.de
Wichtige Designelemente für eine VC für Patienten sind die Informationsaufbereitung, die Funktionalitäten, Nutzerfreundlichkeit (Usability) und Accessibility (i. S. v. Barrierefreiheit) des Angebots sowie der Einsatz vertrauensunterstützender Komponenten [Leim04], auf die jeweils im Folgenden eingegangen wird.
2.1
Informationsdienste
Der Schwerpunkt im Bereich Informationsdienste liegt in der großen Menge an redaktionell aufbereitetem und qualitätsgesichertem Inhalt zum Thema Brustkrebs. Die Erarbeitung einer Struktur für diesen komplexen Inhalt ist eine der zentralen Herausforderungen neben der laienverständlichen Aufbereitung. Im Rahmen einer iterativen Entwicklung und dem Durchlaufen mehrerer Runden an Expertengesprächen wurde die folgende Kategorisierung erarbeitet und in der Rangfolge der erwarteten Relevanz für die Nutzer gereiht: a) Krebs behandeln (Therapie, Nachsorge); b) Krebs erkennen (Früherkennung, Diagnosemethoden); c) Krebs erforschen (Studien, Zahlen & Daten); d) Leben mit Krebs (Sport & Ernährung, Familie & Sexualität) und e) Erfahrungen mit Krebs (Betroffene berichten).
1068
J. M. Leimeister, H. Krcmar
Die Aufteilung der Oberkategorien in kleinere Untereinheiten soll dem Nutzer helfen, die dargebotenen Informationen einfach strukturiert schneller wahrzunehmen und besser kognitiv zu verarbeiten.
2.2
Funktionalitäten
Im Bereich der Funktionalitäten werden die Dienste Diskussionsforum, Fragen an Experten, Kontaktsuche und Chat angeboten. Darüber hinaus werden über die personalisierte Startseite der Mitglieder „persönliche“ Interaktionsdienste wie ein internes Mail-System oder das eigene Gästebuch, oder aber Informationsdienste wie Freundeslisten und Awareness-Funktionen wie „Freunde online“, „Nutzer im Chat“ oder „Mitglieder in der krebsgemeinschaft.de“ bereitgestellt (vgl. Abbildung 1). Das Diskussionsforum ermöglicht den asynchronen Austausch der Mitglieder untereinander. Damit unterstützt es neben der Kommunikation auch den Prozess des Kennenlernens der Mitglieder untereinander und fördert somit den Aufbau und die Pflege einer Gemeinschaft. Inhalt (Kategorisiert)
Persönliche Kommunikation
Öffentliche Kommunikation
Austausch - Dienste
Awareness - Dienst
Freundesliste
Mitgliederliste
Empfehlungen abgeben
Abbildung 1: Informations- und Interaktionsdienste sowie graphische Aufbereitung der persönlichen Startseite der Mitglieder von www.krebsgemeinschaft.de (Quelle: [Leim04, S. 201]).
Der Dienst „Fragen an Experten“ ist eine abgewandelte Form eines Diskussionsforums, in dem die Nutzer Fragen stellen und nur die Experten antworten können. Darüber hinaus sind die Dauer einer Fragerunde und auch das Thema vorgegeben. Auf diese Weise wird der Aufwand für die beantwortenden Experten reduziert und besser planbar. Nachfragen zu Antworten etc. können von den Nutzern ohne Zeitdruck in aller Ruhe in das Diskussionsforum gestellt werden.
Virtuelle Community für Krebspatienten
1069
Die Kontaktsuche hat zum Ziel, den Mitgliedern von krebsgemeinschaft.de eine Unterstützung bei der Suche nach Menschen in ähnlichen Lebenslagen und/oder mit ähnlichen Interessen zu bieten. Es soll die einfache und unkomplizierte Möglichkeit der Kontaktaufnahme mit anderen Mitgliedern geschaffen werden, um so den persönlichen Erfahrungs- und Meinungsaustausch sowie die Bildung eines Gemeinschaftsgefühls zu fördern. Der Chat bietet den Nutzern die Möglichkeit, miteinander zeitgleich in Kontakt zu treten, er ist eine synchrone Echtzeitkommunikation, die mindestens zwei Teilnehmer erfordert. Um in der virtuellen Community die Wahrscheinlichkeit, einander zu treffen zu erhöhen, wurden bspw. im betrachteten Fall feste Zeiten für den Chat vorgegeben [Brun+00, S. 137].
2.3
Nutzerfreundlichkeit (Usability)
Angebote im Internet zeichnen sich dadurch aus, dass potentielle Nutzer innerhalb weniger Sekunden über deren Nutzung entscheiden [WaKr99, S. 1]. Neben der Bedarfsgerechtigkeit der angebotenen Inhalte kommt insbesondere der Nutzerfreundlichkeit besondere Bedeutung zu. Daher spielen Aspekte wie Layout, Farb-, Graphik- und Schriftgestaltung sowie Ergonomie eine wichtige Rolle. Diese Aspekte werden in der Literatur meist unter dem Schlagwort der Usability behandelt. Usability ist immer kontext- und verwendungsspezifisch, daher kann es keine detaillierten, allgemeingültigen Regeln hierfür geben. Usability und Gesamtanmutung haben außerdem entscheidenden Einfluss darauf, dass Websites Glaubwürdigkeit und Vertrauen ausstrahlen [Fogg+02]. Aus der Vielzahl unterschiedlicher Usability-Prinzipien lassen sich folgende Metaprinzipien unterscheiden: Aufgabenangemessenheit: ein Dialog mit einem System gilt dann als angemessen, wenn er die Erledigung der Arbeitsaufgabe des Benutzers unterstützt, ohne ihn durch Eigenschaften des Dialogsystems unnötig zu belasten. Erwartungskonformität: ein System verhält sich dann erwartungskonform, wenn jedes Element/jeder Teil dem Benutzer das Design und den Inhalt präsentiert, den dieser an dieser Stelle erwartet. Konsistenz: ein einheitliches Erscheinungsbild eines Systems für einen Kontext wird als "Konsistenz" bezeichnet. Konsistenz ist für die Usability ausschlaggebend, weil der Benutzer auf bereits Gelerntes zurückgreifen kann und sich nicht neu anpassen bzw. neu lernen muss. Konsistenz ist eines der wichtigsten Usability-Prinzipien [Mayh92] und führt zu Usability [Spol01; Niel02]. Visibility: Gute Mensch-Maschine-Schnittstellen haben gut sichtbare Bedienungselemente. Jedes Bedienelement (Knopf, Schaltfläche, etc.) kontrolliert hierbei idealerweise nur eine Funktion.
1070
2.4
J. M. Leimeister, H. Krcmar
Barrierefreiheit (Accessibility)
Wenn das Internet eine Weitergabe von Information als Text sicherstellt, kann es bei physischen Behinderungen dazu beitragen, diese zu überwinden. Dabei kann die Behinderung eines Sinnesorgans durch die Nutzung eines anderen ersetzt werden [WEBf03a]. Diese Thematik ist für eine Zielgruppe wie Krebspatienten besonders wichtig, da sie je nach Behandlungsstadium mit zeitweise eingeschränkter Mikromobilität und körperlichen Behinderungen umzugehen hat. Auf Internetseiten entstehen in Abhängigkeit von den verwendeten Gestaltungsmitteln verschiedene Barrieren für unterschiedliche Arten von Behinderungen. Seit dem 1. Mai 2002 gilt das Behindertengleichstellungsgesetz (BGG), das die Benachteiligung von behinderten Menschen zu beseitigen und zu verhindern anstrebt. §11 BGG schreibt vor, dass Träger öffentlicher Gewalt ihre Internetauftritte und -angebote sowie die von ihnen zur Verfügung gestellten graphischen Programmoberflächen, die mit Mitteln der Informationstechnik dargestellt werden, so gestalten, dass sie von behinderten Menschen grundsätzlich uneingeschränkt genutzt werden können. Eine barrierefreie Internetseite ist mit den derzeit zur Verfügung stehenden Hilfsmitteln problemlos lesbar und navigierbar. Um dies zu erreichen, wurden von unterschiedlichen Anbietern Gestaltungsempfehlungen erarbeitet, die im Ergebnis zu barrierefreien Internetseiten führen sollen (vgl. hierzu bspw. [WEBf03b] oder auch vertiefend [Leim04, S. 183ff]).
2.5
Vertrauensunterstützende Komponenten
Neben einer benutzerfreundlichen Oberfläche und nutzenstiftenden Diensten der Community-Plattform ist die Vertrauenswürdigkeit des Angebotes ein zentraler Erfolgsfaktor. Entscheidende Stellschrauben für die Unterstützung von Vertrauen sind das Betreiberkonzept (wer betreibt es mit welchem Hintergrund und welcher Motivation), ein Rechte- und Rollenkonzept (welche Aufgaben und Rollen existieren bei dem Angebot, wer nimmt sie wahr und welche Rechte hat jeder Akteur), ein Anonymitätskonzept (Möglichkeit jedes Nutzers, selbst darüber zu entscheiden, welche und wie viele seiner persönlichen Daten für andere Nutzer sichtbar werden) sowie die Verwendung von Qualitätssiegeln nebst entsprechenden Routinen für die Qualitätssicherung der eigenen Inhalte und Angebote. Hierzu wurden im Falle von krebsgemeinschaft.de die Richtlinien und Transparenzkriterien von afgis (Aktionsforum Gesundheitsinformationssysteme e.V., http://www.afgis.de) verwandt. Für detailliertere Informationen zur Ausgestaltung der vertrauensunterstützenden Komponenten siehe auch [Ebne+03; Leim04].
Virtuelle Community für Krebspatienten
3 3.1
1071
Akzeptanz und Nutzen von krebsgemeinschaft.de Evaluationskriterien und Evaluationsmethoden
Um Aussagen über die Wirksamkeit der im Rahmen der Pilotierung von krebsgemeinschaft.de durchgeführten Maßnahmen machen zu können, sind zunächst Bezugsgrößen für den Erfolg sowohl der jeweiligen Maßnahmen als auch der Gesamtheit aller Maßnahmen (in dem hier betrachteten Fall demzufolge der gesamten Virtuellen Community) zu bestimmen. Eine Erfolgsmessung bzw. eine Ursache-Wirkungskette ist bei vielen Einzelmaßnahmen jedoch nicht möglich, da sie nicht losgelöst von anderen Einflussgrößen auf den Nutzer wirken und ihre Wirkung daher nicht isolierbar ist. Oftmals ist sogar nur die Summe mehrerer Maßnahmen und Einflussgrößen als Gesamtheit erfassbar und bewertbar. Abbildung 2 verdeutlicht die wichtigsten zuvor dargestellten Designmaßnahmen und ihre Wirkung (als Gesamtheit) auf den Erfolg bzw. die Akzeptanz und den Nutzen von krebsgemeinschaft.de Informationsdienste Usability (Farben, Formen, Navigation, etc.) Funktionalitäten Barrierefreiheit (Accessibility) Vertrauensunterstützende Komponenten (Betreiberkonzept, Rollen- und Rechtekonzept,
Akzeptanz & Nutzen von krebsgemeinschaft.de
Anonymitätskonzept)
Abbildung 2: Intendierter Wirkungszusammenhang zwischen Design-& Einführungsmaßnahmen und Nutzung/Nutzen von krebsgemeinschaft.de
Spezifischere Indikatoren für den Erfolg Virtueller Gemeinschaften lassen sich auf unterschiedlichen Ebenen finden, wenngleich es an systematischen und operationalisierbaren Vorschlägen mangelt. Für die Evaluation bieten sich sowohl Techniken aus der „klassischen“ Sozialforschung als auch aus der Online-Forschung an. Hierzu werden im Folgenden Log-File-Analysen, Online-Befragungen, Dokumentenanalysen und Beobachtungen verwandt. Im Folgenden wird auf die Anwendung unterschiedlicher Methoden zur Evaluation der VC krebsgemeinschaft.de eingegangen. Alle Angaben beziehen sich (sofern keine anderen Angaben gemacht werden) auf die Zeitspanne vom 19.08.2002 (Online-Schaltung der VC) bis zum 22.05.2003. Zunächst wird auf die (quantitative) Analyse der ServerLog-Files eingegangen, danach auf eine Online-Umfrage unter den Nutzern von krebsgemeinschaft.de und abschließend werden ausgewählte Dokumentenanalysen und Beobachtungen durchgeführt und analysiert.
1072
3.2
J. M. Leimeister, H. Krcmar
Empirische Ergebnisse
3.2.1
Kennzahlen zur Bewertung der interaktiven Community-Elemente
Den Kern einer VC bildet die Interaktion zwischen den Mitgliedern, die entweder in Chats oder Diskussionsforen stattfindet. Zur Bewertung der „Member-tomember interaction“ werden folgende Kriterien herangezogen (in Anlehnung an [Coth00, S. 18]). Kennzahlen zur Bewertung des Besucheraufkommens (Durchschnittswerte pro Woche) (1) Total number of visits per week (2) Total number of page impressions per week Messkriterien für Diskussionsforen (Durchschnittswerte pro Monat) Number of users in discussion forum per month 1. Number of active users (writing messages) per month 2. Number of passive users (read only) per month (1) Number of articles a. Number of articles – posted per month b. Number of articles – read per month c. Number of replies – posted per month Messkriterien für Chats (Durchschnittswerte pro Monat) (1)
Number of users in chat
(2) (3)
a. Number of active users (writing messages) b. Number of passive users (read only) Number of messages Number of users connected
899 4627 275 22 253 11,6 Ca. 550 25,3 190 (verschiedene IPs pro Monat) 190 k.A. k.A. k.A.
Tabelle 1: Kennzahlen von krebsgemeinschaft.de für die Periode 08/2002-05/2003
Weiterhin muss beachtet werden, dass die Log-File-Analyse und damit die rein quantitativen Werte zur Beurteilung einer VC nicht hinreichend ist. So kann bspw. ein kleiner Kreis von aktiven Nutzern (wie dieser sich auch bei krebsgemeinschaft.de herausgebildet hat) viel stärker zum „Leben“ einer Community beitragen als ein großer Kreis passiver Nutzer, sog. „Lurker“ [NoPr00]. Aus diesem Grund werden im Anschluss an die Log-File-Analysen auch qualitative Analysen von krebsgemeinschaft.de durchgeführt, u. a. in Form von Befragungen, Beobachtungen und Inhaltsanalysen und die jeweiligen Ergebnisse i. S. einer Methodentriangulation miteinander verglichen. 3.2.2
Nutzung der einzelnen Bereiche und Dienste
Folgend wird auf die Nutzung der einzelnen Bereiche und Dienste des Angebots krebsgemeinschaft.de eingegangen. Zunächst wird die Nutzung der redaktionell aufbereiteten Inhalte analysiert und anschließend auf die Nutzung der Interaktionsdienste (Chat, Forum, Fragen an Experten, Kontaktsuche) eingegangen. Nutzung des redaktionellen Inhalts - Inhaltskategorien der obersten Ebene die graphische Darstellung und Positionierung der Inhalte auf der Website ist in
Virtuelle Community für Krebspatienten
1073
Abbildung 1 dargestellt. Die Inhaltskategorien und ihre Anordnung sind analog zur Wichtigkeit/Häufigkeit der Themen für Krebspatienten bei anderen Medien und Angeboten erfolgt. In abfallender Rangfolge (analog zur erwarteten abnehmenden Nutzungshäufigkeit) sind die Content-Reiter-Titelseiten (obere Inhaltsnavigation von krebsgemeinschaft.de) mit den Kategorien ‚Krebs behandeln’, ‚Krebs erkennen’, ‚Krebs erforschen’, ‚Leben mit Krebs’ und ‚Erfahrungen mit Krebs’ von links nach rechts angeordnet worden. Für alle Inhaltskategorien (Content-Reiter) ist eine ähnliche Entwicklung in den Nutzungszahlen zu beobachten. Für alle Content-Reiter fallen die Nutzungszahlen nach den ersten Wochen ab, pendeln sich dann aber auf einem mehr oder minder stabilen Niveau ein. Relativ hohe Werte auch in den letzten Monaten weisen vor allem die erste Kategorie „Krebs behandeln“ und die Kategorie „Leben mit Krebs“ auf (entgegen der ursprünglichen Annahme, dass Leben mit Krebs auf Rang 4 der Inhaltskategorien wäre). Diese Themen sind demzufolge für die Besucher von krebsgemeinschaft.de von besonders hohem Interesse. Da sich die redaktionellen Inhalte über einen längeren Zeitraum nicht verändert haben, ist anzunehmen, dass Besucher, die mehrmals die Seiten besucht haben, ihren Informationsbedarf hieraus bereits gedeckt haben und nicht mehr oder nur vereinzelt zu den Seiten zurückgekehrt sind. Außerdem kamen in der Zwischenzeit auch relativ wenig „neue“ Mitglieder mit in die VC. Hierdurch lassen sich möglicherweise insgesamt fallende Nutzungszahlen in diesem Bereich erklären, ein erster möglicher Hinweis auf einen nutzerindividuellen Informationsbedarfszyklus, der u. U. auch abhängig vom Krankheitsstadium bzw. von der Zeitspanne seit der Diagnose abhängig sein könnte. Austauschseiten/Interaktionsseiten - die Analyse der Entwicklung der Nutzung der einzelnen Austausch- und Interaktionsseiten zeigt deutlich, dass vor allem die Kontaktsuche sehr wenig genutzt wird. Dies mag einerseits daran liegen, dass sich nach einiger Zeit bereits feste Gruppen innerhalb von krebsgemeinschaft.de gebildet haben, die miteinander interagieren und daher nicht auf die Kontaktsuche angewiesen sind, andererseits kann es an der u. U. nicht zufrieden stellenden Umsetzung der Kontaktsuche liegen. Im Rahmen der Umfragen ist zumindest von mehreren Nutzern erwähnt worden, dass die Kontaktsuche nicht wunschgemäß funktioniere bzw. zu lange dauere. Diskussionsforum – das Diskussionsforum wird relativ rege genutzt. Insgesamt wurden über den kompletten Evaluationszeitraum hinweg 367 Einträge im Diskussionsforum eingestellt. Hiervon waren 114 Beiträge neue Threads und 253 Beiträge Replies auf diese Threads. Dies bedeutet, dass es im Schnitt auf jede Anfrage mehr als 2 Antworten gab, wobei die Zahl der Antworten zwischen 0 (häufig war auch keine Antwort erwartet, z. B. wenn es sich um reine Hinweise auf Vorträge, Expertenrunden o. ä. handelte) und 9 Antworten auf eine Anfrage schwankte. Meist waren die Antworten konkret auf die Anfrage bezogen, nur selten entwickelte sich eine Diskussion, die gänzlich vom Ursprungsthema abwich.
1074
J. M. Leimeister, H. Krcmar
Um festzustellen, welche Themen im Diskussionsforum besprochen wurden, wird nachfolgend eine Inhaltsanalyse der Threads und Replies durchgeführt. Grundsätzlich können zwei große Themenblöcke identifiziert werden: Einträge, die eher rationale/sachliche Informationsbedürfnisse aufzeigen, und emotionale Einträge, die einen Bedarf nach zwischenmenschlicher Unterstützung, emotionaler Integration in eine Gemeinschaft und den Wunsch nach Empathie zeigen. Häufig waren diese beiden Themenblöcke nicht trennscharf zu unterscheiden, da auch Anfragen nach Informationen oftmals sehr emotional geprägt waren, z. B. wenn es um Haarverlust bei der Chemotherapie oder um künstlichen Brustaufbau nach Amputation der Brust ging. Insgesamt zeigt sich, dass das Diskussionsforum vor allem verwendet wird, um Erfahrungen mit anderen zu teilen, bzw. aus den Erfahrungen anderer Mitglieder zu lernen. Und obwohl bei dieser Kategorisierung der Großteil der Beiträge unter eher „rationale“ Kategorien zu subsumieren ist, bleibt zu bemerken, dass viele, auch sehr informativ geprägte Beiträge einen emotionalen Aspekt enthalten. Auffallend ist auch, dass sehr persönliche Beiträge ins Forum gestellt werden und die Mitglieder sehr offen über ihre Gefühle und persönlichen Erfahrungen sprechen. Allerdings muss auch bemerkt werden, dass insbesondere in den ersten Monaten ein Großteil der Interaktion durch einige wenige Mitglieder entstanden ist, die sehr stark in der VC engagiert sind. Visitenkarten und Gästebücher – Das Anonymitätskonzept von krebsgemeinschaft.de gibt dem Nutzer die Möglichkeit, selbst darüber zu entscheiden, welche seiner Daten er anderen Mitgliedern der Gemeinschaft auf seiner Visitenkarte zeigen möchte. Dabei kann zwischen vier verschiedenen Anonymitätsgraden gewählt werden: Nichts anzeigen (andere Mitglieder bekommen die Anzeige: „Der Benutzer möchte seine Daten nicht anzeigen!"), anonymisiert (angezeigt werden: Benutzername, Bundesland, Nutzerstatus, Verbindung zur Krankheit, Diagnosedatum, Krebsart, Krebsstadium, Therapieform, Freizeitaktivitäten, Interessen (sonstiges)), alle anonymisiert, Freunde alles (Mitgliedern werden angezeigt: Benutzername, Bundesland, Nutzerstatus, Interessen, Verbindung zur Krankheit, Diagnosedatum, Krebsart, Krebsstadium, Therapieform, Freizeitaktivitäten, Interessen (sonstiges), Freunden werden alle eingegebenen Daten angezeigt) und alles anzeigen (Angezeigt werden: Alle eingegebenen Daten). Die Visitenkarte ist über dem jeweiligen Gästebuch des Mitglieds angebracht. Im Mai 2003 gab es 634 Gästebücher auf krebsgemeinschaft.de. 273 (43,1%) Mitglieder hatten dabei den Anonymitätsgrad „nichts anzeigen“ gewählt, 272 (42,9%) den Anonymitätsgrad „anonymisiert“, 9 (1,4%) „alle anonymisiert, Freunde alles“ und 80 (12,6%) ließen sämtliche Daten allen anderen Mitgliedern der VC anzeigen. Betrachtet man nun in Abhängigkeit vom Anonymitätsgrad des Gästebuches die Zahl der Einträge anderer Mitglieder in das jeweilige Gästebuch, so werden klare Unterschiede deutlich: Während in die 273 Gästebücher mit dem Anonymitätsgrad „nichts anzeigen“ insgesamt nur 30 Einträge gemacht wurden,
Virtuelle Community für Krebspatienten
1075
enthielten die 272 Gästebücher mit dem Anonymitätsgrad „anonymisiert“ immerhin schon 217 Einträge. In die 80 Gästebücher, die für alle anderen Mitglieder offen waren wurden 383 Einträge gemacht. In die 9 Gästebücher mit dem Anonymitätsgrad „alle anonymisiert, Freunde alles“ wurden 3 Einträge gemacht. Dies verdeutlicht, dass Offenheit eine wichtige Grundvoraussetzung für das Funktionieren der VC ist. Je mehr Daten für andere einsehbar sind, desto mehr Einträge werden ins Gästebuch gemacht. Je mehr Offenheit und Vertrauen (hier durch das Anzeigen persönlicher Daten) anderen Nutzern also entgegengebracht wird, desto mehr wird auch zurückgegeben (hier in Form von Einträgen ins Gästebuch). Dies entspricht auch dem aus der Literatur als „Reciprocity“ bezeichneten Prinzip der Wechselseitigkeit [Pree99; Pree00; PrMa03]. Hiernach ist das Geben von eigenen Informationen an die Gemeinschaft der Katalysator für das Erhalten von Informationen und Reaktionen durch die Gemeinschaft bzw. durch andere Mitglieder. Wichtig ist aber anzumerken, dass die Verteilung der Gästebucheinträge asymmetrisch ist. Auf der einen Seite enthält ein Großteil der Gästebücher überhaupt keine Einträge, auf der anderen Seite haben einige sehr aktive Mitglieder in krebsgemeinschaft.de Gästebücher mit jeweils mehr als 40 Beiträgen. Dies deutet – wie auch die Tatsache, dass viele der Einträge im Diskussionsforum von einigen wenigen Nutzern gepostet wurden – darauf hin, dass innerhalb von krebsgemeinschaft.de eine kleine, sehr aktive Gemeinschaft von Nutzern entstanden ist, die sich sehr rege austauscht. Diese Gruppe trägt stark zum Leben innerhalb der VC bei und krebsgemeinschaft.de scheint eine wichtige Rolle für diese Mitglieder zu spielen. Das Verhältnis dieser aktiven Nutzer zueinander scheint sehr eng zu sein und der Austausch geht oftmals auch über die CommunityPlattform hinaus. Diese Mitglieder nehmen sehr stark an der Situation und an den Problemen der anderen aktiven Mitglieder Anteil und versuchen soweit möglich auch gegenseitig für einander da zu sein. 3.2.3
Akzeptanz und Nutzen von krebsgemeinschaft.de
Anhand quantitativer Analysen lassen sich nur bedingt Erkenntnisse über die individuelle Nutzung und vor allem auch die Nutzbarkeit (Usability) der Plattform krebsgemeinschaft.de ziehen. Noch schwieriger ist es, Erkenntnisse über den aus der Nutzung gezogenen Nutzen der Teilnehmer zu gewinnen. Unter Nutzung wird folgend die (auf Selbstauskunft beruhende) Häufigkeit der Nutzung der einzelnen Angebote innerhalb von krebsgemeinschaft.de verstanden. Hierzu wurde analog zur Konzeption der Plattform zwischen Informations- und Kommunikations- (Interaktions-) diensten unterschieden. Zu beiden Bereichen wurden sowohl geschlossene als auch offene Fragen gestellt. Unter Nutzen wird folgend der subjektive Eindruck der Teilnehmer verstanden, welche persönlichen Vorteile sie aus der Nutzung von krebsgemeinschaft.de ziehen. Hierzu wurden ebenfalls sowohl offene als auch geschlossene Fragen gestellt.
1076
J. M. Leimeister, H. Krcmar
Gesamtbeurteilung - insgesamt beurteilten die Teilnehmer der Umfrage den Aufbau von krebsgemeinschaft.de positiv (vgl. Abbildung 3). Dies überrascht nicht, da es sich bei den Teilnehmern überwiegend um Personen handelt, die das Angebot stark nutzen. Eine freiwillige wiederholte Nutzung kann für sich genommen schon als positive Beurteilung des Angebots gewertet werden. Gesamtbeurteilung (1=stimme voll und ganz zu; 5=stimme überhaupt nicht zu) 1
Die Seiten sind übersichtlich
Die Schrift ist immer gut lesbar.
2
3
4
1,77
1,58
Die Farben der Seiten sind angenehm. 1
Die Erklärungen (Hilfe) helfen mir, mich zurecht zu finden.
Es fiel mir von Anfang an leicht, die Seiten zu nutzen.
Es dauert nicht lange, gewünschte Inhalte zu finden. Es ist leicht ersichtlich, von wem welche Informationen stammen (z.B. Team der Krebsgemeinschaft, andere Die Seiten werden schnell angezeigt.
1,89
1,77
2,04
1,96
2,83
Abbildung 3: Gesamtbeurteilung von krebsgemeinschaft.de (n=27)
Im Schnitt konnten die Nutzerzustimmen, dass die Seiten übersichtlich und gut lesbar sind, dass die Bedienung leicht sei und gewünschte Inhalte schnell zu finden seien. Besonders positiv wurde die farbliche Gestaltung beurteilt. Auch die Quelle der Informationen und Beiträge scheint den Teilnehmern klar erkenntlich. Als schlechter beurteilt wurden die Ladegeschwindigkeit der Seiten sowie die technische Performanz der Plattform insgesamt. Zusammenhang zwischen der Nutzung unterschiedlicher Angebote von krebsgemeinschaft.de und der Mitgliedschaftsdauer –die Analyse ergibt, dass es einen erkennbaren Zusammenhang zwischen der Mitgliedschaftsdauer und der Nutzung des Informationsangebotes gibt. 55,5 % derjenigen, die weniger als 6 Monate Mitglied sind, nutzen das Informationsangebot jedes Mal/meistens. Demgegenüber nutzen nur 40 % der Mitglieder, die länger als 6 Monate bei krebsgemeinschaft.de sind, das Angebot jedes Mal / meistens. Dies legt die Schlussfolgerung nahe, dass die Bedeutung des Informationsangebotes mit andauernder Mitgliedschaft abnimmt. Ein noch deutlicherer Zusammenhang besteht zwischen der Mitgliedschaftsdauer und dem Interaktionsangebot. Die Nutzung des Interaktionsangebotes nimmt mit
Virtuelle Community für Krebspatienten
1077
andauernder Mitgliedschaftsdauer zu. 38,5 % derjenigen, die länger als 6 Monate bei krebsgemeinschaft.de sind, nutzen das Interaktionsangebot jedes Mal/meistens, wohingegen keiner der Nutzer, die weniger als 6 Monate Mitglied sind, dies angab. Diese Ergebnisse sind Indizien für einen individuellen Mitgliederzyklus, der sich in unterschiedlichen Nutzungsphasen des Systems manifestiert. Es ist bei einem neu mit der Krankheit konfrontierten neuen Nutzer von krebsgemeinschaft.de davon auszugehen, dass am Anfang ein sehr hoher Bedarf nach „harten Fakten“ zu der Krankheit besteht. Im Laufe der Zeit eignet sich der Betroffene oftmals weit reichendes Wissen selbst an und greift daher nur noch seltener auf das Informationsangebot zurück. Entgegengesetzt verhält es sich mit dem Interaktionsverhalten. Dieses steigt oftmals eher mit längerer Zugehörigkeit zu einer Gemeinschaft, da sich engere soziale Beziehungen ausbilden, welche wiederum zu intensiverer Interaktion führen. Nutzen - die Analyse einer direkten Abfrage des empfundenen Nutzens von krebsgemeinschaft.de durch die Mitglieder zeigt – ähnlich der Ergebnisse der Analyse der Beiträge im Diskussionsforum – zwei Hauptgründe für die Nutzung von krebsgemeinschaft.de: Zum einen liefert das Angebot Betroffenen und Angehörigen fachliche Informationen zum Thema Krebs, zum anderen - und dies scheint der wichtigere Grund von beiden zu sein - kann Kontakt zu anderen Personen, die in einer ähnlichen Situation sind, aufgebaut werden und es können sich soziale Beziehungen und Empathie entfalten. Weiterhin können sich die Mitglieder emotional in eine Gemeinschaft integrieren und sich gegenseitig Halt und emotionale Unterstützung geben. Dies geht sogar soweit, dass in Beiträgen genannt wird, dass sich Mitglieder von krebsgemeinschaft.de schon vermehrt “real“ getroffen haben. Folgende Antworten auf die Frage „Bitte beschreiben Sie kurz, wie sich die Mitgliedschaft bei krebsgemeinschaft.de auf ihre Situation auswirkt/ausgewirkt hat.“, verdeutlichen die Bedeutung des Angebots für die Mitglieder: „Der Austausch mit Betroffenen ist sehr wohltuend. Gerade nach der Krankheit gehen alle davon aus (Familie, Beruf), dass das Leben wieder so ist wie vorher. Dem ist nicht so !!! Natürlich will man nicht ständig über das (schlechte) Befinden sprechen und irgendwie will das ja auf Dauer auch niemand hören. Deshalb ist der Austausch mit Betroffenen wichtig, es wird Mut gemacht und es hilft zu wissen, dass man in dieser Situation nicht alleine auf der Welt ist. Es ist auch sehr beeindruckend zu lesen, wie manche Frauen mit ihrem Schicksal umgehen. Das weckt den Kämpfergeist und hilft, den Heilungsprozess oder auch Rückschläge besser zu verarbeiten.“ Bei der Konzeption und beim Aufbau von krebsgemeinschaft.de wurden vertrauensfördernde Komponenten konzipiert und in die VC integriert. Der Prozess der Vertrauensbildung sollte durch diese Komponenten unterstützt werden, um so zum erfolgreichen Aufbau und Betrieb der Gemeinschaft beizutragen. Die vorliegen-
1078
J. M. Leimeister, H. Krcmar
den Ergebnisse einer Online-Umfrage, die zum Ziel hatte, das Vertrauen in die VC krebsgemeinschaft.de zu messen, scheint den Erfolg dieser vertrauensbildenden Komponenten zu bestätigen. Sowohl das Vertrauen in die Betreiber von krebsgemeinschaft.de, hier vor allem in deren fachliche Kompetenz, als auch das Vertrauen in die anderen Mitglieder der VC, hier vor allem in das wahrgenommene Wohlwollen, scheinen hoch zu sein. Auch die Handlungsweisen der befragten Mitglieder entsprechen diesem Ergebnis: Sie sind sowohl bereit, Informationen, die innerhalb der Community zur Verfügung stehen, zu nutzen, als auch selbst persönliches Erfahrungen und eigenes Wissen zur Verfügung zu stellen. Damit zeigen sie, dass sie sowohl darauf vertrauen, dass persönliche Informationen nicht missbraucht werden, als auch darauf, dass bereits in der Gemeinschaft vorhandenen Informationen und Daten als richtig erachtet werden. Darüber hinaus konnte nachgewiesen werden, dass die Befragten zum Großteil sogar entsprechend dieser Informationen handeln (für weitergehende Informationen zur Entwicklung und Evaluation vertrauensunterstützender Komponenten s. [Leim04]).
4
Fazit
Die Evaluation von krebsgemeinschaft.de hat viele unterschiedliche Erkenntnisse zu Tage gefördert. Es handelt sich im betrachteten Fall von krebsgemeinschaft.de um ein erfolgreiches Angebot. Die Mitgliederzahlen steigen kontinuierlich, es gibt eine konstante aktive Kerngemeinschaft sowie eine „erweiterte“ Gemeinschaft mit passiven Mitgliedern (Lurkern). Innerhalb der aktiven Nutzerschaft funktioniert das Prinzip der Wechselseitigkeit der Mitglieder bzw. des aktiven Austauschs von Informationen, Empathie und Unterstützung sehr rege. Die Interaktion ist oftmals von großer Empathie geprägt und es herrscht relativ hohes Vertrauen in die Betreiber der VC ebenso wie in die anderen Mitglieder. Die Konzeption vertrauensunterstützender Komponenten hat hiernach zum gewünschten Erfolg geführt. Die Anzahl an Verstößen gegen die Regeln der Gemeinschaft oder Vorfällen, die als grob oder unhöflich einzustufen sind, ist ausgesprochen gering. Die aktiven Mitglieder zeigen sich darüber hinaus sehr zufrieden mit der sozialen Interaktion in der VC und die Tatsache, dass fast alle Mitglieder der „ersten Stunde“ immer noch aktiv in der Gemeinschaft sind, spricht für eine relativ hohe Treue und Bindung an krebsgemeinschaft.de. Bezogen auf die Bedarfsgerechtigkeit der Community-Plattform zeigen sich die Mitglieder größtenteils zufrieden, wenngleich einzelne Funktionalitäten unterschiedlich stark wertgeschätzt werden. Außerdem zeigt sich, dass das Design (bspw. bei Oberflächenentwicklung und Funktionalitäten) weitgehend als nutzergerecht und gut eingeschätzt wird. Jedoch zeigen die Nutzerbefragungen auch, dass manche Eigenschaften der VC vielen Nutzern nicht oder nicht hinreichend genau bekannt sind und daher nicht verwandt werden (bspw. das Anonymitätskonzept und die Kontaktsuche). Außerdem zeigt sich auch, dass technische Zuver-
Virtuelle Community für Krebspatienten
1079
lässigkeit der Plattform den Nutzern wichtiger ist als ausgefeilte Dienste bzw. Funktionalitäten. Außerdem wird deutlich, dass Technik nicht der limitierende Faktor ist, sondern dass oftmals die organisatorische Umsetzung bspw. eines Dienstes viel ausschlaggebender für den Erfolg ist. Deutlich wird das an der sehr unterschiedlichen Nutzung des Dienstes „Fragen an Experten“, bei dem durch schnelle Antwortzeiten der Experten und qualitativ hochwertige, vor allem aber auch laienverständliche Antworten der Nutzen und damit auch die Nutzung des Dienstes massiv gesteigert werden kann. Ebenso zeigt die Evaluation die zentrale Rolle qualitativ hochwertigen Inhalts vor allem als Initialangebot an potentielle Nutzer. Ein weiterer kritischer Erfolgsfaktor beim Aufbau der VC ist die Rolle des Community-Managements, das bei noch nicht Erreichen der kritischen Masse an Nutzern für Aktivität und Attraktivität der entstehenden VC sorgen muss. Die Evaluation zeigt weiterhin, dass es eine Verschiebung der Informations- und Interaktionsbedarfe der Nutzer in Abhängigkeit ihrer Zugehörigkeitsdauer bei der VC gibt. So erscheinen der Wunsch nach Interaktion und vor allem auch die Wertschätzung derselben bei aktiven Mitgliedern über die Zeit hinweg zu steigen. Konsequenzen für die Forschung - Zunächst sind die im Rahmen dieser explorativen Untersuchung gewonnenen Ergebnisse mit VCs aus anderen Lebensbereichen/anderen Arten von VCs zu vergleichen und die Belastbarkeit der Ergebnisse zu erhöhen. Es kann auf Basis dieser Arbeit ein quantitativ überprüfbares Modell erstellt werden und die Theorieentwicklung zu Virtuellen Gemeinschaften vorangetrieben werden. Weiterhin ergeben sich Chancen und Herausforderungen für VCs durch neue technische Möglichkeiten. So sind ubiquitäre Zugänge zu VCs durch mobile Endgeräte ebenso denkbar wie neue (mobile bzw. kontextsensitive) Dienste für VCs (bspw. ein mobiler Notrufdienst für Krebspatienten mit sofortiger Lokalisierung oder ein mobiler Medikamentenreminder-Dienst, deren Rolle und Nutzen für VCs für Patienten noch nicht abgeschätzt werden können). Des Weiteren besteht Forschungsbedarf zu Rolle und Aufgaben des CommunityManagements. Es fehlen weitgehend gehaltvolle Arbeiten zu sinnvollen Unterstützungstools (insbesondere bei einer Vielzahl betriebener VCs) für das effiziente und effektive Management. Auch ist die Analyse der sozialen Interaktionen in VCs und die Auswirkungen auf bspw. das soziale Netzwerk von Teilnehmern einer VC weitgehend unerforscht. Ebenso vielversprechend erscheint die Untersuchung des genauen Nutzens insbesondere gesundheitsbezogener VCs, bspw. in Form der Messung des Einflusses auf die empfundene Lebensqualität und damit mittelbar auf Kriterien wie Lebenserwartung und Behandlungskosten. Zusammengefasst ist das Ergebnis dieser Evaluation ein empirischer Nachweis, dass die bei krebsgemeinschaft.de gewählten Ansätze zur bedarfsgerechten Entwicklung, Einführung und Betrieb einer Virtuellen Gemeinschaft für Krebs-
1080
J. M. Leimeister, H. Krcmar
patienten im deutschen Gesundheitswesen erfolgreich waren. Sie vermittelt ein reiches Verständnis von interdependenten Einflussgrößen auf Virtuelle Gemeinschaften im Allgemeinen und liefert einen inhaltlichen Beitrag zum Verständnis des Community-Buildings für Patienten.
Literatur [Arms01] Armstrong, L.: It's Not About the Bike: My Journey Back to Life. Yellow Jersey Press, London 2001. [BiDe96] Bilodeau, B. A.; Degner, L. F.: Information needs, sources of information, and decisional roles in women with breast cancer. In: Oncology Nursing Forum, Vol. 23 (1996), Nr. 4, S. 691-696. [Brun+00] Brunold, J.; Merz, H.; Wagner, J.: www.cyber-communities.de - Virtual Communities: Strategie, Umsetzung, Erfolgsfaktoren. mi, Verlag Moderne Industrie, Landsberg/Lech 2000. [Coth00] Cothrel, J.: Measuring the success of an online community. In: Strategy & Leadership, Vol. 28 (2000), Nr. 28.02.2000, S. S. 17-21. [Daum+01] Daum, M.; Klein, A.; Leimeister, J. M.; Krcmar, H.: Webbasierte Informationsund Interaktionsangebote für Onkologiepatienten - Ein Überblick. Arbeitspapier Nr. 109. Universität Hohenheim, Lehrstuhl für Wirtschaftsinformatik, Hohenheim 2001. [Deut03] Deutsche Krebshilfe: Krebs: Zahlen, Daten, Fakten. http://www.krebshilfe.de/ neu/medieninfos/zahlen_daten_fakten.htm, zugegriffen am 29.10.2003 [Dier+03] Dierks, C.; Nitz, G.; Grau, U.: Gesundheitstelematik und Recht. Frankfurter Schriften, MedizinRecht.de-Verlag, Frankfurt a. M. 2003. [Döri03] Döring, N.: Sozialpsychologie des Internet : die Bedeutung des Internet für Kommunikationsprozesse, Identitäten, soziale Beziehungen und Gruppen. 2. Auflage, Internet und Psychologie, Hogrefe, Göttingen 2003. [Ebne+03] Ebner, W.; Leimeister, J. M.; Krcmar, H.: Vertrauen in virtuellen Communities: Konzeption und Umsetzung vertrauensunterstützender Komponenten in der Domäne Healthcare. In: Proceedings of the 6. Internationale Tagung Wirtschaftsinformatik 2003: Medien - Märkte - Mobilität, S. 619-638, Dresden. [Fogg+02] Fogg, B. J.; Soohoo, C.; Danielson, D.; Marable, L.; Stanford, J.; Tauber, E. R.: How Do People Evaluate a Web Site's Credibility? Results from a Large Study. In: http://www.consumerwebwatch.org/news/report3_credibilityresearch/stanfordPTL.pdf, zugegriffen am 10.11.2003, Stanford University, Consumer WebWatch, Sliced Bread Design, LLC. [Forb01] Forbiger, A.: Leben ist, wenn man trotzdem lacht. Heyne, München 2001. [Hill01] Hiller, B.: Unkonventionelle Verfahren in der Onkologie: der Informationsbedarf der Anrufer beim Krebsinformationsdienst im Deutschen Krebsforschungszentrum zu
Virtuelle Community für Krebspatienten
1081
Methoden mit bisher unbewiesener Wirksamkeit, Dissertation, Universität Heidelberg 2001. [Hind+95] Hinds, C.; Streater, A.; Mood, D.: Functions and preferred methods of receiving information related to radiotherapy: perceptions of patients with cancer. In: Cancer Nursing, (1995), Nr. 18, S. 374-384. [Kami+01] Kaminski, E.; Thomas, R. J.; Charnley, S.; Mackay, J.: Measuring patients response to received information. In: European Journal of Cancer, Vol. 37 (2001), Nr. Supplement 6, S. 387. [LeSc01] Lechner, U.; Schmid, B. F.: Communities - Business Models and System Architectures: The Blueprint of MP3.com, Napster and Gnutella Revisited. In: Proceedings of the Hawaiian International Conference on System Sciences (HICSS), Hawaii. [Leim04] Leimeister, J. M.: Pilotierung virtueller Communities im Gesundheitsbereich Bedarfsgerechte Entwicklung, Einführung und Betrieb. Dissertation, Universität Hohenheim 2004. [LeRu92] Levenson, R. W.; Ruef, A. W.: Empathy: A psychological substrate. In: Journal of Personality and Social Psychology, Vol. 63 (1992), Nr. 2, S. 234-246. [Lieb+03] Lieberman, M.et al: Electronic support groups for breast carcinoma: a clinical trial of effectiveness. In: Cancer, Vol. 4 (2003), Nr. 97, S. 920-925. [Mada97] Madara, E. J.: The mutual-aid self-help online revolution. In: Social Policy, Vol. 27 (1997), Nr. 3, S. 20-27. [Mana+02] Manaszewicz, R.; Williamson, K.; McKemmish, S.: Breast Cancer Knowledge Online: Towards Meeting the Diverse Information Needs of the Breast Cancer Community. In: Proceedings of the Electronic Networking - Building Community. [Mayh92] Mayhew, D. J.: Principles and guidelines in software user interface design. Prentice Hall, Englewood Cliffs 1992. [McTh95] McCaughan, E. M.; Thompson, K. A.: Issues in patient care: information needs of cancer patients receiving chemotherapy at a day-case unit in Northern Ireland. In: Cancer Nursing, Vol. 18 (1995), Nr. 5, S. 374-384. [McPh+01] McPherson, C. J.; Higginson, I. J.; Hearn, J.: Effective methods of giving information in cancer: a systematic literature review of randomized controlled trials. In: Journal of Public Health Medicine, Vol. 23 (2001), S. 227-234. [MiSu99] Mills, M. E.; Sullivan, K.: The importance of information giving for patients newly diagnosed with cancer: a review of the literature. In: Journal of Clinical Nursing, Vol. 8 (1999), Nr. 6, S. 631-642. [Moel96] Moeller, M. L.: Selbsthilfegruppen: Anleitungen und Hintergründe. RororoSachbuch : Psychologie aktiv, Rowohlt, Reinbek bei Hamburg 1996. [Niel02] Nielsen, J.: Coordinating user interfaces for consistency (Nachdruck von 1989. Auflage). San Francisco 2002. [NoPr00] Nonnecke, B.; Preece, J.: Lurker Demographics: Counting the Silent. In: Proceedings of the ACM CHI 2000, S. 73-80, The Hague, NL.
1082
J. M. Leimeister, H. Krcmar
[PeRo97] Peppers, D.; Rogers, M.: Enterprises One to One: Tools for Competing the Interactive Age. New York 1997. [Pree99] Preece, J.: Emphatic communities: balancing emotional and factual communication. In: Interacting with Computers, Vol. 12 (1999), S. 63-77. [Pree00] Preece, J.: Online Communities - Designing Usability, Supporting Sociability. John Wiley and Sons, Chichester, New York, 2000. [PrMa03] Preece, J.; Maloney-Krichmar, D.: Online Communities: Focussing on Sociability and Usability. In: Handbook of Human-Computer Interaction. Hrsg.: Jacko, J.; Sears, A., Lawrence Earlbaum Associates Inc., Mahwah (NJ) 2003. [RaLa93] Rafaeli, S.; LaRose, R. J.: Electronic Bulletin Boards and "Public Goods" - Explanations of Collaborative Mass Media. In: Communication Research, Vol. 20 (1993), Nr. 2, S. 277-290. [Rupr98] Ruprecht, T. M.: Experten fragen - Patienten antworten : Patientenzentrierte Qualitätsbewertung von Gesundheitsdienstleistungen: Konzepte, Methoden, praktische Beispiele. Asgard-Verlag, Sankt Augustin 1998. [Schu99] Schubert, P.: Virtuelle Transaktionsgemeinschaften im Electronic Commerce: Management, Marketing und Soziale Umwelt. Electronic Commerce, Josef Eul Verlag, Lohmar, Köln 1999. [SEKI00] SEKIS: Nutzeranliegen an Patienteninformation - Auswertung des Expertendialogs und der Fragebogenerhebung zum Informationsbedarf aus Patientensicht. SEKIS Selbsthilfe Kontakt- und Informationsstelle, Berlin 2000. [SeUd93] Semmer, N.; Udris, I.: Bedeutung und Wirkung von Arbeit. In: Lehrbuch Organisationspsychologie. Hrsg.: Schuler, H., Hans Huber Verlag, Bern 1993. [Spol01] Spolsky, J.: User interface design for programmers. Apress, Berkeley 2001. [WaKr99] Ward, S.; Kroll, P.: Building Web Solutions with the Rational Unified Process: Unifying the Creative Design Process and the Software Engineering Process. In: http://www.rational.com/media/whitepapers/76.pdf, zugegriffen am 10.11.2003 [WEBf03a] WEBforALL: Die Bedeutung des Internets für Behinderte. In: http://www.webforall.info/html/deutsch/bedeutung_des_internet.php, zugegriffen am 10.11.2003, VbI e.V. - Vereins zur beruflichen Integration und Qualifizierung e.V. [WEBf03b] WEBforALL: Empfehlungen für ein barrierefreies Webdesign. http://webforall.info/html/deutsch/empfehlungen.php, zugegriffen am 10.11.2003, VbI e.V. - Vereins zur beruflichen Integration und Qualifizierung e.V. [WiLi01] Wirtz, B. W.; Lihotzky, N.: Internetökonomie, Kundenbindung und Portalstrategien. In: Die Betriebswirtschaft, Vol. 61 (2001), Nr. 3, S. 285-305.
Tourismus-Communities als Informationssysteme Marco Prestipino, Gerhard Schwabe Universität Zürich
Zusammenfassung: Der Artikel beschreibt Virtual Communities als Informationssysteme im Tourismus und präsentiert empirische Messungen im Vergleich mit Reiseführern. Es wird am Beispiel einer Tourismus-Community gezeigt, dass sie als Informationssystem leistungsfähiger ist als ein Reiseführer. Dies lässt auf einen kommenden Umbruch in der Tourismusinformation schliessen, sobald der Zugriff auf Communityinformationen so einfach wie der Zugriff zu einem Reiseführer ist. Tourismus-Communities sind aber bisher schlecht auf diesen Umbruch vorbereitet. Es werden deshalb anhand von Feld-Prototypen Ansätze vorgestellt, die die Informationsverarbeitungsleistung von Communities verbessern und sie auf die mobile Nutzung vorbereiten. Schlüsselworte: Virtual Communities, Mobile Communities, Tourist Information Systems, Knowledge Management, Wikis
1
Einleitung: Eine IS-Perspektive auf TourismusCommunities
Virtual Communities sind in den letzten Jahren vermehrt in den Fokus der Forschung geraten. Rheingold [Rhei93] prägte den Begriff und beschrieb virtuelle Gemeinschaften idealisierend als Gegenwelten. Die Betrachtung der sozialen Beziehungen in virtuellen Gemeinschaften aus soziologischer und psychologischer Perspektive ist bis heute ein dominierendes Feld der Community-Forschung. In der Betriebswirtschaftslehre wurden Virtual Communities – häufig ebenfalls stark idealisiert – als Instrumente der Kundenbindung in der New Economy (vgl. [HaAr97]) und als Instrument des Wissensmanagements [Weng+02] populär. Im vorliegenden Artikel schlagen wir die Betrachtung von Communities als Informationssysteme vor. Damit zielen wir auf das Potential von Virtual Communities ab, neben der Herstellung sozialer Bindung Informationsbedürfnisse befriedigen zu können. Wir werden zeigen, dass dies leistungsfähig und mit einer Reihe von Vorteilen gegenüber Informationssystemem wie Büchern geschieht. Da somit eine Community auch als Informationssystem recht leistungsfähig sein kann, lohnt es sich zu überlegen, wie sie verbessert werden können. Hierzu stellen wir in diesem
1084
M. Prestipino, G. Schwabe
Aufsatz zwei Ansätze vor, welche die Recherchefähigkeit und die Nutzbarkeit von Communities weiter verbessern sollen. Wir betrachten Communities im Tourismus, da diese Anwendungsdomäne einige interessante Merkmale aufweist: der Informationsbedarf kann hoch und komplex sein; der Markt ist intransparent, es werden überwiegend Wissens- und Vertrauensgüter gehandelt; die Nutzer können von mobilen Technologien profitieren; Reisen ist mit Emotion verbunden, die Motivation zum Austausch von Erfahrungen ist daher hoch. Reisen, insbesondere Individualreisen, ist mit vielerlei Informationsbedarf verbunden. Reiseziel und -route müssen geplant werden, komplexe Wechselbeziehungen und persönliche Preferenzen berücksichtigt werden. Während der Reise entsteht spontan weiterer Informationsbedarf, insbesondere bei Individualtourismus. Das liegt an der Dynamik und Unvorhersehbarkeit vieler Faktoren wie Wetter, Preise, Transport, politische Verhältnisse und Koordination mit Personen oder Ereignissen. Ein Reisender könnte z.B. aufgrund von Wetterbedingungen oder enttäuschter Erwartungen seine Reise umplanen und dafür neue Information benötigen. Das Spektrum des Informationsbedarfs reicht von sehr allgemein, z.B. Landeskunde, Klima, Saison bis zu hochspezifisch und individuell. Ein Beispiel: „Ich möchte drei Wochen Europa bereisen und habe dazu 2000 € zur Verfügung, möchte Freunde in Rom besuchen und mittelalterliche Kirchen sehen. Welche Route soll ich wählen?“. Dieses Problem könnte mit beliebig vielen Vorschlägen gelöst werden. Offensichtlich wurden jedoch nicht alle Faktoren und Präferenzen formuliert. Alter, Gesundheit, Bildung, Risikobereitschaft, Vorwissen und Vorstellungen vom Reiseziel u. a. beinflussen die Reisegestaltung. Der Informationsbedarf muss daher häufig in einem Kommunikationsprozess herausgearbeitet werden. Der Artikel ist wie folgt aufgebaut: Auf diese Einleitung folgt in einem Grundlagenkapitel eine Einführung in Tourismus-Informationsprodukte (2.1) und Tourismus-Informationsdienstleistungen (2.2) sowie eine kurze Diskussion des Forschungsdesigns. Kapitel 3 etabliert mit Hilfe von drei Untersuchungen die Leistungsfähigkeit einer Tourismus-Community. Im Kontext dieser Untersuchungen wurde deutlich, dass die Leistungsfähigkeit der Community unter einem veralteten Softwaredesign leidet. Deshalb werden in Kapitel 4 Vorschläge zur Verbesserung des Softwaredesigns gemacht: Die Einführung eines Wikis als persistenten Informationsspeicher, ortsbezogene Informationen und die Unterstützung mobiler Nutzer. Während das Wiki und die ortsbezogene Information schon eingeführt sind, kann für die Unterstützung mobiler Nutzer nur ein Prototyp vorgestellt werden. Das Wiki wird ausführlich, die ortsbezogene Information und die Unterstützung mobiler Nutzer nur als Ausblick dargestellt.
Tourismus-Communities als Informationssysteme
2
1085
Grundlagen
2.1
Tourismus-Informationsprodukte
Wir unterscheiden zwischen Informationsprodukten und Informationsdienstleistungen. Informationsprodukte werden ohne direkte Mitwirkung des Kunden erzeugt und von diesem autonom konsumiert, Informationsdienstleistungen erfordern die aktive Mitwirkung des Reisenden. Reiseführer in Buchform sind ein klassisches Beispiel für Tourismus-Informationsprodukte: Reiseführer werden von einem oder mehreren Autoren geschrieben, die persönlich grosse Teile des Inhalts recherchieren und versuchen, den Informationsbedarf des Lesers vorwegzunehmen. Oft können Reisende dem Verlag oder den Autoren Berichtigungen/Erfahrungen zukommen lassen, die in zukünftigen Auflagen berücksichtigt werden. Informationsprodukte weisen einige Schwächen auf. Ein Nutzer kann von der verfügbaren Information nur das abrufen, was er als seinen Bedarf erkannt hat und auch adäquat formulieren kann (vgl. Abbildung 1). Der tatsächliche Informationsbedarf kann erheblich vom wahrgenommenen Bedürfnis abweichen, unter- oder überschätzt werden. Der Nutzer kann seinen Informationsbedarf möglicherweise nicht ausdrücken, da er nicht weiss, wie die Antwort aussehen wird und welche Begriffe relevant sind. Belkin [Belk82] bezeichnete dieses Problem als „anomalous state of knowledge“. Informationssysteme können als computergestützte virtuelle Informationsprodukte betrachtet werden, wenn sie vom Nutzer autonom bedient werden und Anfragen ohne menschliche Arbeitsleistung beantworten. Beispiele sind elektronische Reiseführer, datenbankengestützte Hotel- und Flugreservationsysteme und WWWSeiten. Im Gegensatz zu Büchern können Informationssysteme nahezu beliebige Datenmengen speichern und damit theoretisch für komplexe Fragen Information bereithalten. Es ist aber für eine kleine Gruppe von Produzenten unmöglich, derart umfassende Information zu recherchieren und zu pflegen. Ein solches System müsste dem Nutzer erlauben, komplexe multidimensionale Anfragen auch entsprechend zu formulieren. Bislang unterstützt keine Benutzerschnittstelle die Ausdrucksmächtigkeit menschlicher Sprache. Ohne diese eingrenzenden Feinheiten kann es schnell zur kognitiven Überlastung kommen, da der Nutzer eine zu grosse Abbildung 1: Vorhandene Information, erkannter und geäusserter Informationsbedarf
1086
M. Prestipino, G. Schwabe
Informationsmenge erhält und daraus erst das für ihn Relevante extrahieren muss. Wie das Eingangsbeispiel zeigte, ist zur genauen Klärung häufig auch Kommunikation nötig, da der Informationsbedarf nicht klar ausgedrückt wurde. Ein weiteres Problem betrifft Abrechnungsmodelle für ein solches Informationssystem, da der Käufer kaum bereit sein wird für Information zu zahlen, die zum grossen Teil seinen Informationsbedarf übersteigt. Ein Informationssystem hat als “black box” auch ein Vertrauensproblem, denn der Nutzer kennt weder Herkunft und Qualität der Information noch den Mechanismus zur Auswahl der Information (vgl. [Kuhl99]).
2.2
Tourismus-Informationsdienstleistungen
Persönliche Netze, Communities und professionelle Informationsvermittler beteiligen den Kunden an der Leistungserstellung. In einem kommunikativen Prozess liefern sie auf individuelle Bedürfnisse zugeschnittene Information, gratis oder gegen Bezahlung. Man kann daher von einer Dienstleistung sprechen. Professionelle Informationsvermittler sind beispielsweise Reisebüros oder Fremdenverkehrsämter. Informationsvermittler können ihrerseits Informationsprodukte oder Dienstleistungen nutzen. Sie kondensieren und individualisieren erhaltene Information danach aber auf den spezifischen Bedarf und Kontext des Kunden. Das Internet hat zu einer drastischen Senkung von Transaktionskosten geführt und ermöglicht Erbringung und Abruf von Informationsdienstleistungen unabhängig von Zeit und Ort sowie Märkte für Mikro-Informationsdienstleistungen: So können beim „Google answers service“1 Fragen gestellt werden, für die man nur geringe Summen zu zahlen bereit ist. Ausserdem suchen die Experten auf diesem Markt die Fragen aus, die sie beantworten wollen, es entsteht also nicht das Problem, dass Experten durch direkte Kommunikation mit Anfragen überschüttet werden. Andere Organisationsformen, die der Open-Source-Szene zuzuordnen sind, heben die Trennung zwischen Experten und Nachfragern komplett auf und produzieren kostenlose, frei verfügbare Information. Prominentes Beispiel ist die Wikipedia, aber das Prinzip lag schon dem wesentlich älteren USENET zugrunde (vgl. [Pfaf03]). Persönliche Netze spielen bei Reiseplanung eine grosse Rolle [Frey01]. Sie sind jedoch begrenzt in ihrer Reichweite und Kommunikationsgeschwindigkeit. Virtuelle Gemeinschaften als computergestützte Entsprechung privater Netze haben diese Beschränkungen nicht. Eine Community erschliesst Wissen aus ihrem Gedächtnis, d.h. der in der Vergangenheit zusammengetragenen Information und aus allen anderen erwähnten Quellen. Dabei ist die „Schnittstelle“ natürlichsprachlich, und der Informationsbedarf kann in einer Diskussion iterativ ermittelt und verfeinert werden. In einer Virtual Community wird Kommunikation zu gemeinsamem, sichtbarem Material. Information kann bestätigt, kritisiert oder 1
http://answers.google.com/answers/
Tourismus-Communities als Informationssysteme
1087
ergänzt werden, es gibt eine Art „Peer reviewing“. Die Äusserungen einer Person in der Vergangenheit, seine Reputation und Feinheiten der Sprache helfen dabei, erhaltene Information zu bewerten. So wird die Aussage eines als wagemutig bekannten Schreibers zu Schwierigkeiten einer Tour anders zu bewerten sein als die eines als umsichtig bekannten Mitglieds. Daher sprechen einige Argumente dafür, dass virtuelle Tourismus-Communities leistungsfähige Informationssysteme sind (vgl. Abbildung 2).
Abbildung 2: Eine funktionierende virtuelle Gemeinschaft erschliesst Wissen besser als ein Informationssystem
Bei einer aktiven Community mit vielen Teilnehmern und Besuchern kann von einer erweiterten verfügbaren Informationsmenge ausgegangen werden. Durch Diskussionen kann der tatsächliche Informationsbedarf herausgearbeitet werden, den der Frager vielleicht falsch formuliert hatte. Zusätzlicher Informationsbedarf, den der Frager nicht bedacht hatte, kann von Mitgliedern eingebracht werden Dieser Artikel wird nun der Frage nachgehen, ob neben plausiblen Argumenten auch empirische Belege für die Leistungsfähigkeit von Tourismus-Communities zu finden sind. Sowohl in der Communityforschung als auch in der Tourismusforschung ist zur Leistungsfähigkeit von Tourismus-Communities als Informationssysteme bisher nichts zu finden. Die Tourismusforschung betrachtet bisher das Internet und Virtual Communities weitgehend als zusätzlichen Verkaufskanal bzw. überhaupt nicht (vgl. z.B. [Buha98], [Wang+02], [RoDo02]).
2.3
Zum Forschungsansatz und Untersuchungsdesign
Die hier vorgestellte Forschung zu Tourismus-Communities als Informationssysteme folgt dem Grundgedanken der Pilotierungsforschung [ScKr00], [Witt97], [Szyp71]: Es ist nicht nur Aufgabe der Wirtschaftsinformatik, soziotechnische Innovationen der Industrie und anderer Akteure zu beschreiben und zu erklären,
1088
M. Prestipino, G. Schwabe
sondern auch, sie aktiv voran zu treiben. Der Forscher ist dabei gut beraten, von einem empirisch fundierten Verständnis der Domäne auszugehen und seine Prototypen und Konzepte auch in einem realen Umfeld zu evaluieren. Dabei muss bei der Pilotierungsforschung in Kauf genommen werden, dass die betrachtete Grundgesamtheit klein ist (häufig nur eine Organisation) und dass die Aussagekraft der Untersuchungen gering ist, weil viele Variablen nicht unter der Kontrolle der Untersuchenden stehen und viele Tests nicht wiederholbar sind. Bei der hier präsentierten Forschung zu Tourismus-Communities standen am Beginn drei Untersuchungen zur Leistungsfähigkeit einer gegebenen TourismusCommunity. Dadurch sollte festgestellt werden, ob es sich aus IS-Sicht lohnt, Tourismus-Communities zu betrachten und Ansatzpunkte für Verbesserungen zu identifizieren. Diese Ansatzpunkte wurden dann als Ausgangspunkte für das Design und die Implementierung gewählt. Für zwei Innovationen liegen auch schon erste Evaluationsergebnisse vor. Da das Untersuchungsdesign jedes einzelnen Schrittes am besten aus dem Gang der Untersuchung verständlich ist, werden wir bei jedem Schritt in das Untersuchungsdesign einführen. Der wissenschaftliche Wert dieses Beitrags liegt aber nicht nur in den Community-Analysen und in der technischen Innovation, sondern auch in der neuartigen Sichtweise auf Communities und Tourismus-Informationssysteme. Communities wurden bisher in der Hauptsache unter Gesichtspunkten der Soziologie und des betrieblichen Wissensmanagements analysiert (siehe Einleitung), neue TourismusInformationssysteme (vgl. z.B. CRUMPET2 und [Fese+03]) gehen in der Regel von professionell und redaktionell gestalteten Inhalten und nichtkooperativen Systemen aus. Der Artikel soll deshalb weiterhin etablieren, dass eine Informationssystem-Perspektive auf Communities sinnvoll ist und wie Forschung mit dieser Perspektive aufgebaut werden kann.
3
Leistungsfähigkeit von Tourismus-Communities
Unsere Sicht auf Communities als Informationssysteme impliziert, dass die Leistungsfähigkeit hinsichtlich der Befriedigung von Informationsbedürfnissen beschrieben, gemessen und mit anderen Systemen verglichen werden kann. Um die These zu verifizieren, dass eine Community ein leistungsfähiges Informationssystem ist, präsentieren wir mehrere empirische Untersuchungen einer konkreten Tourismus Community. Die erste Untersuchung behandelt die Innensicht dieser Community: Wie effizient beantwortet die Community Fragen ihrer Mitglieder? Diese Untersuchung gibt Aufschluss über die Leistungsfähigkeit der Community aus Sicht ihrer Nutzer, gibt aber noch keinen Aufschluss darüber, ob diese Infor-
2
http://www.ist-crumpet.org/
Tourismus-Communities als Informationssysteme
1089
mationen besser oder schlechter als die eines Informationsprodukts wie eines Buches ist. Diese Frage behandelt die zweite Untersuchung: War die Entscheidung der Communitymitglieder, sich an die Community zu wenden, aus Informationssicht eine gute Entscheidung? Hier vergleichen wir die Community mit einem Reiseführer und fragen: Hätte Information, die in der Community gesucht wurde, genauso gut oder besser auch in einem Reiseführer gefunden werden können? Wenn auf diese Frage eine Antwort gefunden ist, sagt das zwar etwas darüber aus, ob die Communitymitglieder eine gute Wahl für ihre Fragen getroffen haben, sie sagt aber noch nichts darüber aus, ob dies für alle Fragen gilt. Es könnte z.B. sein, dass es einen bestimmten Typ Fragen gibt, den eine Community besser beantwortet und einen anderen Typ Fragen, für den der Nutzer in einem Reiseführer bessere Antworten findet. Deshalb geht eine dritte Untersuchung von neutralen Fragen aus und prüft, wie gut sie in der Community und im Reiseführer beantwortet werden. Das Spannende und für uns Überraschende an diesen Untersuchungen ist die ausserordentliche Leistungsfähigkeit der Tourismus-Community: Sie findet in vielen Fällen eine brauchbare Antwort für ihre Mitglieder (Frage 1); der Reiseführer wäre als Informationsprodukt für diese Fragen weniger leistungsfähig gewesen (Frage 2) und sogar für neutrale Fragen ist die Community als Informationssystem leistungsfähiger als ein populärer Reiseführer (Frage 3). Als Objekt aller drei Untersuchungen diente eine deutschsprachige Community über Brasilien, das Brasil-Web3. Diese nichtkommerzielle virtuelle Gemeinschaft wurde 1998 gegründet. Sie ist vollständig web-basiert und bietet Forum, Veranstaltungskalender, Fotogalerien, Chaträume und Adressdatenbank. Es ist keine Anmeldung erforderlich, um im Forum Beiträge zu lesen, jedoch um in bestimmten Unterforen zu schreiben. Es gibt Moderatoren, die die Einhaltung der Regeln sicherstellen. Zwei Unterforen wurden für alle Untersuchungen ausgewählt, da sie sich am ehesten mit Reisefragen befassen: eines zu Insider-Tipps zu Städten und Regionen und eines zu Reisen nach Brasilien. Bei der Präsentation der Resultate werden die beiden Foren nicht einzeln, sondern gemeinsam betrachtet, da im Verlauf der Analyse keine relevanten Unterschiede erkennbar wurden. Untersuchungseinheit ist jeweils ein Diskussionsverlauf (engl. Thread). Jede untersuchte Einheit beinhaltet somit ein erstes Posting (Initial-Posting) und null bis x Postings mit Antworten (Reaktionen). Die Reaktionen auf Initial-Postings wurden nur ausgewertet, wenn das Initial-Posting eine oder mehrere Reisefragen formuliert hatte.
3.1
Untersuchung 1: Absolute Leistungsfähigkeit
Die erste Untersuchung betrachtet, wie leistungsfähig eine Community für ihre Mitglieder absolut ist. Die Leistungsfähigkeit als Informationssystem lässt sich daran messen, wie gut dort aufgeworfene Fragen innerhalb akzeptabler Zeit beantwortet werden. 3
http://www.brasil-web.de/phpBB2/index.php
1090
M. Prestipino, G. Schwabe
Zur Veranschaulichung folgt eine Reisefrage aus dem Forum4: „Bin neu hier im Forum und plane nun eine Brasilien-Reise (insgesamt 12 Übernachtungen: Rio + Buzios), stehe aber vor dem Problem, dass ich starke Bedenken wegen des Fluges mit TAP nach Rio habe (Dauer: ca. 14 h mit Zwischenlandung in Lissabon). Der Abflug ab Frankfurt/Main wäre bereits morgens um 7:00 Uhr, weswegen ich schon nachts um 2:00 Uhr mit der Bahn am Flughafen ankommen und dann warten müsste..... Wie macht ihr das?“
Beispielhaft drei gekürzte Antworten zu dieser Frage, die bereits das Potential erahnen lassen: „In Deinem Falle würde ich 1 Tag früher nach Lissabon fliegen, sich die Stadt anschauen und am nächten Tage weiterfliegen. Entspannend und lohnenswert“ „Die übernachtung in lissabon bezahlt normalerweise die tap.frag sicherheitshalber mal bei deinem reisebüro nach. Am angenehmsten ist sicher ein Hotel.Ganz angenehm das Sheraton direkt am Flughafen.Etwas günstiger DZ < 100€ das Steigenberger. Bietet TAP eigentlich Vorabend Check In?Dann bräuchtet ihr nur 30 min vor Abflug am Gate sein.“ „Zitat von der TAP-Website:Vorabend Check-in Für den ersten TAP Flug von Frankfurt nach Lissabon um 6:45 Uhr täglich ist nun bereits ein Check-in am Vorabend zwischen 16:35 Uhr und 18:15 Uhr möglich.Check-in Counter: TAP Air Portugal, Terminal 2, Schalter Nr. 866/867/868“
Eine Untersuchung von insgesamt 206 Diskussionsverläufen [Pres04], die in einem einem sechsmonatigen Zeitraum (27.09.2002 – 27.03.2003) eröffnet wurden, ergab, dass mehr als 80 Prozent der 105 als Reisefragen qualifizierten Beiträge beantwortet wurden, und das recht zeitnah. Es beteiligten sich durchschnittlich 3 Personen (exklusive Fragesteller) an den Diskussionen. Eine Rückfrage an den Fragenden zur Klärung des Informationsbedarfs erfolgte in 16 Fällen. Gelesen wurden die Diskussionen um ein vielfaches häufiger. Die Gesamtzahl der anonymen, unterscheidbaren Leser ist nicht bestimmbar. Um die empirische Basis auszuweiten, wurde eine weitere Evaluation der Leistungsfähigkeit durchgeführt, in deren Design Erfahrungen der ersten Untersuchung einflossen (vgl. [Sute04]). Es wurden wieder Fragen aus den beiden genannten Unterforen gesammelt, wobei als Zeitraum 1. Februar bis 30. April 2004 festgelegt wurde. Massgeblich für die Aufnahme in die Stichprobe war das InitialPosting eines Threads, das heisst der Zeitpunkt der Fragestellung. Antworten wurden bis einschliesslich 15. Mai 2004 erfasst. Im analysierten Zeitraum wurden insgesamt 55 Threads gestartet, wovon 24 als Reisefragen klassifiziert wurden und somit in die Evaluation einflossen. Es beteiligten sich durchschnittlich 4.2 Personen (exklusive Fragesteller) an den Diskussionen. Die Reaktionszeit, d.h. die Zeitspanne bis zur ersten Antwort lag bei 21% der Fragen bei höchstens 60 Minuten. In rund 80% der Fragen erfolgte eine Reaktion innerhalb von 24 Stunden (vgl. Abbildung 3). Auf zwei Fragen erfolgte keinerlei Antwort. Bei der Beantwor4
http://www.brasil-web.de/phpBB2/viewtopic.php?t=1405
Tourismus-Communities als Informationssysteme
1091
tungsrate liegt der Median bei zwei Antworten auf eine Frage, das arithmetische Mittel bei rund 6.7, das Maximum bei 38 Antworten. Grund für diese hohe Frequenz in einigen Topics sind Diskussionen zwischen den Community-Mitgliedern – die somit nicht in jedem Fall als konkrete Antworten gelten können, jedoch trotzdem wichtige Informationen für den Fragenden liefern. Typisches Beispiel ist das kontroverse Thema Kriminalität in Recife (38 Antworten). Das Thema muss jedoch nicht notwendigerweise per se kontrovers sein – ebenfalls ausführlich diskutiert wird die Frage nach der Möglichkeit, eine Region (Pantanal) auf eigene Faust zu erkunden (26 Antworten).
Bis 48 Stunden 14%
Bis 24 Stunden 31%
Länger 5%
bis 1 Stunde 23%
Bis 6 Stunden 27%
Abbildung 3: Zeitspanne bis zur ersten Antwort [Sute04]
Vier Evaluatoren beurteilten unabhängig voneinander, ob die Frage vollständig, teilweise oder überhaupt nicht beantwortet wurde. Evaluator D (einer der Autoren) verfügt über Reiseerfahrung mit Brasilien. Evaluator C hatte bereits Erfahrung mit Reisen nach Südamerika. Die beiden anderen Evaluatoren hatten keinerlei Reiseerfahrung mit Südamerika. Um die Subjektivität der Bewertungen zu reduzieren, wurde nicht geprüft, ob die Antwort korrekt oder qualitativ hochwertig war. Eine Frage nach Unterkünften in einer Stadt würde also als beantwortet gelten, wenn in der Antwort nur eine einzige entsprechende Möglichkeit beschrieben wird. Die Ergebnisse sind in der linken Hälfte der Tabelle 1 aufgeführt (die rechte Hälfte wird im Folgekapitel behandelt). Es zeigt sich wieder eine hohe Effektivität: im Durchschnitt wurden lediglich 2.5 (10.4%) der Fragen als nicht beantwortet gewertet jedoch 14 (58.3%) als beantwortet.
1092
M. Prestipino, G. Schwabe
Forum
Reiseführer
Frage beantwortet (Ȉ = 24)
A
B
C
D
A
B
C
D
Ja
16
16
10
14
13
13
8
13
Teilweise
6
6
11
7
2
2
5
2
Nein
2
2
3
3
9
9
11
9
Tabelle 1: Bewertung der Information zu 24 Fragen durch vier Personen
Zwischenergebnis: Die Tourismus-Community hat eine hohe absolute Leistungsfähigkeit, da sie die meisten gestellten Fragen beantwortet.
3.2
Untersuchung 2: Vergleich der Community mit gedruckten Reiseführern ausgehend von Community-Fragen
Das zweite Untersuchungsdesign zielte darauf ab, die in der Community vorhandene Information mit der des Informationsprodukts „Buch“ zu vergleichen. Dazu wurde untersucht, inwieweit die Fragen aus Untersuchung 1 anhand eines Reiseführers zu beantworten waren. Teiluntersuchung 2.1: Es wurde zuerst von in der Community erfolgreich beantworteten Fragen ausgegangen. Diese Antworten aus der Community wurden mit der Information aus einem Reiseführer verglichen. Dazu wurde der verbreitete englischsprachige Lonely Planet Brazil [Nobl02] herangezogen. Die Bewertung erfolgte anhand einer Skala von Null (Frage inhaltlich nicht beantwortet) bis sechs (exzellente Antwort): Die Information aus der Community wurde durchschnittlich mit 5.03 bewertet, wohingegen das Buch nur einen Durchschnitt von 3.31 erreichte. Die Community lieferte häufig spezifischere, genauere und aktuellere Information. Das Buch hingegen beantwortetete sehr allgemeine Fragen besser, z.B. “was tun in Rio”. Teiluntersuchung 2.2: Für den Zeitraum 01.02.-30.04.2004 wurde die Evaluation auf Fragen ausgedehnt, die in der Community keine Antworten erhielten. Für jede Frage wurde jeweils die im Reisefüher bzw. der Community gefundene Information bewertet als entweder nicht beantwortet, beantwortet oder unvollständig (s.o.). Um ein generelleres Bild zu bekommen und da der Lonely Planet auf dem Stand von 2001/2002 nicht mehr der aktuellste verfügbare war, wurde der Reiseführer „Rough Guide to Brazil“ [Clea+03], ein anerkannter englischsprachiger Reiseführer, als Vergleichsobjekt ausgewählt. Tabelle 1 (siehe Untersuchung 1) stellt die Ergebnisse der vier Evaluatoren zur Informationsbedarfsabdeckung in Forum und Reiseführer gegenüber. Wieder ist die Community leistungsfähiger als der Reiseführer, bei dem wesentlich mehr
Tourismus-Communities als Informationssysteme
1093
Fragen offen bleiben. Ob eine Frage im Forum beantwortet wurde oder nicht, schwankt in der Einschätzung der Testpersonen hauptsächlich im Bezug auf die Vollständigkeit der Antwort. Der höhere Anteil unvollständig beantworteter Fragen im Forum lässt sich hauptsächlich damit erklären, dass bei fünf Postings mehrere Fragen formuliert wurden und diese nicht alle beantwortet wurden. Dies könnte mit der Visualisierung der Forumsstrukur zusammenhängen: je länger eine Diskussion wird, desto eher gerät das ursprüngliche Posting aus dem Blickfeld, bzw. desto eher fokussiert die Diskussion auf ein Thema. Teiluntersuchung 2.3: Beim nachfolgenden subjektiv-bewertenden Vergleich zwischen Reiseführer und Community wurde zwischen besserer, schlechterer und gleichwertiger Information unterschieden. Hier würde also beispielsweise berücksichtigt werden, ob mehrere Unterkünfte genannt werden und wie sie beschrieben werden. Bei der direkten Gegenüberstellung (Tabelle 2) zeigt sich deutlich eine Überlegenheit der Community. Die beiden reiseerfahreneren Personen scheinen schärfer entscheiden zu können, da sie in nur sechs Fällen die Information als gleichwertig bewerteten, was die Hälfte des Wertes der anderen Teilnehmer ist. Aufgrund der geringen Anzahl an Testpersonen kann das jedoch nur vermutet werden.
A Bessere Information aus dem Reiseführer Gleichwertige Information Bessere Information von der Community
B
C
D
Mittelwert
3
3
4
8
5 (21%)
12
12
6
6
8 (33%)
9
9
14
10
11 (46%)
Tabelle 2: Vergleich von Reiseführer und Community anhand der 24 Fragen aus 2.2
Zwischenergebnis: Die Information in einer Tourismus-Community ist der Information eines kommerziellen Informationsproduktes mindestens ebenbürtig, häufig sogar überlegen. Die Beantwortungsrate der Tourismus-Community ist zumindest nicht schlechter als beim Reiseführer.
3.3
Untersuchung 3: Vergleich der Community mit gedruckten Reiseführern ausgehend von neutralen Fragen
Der hohe Anteil unbeantworteter Fragen im Reiseführer in der vorangegangenen Untersuchung könnte auf das Untersuchungsdesign zurückgeführt werden: Es ging von den im Forum gestellten Fragen aus und nicht von einer umfassenden Menge an Fragen. Das würde für eine zielgerichtete Nutzung durch die Informationssuchenden sprechen.
1094
M. Prestipino, G. Schwabe
Um nun die Evaluation ausgehend von einem allgemeinen Informationsbedarf durchzuführen, wurden Fragekreise gebildet und aus diesen Fragen abgeleitet. Aus den Fragenkreisen „Wissenswertes für die Reisevorbereitung“, „Kulturelles“, „Reise nach und in Brasilien“, „Unterkunft und Verpflegung“, „Unterhaltung und Sehenswürdigkeiten“ wurden 18 Fragen für die Evaluation ausgewählt. Beispiele sind nachfolgend aufgeführt. Wie sicher ist Brasilien für Touristen? Welche Monate empfehlen sich für eine Reise in den Süden von Brasilien? Wie trete ich höflich auf? Welche Dinge sollte ich im Kontakt mit den Einwohnern von Brasilien unterlassen? Wo finde ich in Belem ein Internet-Café? Was zeichnet die brasilianische Küche aus und welches sind lokale Spezialitäten von Mato Grosso? Diese Fragen wurden nicht im Forum gestellt (was auch wegen der viele Fragen in einer begrenzten Zeit Verzerrungen ergeben hätte), sondern es wurde über die vorhandene Volltext-Suchfunktion über die Inhalte von Diskussionsforum und Wiki (siehe Kapitel 4) gesucht, also das externalisierte Wissen der Community bewertet (die Community wurde also nur als Informationsprodukt und nicht als Informationsdienstleister bewertet). Zusätzlich wurden auf Brasil-Web eingeschränkte Anfragen bei der Suchmaschine Google ausgeführt. Es wurden nur deutschsprachige Inhalte bewertet. Die Recherche war auf 20 Minuten pro Frage beschränkt. Sie wurde von einem Studenten (Martin Waldburger) durchgeführt5. Dieselben Fragen wurden im Reiseführer Rough Guide recherchiert. Die maximale Suchzeit wurde pro Frage auf 30 Minuten erhöht, da das Buch keine elektronische Suche erlaubt. Zu jedem Punkt wurden potentiell relevante Abschnitte im Inhaltsverzeichnis und Index gesucht und analysiert, inwieweit die gestellte Frage beantwortet wurde. Da sich die Auswahl der Fragen an der Strukturierung eines Reiseführers orientierte und die Fragen nicht im Forum diskutiert wurden, erstaunt das Resultat: Die Inhalte aus Brasil-Web vermochten 11 der 18 Fragen (61%) vollständig zu beantworten. Drei Fragen (17%) wurden als teilweise oder unvollständig beantwortet bewertet und vier Fragen (22%) blieben komplett unaufgelöst. Der Reiseführer konnte lediglich zu 7 der 18 Fragen (39%) vollständige Information liefern, zu 8 Fragen (44%) liessen sich teilweise relevante Antworten finden und drei Fragen (17%) blieben unbeantwortet.
5
Für eine abschliessenden Vergleich zwischen Reiseführern und TourismusCommunities müsste ein sehr viel aufwändigeres Design gewählt werden (mehrere Communities, mehrere unabhängige Bewerter).
Tourismus-Communities als Informationssysteme
1095
Zwischenergebnis: Ausgehend von neutralen Fragen konnte die Leistungsfähigkeit der Tourismus-Community gegenüber kommerziellen Reiseführern belegt werden.
3.4
Zwischenresümee
Nach der Etablierung einer hohen absoluten Leistungsfähigkeit der Community konnte gezeigt werden, dass die Community als Informationsdienstleister und selbst als Informationsprodukt eine höhere Leistungsfähigkeit hat als das kommerzielle Informationsprodukt „Buch“. Die verblüffend hohe Leistungsfähigkeit von Tourismus-Communities in Verbindung mit dem Fortschritt bei mobilen Systemen könnte schon mittelfristig deutliche Auswirkungen auf den Markt für Tourismus-Informationsprodukte haben. Der geringere informationelle Mehrwert von Reiseführern wie dem Lonely Planet wird bisher durch die höhere Portabilität des Produktes und den geringeren Preis ausgeglichen. Wenn auch höherwertige Smartphones oder PDAs zu einer Commodity werden, entfallen beide Argumente. Wir fühlen uns durch die Untersuchungsergebnisse ermutigt, die Zukunft beim Einsatz dieser Systeme nicht so sehr in auf Mobilgeräte herunterladbare Reisebuchextrakten (wie es z.B. der Lonely Planet heute schon anbietet), sondern in der Unterstützung mobiler TourismusCommunities zu sehen. Tourismus-Communities sind aber bis heute schlecht vorbereitet für den Einsatz mobiler Geräte. Die Folgekapitel zeigen schrittweise, wie ihre Leistungsfähigkeit erhöht und wie sie auf einen mobilen Einsatz vorbereitet werden können.
4
4.1
Verbesserung von InformationsverabeitungsMechanismen und Werkzeugen für eine Tourismus-Community Mechanismen und Werkzeuge der Informationsverarbeitung in Communities
Communities können recht leistungsfähige Informationssysteme sein. Das ist insoweit erstaunlich, als die Werkzeuge von Communities typischerweise weniger für die Informationsspeicherung als für die Unterstützung der Kommunikation gedacht sind. Heute werden wie vor 20 Jahren Diskussionen in einer Baumstruktur abgelegt. Dies ermöglicht es, den Diskussionsverlauf nachzuvollziehen; es ist aber sehr schwierig, Information zu einem bestimmten Thema zu finden. Selbst wenn eine Stichwortsuche über alle Beiträge möglich ist, wird die Information nur
1096
M. Prestipino, G. Schwabe
fragmentiert dargestellt und viele irrelevante Beiträge überdecken die wirklich relevanten. Diskussionsverläufe zu ähnlichen Themen existieren isoliert voneinander und fragmentieren die vorhandene Information. Da visuell meist die aktuellsten Diskussionen hervorgehoben werden, enden andere Diskussionen nach einiger Zeit und geraten in Vergessenheit. Deshalb werden in Communities auch immer wieder die gleichen Fragen gestellt – sehr zum Verdruss der aktiven Mitglieder. Die Gemeinschaft kann zwar auf alte Diskussionen hinweisen, Threads sind aber Transkripte einer Diskussion, die spätere Nutzung bedingt das Lesen des kompletten Verlaufs. Die Information kann wegen der mangelnden Kohärenz nicht effizient gewartet werden. Von Moderatoren (Top-down) erzeugte kohärente Texte, sogenannte „Frequently asked questions“ helfen meist nur, die Spielregeln der Community zu erklären, geben aber keinen Aufschluss zu den meisten inhaltlichen Fragen (gerade wenn diese aktuell sind). Auch bei ihnen stellt sich zudem das Wartungsproblem. Faktoren der Techniknutzung in Communities wurden in der Forschung thematisiert (vgl. z.B. [Leim+04]), jedoch nicht die Änderung der Technik an sich oder die Messung ihrer Leistungsfähigkeit. Will eine Community ihr Wissen dauerhaft für ihre Mitglieder zur Verfügung stellen, dann kann Sie das tun, indem sie die Kommunikationsbäume nachbearbeitet. In diesem Fall werden Kommunikationsbäume zu einem „gemeinsamen Material“ [Schw95], das gemeinsam von der Gruppe bearbeitet wird und dann als aufbereitete Information zur Verfügung steht (vgl. Abbildung 5). Eine Herausforderung ist es dabei, das Nachbearbeiten der Informationen so intuitiv und einfach zu machen, dass es auch von den Nutzern akzeptiert wird. Konzepte und Erfahrungen hierfür werden im folgenden behandelt. Ein Anhaltspunkt für Verbesserungen ergab sich aus einer Einordnung der Forenbeiträge, wobei die Kategorien flexibel gebildet wurden („Clustering“). Dabei traten sowohl sehr allgemeine Fragen als auch sehr spezielle Fragen auf. Eine Abgrenzung der allgemeinen Fragen von Reisefragen anhand des Kriteriums „Bezug zu einem konkreten Reisevorhaben“ erwies sich letztlich als unmöglich. Zum einen können Fragen der Reiseentscheidung dienen, zum anderen ist oft nicht ersichtlich, ob sie in Bezug zu einem Reisevorhaben stehen. Ortsbezug ist ebenfalls ungeeignet: Fragen zu Kriminalität, Einreisebedingungen oder Mobiltelefonie beziehen sich nur auf grobe geographische Kategorien, sind aber dennoch wichtig für Reisende. Der Anteil allgemeiner Fragen war auch zu gering, um ein Problem darzustellen. Daher wurden diese Fragen den Reisefragen zugeordnet, völlig unpassende Fragen der Kategorie „Off-Topic“. Tabelle 3 zeigt die Kategorien und die Verteilung der Diskussionsthemen. Die Einordnung basiert auf dem ersten Beitrag, nachfolgende Antworten können zum Teil anderen Kategorien zugeordnet werden. Ein grosser Anteil der Beiträge sind keine Fragen, sondern unaufgefordert geschriebene Information.
Tourismus-Communities als Informationssysteme
1097
Die zweite Analyse erbrachte ein ähnliches Ergebnis [Sute04]: Ein grosser Anteil neuer Threads wurde ohne konkret formulierte Frage gestartet: Über die Hälfte aller Initial-Postings (56 Prozent) artikulieren keinen Informationsbedarf, sondern dienen der direkten ungefragten Weitergabe von Information. Die Unterstützungstechnologie, ursprünglich für Diskussionen entwickelt, unterstützt diese Nutzung suboptimal. Es gibt keine Struktur, um die Information zu finden, und Information jeden Detailgrades wird gleichartig präsentiert. Ungefragte Beiträge erhöhen die Geschwindigkeit, mit der Themen aus dem sichtbaren Bereich verschwinden. Ungefragte Information sollte zusammen mit Extrakten aus Diskussionen strukturiert als gemeinsames Material gespeichert werden, so dass sie aktualisiert, zusammengeführt und korrigiert werden kann. Kategorie
Anzahl
Anteil
Travel-related question
105
51,46%
General question
11
5,34%
Meeting / Contact
10
4,85%
Travel diaries
13
6,31%
Unsolicited information
63
30,10%
Unsolicited Opinion
2
0,97%
Provocation
1
0,49%
Amusement
1
0,49%
Tabelle 3: Kategorisierung von 206 Foren-Threads [Pres04]
4.2
Wiki-Integration
Um das Wissensmanagement der Communitiy zu verbessern, wurden erste Prototypen anhand der in Abbildung 4 dargestellten Architektur erstellt. Das System unterstützt die kommunikative Wissensproduktion, in unserem Fall durch ein Forum. Es stellt zusätzlich Werkzeuge zur Nutzung und kooperativen Bearbeitung des Gedächtnisses der Gemeinschaft dar. Information kann direkt oder als Ergebnis von Diskussionen in das gemeinsame Material gelangen. Umgekehrt ist es wichtig, dass das gemeinsame Material wieder Ausgangspunkt von Diskussionen sein kann. Wenn ein Leser Inhalte nicht zur Diskussion stellen kann, ist die Korrekturfunktion eingeschränkt.
1098
M. Prestipino, G. Schwabe
Abbildung 4: Architektur eines Unterstützungssystems für Communities [Pres04]
Nutzer können eigenständig suchen oder ihre Frage im Forum stellen. Das gemeinsame Material ist ein Informationsprodukt, es kann ohne Kommunikation mit der Gemeinschaft genutzt werden. Ist die gefragte Information bereits vorhanden, können andere Mitglieder darauf verweisen. Das ist ein entscheidendes Merkmal eines kooperativen Informationssystems zu klassischen Informationssystemen. Die Gemeinschaft bildet eine zusätzliche, natürlichsprachliche Schnittstelle zu der Information. Weiterhin ist die Information leicht und unmittelbar zu ändern. Der Erstellungsprozess ist zudem transparent. Unser Prototyp integriert ein Forum und ein Wiki. Wikis [LeCu01] sind Sammlungen von WWW-Seiten, deren Inhalt leicht von Nutzern in ihrem Browser geändert werden kann. Während sich ein Wiki nicht gut als Kommunikationswerkzeug eignet, da es z.B. keine Visualisierung von Diskussionsstrukturen bietet, ist es ein exzellentes Werkzeug für das gemeinsame Material. Die beiden Werkzeuge müssen nun möglichst weit integriert werden, um den Fluss zwischen Kommunikation und Wissensbasis in beide Richtungen möglichst einfach zu gestalten. Dazu wurde zu jedem Unterforum eine Startseite im Wiki angelegt, ausserdem Möglichkeiten zur einfachen Verlinkung von Diskussionsbeiträgen mit Wiki-Seiten geschaffen und diese verlinkenden Diskussionen werden wiederum bei den jeweiligen Wiki-Seiten angezeigt (vgl. Abbildungen 5 und 6). Derzeit noch in der Entwicklung ist eine Möglichkeit, aus jeder Wiki-Seite direkt Diskussionsbeiträge zu schreiben.
Tourismus-Communities als Informationssysteme
1099
Abbildung 5: Beitrag mit Verknüpfung zum gemeinsamen Material
Abbildung 6: Gemeinsames Material mit verknüpfter Diskussion
Das Wiki wurde Anfang 2004 eingeführt. Aufgrund des erheblich komplexeren Konzeptes und der relativen Neuartigkeit war die Nutzung des Wiki zu Beginn gering, ist jedoch im Anstieg begriffen. Sätze wie „Das wäre doch was fürs Wiki finden sich in einer ganzen Reihe von Beiträgen6. Das belegt zwar die Bekanntheit des Werkzeugs, drückt aber auch Hilflosigkeit gegenüber der Nutzung aus.
4.3
Ausblick: Ortsbezug und Mobilität
Touristen sind von Natur aus mobil. Eine Visualisierung des Aufenthaltsortes schafft die neue Möglichkeit zur ortsbezogenen Kommunikation (vgl. Abbildung 7). So können Mitglieder gezielt bei Fragen zu ihrem Aufenthaltsort angesprochen werden, da man eine höhere Expertise und Glaubwürdigkeit vermuten kann. Am 14.07.2004 waren bereits 137 Nutzer verzeichnet. Eine andere Möglichkeit ist das Markieren relevanter ortsbezogener Information mit Tags, um automatisch zu Orten Information suchen zu können, z.B. zum aktuellen Aufenthaltsort eines Nut6
Beispielsweise: http://www.kippenhan.net/phpBB2/viewtopic.php?t=630 (2. Jan. 2004); http://www.kippenhan.net/phpBB2/viewtopic.php?t=692 (12. Jan. 2004)
1100
M. Prestipino, G. Schwabe
zers mit GPS-Empfänger und PDA. Durch das Anzeigen von Mitgliedern im Umkreis können spontane Begegnungen organisiert werden und damit Koordinationsprobleme gelöst werden wie das Finden einer Gruppe mit gleichen Interessen (Beispiel „Bootsausflug“). Typischerweise sind Reisende hierbei auf Bekanntschaften aus der Unterkunft oder dem Transit beschränkt. Evaluationsergebnisse stehen noch aus. Unser prototypisches System speichert Diskussionen und Inhalte aus dem Wiki zu angebenen Orten auf dem Mobilgerät. Somit kann der Nutzer das Gedächtnis der Gemeinschaft für seine individuelle Reiseroute mobil und offline nutzen. Zusätzliche oder aktualisierte Inhalte können nachgeladen werden. Aufgrund der Ubiquität von Internet-Cafés und der beschränkten Eingabemöglichkeiten mobiler Geräte steht der Informationsabruf im Vordergrund. Anhand von GPS-Koordinaten können neben Menschen auch Objekte gekennzeichnet werden, z.B. würde die Annotierung eines interessanten Aussichtspunktes anderen Reisenden ermöglichen, diesen zu finden. Auch das typische Problem von gedruckten Reiseführern, das Veralten der Gastronomie- und Unterhaltungstipps, kann durch Annotation vermieden werden. Wieder stellt die Gemeinschaft dabei einen Filter dar, denn eine Vielzahl von teilweise kommerziell motivierten Einzelannotationen würde dem Reisenden nicht helfen.
Abbildung 7: Visualisierung der Community-Mitglieder
5
Konklusion
Dieser Beitrag gab eine Übersicht über unsere laufende Community-Forschung und führte die Betrachtung von Communities als Informationssysteme ein. Die überraschend hohe Leistungsfähigkeit schon einer kleineren Community in Verbindung mit dem Aufkommen vernetzter mobiler Endgeräte lässt uns vermuten, dass die Informationsverarbeitung von Reisenden vor einem Umbruch steht: Der Reiseführer wird ersetzt durch ein mobiles Endgerät. Dieses wird aber nicht – wie häufig behauptet – hauptsächlich mit professionell erstelltem Content gefüllt sein,
Tourismus-Communities als Informationssysteme
1101
sondern neben einem allgemeinen Internetzugang Informationsdienstleistungen von einer Tourismus-Community enthalten. Dabei übernimmt die TourismusCommunity die Informationssammel- und Bewertungsfunktion der ReisebuchAutoren. Während in der sonstigen Buchbranche befürchtet wird, dass das Internet mittelfristig in vielen Bereichen die Wertschöpfungskette zwischen Autoren und Lesern überspringt (und alle Zwischenschritte von den Verlagen bis zum Buchhandel um ihre Existenz bangen lässt), sehen wir im Tourismusbereich eine Branche, wo auch die klassische Rolle der Autoren gefährdet ist. Um diesen Schritt zu gehen, muss nicht nur eine Infrastruktur für den mobilen Zugriff auf Informationen aufgebaut werden, sondern auch die Community-Informationssysteme müssen verbessert werden. Hierzu sind die hier vorgestellten Konzepte einer WikiIntegration, der Ortsbezogenheit von Information und des mobilen Zugriffs nur erste Schritte. Wir danken unseren Diplomanden und Studenten Samuel Suter, Patrick Reolon und Martin Waldburger dafür, dass sie diese Schritte mit uns gegangen sind.
Literatur [Belk+82] Belkin, N.J.; Oddy, R.N.; Brooks, H.M.; et al.: "ASK for Information Retrieval: Part I.". Journal of Documentation 38(2), 1982, S. 61-71. [Buha98] Buhalis D.: "Strategic Use of information technologies in the tourism industry.". Tourism Management 19(5), 1998, S. 409-421. [Clea03] Cleary, D.; Jenkins, D.; Marshall, O.: The Rough Guide to Brazil. Rough Guides Publishing. 5th Edition 2003. [Fese+03] Fesenmaier, D. R.; Ricci, F.; Schaumlechner, E.; Wöber, K.; Zanella, C.: DIETORECS: Travel Advisory for Multiple Decision Styles. Proceedings of Enter conference, Helsinki Finland, 2003. [Frey01] Freyer, W.: Tourismus, Einführung in die Fremdenverkehrswirtschaft. Oldenbourg, München, 2001. [HaAr97] Hagel, J. III; Armstrong A.G.: Net Gain: Expanding Markets Through Virtual Communities. Harvard Business School Press: Harvard, 1997 [Kuhl99] Kuhlen, R.: Die Konsequenzen der Informationsassistenten. Was bedeutet informationelle Autonomie oder wie kann Vertrauen in elektronische Dienste in offenen Informationsmärkten gesichert werden? Suhrkamp-Verlag: Frankfurt, 1999. [Leim+04] Leimeister, J.M.; Sidiras, P.; Krcmar, H.: Success Factors of Virtual Communities from the Perspective of Members and Operators - an Empirical Study. Hawaii International Conference on System Sciences, Big Island, Hawaii, 2004. [LeCu01] Leuf, B.; Cunningham, W.: The Wiki Way: Quick Collaboration on the Web. Addison-Wesley: Boston, 2001.
1102
M. Prestipino, G. Schwabe
[Nobl02] Noble, J. ; Draffen, A.; et al.: Lonely Planet: Brazil. Special wildlife section, including Amazonia and the Pantanal. Lonely Planet Publications, 2002. [Pfaf03] Pfaffenberger, B.: A Standing Wave in the Web of our Communications: Usenet and the Socio-Techical Construction of Cyberspace Values. In: Lueg, C. and D. Fisher (Hrsg.) From Usenet to CoWebs. Springer: London, 2003, S. 20ff. [Pres04] Prestipino, M.: Supporting Collaborative Information Spaces for Tourists. Akzeptiert für: Mensch und Computer 2004, Paderborn 2004. [Rhei93] Rheingold, H.: The Virtual Community: Homesteading on the Electronic Frontier. Addison-Wesley: Reading, MA, 1993. [RoDo02] Rossmann, D.; Donner, R.: WEB-TOURISMUS 2002. Erfolg im Tourismus durch das Internet. ULYSSES Management: München, 2002. [Schw95] Schwabe, G.: Objekte der Gruppenarbeit. Ein Konzept für das Computer Aided Team. Gabler: Wiesbaden, 1995. [ScKr00] Schwabe, G.; Krcmar, H.: Piloting a Sociotechnical Innovation. In: Proceedings of the 8th European Conference on Information Systems ECIS 2000, Wirtschaftsuniversität Wien, Wien 2000, S. 132-139. [Sute04] Suter, S.: Virtuelle Gemeinschaften als Informationssysteme im Bereich Tourismus. Evaluation und Optimierung der Unterstützungstechnologie zur asynchronen kooperativen Wissensgenerierung in virtuellen Gemeinschaften. Diplomarbeit, University of Zürich, 2004. [Szyp71] Szyperski, N.: Zur wissensprogrammatischen und forschungsstrategischen Orientierung der Betriebswirtschaft. In: zfbf Vol 23 1971, S. 261-282. [Wang+02] Wang Y., Yu, Q.; Fesenmaier, D.R.: Defining the virtual tourist community: implications for tourism marketing. Tourism Management, 23, 407–417 [Weng+02] Wenger, E.; McDermott, R.; Synder, W.: Cultivating Communities of Practice. Harvard Business School Press: Boston, 2002 [Witt97] Witte, E.: Feldexperimente als Innovationstest - Die Pilotprojekte zu neuen Medien. In: zfbf Vol. 49 Nr. 5 1997, p. 419- 438.
Einführung in den Track Anwendungen des Pervasive und Ubiquitous Computing Elgar Fleisch Universität St. Gallen & ETH Zürich
Orestis Terzidis SAP AG Eine große Vielfalt kleiner, autonomer Systeme zur Informationsverarbeitung und Kommunikation bilden die Grundlage für Szenarien einer Zukunft, in der nahezu jedes Objekt in unserer alltäglichen Umgebung mit integrierten Prozessoren, funkgestützten Kommunikationsmöglichkeiten und Software ausgestattet ist, um eine Vielzahl von Aufgaben und Funktionen zu erfüllen. Mit der Einbettung von Technologien des Pervasive und Ubiquitous Computing in physische Objekte wie Paletten, Kleidungsstücke, Lebensmittel, Räume usw. werden diese „smarten Objekte“ darüber hinaus zur Schnittstelle zu neuartigen Diensten und ermöglichen die Verschmelzung der physischen mit der digitalen Welt. Es deutet sich an, dass Unternehmen Pervasive und Ubiquitous ComputingTechnologien in einem ersten Schritt nutzen werden, um Prozesse sicherer, schneller und effizienter zu machen. Ein Beispiel hierfür sind die Ankündigungen führender Einzelhändler, RFID in der Lieferkette einzusetzen. In einem zweiten Schritt führen Pervasive und Ubiquitous Computing zu neuen smarten Produkten, deren physische Eigenschaften um digitale Funktionen ergänzt und erweitert werden, sowie damit einhergehenden Dienstleistungen. Die Auswirkungen, die der großflächige Einsatz von Lokalisierungs- und Sensorfunktionen sowie Aktuatoren auf Wirtschaft und Gesellschaft haben werden, sind aus heutiger Sicht nur sehr bedingt abschätzbar. Aus Sicht der Wirtschaftsinformatik stellen alle diese Entwicklungen eine Vielzahl an Herausforderungen sowohl an das Informationsmanagement als auch an den Prozessentwurf und die Entwicklung neuer Geschäftsmodelle. Forschungsbedarf besteht unter anderem in folgenden Bereichen: x Anwendungen in einzelnen Geschäftsprozessen (z. B. Supply Chain Management, Customer Relationship Management, Product Lifecycle Management) x Dienste in und an smarten Produkten (z. B. nutzenbasierte Bezahlung, selbstständige Qualitätskontrolle)
1104
Anwendungen des Pervasive und Ubiquitous Computing
x Technikfolgenabschätzung (z. B. Privacy, soziale Implikationen) sowie Risikomanagement und -dialog x Integration ubiquitärer Systeme in die betriebliche IT-Landschaft (Middleware, Softwarearchitekturen und -frameworks, IS-Management) x Konzeption und Weiterentwicklung von Basistechnologien (z. B. Identifikation, Lokalisierung, Ad-hoc-Vernetzung, Kontextbezogenheit) x Entwicklung neuartiger Benutzerschnittstellen und Interaktionsmodelle für den „invisible computer“ Aufgrund der Vielzahl relevanter Technologien, der Breite des Anwendungsbereichs und der über betriebswirtschaftliche Kosten/Nutzen-Betrachtungen hinausgehenden gesellschaftspolitischen Dimension bedürfen Pervasive und Ubiquitous Computing einer interdisziplinären Forschung. Wissenschaftler aus unterschiedlichen Fachgebieten sind daher aufgefordert, die Vision des Pervasive und Ubiquituous Computing konstruktiv-kritisch zu durchleuchten und über Konsequenzen und Gestaltungsmöglichkeiten aufzuklären. Das Wissen über die Technologien und deren Anwendungen darf nicht auf wenige Köpfe beschränkt sein, sondern muss, wie die zugrunde liegende Technologie auch, ubiquitär werden.
Track-Programmkomitee Prof. Dr. Elgar Fleisch, Universität St. Gallen & ETH Zürich (Chair) Dr. Orestis Terzidis, SAP AG (Chair) Dr. Oliver Christ, SAP AG Prof. Dr.-Ing. Rolf Jansen, Universität Dortmund Dr. Antonio Krüger, Universität des Saarlandes Prof. Dr. Friedemann Mattern, ETH Zürich Dr.-Ing. Klaus Richter, Fraunhofer Institut für Fabrikbetrieb und -automatisierung Dr. Albrecht Schmidt, Ludwig-Maximilians-Universität München Prof. Dr.-Ing. Bernd Scholz-Reiter, Universität Bremen Dr. Frédéric Thiesse, Universität St. Gallen
An Integrated Platform for Mobile, ContextAware, and Adaptive Enterprise Applications Gerald Hübsch, Thomas Springer Technische Universität Dresden
Axel Spriestersbach, Thomas Ziegert SAP AG, Global Research and Innovation
Abstract: In this paper we present an approach for the device-independent authoring of mobile, context-aware and adaptive web applications. We present concepts for the semantic and syntactic adaptation of web dialogs to heterogeneous devices based on the Dialog Description Language. We describe advanced concepts for the integration of dynamic content and user interaction handling in deviceindependent application engineering. Furthermore, the software architecture of the Transcoding Framework, a runtime environment for dialog adaptation, is introduced. Finally, we present an adaptive sample application and give an outlook to future research topics. Keywords: Adaptation, Context-Awareness, Dynamic Content, Mobile Devices, Multimodality, MVC, Pagination, Single Source Authoring, Transcoding, XML
1
Introduction
According to a study conducted by IDC Research, the number of nomadic workers spending at least 20 percent of their working hours away from home, their main place of work, or both in Europe will increase to over 28.8 million by 2005. There is a large target group of subscribers for Mobile Intranet/Extranet access [IDC]. This development is set in motion through the rapidly increasing availability of multiple wireless infrastructures such as public WLAN hotspots, GPRS, HSCSD, CONNEXION [Co04] and UMTS services. Another major driver for this development is the omnipresence of connected mobile devices like notebook computers, PDAs, and data-capable mobile phones in today’s companies. However, the heterogeneity of these devices can be seen as the one of the main obstacles for their pervasive deployment in enterprise scenarios. Mobile devices differ in a wide spectrum of parameters. These include various input methods such as keyboard, stylus, numeric keypad and combinations thereof, display size and resolution, supported bearer types, processor speed, power consumption, attached peripherals,
1106
G. Hübsch, A. Spriestersbach, T. Springer, T. Ziegert
browser type, and supported media formats. This set of parameters together with application- and user-specific parameters forms the context of use for a mobile application. Web-applications development is still mainly focused on desktopstyle target platforms with fully-fledged browsers and neglects the additional requirements and limitations imposed by the context of use. Automated adaptation to the context of use represents a promising solution to overcome the increasing differences in mobile device technology while reducing the overall costs and development efforts for multi-device support. Vital requirements for web application authoring languages are concepts for dynamic content generation and user interation handling. Dynamic content support provides means to include backend data into the content delivered to the client. User interaction handling provides means to monitor and evaluate user interaction events by triggering event-specific calls to application logic. Both concepts require a dedicated runtime platform support. In the following we present an integrated adaptation platform for device independent authoring and provisioning of context-aware mobile applications based on the single-source authoring approach. Furthermore, novel language and platform concepts for dynamic content generation and user interaction handling in deviceindependent application engineering are presented.
2
Related Work on Adaptive Web Applications
Web Applications can be adapted on several levels. The lowest level is the content level which comprises text, images and further multimedia content as well as control elements of user interfaces (i.e. forms). These elements can be adapted independently at this level. For instance a form control for text input can be replaced with a list of given choices, a long text can be replaced by a shorter one [Buyu+01], images can be compressed or only partially displayed [Fox+98]. At the structure level the relationships between the separate elements are considered. Examples are the restructuring of text and tables [Bick97], the creation of content pages [Bick97, Buyu+01], the change of the whole layout or navigation of a page [Schi+01] and the pagination of a page into smaller pages [SpGö02, Mand+02]. At application level the functions and complexity of the application’s web interface can be adjusted [Heu+04]. Various approaches have been proposed to address the challenges of adapting web applications to heterogeneous devices. The process of re-engineering a webapplication for every target platform is referred to as manual adaptation or multi source approach. While the developer separately implements dedicated versions for each target device in a specific markup language this approach yields high quality results but induces high development and maintenance costs due to the large number of different versions of a single application. Supporting a new device always obliges a new version of the application. The opposite approach is fol-
A Platform for Mobile and Adaptive Enterprise Applications
1107
lowed by projects like Digestor [Bick97] and M-Links [Schi+01]. Both projects follow a single source approach and transcode HTML sources automatically to device specific versions. Therefore, transcoding proxies are placed between the mobile device and the content source. The main problem is the mix of content and presentation as well as misused structure information (e. g. table for layout). So structure information has to be extracted from the document using heuristics. The utilization of heuristics and the lack of meta-information about the adapted source make these approaches too error-prone for the adaptation of complex web applications. This identifies structure and further meta information as an important resource for adaptation of web applications. Meta information can be added externally as described in [Ho+00] or integrated within the source document. Although external approach enables the expression of fine-grained meta-information such as the importance and role of arbitrary elements in HTML source documents, it bears consistency issues if the described source is dynamically generated or changed without notice. An advantage of the separation of meta information is the extensibility of meta information independent from the application description. Consequently, a device independent language with explicit but internal structure and adaptation information promises the best transformation results. This leads to a combined approach of manual and automated adaptation. The application developer generates a single application description and manually adds meta information. The transformation software system automatically generates device specific application descriptions but is now controlled by the meta information to get better results. As a consequence of giving up HTML as source language, web applications have to be ported or newly developed from scratch. Porting is supported by the approaches based on HTML and heuristics, enabling the change of the source format without loosing the existing application base within the Internet. This raises the question of the most appropriate language. UIML [AbHe00] and WebML [Ce+00] allow an abstract description of user interfaces separating content, structure and style but allow only for purely syntactic mappings and do not support meta information. In Wit [Wat94], web documents are described by linked hyperobjects reflecting the hierarchical structure of documents. The links between the hyperobjects can be annotated by meta information. While this is a generic approach, Wit focuses on the communication aspects using meta information for compressing, prefetching, caching and data reduction. XDNL [ItMa00] enables an explicit description of the document structure as hierarchical trees and navigation paths through this trees. Therefore, XDNL addresses only the certain aspects of structure description and navigation. XForms [XFORMS03], as a successor of HTML forms, separates the data model and form structure from the representation of the form controls. XForms is not a standalone language and focuses on the description and presentation of forms and form controls. XHTML [XHTML02], and HDML [HDML97] are XML-based languages for describing web documents. While being rather generic they lack of concepts for adaptation like the inclusion
1108
G. Hübsch, A. Spriestersbach, T. Springer, T. Ziegert
of meta information and content selection and therefore need to be extended to become really device independent. As a conclusion, most of the approaches address certain aspects of device independent document description but do not cover all relevant aspects of document adaptation for the web. The dialog description language (DDL) [GBSZ01, GBSZ02] addresses this issue. Starting in 2001, DDL was developed as a generic language with adaptation support. While UIML and XForms where in early stages in 2001, DDL was developed from scratch but adopts several concepts from both languages. DDL is no standard language, which is a mayor drawback of DDL. But as the outcome of a subsequent project shows, most of the concepts developed with DDL can be integrated into standard languages.
3
Concepts for Dialog Adaptation
In the following, the concepts of semantic and syntactic dialog adaptation based on the Single Source Authoring approach are introduced. Semantic adaptation precedes syntactic adaptation. Alongside, our approach for a device-independent dialog description language realizing these concepts is presented by introducing the Dialog Description Language (DDL) [Göbe+01, Göbe+02, SpGö02, Hübs+03].
3.1
Single Source Authoring
Single Source Authoring uses a single, generic content description that abstracts from the content presentation in a specific target markup. Dedicated adaptation algorithms are applied to generate device-specific representations (cf. 1). These algorithms are parameterized by context information. Additionally, semantic meta-information about the processed content is evaluated by these algorithms. The adaptation algorithms can be deployed directly on the content server or a proxy server.
A Platform for Mobile and Adaptive Enterprise Applications asdfdsafdsaf sdaf ds fdsa
Development
dsa sakdksakdcncmnc dadksadlasdlsajlkdjalkd sjlksadsadkl
Generic Application Description + Meta Information
Context Information
Adaptation Engine
Runtime asdfdsafdsaf sdaf ds dsa sakdksakdcncmnc dadksadlasdlsajlkdjalkd sjlksadsadkl
asdfdsafdsaf sdaf ds dsa sakdksakdcncmnc dadksadlasdlsajlkdjalkd sjlksadsadkl
1109
asdfdsafdsaf sdaf ds dsa sakdksakdcncmnc dadksadlasdlsajlkdjalkd sjlksadsadkl
Device Specific Application Description
Figure 1: Combined approach of manual and automated adaptation
3.2
The Dialog Description Language (DDL)
We have developed the Dialog Description Language (DDL) for our Single Source Authoring approach. The DDL is a single-source authoring language that enables the separation of structure, presentation, and content of web application dialogs and supports meta-data concepts for semantic adaptation. The DDL is based on a simple XML meta-language model consisting of four basic elements: , , and . The element is the document root element of any DDL dialog, encloses the content section of a DDL document. The element represents an arbitrary dialog element. It is utilized to generically describe element types (e.g. input fields, frames, tables etc.), i.e. the element semantics, using a set of properties. It can be nested to allow for ancestorchild relationship modelling. Properties are assigned to parts using the element. A type property defines the type of each part (cf. 2). All other properties are type-specific, e.g. for describing the URL of a hyperlink element or the caption of a text input field. Part properties are distinguished by a name attribute. We have defined semantics, i.e. property sets, for the part types listed in Table 1. Note that there is no target markup mapping defined yet. Additionally, DDL supports the concept of inheritance. DDL inheritance allows for the definition of part configurations, i.e. for property element value presets. Syntactically, this concept is implemented by the DDL element. It is uniquely identified by its name attribute. Its children are elements containing preset property values. Parts inherit these properties through a class attribute that references the class by name. The inheriting part is assigned all property definitions within the respective class. DDL class definitions can be externalized in library documents and thus be imported and reused in multiple dialogs.
1110
G. Hübsch, A. Spriestersbach, T. Springer, T. Ziegert
Part types
Semantics
frameset, frame
frameset and frame description
container
description of element groups
table, head, row, data
table elements for describing tables, table headers, table rows and table cells
label
text and text style description
image
inline image description (image source URL etc.)
form
form description (action URL etc.)
submit
form submit element description
radiogroup, radiobutton
radiogroup menu description
textinput
form input field for text
select, option
select menu description
checkbox
checkbox item description
Table 1: DDL part type semantics
Figure 2 depicts a simple DDL dialog containing a form to retrieve stock quotes by entering the stock symbol. The form part uses inline definitions for all its properties. In contrast, the elements ‘stockLabel’, ‘stockSymInp’ and ‘quoteButton’ exemplify the inheritance concept. Type assignments to parts are highlighted in bold face.
A Platform for Mobile and Adaptive Enterprise Applications
1111
Stock quote form GET getQuote.ddl Symbol: label textinput submit Get Quote! Figure 2: Type assigments in DDL
3.3
Semantic Adaptation
Semantic adaptation utilizes semantic meta-information about the adapted content. Information about dialog semantics is manually added at authoring time. Thus, the programmer has full control over the semantic adaptation. In DDL, it controls dialog adaptation with respect to the concepts of selective content and dialog pagination. Selective content eliminates or selects alternative content, e.g. to avoid the delivery of long explanatory texts to a small screen device. Dialog pagination is the process of splitting complex dialog structures into less complex substructures (fragments) and their sequential delivery to the client while maintaining the logi-
1112
G. Hübsch, A. Spriestersbach, T. Springer, T. Ziegert
cal structure of the dialog. Dialog pagination is required to meet display size, protocol and usability constraints of mobile devices. As opposed to the delivery of large, complex pages, pagination reduces the need for extensive scrolling and reduces transfer and rendering times for the single fragments. Additionally, we utilize pagination to generate specific target-markup constructs for presentation control, e.g. for content distribution over several WML Cards in a single WML Deck. From a technical point of view, fragmentation is indispensable to meet packet size constraints imposed by the WAP 1.x protocol [WAP00].
image logo.jpg label ACME Corp. Figure 3: Selective content in DDL
In DDL, the concept of selective content is implemented by context queries over context profiles. Context queries are formulated in XPath [XPATH] that can be attached to part and property elements through a test attribute. If the query condition is fulfilled, the respective element is left in the dialog, otherwise it is removed. Figure 3 shows a sample DDL dialog snippet with context queries. The logo image is shown on graphics-capable clients, a short text is displayed on other clients. To control dialog fragmentation, DDL provides means to define logical dialog units (atoms) that must not be split up by fragmentation. Arbitrary DDL parts can be marked as atoms by adding the DDL ‘atom’ property. Some part types such as radiogroups or parts without descendants are atoms by default. Logical dialog units are utilized to group dialog elements that have a semantic relationship. An adaptation algorithm is responsible for the dialog pagination at runtime. In our approach, the algorithm determines the weight (i.e. size in transfer encoding, display space required on the client device) for every atom in the dialog. These atoms are assembled to fragments of maximum size w.r.t. the client constraints and interlinked to allow for user navigation. The runtime environment (see sect. 5) is responsible for delivering the requested fragments and for the collection of user input from forms spanning several fragments.
A Platform for Mobile and Adaptive Enterprise Applications
1113
container true label Symbol: textinput Figure 4: Logical dialog unit in DDL
Figure 4 depicts a DDL code snippet that groups a text input field with its caption using an atomic DDL container to prevent their separation by dialog pagination.
3.4
Syntactic Adaptation
After semantic adaptation, the DDL dialog must be transformed into a target markup language supported by the target platform. This process is called syntactic adaptation. We use XSLT [XSLT] for this task. Stylesheets have been implemented for transformations from DDL into XHTML, HTML and WML 1.x. Our approach is extensible towards the support for new target markup languages by simply adding a new stylesheet.
4
Dynamic Content and Application Logic Interaction
To facilitate the implementation of adaptive web applications in DDL using the MVC pattern, we have identified four major infrastructure components: (1) resources implementing server side application logic and backend access, (2) dynamic content elements for retrieval and rendering of dynamic data, (3) eventing to trigger application logic through user interaction, (4) a server-side data model to maintain application-specific state information. In the following, the implementation of these concepts in DDL is described.
1114
4.1
G. Hübsch, A. Spriestersbach, T. Springer, T. Ziegert
DDL Resources
DDL Resources implement application logic and backend access. DDL Resources are implemented by Java classes. To model the class properties and method signatures used for event handling and backend access, we have introduced the elements , , and in DDL. The element represents a Java class. Its name attribute contains a unique name to reference this resource within the dialog containing the resource’s definition. Its class attribute specifies the fully qualified name of the implementing class (cf. 5). The element is a child element of resource. Every method element describes the signature of a method implemented by its ancestor. Additionally, method results can be written to the data model (see sect. 4.4) using an optional reference attribute. Fig. 5 shows two method definitions for validateLogin and getStockQuote. The name parameter corresponds to the name of the implementing method. The element is a child element of method. Every param element models a single method parameter. Parameter values may either be read from HTTP request parameters or from the data model. A parameter value is identified by matching its name attribute against all request parameter names. If no matching request parameter is found, the parameter value is read from the data model using the element’s reference attribute. In case of a successful match, the data model is updated with the request parameter value. For example, the validateLogin method defined in fig. 5 expects a mandatory ‘passwd’ request parameter to be present upon its invocation. If the ‘user’ parameter is not present, it is read from the data model.
A Platform for Mobile and Adaptive Enterprise Applications
1115
Figure 5: DDL resource definition
The element (cf. 5) is a child element of method. Every field element models a single data item returned by a method utilized for backend access, i.e. it represents a cell within a database table. In dynamic data sections (see sect. 4.2), placeholders matching the field’s name attribute value are replaced with the corresponding data item value.
4.2
Dynamic DDL Content
To support dynamic content, we have extended the DDL with the element (cf. 6). The dynamic element has two attributes. The resource attribute references the DDL resource that implements the backend access method identified by the method attribute.
1116
G. Hübsch, A. Spriestersbach, T. Springer, T. Ziegert
table ... row data __stockName data __price
Figure 6: DDL dynamic element
We refer to DDL dialogs containing dynamic elements as DDL Templates. The access method is invoked during dialog processing (cf. 10). For every data set returned by the access method, the content enclosed by the dynamic element is repeated and the contained field references are replaced with backend data. Finally, the dynamic element is eliminated from the dialog.
4.3
DDL Eventing
Means to monitor and evaluate user interaction on the client are indispensable for web application development. A common strategy for reacting to user interaction is to specify UI event listeners and event handlers. Missing or reduced client-side support for UI event generation and event handling on mobile platforms must also be addressed. Therefore, we have supplemented the DDL with concepts for device independent event description and event handling. Our concept is independent from the structure and the order of UI elements in the dialog.
A Platform for Mobile and Adaptive Enterprise Applications
1117
submit Login
Figure 7: DDL listener element
We have introduced the element (cf. 7) to associate interaction events with DDL form controls. Its event attribute describes the event type that determines its processing on the server. The handler attribute contains a reference to the DDL Resource and the handler method’s name. The priority attribute controls the processing order if several events are received simultaneously by the server. For event propagation to the server, the listener element containing the event’s type, priority and handler is marshalled into HTTP request parameters during the syntactic adaptation of the dialog. Whenever the user issues a request (e.g. selects ‘Login’ in fig. 7) the related event is triggered on the application server by invoking the associated DDL Resource method.
4.4
DDL Data Model
The DDL data model provides means to maintain the application state between consecutive client requests. A DDL data model is represented as a well-formed XML structure enclosed by a model element with a unique id attribute (cf. 8). It is defined by the application programmer according to application’s requirements. Although DDL Resource instances themselves are stateful, the data model provides means to share state information among instances of different DDL Resources through common model references.
true John Doe ACME
Figure 8: Sample DDL data model
1118
G. Hübsch, A. Spriestersbach, T. Springer, T. Ziegert
The data model can also be utilized for dialog content control based on the model state. Therefore, we have introduced a reference attribute for DDL parts (cf. 9). This attribute holds an XPath expression over the data model that is evaluated to a Boolean value. Parts with unfulfilled conditions are removed from the dialog.
label Logged In label Not Logged In
Figure 9: Model state based dialog content control
Our concept is similar to the XForms data model approach [XFORMS03], but is extended towards a closer integration with application logic to support the abovenamed objectives.
4.5
Runtime Integration
Fig. 10 depicts the three major steps of request processing within the Adaptation Framework: Event Processing, Resource Processing and Dialog Adaptation. At first, the Client Identification step adds context information to the client request. Based on the event-driven MVC design, request handling starts with analyzing the request for marshaled events and the invocation of event handlers (see sect. 4.3). The Event Processor is the controller component of our architecture. It selects the requested event-handler resource instance and utilizes the DDL Resource description (see sect. 4.1) to interact with resources. Event handling resources select the next view by choosing the appropriate DDL Template. The Template Loader retrieves Dialog Templates from a repository.
A Platform for Mobile and Adaptive Enterprise Applications
1119
DDL DDL Data Data Model Model
Figure 10: Resource Processing and Dialog Adaptation
The Resource Processing step is responsible for DDL Dialog Template processing (see sect. 4.2). The Resource Initialization component parses resource definitions in the Dialog Template. One resource instance is created for every resource definition found. Furthermore, the instance is bound to its DDL-Resource description and added to the resource instance set. Resource instances are managed as HTTP session objects. Thus, they are client specific and maintain their state among several HTTP requests. The Dynamic Content Inclusion component invokes resources for backend access referenced by the template’s dynamic elements and replaces the enclosed field references in the template with backend data. Furthermore, this component handles the model state-based dialog content control described in sect. 4.4. At this point, all template sections have been processed. Finally, the Document Processing step transforms the device independent representation into a target markup language through semantic and syntactic adaptation described in sect. 3.
5
Adaptation Framework
The Adaptation Framework (cf. 11) is the runtime environment of our adaptation system. The software design based on the “Chain of Responsibilities” [Ga+96] design pattern, thus enabling easy extension, implementation reuse and flexible reconfiguration even based on runtime conditions. Client requests are passed through a chain of filter components. The filter chain is executed in a Java Servlet. The implemented filters support our concepts for device independent event processing, resource processing and dialog adaptation. The system may be extended by
1120
G. Hübsch, A. Spriestersbach, T. Springer, T. Ziegert
implementing additional filters. The following section gives a brief overview of the filters and their functionality. HTTP Request ClientRecognizer
Context Profile Repository
EventDispatcher
Template Getter
Template Storage
XMLParser
DOM DDLPreprozessor
Business Logic
DOM
DynamicLoader
DOM Fragmentation
DOM
Model Inclusion
Backend
DOM XSLTProzessor
WML WMLCompiler
HTTP Response
smallHTML,
XSLTStylesheets
HTML
Fragment Measuring Adaptation Framework
Figure 11: Filter chain of the adaptation framework
The ClientRecognizer filter maps the HTTP User Agent header received by the browser to a CC/PP [Nils+00] device profile. The EventDispatcher filter filters the events encoded in HTTP request and invokes the appropriate event handler resources (see sect. 4.3) utilizing a prioritized event queue to handle simultaneous occurrences of events. The TemplateGetter filter retrieves DDL template according to the requested URI from the Template Storage. The XMLParser filter parses the DDL document and transforms it into the DOM representation. The PreprocessorFilter preprocesses DDL dialogs. It is responsible for processing selective content exclusion and resolving inheritance hierarchies (see sect. 3).
A Platform for Mobile and Adaptive Enterprise Applications
1121
The DynamicLoader filter implements the dynamic content processing described in sect 4.2. It is furthermore responsible for the interpretation of DDL resource descriptions and resource instantiation. Resource instances are bound to the HTTPsession between the client and the framework implementation. The filters Fragmentation and FragmentMeasuring collaborate to perform the dialog fragmentation algorithm described in sect. 3.3. Fragmentation divides the dialog into atoms and reassembles the dialog according to the parameters determined for each atom by FragmentMeasuring. These parameters include memory size on the target platform, size in transfer encoding and screen area occupation. The ModelInclusion filter performs the model-state dependent content control described in sect. 4.4. The XSLTProcessor filter transforms DDL into a device specific mark-up through XSL Transformations. The WMLCompiler compiles WML into the binary WMLC (WAP 1.x transfer encoding). Although this is a typical task of a WAP-Gateway, the WMLC code is required to probe the amount of space required by the dialog fragment within a WSP-Service Data Unit.
6
Sample Application
In order to evaluate the concepts presented in this paper, we have implemented the context-aware and adaptive Rent-A-Bike application shown in fig. 12. The application allows users to create, view, update, and delete reservations on desktop computers, PDAs and WAP mobile phones. All reservations and applicationspecific user profiles are stored in a relational database backend. The application logic and backend access is implemented by DDL Resources. User interaction is monitored by DDL events. Dynamic content, for example the ‘Your current reservations’ pull down menu list (cf. 12(1) & 12(3)), is generated utilizing dynamic DDL. All versions of the application are generated from a single source DDL description. The HTML desktop version (cf. 12(1)) is fully featured. It allows full access to the application’s functionality and has the most complex user interface. The PDA version (HTML, cf. 12(3)) has a reduced set of functions. It does not support reservation modifications. The user interface is less complex than on the desktop. In the PDA version, no icons are shown. The mobile phone version (WML, cf. 12(2)) is even further reduced in terms of user interface complexity and application functionality. No headers, footers, and images are shown. There is no possibility to edit the user profile, i.e. the ‘Profile’ menu item is dropped. In contrast to the desktop version, reservations can be viewed, confirmed, and cancelled. There is no quick view option.
1122
G. Hübsch, A. Spriestersbach, T. Springer, T. Ziegert
Figure 12: Rent-A-Bike Application
7
Results and Future Work
We have found our approach, the combination of single source authoring with manually added meta-information and automated on-the-fly adaptation at runtime, to be a promising solution for the design and implementation of adaptive and context-aware web applications. While the strength of our the adaptation platform clearly lays in its ability to provide mobile clients with a central access point to enterprise applications, a drawback for its deployment is the low performance of the adaptation engine that is mainly attributable to complex and time-consuming XML-DOM operations as well as sluggish XSLT processor performance. Furthermore it must be mentioned that application complexity in terms of user interface design and application logic behaviour dramatically increases with the number of supported devices. This fact sometimes yields to a high amount of deviceclass specific DDL code, partly opposing the approach of highly deviceindependent dialog authoring. To overcome this deficiency, we are currently developing advanced concepts for structure-level and application-level adaptation. Structure-level adaptation attempts to describe different navigation structures, dialog compositions and dialog flows. The dialogs necessary for this approach are assembled from semantic dialog units authored in DDL. Every semantic dialog unit describes a well-defined step or transaction within the application. Application-level adaptation aims at extending the description and definition of adaptive application behaviour into the software-engineering process from requirements
A Platform for Mobile and Adaptive Enterprise Applications
1123
engineering over application design to implementation, test and deployment. Furthermore, performance analysis and enhancement will be subject to future work.
References [AbHe00] Abrams, M.; Helms, J.: User Interface Markup Language (UIML) v3.0 draft specification. Harmonia Inc, 2000. [Bick97] Bickmore , T.W.: Digestor: Device-Independent Access to the World-Wide Web. Proceedings of the 6th International WWW Conference, 1997. [Buyu+01] Buyukkokten, O.; Garcia-Molina; H., Paepcke, A.: Seeing the Whole in Parts: Text Summarization for Web Browsing on Handheld Devices. Proc. of 10th Int. World Wide Web Conference. Hong Kong, 2001, pp. 652-662.. [Ce+00] Ceri, S.; Frternali, P.; Bongio, A.: Web Modeling Language (WebML): a modelling language for designing Web sites, Proc. Of 9th International WWW Conference, 2000. [Co04] Connexion by Boeing. http://www.connexionbyboeing.com [Fox +98] Fox, A., Gribble; S. D.; Chawathe, Y.; Brewer, E. A.: Adapting to Network and Client Variation Using Active Proxies: Lessons and Perspectives. IEEE Personal Communications, August 1998, pp. 10–19. [Ga+96] Gamma, E.; Helm, R.; Johnson R.; Vlissides, J.: Design Patterns. ISBN: 0-20163361-2, Addison-Wesley, 1996. [Göbe+01] Göbel, S.; Buchholz, S.; Ziegert, T., Schill, A.: Device Independent Representation of Web-based Dialogs and Contents. Proc. of the IEEE Youth Forum in Computer Science and Engineering (YUFORIC ´01), Valencia, Spain, Nov 2001. [Göbe+02] Göbel, S.; Buchholz, S.; Ziegert, T.; Schill, A.: Software Architecture for the Adaptation of Dialogs and Contents to Different Devices. Proc. of the 16th Int"l Conference on Information Networking (ICOIN-16), Cheju Island, Korea, Jan-Feb 2002. [HDML97] Handheld Device Markup Language Specification, http://www.w3.org/TR/NOTE-Submission-HDML-spec.html, 1997. [Heu+04] Heuser L.; Lauff M.; Ziegert T.: Device Independent Web Applications - the Author Once - Display Everywhere Approach. Proceedings of the International Conference on Web Engineering (ICWE), Munic, July 2004. [Ho+00] Hori, M.; Kondoh, G.; Ono, K.; Hirose, S.; Singhal S.: Annotation-Based Web Content Transcoding. 9th International World Wide Web Conference (WWW9), Amsterdam, Niederlande, May 2000. [Hübs+03] Hübsch, G.; Springer; T., Schill; A, Spriestersbach, A.: Ziegert, T.: Systemlösungen für die Entwicklung adaptiver Anwendungen für mobile und ubiquitäre Infrastrukturen. HMD - Praxis der Wirtschaftsinformatik, Schwerpunktthema: Ubiquitous Computing. Hrsg.: Sauerburger, H., No. 229, February 2003, pp.42-55..
1124
G. Hübsch, A. Spriestersbach, T. Springer, T. Ziegert
[IDC] IDC Research: Western European Teleworking: Mobile Workers and Telecommuters. 2000-2005 [ItMa00] Ito, N.; Manabe, K.,: XML Document Navigation Language. W3C Note by NEC Corporation. 2000. [Mand+02] Mandyam, S.; Vedati, K.; Kuo, C.; Wang, W.: User Interface Adaptations: Indispensable for Single Authoring, W3C Workshop on Device Independent Authoring Techniques. SAP University, St. Leon-Rot, Deutschland, September 2002. [Nils+00] Nilsson, M.; Hjelm, J.; Ohto, H.: Composite Capabilities/Preference Profiles: Requirements and Architecture. W3C Working Draft 21 July 2000. http://www.w3.org/TR/2000/WD-CCPP-ra-20000721/ [Schi+01] Schilit, B.N.; Trevor, J; Hilbert, D.; Koh, T.K.: m-Links: An Infrastructure for Very Small Internet Devices. Proceedings of the 7th Annual International Conference on Mobile Computing and Networking, Rome, Italy, 2001: pp. 122-131. [SpGö02] Springer, T.; Göbel, S.: A Modular Adaptation Framework for Single Source Publishing. In: Pedro Isaías (Ed.), Proc. of the IADIS International Conference WWW/Internet 2002, ISBN: 972-9027-53-6, IADIS Press, Lissabon, Portugal, 2002, , pp. 11-19. [WAP00] Wireless Session Protocol Specification, Approved Version 5-July-2001, Wireless Application Protcol Forum Ltd. http://www.openmobilealliance.org/tech/affiliates/wap/wap-230-wsp-20010705-a.pdf [Wat94] Watson, T.: Application Design for Wireless Computing. Proceedings of the 1st IEEE Workshop on Mobile Computing Systems and Applications (MCSA '94), Santa Cruz, California. 1994: pp. 91-94. [WML01] WAPForum: Wireless Markup Language, Version 2.0. Version 11-Sep-2001, http://www.openmobilealliance.org/. [XFORMS03] XForms 1.0, W3C Recommendation, 14 October 2003, http://www.w3.org/TR/xforms/. [XHTML02] XHTML 1.0: The Extensible HyperText Markup Language (Second Edition), A Reformulation of HTML 4 in XML 1.0. W3C Recommendation 26 January 2000, revised 1 August 2002. http://www.w3.org/TR/xhtml/. [XPATH] W3C: XML Path Language (XPath) Version 1.0. http://www.w3c.org/TR/xpath [XSLT] W3C: XSL Transformations (XSLT) Version 1.0. http://www.w3.org/TR/xslt
Wahrnehmung und Management RFIDbezogener Risiken für die informationelle Selbstbestimmung Frédéric Thiesse, Elgar Fleisch Universität St. Gallen
Zusammenfassung: Der vorliegende Beitrag untersucht die Wahrnehmung von RFID-Technologie in der Öffentlichkeit als Risiko für die informationelle Selbstbestimmung, identifiziert Handlungsbedarfe für das Risikomanagement von Technologieanbietern/–anwendern und diskutiert mögliche Handlungsoptionen. Schlüsselworte: RFID, Privacy, Datenschutz, Risikokommunikation
1
Einführung
Technologien und Anwendungen der Radiofrequenzidentifikation (RFID) erfahren in diesen Tagen ein enormes Interesse seitens der Forschung und betrieblichen Praxis, darüber hinaus aber auch in Medien und Gesellschaft. Während sich Unternehmen von RFID vor allem operative Effizienzgewinne in ihren internen Prozessen erhoffen und Kosten/Nutzen-Gesichtspunkte in den Vordergrund stellen, wurden in den vergangenen Monaten auch Stimmen laut, die auf die möglichen Risiken des RFID-Einsatzes verweisen und eine umfassende Technikfolgenabschätzung fordern. So zählt bspw. die Rückversicherung Swiss Re RFID bzw. Technologien des Pervasive Computing im Allgemeinen neben Nanotechnologie und der Creutzfeld-Jacob-Krankheit zu den derzeit drängendsten „emerging risks“ [Sch04]. Die mit RFID assoziierten Risiken umfassen sowohl direkte Auswirkungen der elektromagnetischen Strahlung auf die Gesundheit als auch indirekte ökonomische Konsequenzen wie den auf die zunehmende Automatisierung u. U. folgenden Personalabbau [Duc03]. Die mit Abstand am häufigsten geäußerte Befürchtung betrifft jedoch die Möglichkeiten des Missbrauchs der mittels RFID generierten Daten und unerwünschte Eingriffe in die Privatsphäre des Einzelnen. Hier reichen die Ängste der Bevölkerung von der Analyse und Auswertung des individuellen Verbraucherverhaltens bis hin zur allgegenwärtigen Überwachung durch die als „Schnüffel-Chips im Joghurtbecher“ [Zei04] titulierten RFID-Transponder.
1126
F. Thiesse, E. Fleisch
Zusätzlich angeheizt wird die Diskussion durch Aktionen und Kampagnen von „Pressure Groups“ [Wha98] wie der US-amerikanischen Vereinigung „Consumers Against Supermarket Privacy Invasion and Numbering (CASPIAN)“ oder des deutschen „Vereins zur Förderung des öffentlichen bewegten und unbewegten Datenverkehrs e.V. (FoeBuD)“. Bspw. führten die medienwirksame Verleihung des sog. „Big Brother Award“ an die Metro AG und eine Demonstration vor dem Metro Future Store in Rheinberg am 28.2.2004 letztlich zu einem Rückzug der dort eingesetzten RFID-basierten Kundenkarten. Dass diese Aktionen keine Einzelfälle darstellen, zeigen weitere Beispiele in Europa und den USA, z.B. CASPIANs Aufruf zum Boykott von Gillette-Produkten aufgrund von Tests mit RFIDTranspondern in Rasierklingenpackungen (s. Abbildung 1).
Abbildung 1: Webseite www.boycottgillette.com
In der Auseinandersetzung mit RFID-Gegnern nahmen Handel, Produzenten und Technologieanbieter gegenüber der zuweilen stark emotionalisierten Debatte bisher eine eher defensive, reagierende Position ein, die von einer sehr zurückhaltenden Informationspolitik und einem Rückzug auf eine Argumentation rund um technische Eigenschaften von RFID gekennzeichnet war. Wie die Entwicklung von Risikothemen in der Vergangenheit vielfach gezeigt hat, ist einer solchen Strategie jedoch in den meisten Fällen kein Erfolg beschieden, sondern birgt vielmehr die Gefahr einer massiven Ablehnung seitens der Kunden und damit eines Scheiterns der Technologieeinführung in sich. Vor diesem Hintergrund unternimmt der vorliegende Beitrag den Versuch einer Analyse der Wahrnehmung von RFID in der Öffentlichkeit sowie der gegen ihre Anwendung vorgebrachten Argumente und diskutiert mögliche Instrumente zur Entwicklung einer umfassenden Strategie zum Umgang mit dem Risikothema RFID. Dabei bildet die Technologiebetrachtung nur einen Aspekt unter anderen. Zu diesem Zweck wird im Folgenden nach der Einführung der grundlegenden Konzepte auf Basis von Nachrichtenmeldungen und Internet-Diskussionsforen die Problemstellung herausgearbeitet. Darauf aufbauend werden im Anschluss Handlungsebenen identifiziert und mögliche Handlungsoptionen vorgestellt.
RFID und informationelle Selbstbestimmung
2 2.1
1127
Grundlagen RFID
RFID ist eine Technologie zur automatischen Identifikation physischer Objekte wie Industriecontainern, Paletten, Getränkedosen oder auch Personen per Funk. Der Identifikationsvorgang erfolgt über einen in oder auf dem jeweiligen Objekt befindlichen Transponder (auch „Tag” oder „Smart Label” genannt), der berührungslos von einem mit einer Antenne ausgestatteten Lesegerät angesprochen werden kann. Transponder werden in unterschiedlichsten Bauformen hergestellt, operieren in verschiedenen Frequenzbändern und haben entweder eine eigene Batterie (Aktivtransponder) oder werden über das elektromagnetische Feld des Lesers mit Energie versorgt (Passivtransponder). Trotz des aktuellen Hypes rund um RFID ist die Technologie keineswegs neu: Die erste wissenschaftliche Publikation geht auf das Jahr 1948 zurück; die kommerzielle Verwertung begann in den 60er Jahren des letzten Jahrhunderts mit der Entwicklung von Systemen zur elektronischen Artikelsicherung (EAS) [Lan01]. Gründe für den erst in jüngster Zeit rapide zunehmenden Run auf RFID sind vielmehr in der fortgeschrittenen Miniaturisierung, Reife und Standardisierung zu suchen sowie im stetigen Preisverfall, der den RFID-Einsatz in mehr und mehr Bereichen wirtschaftlich sinnvoll erscheinen lässt. Gegenüber dem heute zur Güteridentifikation üblichen Barcode unterscheidet sich RFID durch die Möglichkeit zur [Cav04; Gar02] x Pulkerfassung, x Identifikation ohne Sichtverbindung („line of sight”), x eindeutigen Identifikation jedes einzelnen Objekts, x Datenspeicherung auf dem Objekt sowie x hohe Robustheit gegenüber Umwelteinflüssen und Zerstörung. Die Gemeinsamkeit aller RFID-Transponder besteht in einer eindeutigen IDNummer, die z.B. bei der Produktkennzeichnung eine Erkennung nicht mehr nur auf Produkttypen- sondern auf Instanzenebene erlaubt. Das in den meisten derzeitigen Roll-out-Planungen von Unternehmen wie Wal-Mart, Airbus oder dem amerikanischen Department of Defense vorgesehene RFID-Nummerierungsschema ist der „Electronic Product Code (EPC)”, der in den Jahren 1999 bis 2003 am AutoID Center des MIT entwickelt wurde. Der EPC ist eine 96 Bit umfassende Zahl, in die Informationen über den Hersteller, den Produkttyp und eine Seriennummer einkodiert sind [Sar+01].
1128
F. Thiesse, E. Fleisch
Mit diesen Fähigkeiten bildet RFID eine Grundlage für verschiedene Anwendungen des Ubiquitous bzw. Pervasive Computing, dessen Vision eine Welt „smarter” Alltagsgegenstände ist, deren Gebrauchswert über ihre physische Funktion hinaus mit Hilfe digitaler Logik ergänzt und erweitert wird [Fer02; Mat03]. Das betriebswirtschaftliche Potenzial des Ubiquitous Computing liegt in der Überwindung des Medienbruchs zwischen realer und informatischer Welt [Fle01] durch Integration von physischen Abläufen mit Informationssystemen ohne den Zwischenschritt einer manuellen Datenerfassung. In umgekehrter Richtung können Entscheidungen vom IS an das Objekt delegiert werden, z.B. in Form eines Transportbehälters, der seinen Weg durch die Lieferkette ohne übergeordnete Planungsinstanz selbständig bestimmt. Typische Einsatzgebiete von RFID liegen dementsprechend vor allem im Bereich des Supply Chain Managements, wo die Technologie einen vereinfachten Wareneingang und –ausgang, automatische Bestandskontrolle im Lager bzw. auf der Verkaufsfläche, Diebstahlschutz, Fälschungssicherheit usw. ermöglicht. Weitere Anwendungspotenziale ergeben sich in den Bereichen des Produktlebenszyklusmanagement (z.B. Rückrufaktionen, Wartung & Service) und Kundenbeziehungsmanagement (z.B. individualisierte Produktinformation, Marktforschung) bis hin zu neuartigen Geschäftsmodellen durch nutzenbasierte Bezahlung oder lieferantengeführte Bestände [FlDi03].
2.2
Risiken
Die Einführung neuer Technologien ist fast immer auch mit einer Diskussion über die mit ihr verbundenen Risiken verknüpft. Der Begriff des Risikos bezeichnet dabei im Gegensatz zur realen Gefahr ein soziales Konstrukt [Slo99; Tac01], dessen individuelle Wahrnehmung von zahlreichen Faktoren bestimmt wird, wie z.B. Bildung, Beruf, Zugehörigkeit zu einer bestimmten Subkultur usw. [Fin02, WiHe89]. Was für den einen eine ernstzunehmende, nicht akzeptable Gefahr darstellt, kann so aus anderer Perspektive als eher unbedrohlich erscheinen. Dabei unterscheiden sich insb. Expertenurteile drastisch von der Risikobewertung durch Laien [Slo+81]. Während der Experte Risiken vor allem quantitativ definiert und andere Formen der Riskowahrnehmung typischerweise als irrational ablehnt, hat der Laie einen eher intuitiven, qualitativen Risikobegriff, der nicht auf das Produkt von Schadenswahrscheinlichkeit und –ausmaß reduziert ist [ReLe91]. Inwiefern ein Risiko von Laien als hoch oder niedrig eingeschätzt wird, ist wesentlich von der Bekanntheit des Risikos, der Freiwilligkeit der Risikoübernahme, der Schrecklichkeit der Folgen bzw. dem katastrophischen Potenzial sowie dem Nutzen der Technologie abhängig [Hen90; Slo92]. So wird bspw. regelmäßig das Risiko durch radioaktive Strahlung oder BSE geschädigt zu werden weit höher eingeschätzt als die Möglichkeit eines Verkehrs- oder Arbeitsunfalls, obwohl die Statistik eine deutlich andere Sprache spricht [TrMc03].
RFID und informationelle Selbstbestimmung
1129
Eine wesentliche Schlussfolgerung für den Umgang mit Risiken ist daher, dass Kommunikation über diese sich nicht allein um die Konsequenzen bei Eintreffen des zunächst nur potenziellen Risikos drehen darf, sondern auch den Risikoentstehungsprozess selbst beeinflussen muss [Jon01]. Ist das Risikothema hingegen erst einmal etabliert, können Unternehmen und Staat nur noch reagieren [Wie94]. Dies wird darüber hinaus durch den Umstand erschwert, dass der Einzelne die zur Risikobeurteilung herangezogenen Informationen als glaubwürdiger einschätzt, wenn sie z.B. von Ärzten, Freunden oder Umweltschutzgruppen stammen als von staatlichen Behörden, Verbänden oder einzelnen Firmen [TrMc03]. Eine besondere Rolle bei der Risikowahrnehmung kommt in diesem Zusammenhang den Medien zu. Einerseits dienen sie der Öffentlichkeit als wichtigste Informationsquelle zu IT-bezogenen Risiken. So rangieren Fernsehen und Tageszeitungen deutlich vor allen anderen Quellen, während Informationsmaterial der Technologieanbieter selbst nur von einer kleinen Minderheit wahrgenommen wird [SjFr01]. Andererseits verstärken Medien die ohnehin bereits vorhandenen Informationsasymmetrien durch eine Präferenz für negative Ereignisse in Ihrer Berichterstattung [KoKl91; WiHe89]. Eine weitere Schwierigkeit, die speziell den Umgang mit technischen Risiken betrifft, ist die in den letzten Jahrzehnten grundsätzlich gewandelte Einstellung der Gesellschaft gegenüber dem technischen Fortschritt insgesamt. Während in den 60er Jahren des letzten Jahrhunderts die überwiegende Mehrheit der bundesdeutschen Bevölkerung Technik als Segen betrachtete, haben seit den 80er Jahren die Technologieskeptiker deutlich die Oberhand gewonnen [WiHe89]. Dies legt die Vermutung nahe, dass in Zeiten von Wirtschaftswunder und Mondlandung viele der aktuellen Technologiediskussionen grundsätzlich anders verlaufen wären als heute. Entwickelt sich ein Risikothema zu einer Krise, so kann dies für betroffene Unternehmen schwerwiegende Konsequenzen haben [Wat+02], wie Beispiele der letzten Jahre zeigen (siehe [Can02] für eine Sammlung von Fallstudien). Dies können unmittelbare Umsatzeinbussen durch den Rückzug aus einzelnen Märkten sein, aber auch langfristigere Schäden des Unternehmens- oder Markenimage, negative Auswirkungen auf Börsenkurse und Investoren oder politische Auflagen und Beschränkungen durch den Gesetzgeber [Wie94]. Um dies zu verhindern, ist ein frühzeitiges und professionelles Risikomanagement vonnöten, welches Konflikteskalationen vermeidet, bevor das Problem mit fortschreitender Entwicklung vom Unternehmen nicht mehr beeinflusst werden kann. Das Ziel aller Anstrengungen ist dabei die Vermittlung von Wissen, vor allem aber der Aufbau von Vertrauen gegenüber den involvierten Institutionen [Sie01]. Dies gilt im Besonderen auch für die Informations- und Kommunikationstechnik, in deren Zusammenhang zumeist mentale, soziale und politische Risiken diskutiert werden [Jun91].
1130
2.3
F. Thiesse, E. Fleisch
Privacy
Eine der allerersten Formulierungen eines Rechts auf Privatheit geht zurück auf Warren und Brandeis, die 1890 ihr Konzept als „the right to be let alone” [WaBr90] definierten. Ausschlaggebend für die Beschäftigung mit dem Thema war damals noch die Berichterstattung der Bostoner Regenbogenpresse sowie die zunehmende Verbreitung von Fotoapparaten: „[…] and numerous mechanical devices threaten to make good the predicition that ‘what is whispered in the closet shall be proclaimed from the house-tops’.” In der Neuzeit sind es vor allem Informations- und Kommunikationstechnologien, die als Bedrohung der individuellen Privatsphäre gesehen werden. Im Gegensatz zur „physical privacy”, die sich auf den physischen Zugriff auf eine Person bezieht, steht im Zusammenhang mit IuK-Technologien insb. die „information privacy” (zu Deutsch etwa: „informationelle Selbstbestimmung”) im Vordergrund [Smi01]. Den Begriff beschreibt z.B. Westin als „the right to control information about oneself” [Wes67]. Die Herausgabe von persönlichen Informationen ist dabei auf der einen Seite ein alltäglicher notwendiger Vorgang, ohne den ein soziales oder ökonomisches Miteinander nicht möglich wäre [Wes03]. Auf der anderen Seite hat der Einzelne in der heutigen Zeit aufgrund des Einsatzes von IT nahezu keine Chance mehr, die Folgen dieser Offenheit für seine Person abzuschätzen. Die neue Bedrohung von Privatheit hat ihre Grundlage in der Möglichkeit zur dauerhaften Speicherung und Verknüpfung von Informationen über das Individuum: Hatte vor der Einführung von Computertechnik in wirtschaftliche Abläufe persönliche Information noch keinen greifbaren Wert über die einzelne Transaktion hinaus und entzog sich einer weiteren Verwendung, wurde es so auf einmal möglich, aus zahlreichen atomaren Einzeldaten detaillierte Profile von Kunden und ihrem Kaufverhalten zu erstellen [CuBi03; Spi98]. Mit RFID und anderen ubiquitären Technologien entsteht nun eine neue Qualität der Datenerhebung über die bisher gängige Praxis der Informationsgewinnung aus Kreditkartentransaktionen oder Telefonverbindungen hinaus durch x die räumliche und zeitliche Ausdehnung von Beobachtungsaktivitäten, x die fehlende Erkenn- und Rekonstruierbarkeit der Datenerhebung, x die Erhebung neuer Datentypen durch Echtzeitüberwachung, x den immer weniger nachvollziehbaren Erhebungsgrund sowie x den unkontrollierbaren Datenzugriff durch extreme Interkonnektivität [Lan04]. Im Fall von RFID entsteht die Privacy-Problematik insb. durch die weltweit eindeutige Identifizierbarkeit jedes Gutes und die mögliche Verknüpfung mit dem Besitzer, welches grundsätzlich ein automatisches Tracking von Personen möglich macht [Sar+02].
RFID und informationelle Selbstbestimmung
3
1131
Analyse der öffentlichen Diskussion
Im Folgenden sollen die Darstellung und Wahrnehmung von Risiken der RFIDTechnologie in Bezug auf Privacy genauer untersucht werden. Da sowohl AntiRFID-Kampagnen in Form diverser Homepages als auch die Berichterstattung und deren öffentliche Diskussion zu einem großen Teil im Internet stattfinden, liegt es nahe, dieses Medium als Ausgangspunkt für die weitere Analyse heranzuziehen. Den nachfolgenden Aussagen liegt eine Untersuchung auf Basis der „7Tage-News” des Heise-Verlags (www.heise.de) zugrunde, einem auf IT spezialisierten Newsticker eines Herausgebers mehrerer Computermagazine im deutschsprachigen Raum. Diese Auswahl erscheint geeignet, da a) der Fokus auf IT eine große Zahl RFID-bezogener Nachrichten erwarten lässt, b) der Inhalt sich jedoch nicht nur an ein Fachpublikum richtet und c) die an jeden Newseintrag angeschlossenen Diskussionsforen eine unmittelbare Betrachtung der Reaktion auf einzelne Nachrichten erlaubt (vgl. [Ric01] für eine Analyse der Diskussion von Risikothemen in Internet-Newsgroups am Beispiel BSE). In einem ersten Schritt wurden über eine Volltextsuche nach den Stichworten „RFID” und „Transponder” alle relevanten RFID-Nachrichten der letzten Jahre ermittelt, wobei Texte, die sich auf andere Themen (z.B. TV-Satelliten) bezogen manuell wieder aus der Liste entfernt wurden. Anschließend wurden all jene Nachrichten identifiziert, die die Auswirkung von RFID auf information privacy zum Thema hatten. Als Resultat dieses Untersuchungsschritts ergibt sich Abbildung 2, in der die chronologische Abfolge der gesammelten Nachrichten bis Ende Mai 2004 entlang eines Zeitstrahls dargestellt ist. RFID & Privacy
RFID allgemein
01-Jan-2000
01-Jan-2001
01-Jan-2002
01-Jan-2003
01-Jan-2004
Abbildung 2: RFID-bezogene Nachrichten im Heise-Newsticker
Wie sich hier zeigt, wurde Privacy Mitte 2003 schlagartig zum Thema und ist seither unmittelbar mit RFID verknüpft bzw. als Risikothema etabliert. Beginn dieser Entwicklung war eine Meldung vom 8.7.2003 über die Veröffentlichung 68 scheinbar vertraulicher Dokumente über die Pläne des Auto-ID Centers und seiner Sponsoren für die RFID-Einführung durch die Organisation CASPIAN. Der Beitrag nannte als Motivation für den Einsatz der Technik u.a. die Möglichkeit, das Kaufverhalten und die finanziellen Verhältnisse von Verbrauchern ohne deren Wissen zu analysieren. Darüber hinaus wurde passiven RFID-Transpondern die Fähigkeit zugeschrieben, über bis zu 30 Meter hinweg identifizierbar zu sein.
1132
F. Thiesse, E. Fleisch
Beobachtet man den Umgang von Technologieanbietern und Anwendern mit derartigen Meldungen im weiteren Zeitverlauf, so fällt ein sich wiederholendes Muster aus Aktion und Reaktion auf, wobei Unternehmen gegenüber den agierenden Pressure Groups stets in die Defensive gedrängt sind und mit einem raschen Rückzug aus einzelnen Anwendungsbereichen bzw. Projekten reagieren. Einige prominente Beispiele sind in Tabelle 1 zusammengefasst. Firma
Datum
Ereignisse
Benetton / Philips
11.3.2003
Aktion: Benetton kündigt an, zukünftig RFID-Tags in Sisley-Textilien einnähen zu wollen. CASPIAN ruft daraufhin zwei Tage später im Internet zu einem Boykott von Benetton-Produkten auf.
9.4.2003
Reaktion: Benetton verkündet in einer Pressemeldung, auf RFID in Textilien verzichten zu wollen.
8.7.2003
Aktion: CASPIAN veröffentlicht 68 als „confidential” gekennzeichnete Dokumente des Auto-ID Centers, zu dessen größten Sponsoren Wal-Mart und Gillete zählen. Wal-Mart hatte zuvor am 30.4. ein RFID-Pilotprojekt zur automatisierten Inventur im Verkaufsraum gestartet.
9.7.2003
Reaktion: Wal-Mart stoppt das Pilotprojekt und kündigt an, RFID nur noch in der internen Logistik einsetzen zu wollen.
22.7.2003
Aktion: Der britischen Handelskette Tesco wird vorgeworfen, Kunden bei der Entnahme von Rasierklingen aus dem Regal mittels RFID zu erfassen und automatisch zu fotografieren.
15.8.2003
Reaktion: Gillette bestreitet alle Vorwürfe; Tesco gibt zu „sicherheitsrelevante Vorteile” der RFIDTechnik getestet zu haben. Der Pilotversuch wurde Ende Juli 2003 beendet.
1.2.2004
Aktion: FoeBuD demonstriert vor dem Metro Future Store gegen den Einsatz RFID-basierter Kundenkarten.
27.2.2004
Reaktion: Metro tauscht 10.000 Kundenkarten gegen solche ohne RFID-Tag um.
Wal-Mart / Gillette
Tesco / Gillette
Metro
Tabelle 1: Aktion & Reaktion in der Auseinandersetzung um RFID
RFID und informationelle Selbstbestimmung
1133
In einem zweiten Schritt der Untersuchung wurde analysiert, wie die Reaktionen der Leser der Heise-Seiten auf RFID-Nachrichtenmeldungen ausfielen. Die thematische Ausrichtung des Newstickers lässt wg. fehlender Repräsentativität der Teilnehmer an den Diskussionen zwar keine statistische Auswertung zu. Die Forenbeiträge selbst erlauben jedoch eine qualitative Betrachtung von Sprache, Diskussionsstil und Argumentation. Die Kritikpunkte der Diskussionsteilnehmer an RFID lassen sich thematisch in den folgenden vier Aussagen zusammenfassen: x Unsichere Technik: Die Fähigkeiten der Technologie sind in weiten Teilen unklar. Offensichtlich scheint jedoch, dass RFID nur unzureichend Funktionen zur Sicherstellung der Datensicherheit implementiert. x Unklarer Nutzen: Sinn und Zweck der RFID-Einführung ist nicht ersichtlich. Dies betrifft den nicht nachvollziehbaren Nutzen auf Unternehmensseite, vor allem aber hat der Konsument selbst keinen Vorteil von der Technologie. Der Missbrauch von Kundendaten erscheint als naheliegendstes Einsatzgebiet für RFID. x Fehlende Glaubwürdigkeit: Den Aussagen von Handelskonzernen und Produzenten kann kein Glauben geschenkt werden. Die zurückhaltende Informationspolitik zeigt, dass RFID-Anwender etwas zu verbergen haben. x Unzureichende Gesetzeslage: Bestehende Gesetze reichen zum Schutz des Individuums vor RFID nicht aus. Der Gesetzgeber ist aufgerufen, den Einsatz von RFID zu verbieten oder zumindest stark einzuschränken. Die Diskussion selbst verläuft in den meisten Fällen stark emotionalisiert und einzelnen Beiträgen haftet allzu häufig der Charakter von Verschwörungstheorien an, d.h. Staat und Wirtschaft wird per se die Absicht unterstellt, RFID zum Zweck der Überwachung von Privatpersonen einsetzen zu wollen. Der Vergleich zur Orwellschen Dystopie „1984” oder Huxleys „Brave new world” findet sich in zahlreichen Texten wieder. Dies korrespondiert auffällig mit einer Häufung sachlich falscher Vorstellungen von den Möglichkeiten von RFID als Überwachungstechnologie. Bspw. äußern viele Forenteilnehmer die Befürchtung, RFID-Transponder und ihre Träger seien per Satellit weltweit lokalisierbar. Zusammengefasst lässt sich auf Grundlage der betrachteten Forendiskussionen festellen, dass die Wahrnehmung von RFID als Risiko für die Privatsphäre des Einzelnen von massiven Ängsten und einem tiefsitzenden Misstrauen gegenüber den Anwenderfirmen gekennzeichnet ist. Dabei wird auch deutlich, dass ein Mangel an Information seitens der Verbraucher eine, aber keineswegs die einzige Ursache für die Ablehnung der Technologie sind. Handlungsdefizite seitens der Unternehmen bestehen vielmehr auf mehreren Ebenen, wohingegen es den Pressure Groups erfolgreich gelungen ist, das Thema zu besetzen, die öffentliche Wahrnehmung auf die zweifellos vorhandenen Risiken von RFID zu konzentrieren und Nutzenpotenziale weitgehend auszublenden.
1134
4
F. Thiesse, E. Fleisch
Elemente einer Privacy-Strategie
Vor dem Hintergrund der beschriebenen Haltung der Konsumenten gegenüber RFID stellt sich für Unternehmen die Frage, welche Mittel Ihnen noch zur Verfügung stehen, um die Risikowahrnehmung in Ihrem Sinn zu beeinflussen. Ziel ist dabei stets, Wissen über die Technologie zu vermitteln, bzw. dort, wo dies nicht möglich ist und Unsicherheit vorherrscht, den Aufbau eines Vertrauensverhältnisses zu fördern, welches diese Unsicherheit überwinden hilft. Aufbauend auf den zuvor beschriebenen vier Kernaussagen der RFID-Skeptiker lassen sich unmittelbar Handlungsebenen mit jeweils eigenen Gestaltungsobjekten und Zielen ableiten (s. Abbildung 3): x Technologie: Auf der technischen Ebene gilt es, RFID-Systeme um Funktionen zu ergänzen, die einen Datenmissbrauch unmöglich machen oder zumindest erschweren. x Prozesse: Ziel auf der Prozessebene ist die Erhöhung des Nutzens für den Kunden bei gleichzeitiger Reduzierung der Risiken auf ein Minimum durch begleitende organisatorische Maßnahmen. x Dialog: Der Risikodialog in und mit der Öffentlichkeit sowie dem einzelnen Konsumenten zielt auf die Wiedergewinnung verlorener Glaubwürdigkeit ab. x Regeln: Regeln dienen der für alle Seiten verbindlichen Festlegung, welche Anwendungen bzw. Handlungsweisen im Zusammenhang mit der Technologie als zulässig gelten oder nicht. Handlungsebene
Ziele
Regeln
Festlegung zulässiger Handlungsweisen
Dialog
Gewinnung von Glaubwürdigkeit
Prozesse
Fairness und Erhöhung des Kundennutzens
Technologie
Entwicklung sicherer Systeme
Vermittlung von Wissen & Aufbau von Vertrauen
Abbildung 3: Handlungsebenen für das Risikomanagement
RFID und informationelle Selbstbestimmung
4.1
1135
Technologie
Die Möglichkeiten zur Sicherung des Datenschutzes auf technischer Ebene sind vielfältig und umfassen neben allgemeinen Maßnahmen zur IT-Sicherheit auch RFID-spezifische Konzepte, um das unkontrollierte Lesen von Transpondern sowie die Manipulation der darauf gespeicherten Informationen zu verhindern. In der Literatur findet sich hierzu eine Reihe unterschiedlicher Ansätze [Cav04; Jue+03; Kum03; Lan04; Sar+02; Wei+03]: x Abschirmung: Der einfachste Schutz vor einem Zugriff auf den Transponder durch Dritte ist die physikalische Abschirmung mittels eines metallischen Netzes oder einer Folie analog einem Faradayschen Käfig. x Störsender: Die Kommunikation zwischen Transponder und Lesegerät kann durch den Einsatz eines Störsenders verhindert werden. x Blocker-Tag: Bei der iterativen Suche des Lesers nach einer Transponder-ID antwortet der Blocker-Tag stets mit einer passenden ID, so dass der Leser keine Chance hat, die in seiner Umgebung befindlichen Transponder zu erkennen. x Kill-Kommando: Das im Transponder implementierte Kill-Kommando dient zur dauerhaften Deaktivierung, z.B. bei der Übergabe eines Produkts an den Käufer an der Supermarktkasse. x Hash-Lock-Verfahren: Der Tag wird über einen Hash-Wert, der aus einem Zufallsschlüssel generiert wird, gesperrt und reagiert nur noch auf Anfragen, die über diesen Hash-Wert autorisiert sind. Zu einem späteren Zeitpunkt kann der Transponder dann mit Hilfe des Schlüssels wieder entsperrt werden. x Distanz-basierte Zugriffskontrolle: Art und Umfang der vom Transponder gesendeten Informationen werden vom Abstand zum Lesegerät (ermittelt z.B. durch Feldstärke oder Triangulation) abhängig gemacht. x Abhörsichere Antikollisionsprotokolle: Abhörsichere Antikollisionsprotokolle vermeiden die Übertragung kompletter Tag-IDs auf dem Vorwärtskanal (d.h. vom Leser zu den Tags), so dass ein Abhören aus weiter Entfernung verhindert wird. Einige der genannten Verfahren scheitern bereits an mangelnder Praktikabilität aufgrund zu hoher technischer Anforderungen, Komplexität für den Benutzer oder der Tatsache, dass verschiedene RFID-Anwendungen auf diese Weise durch technische Funktionalität von vorneherein unmöglich gemacht werden, z.B. im Rahmen von Mehrwegsystemen. Das aus Kundensicht gravierendste Problem ist jedoch, dass die gewonnene zusätzliche Sicherheit nicht spürbar bzw. sichtbar wird und vor allem keine Möglichkeit zur zuverlässigen Verifikation besteht. Trotz aller Notwendigkeit technischer Weiterentwicklung kann das Ziel der verbesserten Technologieakzeptanz somit auf diese Weise allein nicht erreicht werden.
1136
4.2
F. Thiesse, E. Fleisch
Prozesse
Mit der Änderung von Abläufen auf der Prozessebene können in zweierlei Hinsicht Anreize geschaffen werden, die die Einstellung von Konsumenten gegenüber der RFID-Technologie positiv beeinflussen. Einerseits sollten Prozesse so gestaltet sein, dass dem Kunden der Eindruck von „procedural fairness”, d.h. dem fairen Umgang mit ihm im Rahmen geschäftlicher Aktivitäten, vermittelt wird [CuAr99]. Wesentlicher Faktor ist in diesem Zusammenhang neben dem Wissen über Abläufe die Kontrolle über dieselbigen [CuBi03], bspw. durch Opt-InWahlmöglichkeiten. „Opt-In” bezeichnet hierbei die Notwendigkeit, im Rahmen einer Geschäftsbeziehung eine Entscheidung für einen Service (z.B. die Zusendung personalisierter Werbemails) bewusst treffen zu müssen, während „Opt-out” die positive Entscheidung durch Voreinstellungen vorwegnimmt und der Kunde gezwungen ist, explizit zu widersprechen [MaLa01; Win01]. Opt-In setzt dabei voraus, dass dem Kunden die Folgen einer positiven Entscheidung klar offen gelegt werden. Andererseits kann durch verbesserte Prozesse die Bereitschaft des Kunden zur Technologieakzeptanz durch zusätzliche Leistungen und Nutzeffekte erhöht werden. So konnte in zahlreichen Untersuchungen auf Grundlage des weit verbreiteten „Technology Acceptance Model (TAM)” [Dav89] zu E-Mail, Telemedizin und anderen IT-Themen gezeigt werden, dass die Akzeptanz auf Nutzerseite im Wesentlichen von der wahrgenommenen Einfachheit der Nutzung sowie der wahrgenommenen Nützlichkeit einer Technologie abhängig ist [ChLa03; McC03]. Es kann daher mit hoher Wahrscheinlichkeit davon ausgegangen werden, dass ansprechend gestaltete Dienste auf RFID-Basis auch einen positiven Einfluss auf die Akzeptanz der Technologie selbst hätten. Beispiele für derartige Dienste sind [FlDi03; SpBe04]: x Beschleunigter Bezahlvorgang an der Supermarktkasse durch automatische Erfassung aller eingekauften Waren im Einkaufskorb. x Produktinformationen, die der Kunde im Geschäft oder daheim abrufen kann, z.B. Verbraucherinformationen, Bedienungsanleitungen oder Softwareupdates. x Nutzungs- bzw. Risiko-basierte Abrechnungsmodelle, bei denen z.B. die Miete für eine Maschine oder die Versicherungsprämie für ein Auto nicht über die Dauer, sondern die Art der Nutzung berechnet werden. x Wartungs- und Reparaturdienste, die als Service über das Internet angeboten werden, sowie effizientere Durchführung von Rückholaktionen und Bearbeitung von Garantiefällen. x Vermeidung von Fälschungen von Luxusgütern, Autoersatzteilen oder Medikamenten, die durch einen RFID-Transponder eindeutig als Original identifiziert und deren Weg in der Lieferkette zurückverfolgt werden kann.
RFID und informationelle Selbstbestimmung
4.3
1137
Dialog
Obwohl die Erkenntnis, dass der Sinn und Zweck von Marketing sowohl in der Gewinnung als auch in der Bindung von Kunden besteht, nicht grundsätzlich neu ist, lag der Schwerpunkt in der Vergangenheit eher auf Akquise von Neukunden als in der Beziehungspflege zu Bestandskunden. Während z.B. Finanzdienstleister im Übergang vom Transaktions- zum Beziehungsmarketing bereits relativ weit fortgeschritten sind, wird im Handel der Begriff der „customer relation” weitgehend auf „customer loyalty” reduziert. Ziel entsprechender Loyalty- oder Frequency-Programme ist weniger der Aufbau einer Beziehung zum Kunden als die Erhöhung der Transaktionshäufigkeit durch Schaffung von Anreizen [Win01], z.B. durch Rabattkarten (vgl. hierzu bspw. die Beschreibung des LoyaltyProgramms der Handelskette Tesco bei [Hum+04]). Während somit auf der einen Seite der Aufbau einer Beziehung des Kunden zum Unternehmen unterbleibt, führt die Art und Weise der Datensammlung in den gängigen Kundenkartensystemen zu einem Vertrauensverlust seitens der Kunden [Fle03]. Vor diesem Hintergrund kommt dem offenen Dialog mit Kunden unabhängig von der einzelnen Transaktion eine wichtige Rolle in der (Wieder-)Gewinnung von Vertrauen und Glaubwürdigkeit zu. In der konkreten Auseinandersetzung um RFID herrschen hingegen Strategien vor, die auf das Herunterspielen von Risiken bzw. die Belehrung der Öffentlichkeit ausgerichtet sind, oder schlichte Kommunikationsenthaltung – Kommunikationsstrategien also, die wenig geeignet erscheinen, um den Konsumenten für das Unternehmen zu gewinnen. Wiedemann nennt folgende typische Fehler in der Kommunikation, die sich nahezu 1:1 in der aktuellen Diskussion wiederfinden [Wie94]: x Verleugnung und defensive Informationspolitik x Beschwichtigung (Versuch des „Weg-Redens”) x Aggressive und konfrontative Auseinandersetzungen sowie Polemik x Nur Worte, keine Taten x Zu späte Information x Reaktive Informationspolitik x Mangelnde Klarheit und Verständlichkeit der Informationen x Unzureichender Bezug auf die vorhandenen Informationsbedürfnisse und Vorstellungen der Öffentlichkeit Die Entwicklung eines konstruktiven Dialogs ist aufgrund häufig verhärteter Fronten und Verständigungsprobleme schwierig. Nichtsdestotrotz sind z.B. die Bereitschaft zu Interviews, praktische Demonstrationen, Kooperation mit Interessenverbänden, Vermittlung von Experten usw. langfristig erfolgreiche Maßnahmen einer offenen und offensiven Kommunikationskultur [WiHe89].
1138
4.4
F. Thiesse, E. Fleisch
Regeln
Die Festlegung verbindlicher Regeln kann entweder durch Gesetze und Verordnungen oder in Form einer Selbstverpflichtung erfolgen. Während die Einbindung der neutralen Institution des Staates einen gewissen Vertrauensbonus mit sich bringt, hat die Selbstverpflichtung der Industrie den Vorteil informellerer Kontrollmechanismen. In beiden Fällen ist für die Entwicklung einer Strategie zunächst wichtig, bereits bestehende Regelungen zu kennen. In den USA und Europa haben sich im Verlauf der letzten Jahrzehnte grundsätzlich verschiedene Herangehensweisen zum Schutz der Privatsphäre etabliert (s. Tabelle 2) [Lan04; Smi01]: Dem vor allem in Europa favorisierten Ansatz umfassender, sektorenübergreifender Datenschutzgesetze steht in den USA ein Mix aus spezifischer Gesetzgebung und freiwilliger Selbstbeschränkung von Industrie und Handel gegenüber. Vor diesem Hintergrund erklärt sich u.a. die amerikanische Forderung nach einem „RFID Bill of Rights” [Gar02], wohingegen entsprechende Vorhaben in Europa bereits im Vorfeld verworfen wurden. USA
Europa
Legislativer Ansatz
sektoriell
universell
Regulative Struktur
Selbstinitiative und freiwillige Kontrolle
zentralisierte Behörde (Beauftragter, Registrierstelle oder Lizenzierung)
Rechte des Datensubjekts
Keine oder Opt-out (anwendungsabhängig)
Prüfung / Korrektur, Opt-out (teilw. Opt-in)
Rolle von Privacy in der Gesellschaft
Verhandlungssache
Menschenrecht
Tabelle 2: Unterschiede im Datenschutzrecht in USA und Europa [Smi01]
Unabhängig von der Gesetzeslage erfüllt eine öffentliche Selbstverpflichtung darüber hinaus die Aufgabe, das Bekenntnis eines Unternehmens zur Einhaltung bestimmter Standards nach außen zu dokumentieren. Beispiele hierfür sind die vorgeschlagene Kennzeichnung EPC-bestückter Produkte (s. Abbildung 4) oder die organisatorische Verankerung in Form eines „Chief Privacy Officer” [HB01; Jon04].
Abbildung 4: Label zur Kennzeichnung von Produkten mit EPC-Transpondern [EPC04]
RFID und informationelle Selbstbestimmung
5
1139
Zusammenfassung und Ausblick
Wie die vorangegangenen Ausführungen gezeigt haben, ist die Wahrnehmung von RFID als Risiko mittlerweile etabliert und entwickelt sich in ähnlicher Weise wie bereits andere technologische Risikothemen in der Vergangenheit. Inwiefern das Thema das Stadium der Krise erreicht oder vorher abflaut, ist zurzeit noch völlig offen und hängt vom weiteren Verlauf der Auseinandersetzung ab (s. Abbildung 5). Ob es Technologieanbietern und -anwendern gelingt, die öffentliche Wahrnehmung noch zu drehen und das Thema positiv zu besetzen, wird in jedem Fall wesentlich von der gewählten Risikomanagementstrategie bestimmt. Öffentliche Aufmerksamkeit gross
Latenz
Emergenz
Risikothema RFID
Krise
Regulation
?
gering Zeit
Abbildung 5: Lebenslauf des Risikothemas RFID (in Anlehnung an [Car+00, S. 14])
Durch ihren Rückzug aus einzelnen kritischen Anwendungsbereichen und die Entscheidung, RFID zunächst nicht auf Einzelproduktebene, sondern nur auf Paletten und Umverpackungen einzusetzen (s. hierzu bspw. Angaben der METRO Group zum geplanten RFID-Roll-out in [MET04]), haben Industrie und Handel etwas Zeit gewonnen. Mit der Weiterentwicklung der Technologie bei gleichzeitig sinkenden Preisen werden jedoch voraussichtlich auch nach und nach Anwendungen wirtschaftlich attraktiv werden, die aktivierte Transponder auf Einzelprodukten über den Kauf- und Bezahlvorgang hinaus beim Kunden voraussetzen. Vor diesem Hintergrund können der vorliegende Beitrag und insb. das vorgestellte Ebenenmodell als ein Gestaltungsrahmen für das Risikomanagement jenseits der derzeit noch zumeist vorherrschenden technologiezentrischen Sichtweise dienen.
1140
6
F. Thiesse, E. Fleisch
Danksagung
Die vorliegende Arbeit wurde durch das M-Lab – The Mobile and Ubiquitous Computing Lab und seine Partnerunternehmen unterstützt. Das M-Lab ist ein Gemeinschaftsprojekt der Universität St. Gallen und ETH Zürich und Mitglied des internationalen Auto-ID Lab Network.
Literatur [Can02] Cantwell, B.: Why Technical Breakthroughs Fail: A History of Public Concern with Emerging Technologies. White Paper, Auto-ID Center, Cambridge, 2002 [Car+00] Carius, R.; Henschel, C.; Kastenholz, H.G.; Nothdurft, W.; Ruff, F.; Uth, H.J.; Wiedemann, P.M.: Risikokommunikation für Unternehmen. Verein deutscher Ingenieure (VDI), Düsseldorf, 2000 [Cav04] Cavoukian, A.: Tag, You’re It: Privacy Implications of Radio Frequency Identification (RFID) Technology. Information and Privacy Commissioner Ontario, Toronto, 2004 [ChLa03] Chau, P.Y.K.; Lai, V.S.K.: An Empirical Investigation of the Determinants of User Acceptance of Internet Banking. Journal of Organizational Computing and Electronic Commerce, Jg. 13, Nr. 2, 2003, S. 123-145 [CuAr99] Culnan, M.J.; Armstrong, P.K.: Information Privacy Concerns, Procedural Fairness, and Impersonal Trust: An Empirical Investigation. Organization Science, Jg. 10, Nr. 1, 1999, S. 104-116 [CuBi03] Culnan, M.J.; Bies, R.J.: Consumer Privacy: Balancing Economic and Justice Considerations. Journal of Social Issues, Jg. 59, Nr. 2, 2003, S. 323-342 [Dav89] Davis, F.D.: Perceived Usefulness, Perceived Ease of Use and User Acceptance of Information Technology. MIS Quarterly, Jg. 13, Nr. 3, 1989, S. 319-339 [Duc03] Duce, H.: Public Policy: Understanding Public Opinion. Executive Briefing, AutoID Center, Cambridge, 2003 [EPC04] EPCglobal Consumer Information. EPCglobal Inc., 2004 http://www.epcglobalinc.org/consumer/index.html (Abruf 14.7.2004) [Fer02] Ferguson, G.: Have Your Objects Call My Objects. Harvard Business Review, Jg. 80, Nr. 6, 2002, S. 138-144 [Fin02] Finucane, M.L.: Mad Cows, Mad Corn & Mad Money: Applying What We Know About the Perceived Risk of Technologies to the Perceived Risk of Securities. The Journal of Psychology and Financial Markets, Jg. 3, Nr. 4, 2002, S. 236-243 [FlDi03] Fleisch, E.; Dierkes, M.: Ubiquitous Computing aus betriebswirtschaftlicher Sicht. Wirtschaftsinformatik, Jg. 41, Nr. 6, 2003, S. 661-670
RFID und informationelle Selbstbestimmung
1141
[Fle01] Fleisch, E.: Betriebswirtschaftliche Perspektiven des Ubiquitous Computing. In: Buhl, H.U.; Huther, A.; Reitwiesner, B.: Information Age Economy, Physica-Verlag, Heidelberg, 2001, S. 177-191 [Fle03] Fletcher, K.: Consumer power and privacy: the changing nature of CRM. International Journal of Advertising, Jg. 22, Nr. 2, 2003, S. 249-272 [Gar02] Garfinkel, S.L.: Adopting Fair Information Practices to Low Cost RFID Systems. International Conference on Ubiquitous Computing, Göteborg, 2002 [HB01] Chief Privacy Officer. Harvard Business Review, Jg. 78, Nr. 6, 2001, S. 20-21 [Hen90] Hennen, L.: Risiko-Kommunikation: Informations- und Kommunikationstechnologien. In: Jungermann, H.; Rohrmann, B.; Wiedemann, P.M. (Hrsg.): Risiko-Konzepte – Risiko-Konflikte – Risiko-Kommunikation. Forschungszentrum Jülich, 1990, S. 209258 + [Hum 04] Humby, C.; Hunt, T.; Phillips, T.: Scoring Points: How Tesco Is Winning Customer Loyalty. Kogan Page, London, 2004
[Jon01] Jones, K.E.: BSE, Risk and the Communication of Uncertainty: A Review of Lord Phillips’ Report from the BSE Inquiry. Canadian Journal of Sociology, Jg. 26, Nr. 4, 2001, S. 655-666 [Jon04] Jonietz, E.: Tracking Privacy. Technology Review, Jg. 107, Nr. 6, 2004, S. 74-75 + [Jue 03] Juels, A., Rivest, R., Szydlo, M.: The Blocker Tag: Selective Blocking of RFID Tags for Consumer Privacy. ACM Conference on Computer and Communications Security, Washington D.C., 2003
[Jun91] Jungermann, H.: Inhalte und Konzepte der Risikokommunikation. In: Jungermann, H.; Rohrmann, B.; Wiedemann, P.M. (Hrsg.): Risikokontroversen – Konzepte, Konflikte, Kommunikation. Springer Verlag, Berlin, 1991, S. 335-354 [KoKl91] Koren, G; Klein, N.: Bias against negative studies in newspaper reports of medical research. Journal of the American Medical Association, Jg. 266, Nr. 13, 1991, S. 1824-1826 [Kum03] Kumar, R.: Interaction of RFID Technology and Public Policy. RFID Privacy Workshop @ MIT, Boston (MA), 2003 [Lan01] Landt, J.: Shrouds of Time: The history of RFID. AIM Inc., Pittsburgh (PA), 2001 [Lan04] Langheinrich, M.: Die Privatsphäre im Ubiquitous Computing – Datenschutzaspekte der RFID-Technologie. Institut für Pervasive Computing, ETH Zürich, 2004 (noch nicht erschienen) [MaLa01] Mattern, F.; Langheinrich, M.: Allgegenwärtigkeit des Computers – Datenschutz in einer Welt intelligenter Alltagsdinge. In: Müller, G.; Reichenbach, M. (Hrsg.): Sicherheitskonzepte für das Internet, Springer Verlag, Berlin, 2001 [Mat03] Mattern, F.: Vom Verschwinden des Computers – Die Vision des Ubiquitous Computing. In: Mattern, F. (Hrsg.): Total vernetzt. Springer Verlag, Berlin, 2003, S. 141.
1142
F. Thiesse, E. Fleisch
[McC03] McCloskey, D.: Evaluating Electronic Commerce Acceptance with the Technology Acceptance Model. Journal of Computer Information Systems, Jg. 4, Nr. 2, 2003, S. 49-57 [MET04] Leitlinien für den RFID-Roll-out der METRO Group. METRO Group, Düsseldorf, 2004 [ReLe91] Renn, O.; Levine, D.: Credibility and trust in risk communication. In: Kasperson, R.E.; Stallen, P.J.M. (Hrsg.): Communicating Risks to the Public, Kluwer, Dordrecht, 1990, S. 175-218 [Ric01] Richardson, K.: Risk news in the world of Internet newsgroups. Journal of Sociolinguistics, Jg. 5, Nr. 1, 2001, S. 50-72 + [Sar 02] Sarma, S.; Weis, S.; Engels, D.: RFID Systems, Security & Privacy Implications. White Paper, Auto-ID Center, Cambridge, 2002
[Sar+01] Sarma, S.; Brock, D.; Engels, D.: Radio Frequency Identification and the Electronic Product Code. IEEE Micro, Jg. 21, Nr. 6, 2001, S. 50-54 [Sch04] Schneider, R.: Emerging Risks – Analyse or Exclude. Reinsurance Lecture, The Institute of London, London, 13. Januar 2004 http://www.iilondon.co.uk/pdf/RSchneider140104.pdf (Abruf 14.7.2004) [Sie01] Siegrist, M.: Die Bedeutung von Vertrauen bei der Wahrnehmung und Bewertung von Risiken. Arbeitsbericht Nr. 197, Akademie für Technikfolgenabschätzung in Baden-Württemberg, Stuttgart, 2001 [SjFr01] Sjöberg, L.; Framm, J.: Information Technology Risks as Seen by the Public. Risk Analysis, Jg. 21, Nr. 3, 2001, S. 427-441 [Slo+81] Slovic, P.; Fischhoff, B.; Lichtenstein, S.: Facts and Fears: Societal Perception of Risk. Advances in Consumer Research, Jg. 8, Nr. 1, 1981, S. 497-502 [Slo92] Slovic, P.: Perception of risk: Reflections on the psychometric paradigm. In: Krimsky, S.; Golding, D. (Hrsg.): Social theories of risk. Praeger, Westport (CT), 1992, S. 117-152 [Slo99] Slovic, P.: Trust, emotion, sex, politics, and science: Surveying the risk-assessment battlefield. Risk Analysis, Jg. 19, Nr. 4, S. 689-701 [Smi01] Smith, H.J.: Information Privacy and Marketing: What the U.S. should (and shouldn’t) learn from Europe. California Management Review, Jg. 43, Nr. 2, 2001, S. 8-33 [SpBe04] Spiekermann, S.; Berthold, O.: Maintaining privacy in RFID enabled environments – Proposal for a disable-model. Workshop on Security and Privacy in Pervasive Computing, Int. Conference on Pervasive Computing, 2004 [Spi98] Spinello, R.A.: Privacy Rights in the Information Economy. Business Ethics Quarterly, Jg. 8, Nr. 4, 1998, S. 723-742 [Tac01] Tacke, V.: BSE as an organizational construction: a case study on the globalization of risk. British Journal of Sociology, Jg. 52, Nr. 2, 2001, S. 293-312
RFID und informationelle Selbstbestimmung
1143
[TrMc03] Trumbo, C.W.; McComas, K.A.: The Function of Credibility in Information Processing for Risk Perception. Risk Analysis, Jg. 23, Nr. 2, 2003, S. 343-353 [WaBr90] Warren, S.D.; Brandeis, L.D.: The Right to Privacy. Harvard Law Review, Jg. 4, Nr. 5, 1890, S. 193-220 [Wat+02] Watson, T.; Osborne-Brown, S.; Longhurst, M.: Issues Negotiation – investing in stakeholders. Corporate Communications, Jg. 7, Nr. 1, 2002, S. 54-61 [Wei+03] Weis, S., Sarma, S., Rivest, R., & Engels, D.: Security and Privacy Aspects of Low-Cost Radio Frequency Identification Systems. Int. Conference on Security in Pervasive Computing, Boppard, 2003 [Wes03] Westin, A.: Social and Political Dimensions of Privacy. Journal of Social Issues, Jg. 59, Nr. 2, 2003, S. 431-453 [Wes67] Westin, A.: Privacy and Freedom. Atheneum, New York, 1967 [Wha98] Whawell, P.: The ethics of pressure groups. Business Ethics, Jg. 7, Nr. 3, 1998, S. 178-181 [Wie94] Wiedemann, P.: Krisenmanagement & Krisenkommunikation. Arbeiten zur Risiko-Kommunikation, Heft 41, Forschungszentrum Jülich, 1994 [WiHe89] Wiedemann, P.; Hennen, L.: Schwierigkeiten bei der Kommunikation über technische Risiken. Arbeiten zur Risikommunikation, Heft 9, Forschungszentrum Jülich, 1989 [Win01] Winer, R.S.: A Framework for Customer Relationship Management. California Management Review, Jg. 43, Nr. 4, 2001, S. 89-105 [Zei04] Zeidler, M.: RFID: Der Schnüffel-Chip im Joghurtbecher. Monitor, Westdeutscher Rundfunk, Köln, 8. Januar 2004 http://www.wdr.de/tv/monitor/pdf/040108f_rfid.pdf (Abruf 14.7.2004)
RFID als Technik des Ubiquitous Computing – Eine Gefahr für die Privatsphäre? Jürgen Müller Universität Kassel
Matthias Handy Universität Rostock
Zusammenfassung: In dem folgenden Beitrag werden in einer interdisziplinären Betrachtung rechtliche und technische Aspekte des Einsatzes von Funketiketten bzw. RFID-Systemen als wichtige Technik des „Ubiquitous Business“ beleuchtet. An Hand von Anwendungskonstellationen wird die Einordnung von RFIDSystemen ins Telekommunikations-, Multimedia- und Datenschutzrecht vorgenommen. In diesem Beitrag werden mögliche Risiken des Einsatzes von RFIDSystemen aufgezeigt, um auf die datenschutzrechtlichen Prinzipien bezogenen Schutzbedarf abzuleiten. Zur Sicherung der datenschutzrechtlichen Zweckbindung werden unter anderem eine Anwendungskennung (AK) und eine Verwendungskennung (VK) vorgeschlagen, die bestimmte Verarbeitungsbeschränkungen von Daten gegenüber verantwortlichen Stellen deutlich machen. Schlüsselworte: RFID-Techniken, Funketiketten, Datenschutzrecht, Risikoanalyse, Schutzbedarf, Ubiquitous Computing, Ubiquitous Business.
1
Einleitung
RFID-Systeme sind nur ein Aspekt einer größeren Entwicklung der Mikroelektronik und Informationstechnik hin zu einer Welt der allgegenwärtigen Rechnertechnik oder des Ubiquitous Computing. Ubiquitous Computing ist eine Technikvision, so Marc Weiser bereits 1991, deren Kernidee es ist, dass Mikroelektronik nach und nach in Gegenstände des täglichen Lebens eindringt und deren Funktionalität beträchtlich erweitert [Weis91]. Ziel des Ubiquitous Computing ist die „nachhaltige Unterstützung des Menschen sowie eine durchgängige Optimierung wirtschaftlicher Prozesse durch eine Vielzahl von in die Umgebung eingebrachter Mikroprozessoren und Sensoren“ [LaMa03]. RFID-Systeme können einerseits als Basistechnologie des Ubiquitous Computing angesehen werden. Andererseits gelten sie auch als Wegbereiter einer derart in-
1146
J. Müller, M. Handy
formatisierten Welt, da sie keine Extrapolation heute verfügbarer Technologien sind, sondern sich vielmehr bereits heute in unterschiedlichen Anwendungen einsetzen lassen. Bei zunehmender Miniaturisierung, Verbesserung noch bestehender technischer Schwierigkeiten, Erhöhung der Speicherkapazität und Ergänzung weiterer Funktionalitäten sowie vor allem zunehmender Kostenreduzierung wird ein massenhafter Einsatz in vielen Alltagsfeldern erwartet. RFID-Systeme werden bereits heute beispielsweise zur Verfolgung von Ersatzteilen in der Montagereihe, zur Sortierung von Kleidungsstücken in Großwäschereien oder zur Identifikation von Kunden mit Hilfe von Kundenkarten eingesetzt. Ein größerer Einsatz von RFID-Systemen ist in Deutschland zur Fußball-Weltmeisterschaft 2006 geplant. Die Einsatzmöglichkeiten von Funketiketten oder Radio-Frequency-IdentificationTechnik (RFID) werden von Verbraucher- und Datenschützern weltweit kritisch diskutiert. Auf der einen Seite verspricht sich die Industrie durch den Einsatz von RFID-Systemen, besonders im Logistikbereich, neue Möglichkeiten der kontaktlosen Produkterfassung, -verfolgung von Waren und von neuen Vertriebskonzepten, wie produktbezogene Kundeninformationssysteme, sowie Kostenersparnisse durch Effizienzsteigerungen. Auf der anderen Seite wird befürchtet, dass die informationelle Selbstbestimmung des Kunden durch versteckt angebrachte RFIDMarken an Gegenständen oder versteckt aufgestellte Lesegeräte beeinträchtigt würde.
2
Methodisches Vorgehen
Der vorliegende Beitrag verfolgt das Ziel, erste Ansätze zur verfassungsverträglichen Gestaltung der neuen RFID-Technik zu erarbeiten. Dabei werden Vorgehensweisen der Methode KORA zur Konkretisierung von rechtlichen Gestaltungsanforderungen [Roßn93] aufgegriffen und in die hier verwendete Methode zur rechtlichen Analyse neuer Technikentwicklungen überführt. Nach einer Subsumtion der RFID-Systeme am geltenden Recht werden die sich hieraus ergebenden Rechtsfolgen hinsichtlich ihrer Tragfähigkeit für die neue RFID-Technik untersucht. Um erste technische und normative Gestaltungsvorschläge ableiten zu können, werden mit dem Einsatz von RFID-Systemen verbundene Risiken und bestehender Schutzbedarf in Rückbindung an Prinzipien und verfassungsmäßige Werte der Rechtsordnung diskutiert. Nicht alle fünf Schritte können im folgenden Beitrag in gleicher Ausführlichkeit dargestellt werden.
RFID als Technik des Ubiquitous Computing – Eine Gefahr für die Privatsphäre?
3
1147
Grundlegendes zu RFID-Systemen
Ein RFID-System besteht in seiner einfachsten Form aus einem Lesegerät und aktiven bzw. passiven Transpondern (RFID-Marken). RFID-Lesegeräte setzen sich aus einer Steuerungseinheit und einer Hochfrequenzeinheit zusammen. Die Steuerungseinheit koordiniert und überwacht den Kommunikationsablauf mit dem Transponder, ist für die Signalcodierung und -decodierung verantwortlich und kommuniziert bei Bedarf mit einer Applikationssoftware auf einem angeschlossenen PC. Überdies wird die Steuerungseinheit zur Durchführung von Sicherheitsund Antikollisionsverfahren verwendet. Das HF-Interface erzeugt eine hochfrequente Trägerfrequenz und übernimmt die Aufgabe der Modulation bzw. Demodulation. Eine passive RFID-Marke besteht üblicherweise aus einem Mikrochip (RFIDChip) und einem Koppelelement (z.B. Antennenspule und Kondensator). Die erforderliche Energie wird bei passiven induktiv gekoppelten RFID-Marken dem magnetischen Wechselfeld des Lesegerätes entzogen. Handelsübliche passive RFID-Marken in Etikettenform sind zum Beispiel die von Texas Instruments angebotenen Tag-it HF-I Inlays [Texa02] oder die I-Code-SLI-Familie von Philips [Phil03]. Bei diesen auch als Smart Label bezeichneten Transpondern sind Koppelelement und Mikrochip (RFID-Chip) auf einer PET-Folie aufgebracht. Weltweit federführend bei der Entwicklung von RFID-basierter Produktkennzeichnung ist EPCglobal, ein Gemeinschaftsunternehmen der europäischen EAN international und des US-amerikanischen Uniform Code Council (UCC). EPCglobal soll einen weltweiten Standard zur Produktkennzeichnung per RFID entwickeln. Kern dieser Produktkennzeichnung ist der Elektronische Produkt-Code (EPC), eine weltweit eindeutige Nummer, die einem Produkt zugewiesen wird und anhand derer es auf der gesamten Versorgungskette identifizierbar ist. Der EPC ist auf einem RFID-Chip gespeichert und kann von kompatiblen Lesegeräten ausgelesen werden. Der EPC ist eingebettet in das so genannte EPCglobal Network, einer Sammelbezeichnung für verschiedene Technologien, die mit der elektronischen Produktkennzeichnung verbunden sind (EPC tags, Lesegeräte, Object Name Service (ONS), Physical Markup Language (PML), Savant). Der Object Name Service gibt Auskunft darüber, wo Informationen zu dem entsprechenden Produktcode zu finden sind. Die Physical Markup Language ist eine standardisierte Form zur Beschreibung von Produktinformationen. Savant ist das zentrale Nervensystem des EPCglobal Network und verwaltet und transportiert sämtliche Informationen des Systems. Aktuell ist die Version 1 der EPC-Spezifikation verfügbar [Epcs04]. In den folgenden Ausführungen wird bei den auf der RFID-Marke gespeicherten Daten zwischen der Markenkennung (auch Kennung) und sonstigen Daten unterschieden. Dabei ist zu beachten, dass nicht alle RFID-Marken in der Lage sind, über die Kennung hinaus Daten zu speichern.
1148
4
J. Müller, M. Handy
Rechtlich relevante Anwendungskonstellationen
Die derzeit diskutierten Anwendungsszenarien für Transpondertechnik lassen sich in verschiedene Kategorien von Anwendungen einordnen. So dienen an Produkten angebrachte RFID-Marken bzw. Funketiketten dem Kunden im Einzelhandel als elektronisches Kundeninformationssystem (Fallgruppe 1). Eine Erweiterung der Fallgruppe 1 würde sich ergeben, wenn das Funketikett am Produkt nicht nur durch ein Lesegerät vom Kunden ausgelesen werden kann, sondern der Einzelhändler dem Kunden an seinen Lesegeräten eine Funkschnittstelle anbietet, über die er die Informationen bzw. Daten des Funketiketts an einen PDA des Kunden beispielsweise übermittelt. Hingegen verwendet eine Wäscherei, die in die Kleidungsstücke des Kunden eingenähte RFID-Marken als Informations- und Kennzeichnungssystem für Prozesssteuerung im eigenen Betrieb, (gleich einer an den Kunden ausgegebene Kundenkarte) deren Beschreiben und Auslesen ausschließlich durch die ausgebende Wäscherei erfolgt (Fallgruppe 2). Hierbei ist wichtig, dass der Kunde bzw. Betroffene über den Gebrauch der RFID-Marke hinaus, keinen Einfluss auf die Daten verarbeitenden Vorgänge besitzt. Als dritte Fallgruppe sind Konstellationen einzuordnen, in denen Montageunternehmen oder Groß- bzw. Einzelhändler die RFID-Marken bzw. Funketiketten, die Paletten und Einzelprodukte markieren, ebenfalls nur intern für ihre eigenen Aufgaben in der Montagereihe oder in der Warenlogistik nutzen und nicht dem Kunden als Dritten, wie in der ersten Fallgruppe, anbieten. Für eine rechtliche Betrachtung erscheinen im Blick auf den heutigen Stand der Technik drei Hauptkonstellationen maßgeblich, die auch in den Eingangs beschriebenen Anwendungsbeispielen angelegt sind: x Funketiketten als Informations- und Kennzeichnungssystem für die Verwendung durch Dritte (Konstellation 1) x Funketiketten als Informations- und Kennzeichnungssystem für die eigene Verwendung, bei Ausgabe derselben an den Betroffenen (Konstellation 2) x Funketiketten als Informations- und Kennzeichnungssystem für die Verwendung im internen oder im zweiseitigen Verhältnis (Konstellation 3)
RFID als Technik des Ubiquitous Computing – Eine Gefahr für die Privatsphäre?
5
1149
Rechtliche Einordnung
5.1
RFID-Kommunikation als Telekommunikation
Funketiketten bzw. RFID-Marken und die zum Auslesen und Beschreiben benötigten Lesegeräte sind technische Systeme, die elektromagnetische Signale senden, empfangen und steuern, die als Nachrichten [Bgeh30]1 zu identifizieren sind. Sie stellen Telekommunikationsanlagen im Sinn des § 3 Nr. 23 TKG (Telekommunikationsgesetz) dar, zwischen denen Telekommunikation im Sinn des § 3 Nr. 22 TKG stattfindet. Allerdings wird zwischen RFID-Marke und dem Lesegerät kein Telekommunikationsdienst, also Telekommunikation für Dritte angeboten. Dies würde sich anders darstellen, wenn beispielsweise das RFID-Lesegerät des Einzelhändlers mit einer drahtlosen Schnittstelle ausgestattet wäre und so die Funketikettendaten an das mobile Endgerät (PDA) des Kunden als Dritten weitergeleitet würde (vgl. Erweiterung der Fallgruppe 1). Dadurch erbrächte der Einzelhändler als Betreiber dieser Übertragungswege geschäftsmäßig Telekommunikationsdienste gemäß § 3 Nr. 10 TKG. In diesem Fall gälten dann weitergehende Pflichten des TKG.
5.2
RFID-System als Teledienst
Ein Teledienst wird gemäß § 2 Abs. 1 TDG als ein elektronischer Informationsdienst zur individuellen Nutzung von kombinierbaren Daten begriffen, der auf Übertragungsvorgänge der Telekommunikation beruht. 5.2.1
Grundintention des Teledienstegesetzes
Obwohl die Normierung des Teledienstegesetzes das sich verbreitende Internet mit seinen verschiedenen Anwendungen im Blick hatte, [Btds13], ist es von seiner Grundkonzeption technikoffen ausgestaltet. Mit dem Gesetz soll der tiefgreifende „Wandel zur Informationsgesellschaft aktiv gestaltet“ [Btds13] werden. So erfasst das TDG die RFID-Technik als eine weitere Nutzungsmöglichkeit im sich entwickelnden elektronischen Markt. 5.2.2
Übermittlung mittels Telekommunikation
Die Übermittlung der Kennung und der weiteren auf der RFID-Marke abgelegten Daten erfolgt, wie festgestellt, mittels Telekommunikation, welche lediglich Mittel und nicht alleiniger Zweck des Angebots ist [Spin01]. 1
Der Begriff der Nachricht ist nach [Bgeh30] weit auszulegen.
1150
5.2.3
J. Müller, M. Handy
Von kombinierbaren Daten: Wie Zeichen, Bilder oder Töne
Der § 2 Abs. 1 TDG beschreibt „elektronische“ Informationsdienste als Nutzung „von kombinierbaren Daten“. Durch diese Formulierung sollen Angebote mit multimedialem Charakter von monomedialen Diensten (z.B. klassische Sprachtelefonie) abgegrenzt werden. Dabei legt das Wort „kombinierbar“ nahe, dass es nicht auf die konkrete Realisierung der Multimedialität ankommt, sondern die Möglichkeit des Angebots maßgeblich sein soll. Um nun mit einer Auslegung aus einer rein technischen Sicht das Tatbestandsmerkmal nicht weitgehend bedeutungslos werden zu lassen, muss dieses funktional verstanden werden, weil digitale Daten von der Möglichkeit ihrer Abbildung grundsätzlich technisch jeder Darstellungsform zugänglich sind [Enge01]. Daher kann auf den gewöhnlichen Gebrauch eines Angebots, wie er in seiner Konzeption angelegt ist, abgestellt werden. So kommt den im Speicherbereich für sonstige Daten auf einer RFID-Marke abgelegten Daten die Eignung als Inhalt eines Teledienstes zu. Dies setzt aber voraus, dass die Nutzung dieser sonstigen Daten - was in einer mittelfristigen Entwicklungsperspektive möglich erscheint - multimedial gedacht ist. Selbst wenn noch keine Multimedialität für Daten der RFID-Marke vorgesehen ist, würden diese unter § 2 Abs. 1 TDG einzuordnen sein, falls die RFID-Marke eine Art Sprung- oder Verknüpfungsadresse in ein Intra- oder Internet-Angebot trägt, das seinerseits einen Teledienst darstellt. 5.2.4
Zur Nutzung bestimmt
Zudem muss nach § 2 Abs. 1 TDG der elektronische Informationsdienst zur Nutzung bestimmt sein. Dies setzt ein Anbieter-Nutzer-Verhältnis voraus. x Anwendbarkeit in geschlossenen Nutzergruppen Ein Anbieter-Nutzer-Verhältnis ist nicht schon dadurch ausgeschlossen, dass der Informationsdienst in einer geschlossenen Benutzergruppe (Intranet) angeboten wird [Enge97, Wald00.1, Btds14]. So kann der Einsatz von RFID-Systemen innerhalb eines Betriebes oder zwischen Unternehmen (z.B. in der Lagerhaltung oder bei der Verfolgung von Gütern in der Logistikkette) gleichwohl ein Teledienst sein. Im Arbeitsverhältnis als einer der Hauptfälle eines internen Diensteangebots fehlt es jedoch an dem Anbieter-Nutzer-Verhältnis. x Anbietereignung Eine Person ist Anbieter (§ 3 Nr. 1 TDG), wenn sie einen Teledienst bereithält [Wald00.2], indem sie ihn als eigenen organisatorisch und technisch in seinem Machtbereich selbst erbringt oder einen fremden Teledienst speichert, und damit zur Nutzung vorhält. Hiernach würde beispielsweise der Einzelhändler im beschriebenen Einkaufsszenario zum Anbieter, der in seinem Ladengeschäft abrufbare Inhalte auf den RFID-Marken, mit denen die bei ihm vorgehaltenen Produkte
RFID als Technik des Ubiquitous Computing – Eine Gefahr für die Privatsphäre?
1151
markiert sind, anbietet. Dabei kann schlichter Besitz gemäß § 854 Abs. 1 BGB nicht genügen. So bedarf es, neben dem tatsächlichen, an den Umstand der Funktionsherrschaft angeknüpften Angebot, was Anbieten schon begrifflich voraussetzt, eines Wissens- und Willenselementes auf Seiten des Anbieters, sonst würde er schon deshalb zum Anbieter von Telediensten, wenn diese in seinem Herrschaftsbereich benutzbar zur Verfügung stünden, obwohl er die Dienste nur zu seinen eigenen Zwecken, etwa für seine Logistikaufgaben einsetzt. Neben Argumenten der Wortlautauslegung und der historischen Entwicklung sprechen auch Sinn und Zweck der Vorschrift dafür, die Verantwortlichkeit für Inhalte nicht an das Vorhandensein einer Art Zustandsverantwortlichkeit [Fria99], sondern an ein zurechenbares Handeln anzuknüpfen. Das Erfordernis eines subjektiven Elements als Voraussetzung für die Anbieterstellung muss beim Einsatz von RFID-Technik gesondert festgestellt werden, da anders als bei Angeboten im Internet, die durch das Bereitstellen einer HTMLSeite mittels aktiven Tuns in die abgeschlossene, virtuelle Welt des Netzes, also zwangsläufig willentlich eingestellt wurden, RFID-Marken in der körperlichen Welt eingebracht werden und zunächst einfach vorhanden sind. x An eine Person ausgegebene RFID-Marken Bei RFID-Marken, mittels derer als digitale Legitimations-, Zugangsberechtigungs- oder Kundenkarten Daten für die Geschäftsbeziehung ausgetauscht werden, fehlt es an einem Anbieter-Nutzer-Verhältnis, wenn dem Karteninhaber über den bloßen Gebrauch hinaus, die Möglichkeit entzogen ist, Einfluss auf die Daten verarbeitenden Vorgänge beispielsweise durch Löschung oder Änderung der abgespeicherten Informationen zu nehmen. Anders beurteilt sich die Verwendung von ausgegebenen RFID-Marken, wenn der Inhaber die Verarbeitungsvorgänge auf der Marke kontrollieren kann. Dabei kann der Karteninhaber nach § 3 Nr. 1 TDG auch für Inhalte der ausgebenden Stelle Anbieter eines dann „fremden Teledienstes“ (§ 11 TDG) sein. Insoweit kommt ihm sachgerecht die Haftungsfreistellung des § 8 Abs. 2 TDG in Verbindung mit § 11 TDG zugute. 5.2.5
Ergebnis
Im Ergebnis wird ein Teledienst angeboten, wenn Daten von Funketiketten bzw. RFID-Marken als Informations- und Kennzeichnungssystem gegenüber Dritten mit multimedialem Charakter bereitgehalten werden. RFID-Marken, die an Betroffene ohne ihren Einfluss auf Funktion ausgegeben werden oder die nur im internen und zweiseitigen Verhältnis Verwendung finden, werden vom TDG nicht erfasst. Allerdings ergibt sich, anders als in einer rein virtuellen Welt, die Schwie-
1152
J. Müller, M. Handy
rigkeit, wie dieser zunächst inwendige Willen zum Angebot nach außen erkennbar wird.
5.3
Anforderungen des Telekommunikations-, Multimediaund Datenschutzrechts
In allen Anwendungskonstellationen bleibt im Telekommunikationsrecht § 89 TKG anwendbar, der jede Funkkommunikation vor dem Abhören durch Dritte unabhängig vom Vorliegen eines Telekommunikationsdienstes schützt. Obwohl der Kommunikationsvorgang vom Lesegerät initiiert und gesteuert wird, steht das unbefugte Auslesen und Beschreiben einer RFID-Marke unter Strafe (§ 148 Abs. 1 Nr. 1 TKG) [Müll04]. Für Teledienste wurden zur Wahrung von schutzwürdigen Interessen der Nutzer vornehmlich besondere Informationspflichten (§ 6, § 7 TDG, § 312e BGB) und Haftungspriviligierungen für fremde Inhalte (§§ 8 Abs. 2, 9 ff TDG) normiert. Diese passen auf RFID-Systeme nur in Einzelpunkten. Zwar wäre die Anbieterkennzeichnung (AKZ) nach § 6 TDG beispielsweise wegen des Angebots von Daten in elektronischer Form über Telekommunikation und der dadurch bestehenden Flüchtigkeit der Informationen und räumlichen Distanz zum Angebot angezeigt. Aber weil RFID-Marken an Gegenständen angeheftet sind, erscheint das mit § 6 TDG verfolgte Ziel lebensfremd, zumal dieser durch entsprechende Aufdrucke auf der Verpackung oder am Warenregal zweckmäßig erfüllt wird. Abgesehen davon würde die Speicherkapazität heutiger RFID-Marken für eine AKZ nicht ausreichen. Für personenbezogene Daten sieht das bereichsspezifische Teledienstedatenschutzgesetz (TDDSG) besondere Zulassungstatbestände für Bestands- und Nutzungsdaten (§ 5, § 6 TDDSG) sowie besondere Zweckbindungsregeln vor. Diese gehen vielfach ins Leere. Begründet liegt das in dem Umstand, dass durch das TDG und TDDSG der Anbieter als Normadressat verpflichtet wird, wobei der Nutzer die RFID-Kommunikation über das Lesegerät initiiert. Zudem finden auf einer RFID-Marke neben Speichern (§ 3 Abs. 4 Nr. 1 BDSG [Bundesdatenschutzgesetz]) und Übermitteln in Form des Bereithaltens (§ 3 Abs. 4 Nr. 3 BDSG) keine weiteren Daten verarbeitenden Vorgänge, wie Erheben (§ 3 Abs. 3 BDSG) und Nutzen (§ 3 Abs. 5 BDSG) statt. Ebenso tragen die Anforderungen des BDSG den spezifischen Bedingungen von RFID-Systemen keine Rechnung. Insbesondere § 6c BDSG, der besondere Pflichten für „mobile personenbezogene Speicher- und Verarbeitungsmedien“, also für Chip-Karten (§ 3 Abs. 10 BDSG) vorsieht, findet auf RFID-Marken keine Anwendung, weil gemäß § 3 Abs. 10 Nr.2 BDSG auf
RFID als Technik des Ubiquitous Computing – Eine Gefahr für die Privatsphäre?
1153
dem Medium eine über die Speicherung hinausgehende Verarbeitung2 erfolgen muss [Horn04]. Merkmal
TK-Recht
Konstellation 13
kein TKG4 , aber § 89 TKG.
Konstellation 2
kein TKG, außer § 89 TKG
Konstellation 3
kein TKG, aber § 89 TKG
Multimediarecht kein TDG für RFIDKennung; jedoch für sonstige Daten im Speicher kein TDG für RFIDKennung u. sonstige Daten im Speicher
kein TDG für RFIDKennung und kein TDG für sonstige Daten im Speicher
Datenschutzrecht BDSG für RFIDKennung
BDSG für RFIDKennung und für sonstige Daten im Speicher (aber derzeit kein §6c BDSG) BDSG für RFIDKennung und für sonstige Daten im RFID-Speicher
Tabelle 1: Überblick über anwendbares Recht
6 6.1
Risiken von RFID-Systemen Möglichkeiten auf Grund der technischen Bedingungen
Nachdem das geltende Recht RFID-Systeme nur unvollständig erfasst, gilt es die Risiken durch den Einsatz von RFID-Systemen zu analysieren und hieraus einen Schutzbedarf abzuleiten. Auf Grund der technischen Bedingungen lassen sich für RFID-Systeme vornehmlich als technische Bedingungen festhalten, dass sie in extrem kleinen Baugrößen mit einer Funkschnittstelle auf verschiedenen flexiblen Trägermaterialien5 aufgebracht werden können und alle RFID-Marken mittels Antikollisionsverfahren in der Reichweite des Lesegerätfeldes erfasst werden. Hieraus ergibt sich die Möglichkeit, RFID-Marken nicht nur sichtkontaktlos auszulesen, sondern auch mit Gegenständen unlösbar zu verbinden, unsichtbar zu platzie-
2 3 4 5
Hier wird auf den weiteren Begriff des § 3 Abs. 2 BDSG zur automatisierten Verarbeitung Bezug genommen. Vorausgesetzt wird, dass die sonstigen Daten in der Anwendungskonstellation 1 auch für eine multimediale Verwendung vorgesehen sind. außer bei Kommunikationsschnittstelle an nutzerfremdem Lesegerät. Als Bestandteil von Verpackungsfolien, Aufdruck auf Polymerbasis möglich.
1154
J. Müller, M. Handy
ren und fast an und in jeden Gegenstand einzubringen. Dabei erfolgt die Erfassung verhältnismäßig einfach, schnell und nahezu gleichzeitig. RFID-Technik zeichnet sich daneben dadurch aus, dass die RFID-Marken mit einer weltweit eindeutigen Kennung und optional mit einem zusätzlichen Speicher für sonstige Daten ausgestattet sind sowie in ein Hintergrundsystem6 mit weiterführenden Daten eingebunden werden können. Dies bedeutet die Identifizierbarkeit der RFID-Marke mit einer Art mehr oder weniger aussagekräftigen inhaltlichen Identität, je nach Umfang und Güte der auf der Marke selbst oder im ergänzenden Hintergrundsystem nachgewiesenen Daten. Allerdings fehlt es bei RFID-Marken neben dem Lesegerät an einem direkten Einund Ausgabemedium, was keine Registrierbarkeit der Daten verarbeitenden Vorgänge im aktuellen Zeitpunkt erlaubt. Ebenso findet auf derzeitigen Marken keine Zugangs-7 und Zugriffskontrolle8 oder wenigstens eine Zugriffsprotokollierung statt. Dies bedeutet, dass die auf einer RFID-Marke abgelegten Daten hinsichtlich Auslesbarkeit und Manipulation offen zugänglich sind und keine Kontrolle über die Daten weder präventiv noch nachträglich ermöglichen. Gleiches gilt für die Übertragung oder Kommunikation mit dem Lesegerät, die ebenfalls ungeschützt in Ermangelung kryptografischer Sicherungen abgewickelt wird. Diese Funkkommunikation ist aber in ihrer Reichweite sehr begrenzt, wodurch im Kreis der Reichweite eine gewisse Überschaubarkeit gewahrt bleibt.
6.2
Folgen der Möglichkeiten von RFID-Technik
Die Möglichkeit der sichtkontaktlosen Kommunikation führt zu Unmerklichkeit der Technik und zu einer gewissen räumlichen Distanz von der RFID-Marke zum Verwender derselben, wie bei elektronischen Informations- und Kommunikationsangeboten in der virtuellen Welt. Ebenso wird die Unmerklichkeit der aktuell stattfindenden und erfolgten Daten verarbeitenden Vorgänge durch die fehlenden Möglichkeiten begünstigt, diese Vorgänge präventiv oder nachträglich zu registrieren. Damit vermag eine Person als RFID-Marken-Inhaber auf Markenzugriffe unter Berücksichtigung der aktuellen Situation, in der gerade ein solcher Auslese- oder Schreibvorgang stattfindet, nicht zu reagieren oder einzuschreiten. Ihm fehlt auch das Wissen, ob und auf welche Weise in einem bestimmten, zurückliegenden Zeitraum Zugriffe auf die RFID-Marke erfolgten. Neben der Unmerklichkeit entstehen durch die Verbindung der RFID-Marken mit Gegenständen Kontextdaten, die zwangsläufig einen Gegenstandsbezug aufwei6 7 8
Vgl. Ausführungen zum Object Name Service (ONS). Authentifikation des Lesegeräts. Verwaltung von Lese- und Schreibrechten.
RFID als Technik des Ubiquitous Computing – Eine Gefahr für die Privatsphäre?
1155
sen. Hinzu tritt die Unlösbarkeit der RFID-Marke vom Gegenstand, sodass sich diese in das mit dem betreffenden Gegenstand verbundene Handeln der Menschen integriert, aber auch ein Kontrollverlust über die RFID-Technik durch ihre Verwendung eintritt. Dagegen liegt in der Möglichkeit der schnellen, einfachen und quasi gleichzeitigen Erfassung die Voraussetzung eines allgegenwärtigen Einsatzes. Das wichtigste Kennzeichen der RFID-Technik, die Identifizierbarkeit der Marken, hat zur Folge, dass die RFID-Marken durch das RFID-System wiedererkannt, zu Gegenständen und Personen zugeordnet, zu anderen, ebenfalls markierten Gegenständen in Beziehung gesetzt und aus einer Zusammenschau Muster erkannt werden können. Die Art inhaltliche Identität bringt ein markenimmanentes Kontextwissen und bessere Einordenbarkeit beim Wiedererkennen einer RFID-Marke und beim Erkennen von Mustern mit sich. Verschärft wird dies durch die Möglichkeit über Hintergrundsysteme weiterführende Daten über die RFID-Marke und damit über den markierten Gegenstand gleich eines Gedächtnisses abzufragen, wobei hierdurch zusätzlich Datenspuren, insbesondere über Bewegungsprofil der einzelnen RFID-Marke über den Standort des abfragenden Lesegeräts entstehen. Nachdem die Daten auf der RFID-Marke und die Funkkommunikation zum Lesegerät ungeschützt zugänglich sind, lässt sich ein unbefugtes Auslesen und Abhören der gespeicherten bzw. übermittelten Daten nicht verhindern. Dies birgt zudem die Gefahr der Manipulation der Daten auf der Marke in sich.
6.3
Verletzungspotentiale von Rechtsgütern
Die RFID-Technik ist eine Informations- und Kommunikationstechnik, die auf der einen Seite im virtuellen Sozialraum angesiedelt ist und auf der anderen Seite durch die Verknüpfung zu einem körperlichen Gegenstand im realen Sozialraum präsent ist. Dadurch sind nicht nur das Eigentumsrecht (Art. 14 GG) und die Handlungsfreiheit (Art. 2 Abs. 1 GG), sondern vor allem auch das Brief-, Postund Fernmeldegeheimnis (Art. 10 GG) und das Grundrecht der informationellen Selbstbestimmung (Art. 1 Abs. 1, Art. 2 Abs. 1 GG) betroffen. 6.3.1
Grundrecht des Fernmeldegeheimnisses
Das Grundrecht des Brief-, Post- und Fernmeldegeheimnisses schützt die Vertraulichkeit der Kommunikation. Das in § 89 TKG normierte Abhörverbot trägt diesem Grundrecht Rechnung. Im praktischen Umgang besteht die Schwierigkeit für den Verwender einer RFIDMarke, die subjektive Bestimmung der abgefragten und/oder empfangenen Daten durch den Markeninhaber, also das Befugtsein des RFID-Marken-Verwenders erkennen zu können.
1156
J. Müller, M. Handy
6.3.2
Recht der informationellen Selbstbestimmung
Personenbezogene Daten9 und deren Erhebung (§ 3 Abs. 3 BDSG), Verarbeitung (§ 3 Abs. 4 BDSG) und Nutzung (§ 3 Abs. 5 BDSG) werden durch das Grundrecht der informationellen Selbstbestimmung [Bveg65] (Art. 1 Abs. 1 GG i. V. m. Art. 2 Abs. 1 GG) geschützt, welches durch das Datenschutzrecht konkretisiert wird [Podl04]. Dabei entsteht bei dem Einsatz der zunächst datenschutzrechtlich neutralen RFIDTechnik eine datenschutzrechtliche Relevanz dann, wenn auf dem RFID-Speicher selbst personenbezogene Daten abgelegt werden oder wenn die RFID-Marke mit ihrer Kennung (UID) oder den sonstigen abgespeicherten Daten (ggf. über den sie tragenden Gegenstand) einer Person zugeordnet werden kann. Für die Anwendbarkeit des Datenschutzrechts reicht aus, wenn die Person, auf die die zu schützenden Daten bezogen sind, lediglich bestimmbar [Damm03], also die Ermittelung auch unter Zuhilfenahme von Zusatzwissen nach allgemeiner Lebenserfahrung nicht ausgeschlossen ist.
7
Überlegungen zum Schutzbedarf
Durch den Einsatz von RFID-Systemen entstehen qualitativ neue Risiken. Zur Gewährleistung des Fernmeldegeheimnisses und der informationellen Selbstbestimmung bedarf es der Umsetzung von Schutzanforderungen. Die Auswahl der Anforderungen ist nach den Rechten oder Prinzipien gegliedert, aus denen sich diese ableiten lassen. x Eigentums- und Besitzrecht Rechte, wie etwa §§ 985, 903 BGB oder §§ 858 Abs. 1, 862 Abs. 1BGB, die sich aus einer Eigentumsposition (§ 903 BGB) oder einer Besitzposition (§ 862 Abs. 1 BGB) ergeben, würden das Entfernen und Deaktivieren einer an einem Gegenstand angehefteten RFID-Marke erlauben. Bei Fremdbesitz (e contrario § 872 BGB), wenn zum Beispiel ein Kunde ein RFID-markiertes Fahrrad mietet, kann ein Deaktivierungsverlangen nicht auf § 858 BGB gestützt werden, da keine Störung in dem eingeräumten Besitzrecht vorliegt.
9
Gemäß § 3 Abs. 1 BDSG Angaben über Verhältnisse einer zumindest bestimmbaren Person.
RFID als Technik des Ubiquitous Computing – Eine Gefahr für die Privatsphäre?
1157
x Datensparsamkeit Dem präventiven Gestaltungsgebot der Datensparsamkeit nach § 3a BDSG lässt sich die Forderung entnehmen, dass RFID-Systeme datenschutzgerecht zu gestalten sind und damit als ein potentieller Gegenstand von Datenverarbeitung deaktivierbar sein müssen. x Technisch-organisatorischer Schutz Auf Grund von § 9 BDSG, der zur Durchsetzung der im Datenschutzrecht niedergelegten Anforderungen technisch organisatorische Maßnahmen verlangt, sind Schutzmaßnamen zu implementieren, die die RFID-Kommunikation gegen Kenntnisnahme durch Dritte und die personenbezogenen Daten auf den RFIDMarken vor unbefugtem Zugang und Manipulation sichern. x Transparenzprinzip Um dem Betroffenen die Verwirklichung seiner informationellen Selbstbestimmung zu ermöglichen, bedarf es an Transparenz der Daten verarbeitenden Vorgänge. Daher muss zum einen hinsichtlich des Einsatzes von RFID-Systemen ein Wissen um Art, Umfang und Struktur der Daten verarbeitenden Vorgänge, insbesondere die Weise der Einbindung in ein Hintergrundinformationssystem (z.B. ONS) sicher gestellt werden. Zum anderen muss die Verwendung der personenbezogenen Daten sowie ihre Art und ihr Inhalt von der verantwortlichen Stelle dargelegt werden. Daneben gilt es, die erfolgenden Daten verarbeitenden Vorgänge auf der RFID-Marke sowie die stattfindende Kommunikation zwischen Marke und Lesegerät erkennbar zu machen. Als ein Problem grundsätzlicherer Natur stellt sich das Erfordernis dar, einmal die Zweckbindung und zum anderen die Adressatenbestimmung der personenbezogenen Daten erkennbar zu machen. x Zweckbestimmung und Zweckbindung Die datenschutzrechtliche Zweckbindung soll sicherstellen, dass der Einzelne darauf vertrauen kann, dass die Datenverarbeitung nur zu dem von ihm oder dem Gesetz erlaubten Zweck erfolgt. Ein besonderes Risiko für die personenbezogenen Daten entsteht, wenn diese über die Erhebung von der RFID-Marke hinaus gespeichert und vor allem genutzt werden. Deutlich wird das am Beispiel einer verantwortlichen Stelle, die ein gewerbliches Interesse an den Daten hat. Daher muss, wenn schon technisch das Auslesen einer RFID-Marke nur schwer markenseitig gesteuert werden kann, zumindest die Weiterverarbeitung und zweckwidrige Verwertung ausgeschlossen werden. Bei dem technischen Stand derzeitiger RFID-
1158
J. Müller, M. Handy
Systeme bietet sich als Behelfslösung10 an, die vorgesehenen Verarbeitungszwecke durch Klassifizierungen zu steuern. x Informationelle Gewaltenteilung Durch die informationelle Gewaltenteilung [Bveg65] sollen bereichsspezifisch unterschiedliche Datenflüsse und -bestände gemäß des Zweckbindungsprinzips streng getrennt gehalten werden. Manche Spezifikationen von RFID-Marken sehen in der Kennung neben der Seriennummer vor, auch Daten inhaltlicher Natur abzulegen (vgl. Funketiketten nach dem EPC-Standard). Bei der ersten Anfrage des Lesegeräts (mit dem „Inventory-Befehl“) wird aber die Kennung in Gänze ausgelesen. So sollten innerhalb der RFID-Kennung Daten mit Seriennummernfunktion und Daten mit inhaltlicher Bestimmung getrennt sein.
8 8.1
Gestaltungsvorschläge Vorüberlegungen
In diesem Abschnitt werden Möglichkeiten zur Eindämmung der bestehenden Risiken beschrieben. Dabei wird auf drei der angesprochenen Problembereiche eingegangen. Zunächst werden die Gefährdungslage beim Eigentumsübergang von mit RFID markierten Produkten sowie bereits existierende und neue Lösungsideen diskutiert. Weiterhin werden in diesem Abschnitt Gestaltungsideen vorgestellt, mit denen das Einsatzfeld und die angedachte Verwendung von RFID-Marken angezeigt werden können, um unerwünschte Auslesevorgänge zu vermeiden bzw. zu verhindern. Prinzipiell lässt sich ein RFID-System bestehend aus Marken und Lesegeräten mit herkömmlichen kryptografischen Verfahren gegen Angriffe sichern. Die besonderen Eigenschaften solcher Systeme erschweren jedoch die direkte Übertragung von Verfahren, wie sie beispielsweise bei Smart Cards zum Einsatz kommen. Dies ist zum einen bedingt durch den drahtlosen Kommunikationskanal eines RFIDSystems, der den Schutz des Systems vor Abhörangriffen erschwert. Überdies sind kryptografische Verfahren auf (für RFID-Systeme) verhältnismäßig viel Speicher angewiesen. Auch die Energieversorgung und die Taktfrequenz sind oft nicht ausreichend um aufwändige Verschlüsselungsverfahren durchzuführen.
10
Aber auch mit dem Vorteil, die Komplexität von Verarbeitungsvorgängen reduzieren zu helfen und dadurch verloren gegangene Transparenz wiederzugewinnen.
RFID als Technik des Ubiquitous Computing – Eine Gefahr für die Privatsphäre?
1159
Für viele Anwendungen sind kryptografische Verfahren, wie Authentifizierung oder Verschlüsselung, einfach nicht erforderlich beziehungsweise nicht erwünscht. Es macht zum Beispiel wenig Sinn, in einem innerbetrieblichen Produktionsprozess, bei dem Einzelteile und Baugruppen mit RFID-Marken versehen sind und so auf ihrem Weg durch das Unternehmen genau verfolgt werden können, derartige Mechanismen einzusetzen. Die Gefahr des unerlaubten Auslesens der Marken ist dort als eher gering einzuschätzen. Außerdem besteht bei den verwendeten Daten (noch) kein Personenbezug, der als schützenswert einzustufen wäre. Schließlich erhöht die Integration kryptografischer Verfahren in RFID-Systeme den Preis solcher Systeme, vor allem den aus ökonomischen Gesichtspunkten kritischen Preis je RFID-Marke. Für einen weiträumigen Einsatz von RFIDSystemen beispielsweise im Einzelhandel ist jedoch ein möglichst niedriger Stückpreis entscheidend. Bei allen hier präsentierten Gestaltungsvorschlägen ist zu berücksichtigen, dass für RFID-Systeme kein einheitlicher Standard existiert. Vielmehr gibt es eine Vielzahl von Normen und Standards für RFID-Systeme mit unterschiedlichen Charakteristika und Einsatzzwecken.11 Die präsentierten Gestaltungsideen sind möglichst generisch verfasst und sollen als Grundstein für eine derzeit noch hypothetische Meta-Norm für alle RFID-Systeme dienen, die Problembereiche der informationellen Selbstbestimmung und des Datenschutzes berühren.
8.2
Übergabe von Artikeln mit RFID-Marken
Eine besondere Problemlage entsteht beim Eigentumsübergang von mit RFIDMarken ausgestatteten Produkten, beispielsweise an der Kasse eines Supermarktes. Die RFID-Marke, die auf ihrem bisherigen Weg durch die Lieferkette ihre Dienste verrichtet hat, wird nun zur Gefahr für die Privatsphäre des neuen Eigentümers, wenn er anhand der Markenkennung identifiziert werden kann. Vorstellbar wäre dies durch eine Verknüpfung der Markenkennung mit der Person des Käufers durch ein identifizierendes Bezahlungssystem, zum Beispiel bei Bezahlung mit einer Kundenkarte. Um dieser Gefährdung zu begegnen, wurden bereits verschiedene Verfahren entwickelt. Diese lassen sich in zwei große Gruppen einteilen. In der ersten Gruppe sind Verfahren angesiedelt, die ein Auslesen der RFID-Marken durch fremde, d.h. nicht autorisierte Lesegeräte unterbinden oder stören. Dazu gehören das Jamming 11
Für Logistikanwendungen existieren unter anderem die Normen ISO/IEC 18000, ISO/IEC 15961-15963 sowie ISO/IEC 15418. Die Normen ISO 11784, 11785 sowie 14223 befassen sich mit der automatischen Identifikation von Nutztieren. Normen für kontaktlose Identifikationskarten werden in ISO/IEC 10373, 10536, 14443 sowie 15693 beschrieben.
1160
J. Müller, M. Handy
und der so genannte Blocker-Tag [Jue+03]. Das Jamming verwendet einen Störsender der die Kommunikation zwischen Lesegerät und RFID-Marke komplett unterbindet. Das Blocker-Tag stört diese Kommunikation nur dann, wenn das Lesegerät spezielle, als privat gekennzeichnete, Markenkennungen abfragen will. Im einfachsten Fall könnte der Adressraum von RFID-Marken in eine private und eine öffentliche Zone aufgeteilt werden. Alle privaten RFID-Marken haben eine Kennung beginnend mit einer 0, alle öffentlichen RFID-Markenkennungen beginnen mit einer 1. Sobald ein Lesegerät versucht, im privaten Adressbereich nach RFID-Marken zu suchen, wird das Blocker-Tag aktiv und stört diesen Vorgang, indem es dem Lesegerät vorgaukelt, es wären Millionen von RFID-Marken vorhanden. Das Lesegerät kann daraufhin real vorhandene RFID-Marken nicht mehr erkennen. Beim Eigentumsübergang muss bei diesem Verfahren die Kennung der RFID-Marke angepasst werden. Verfahren, die wie beim Jamming oder beim Blocker-Tag die Kommunikation zwischen Lesegerät und RFID-Marke aktiv stören, sind als rechtlich bedenklich einzustufen. Zwar fallen sie nicht unter § 317 StGB (Störung von TK-Anlagen), sie sind jedoch gegebenenfalls als Ordnungswidrigkeit nach FTEG einzuordnen. Eine zweite große Gruppe verändert die Markenkennung beim Eigentumsübergang. Beim Meta-ID-Verfahren antwortet die RFID-Marke nach einem Sperrvorgang nicht mehr mit ihrer originären Kennung, sondern mit einer so genannten Meta-ID [Sar+02]. Die eigentliche Kennung der RFID Marke erfährt nur derjenige, der den geheimen Schlüssel kennt, mit der die Meta-ID erzeugt wurde, und diesen an die RFID-Marke sendet. Die RFID-Marke bildet aus dem empfangenen Schlüssel die dazugehörige Meta-ID und vergleicht diese mit der gespeicherten Meta-ID. Bei Gleichheit wird die RFID-Marke entsperrt und die Klardaten werden an das Lesegerät übertragen. Dieses Verfahren nutzt das Prinzip der EinwegHashfunktionen: aus dem geheimen Schlüssel lässt sich problemlos die dazugehörige Meta-ID berechnen, es ist jedoch sehr schwierig, aus der Meta-ID den geheimen Schlüssel zu berechnen [Schn96]. Beim Kill-Tag-Ansatz wird die RFID-Marke durch einen speziellen Befehl des Lesegerätes komplett und unwiederbringlich deaktiviert [Epcs04]. Problematisch wird dieses Verfahren, wenn der Kunde einen gekauften Artikel wieder in den Laden zurückbringt. Der Artikel muss dann wieder in das Warenwirtschaftssystem eingegliedert werden, wozu das Anbringen einer neuen Marke erforderlich wäre. Der Artikel bekäme dann praktisch eine neue Identität. Bei Regressansprüchen ist man jedoch auf Informationen der „vergangenen“ Identität des Artikels angewiesen. Überdies kann der Käufer eines Artikels mit deaktivierter RFID-Marke den Mehrwert dieses Kennzeichnungsverfahrens nicht für private Zwecke nutzen. Der „intelligente Kühlschrank“ würde dann nicht mehr funktionieren. Wir schlagen als Gestaltungsidee einen modifizierten Kill-Befehl vor, der anders als das bisherige Verfahren nicht die komplette Markenkennung löscht, sondern nur den eindeutig identifizierenden Teil dieser Kennung. Die eindeutige Serien-
RFID als Technik des Ubiquitous Computing – Eine Gefahr für die Privatsphäre?
1161
nummer eines Artikels wird gelöscht oder gegebenenfalls durch eine private Inventarnummer ersetzt, die Objektklasse des Artikels bleibt jedoch erhalten. Dies beschränkt die Aussagekraft der RFID-Marke auf die eines Barcodes. Beim EPC setzt sich eine Kennung nach SGTIN-96 (Serialized Global Trade Identification Number) unter anderem aus einer Herstellerkennung (Company Prefix), einer Artikelreferenz (Item Reference) und einer 38-bit langen Seriennummer zusammen. Unser Ansatz deaktiviert die Seriennummer; Herstellerkennung und Artikelreferenz (Objektklasse) bleiben erhalten. Damit lassen sich RFID-Marken auch nach dem Kauf nutzen. Ein zweiter Gestaltungsvorschlag betrifft die Infrastruktur eines serverbasierten, überregional vernetzten RFID-Systems, wie es vom ECPGlobal-Konsortium vorgeschlagen wird [Epcs04]. Dabei geht es um die Auflösung des Zusammenhangs zwischen RFID-Marke und eindeutig identifizierbarem Gegenstand. Eine RFIDMarke speichert eine Objektidentität gewöhnlich als Bit-Serie, beim EPC zum Beispiel mit einer Länge von 64 oder 96 bit. Die wahre Identität und ein möglicher Personenbezug lassen sich jedoch erst nach einer Decodierung dieser Bitserie herstellen. Dies geschieht beim EPC durch Anfrage bei einem ONS-Server (Object Name Service), der Zugriff auf eine verteilte Datenbank hat, die zu einer EPC-Nummer weiterführende Informationen abspeichert. Ein ONS-Server kann überdies zur Aufzeichnung eines Bewegungsprofils verwendet werden, indem er Orte und Zeiten von Auslesevorgängen einer RFID-Marke abspeichert. Wir schlagen eine Löschung des ONS-Eintrages (oder des Eintrages in einer vergleichbaren Datenbank eines anderen Systems) vor, um die Privatsphäre des Eigentümers eines Produktes mit RFID-Marke besser zu schützen. Es lässt sich zwar weiterhin die RFID-Marke mit jedem Lesegerät auslesen, weiterführende Informationen eventuell mit Personenbezug können damit jedoch nicht erlangt werden. Alternativ zu einer Löschung des ONS-Eintrages könnte eine Zugangsbeschränkung zu einem derartigen System eingeführt werden. Es kann dann zwar jeder eine Anfrage an das ONS-System stellen, Antworten erhält jedoch nur, wer sich vorher als berechtigt authentifiziert hat.
8.3
Kennzeichnung der Zielanwendung und des Verwendungszwecks einer RFID-Marke
Wie kann ein Lesegerät erkennen, für welche Anwendung eine bestimmte RFIDMarke arbeitet? Eine Waschmaschine, die ihr Waschprogramm anhand der erkannten RFID-Marken der in ihr enthaltenen Kleidungsstücke auswählt, sollte auch nur diejenigen Marken auslesen, die zu dieser speziellen Anwendung gehören. Wir schlagen dafür die Einführung einer Anwendungskennung (AK) vor, für die ein Speicherabschnitt auf der RFID-Marke reserviert ist. Dabei wird gefordert, dass eine Anfrage des Lesegerätes immer in Kombination mit einer AK ausgesendet werden muss, die genau eine Anwendung spezifiziert. Eine RFID-Marke ant-
1162
J. Müller, M. Handy
wortet nur dann auf die Anfrage des Lesegerätes, wenn dessen AK mit der eigenen Anwendungskennung übereinstimmt. Dies erfordert implizit, dass auf einer RFIDMarke gegebenenfalls Platz für mehrere Anwendungskennungen reserviert werden muss, wenn der damit verbundene Artikel in mehreren Anwendungen eingesetzt werden kann. Die Anwendungskennung sollte vom Nutzer gegen Änderungen gesperrt werden können. Ein Entsperren sollte nur mittels eines geheimen Schlüssels möglich sein. Ein ähnliches Verfahren ist bereits in ISO/IEC 15693 spezifiziert. Dort ist jede Marke mit einer AFI (Application Family Identifier) ausgestattet. Das Lesegerät sendet eine AFI zusammen mit dem Inventory-Befehl. Dieses mit einer AFI versehene Kommando lässt nur diejenigen RFID-Marken in der Umgebung antworten, die die gleiche AFI haben. Marken mit ungleicher AFI bleiben hingegen stumm. Die ISO 15693 spezifiziert weiterhin, dass eine Anfrage des Lesegerätes ohne AFI von allen RFID-Marken beantwortet werden muss. Dies unterscheidet diesen Ansatz von unserem Gestaltungsvorschlag. Wir fordern, dass jede Anfrage eines Lesegerätes mit einer AFI versehen werden muss. Andernfalls darf keine der vorhandenen RFID-Marken antworten. Wie kann ein Lesegerät erkennen, für welchen Zweck die Daten auf einer RFIDMarke bestimmt sind? Angenommen, die Kennung der RFID-Marke ist nur bedingt aussagekräftig und mit ihr allein ist kein Personenbezug herstellbar. Nur, wenn neben der Kennung auch der sonstige Speicher auf der RFID-Marke ausgelesen wird, kann ein Datenschutz-Problem erst entstehen. Wir schlagen für diesen Fall die Einführung einer Verwendungskennung (VK) vor. Wie die Anwendungskennung ist auch die VK auf der RFID-Marke gespeichert und kann gegen Veränderung gesperrt werden. Das Lesegerät fragt RFID-Marken in der gewohnten Weise ab. Die RFID-Marken antworten mit ihrer Markenkennung und der Verwendungskennung. Die Verwendungskennung spezifiziert dabei die Möglichkeit der Verwendung der Daten, womit eine Zweckbindung von RFID-Daten erreicht werden kann. So können beispielsweise gewerbliche Daten eine andere VK haben als private Daten. Ein Lesegerät erfährt dadurch zunächst nur die Markenkennung und den angedachten Verwendungszweck der auf der RFID-Marke gespeicherten sonstigen Daten. Diese sonstigen Daten sollten nur dann ausgelesen werden, wenn sie für den Zweck, den das Lesegerät vertritt, gedacht sind. Eine ähnliche Kennung ist auch in der ISO/IEC 15693 spezifiziert. Der darin beschriebene DSFID (Data Storage Format Identifier) arbeitet ähnlich wie die Verwendungskennung, spezifiziert jedoch nicht den Verwendungszweck der Daten sondern deren Speicherformat.
RFID als Technik des Ubiquitous Computing – Eine Gefahr für die Privatsphäre?
9
1163
Schlussbemerkung
Zusammenfassend lässt sich festhalten, dass RFID-Systeme per se nicht datenschutzfeindlich sind. Viele Regeln des Telekommunikations-, Multimedia- und Datenschutzrechts erfassen RFID-Anwendungen. Zur Kompensation der aufgezeigten Defizite sollte eine Pflicht zum Deaktivieren und sollten erweiterte Transparenzregeln im Multimedia- und Datenschutzrecht normiert werden. Diese können durch Erweiterungen und Veränderungen der Spezifikationen für RFID-Systeme, wie diskutiert, technisch unterstützt werden. Allerdings sind viele der Risiken, die mit dem Einsatz von RFID-Systemen in Verbindung gebracht werden, Kennzeichen einer Welt der allgegenwärtigen Rechnertechnik, in der viele der Alltagsgegenstände mit Rechner-, Sensor- und Kommunikationstechnik ausgestattet sowie vernetzt im Hintergrund in allen Lebensbereichen präsent sein werden. Daher gilt es den neuen Risiken mit vorsorgender Technikgestaltung zu begegnen und das Datenschutzrecht unter dem Gedanken der Vorsorge fortzuentwickeln. Deutlich wird dies bei der RFID-Technik, bei der mit zunehmender Verwendung einer RFID-Marke die Gefahr der Personenbeziehbarkeit größer wird und auf einen Schlag alle bisherigen Profildaten zu einem feingranularen Muster zusammengeführt werden könnten. Nur in einer Kombination von Recht und Technik lassen sich die Herausforderungen für Werte und Prinzipien durch technische Entwicklungen der Informationsgesellschaft meistern, die als zivilisatorische Errungenschaft in unserer Verfassungs- und Rechtsordnung niedergelegt sind.
Literatur [Bgeh30] Entscheidungen des Bundesgerichtshof in Strafsachen, Band 30, S. 19 f. [Btds13] Bundestagsdrucksache, Legislaturperiode 13, Nr. 7385, S. 16. [Btds14] Bundestagsdrucksache, Legislaturperiode 14, Nr. 1191, S. 9. [Bveg65] Entscheidungen des Bundesverfassungsgerichts, Band 65, Seite 1 ff. [Damm03] Dammann, U. in: Simitis, S., Kommentar zum Bundesdatenschutzgesetz, 5. Auflage 2003, § 3 Rn. 22. [Enge01] Engel-Flechsig, S. in: Engel-Flechsig, S.; Maennel, F.A.; Tettenborn, A., Beck'scher IuKDG-Kommentar, 1. Auflage 2001, § 2 Rn. 41. [Enge97] Engel-Flechsig, S.; Maennel, F.A.; Tettenborn, A., Das neue Informations- und Kommunikationsdienstegesetz, Neue Juristische Wochenschrift 1997, 2981 ff.
1164
J. Müller, M. Handy
[Epcs04] EPC Specification 1.0, http://www.epcglobalinc.org/standards_technology/specifications.html, 2004, Abruf am 2004-10-05. [Fria99] Friauf, K.H. in Schmidt-Aßmann, E., Besonderes Verwaltungsrecht, 11. Auflage 1999, Abschnitt 2, Rn. 86 ff. [Horn04] Hornung, G., Datenschutz für Chipkarten. Die Anwendung des § 6c BDSG auf Signatur- und Biometriekarten. Datenschutz und Datensicherheit 2004, S. 16. [Jue+03] Juels, A.; Rivest, R.L.; Szydlo, M.: The Blocker Tag: Selective Blocking of RFID Tags for Consumer Privacy. In: V. Atluri (Hrsg.), 8th ACM Conference on Computer and Communications Security, ACM Press, 2003, S. 103-111. [LaMa03] Langheinrich, M.; Mattern, F., Digitalisierung des Alltags. Was ist Pervasive Computing, in: Aus Politik und Zeitgeschichte (B42/2003), Oktober 2003. [Müll04] Müller, J., Ist das Auslesen von RFID-Tags zulässig?, Datenschutz und Datensicherheit 2004, S. 215. [Phil03] Philips Icode SLI Product Specification, http://www.semiconductors.philips.com/acrobat/other/identification/SL058030.pdf, 2003, Abruf am 2004-10-05. [Podl04] Podlech, A. in: Denninger, E., u.a., Kommentar zum Grundgesetz für die Bundesrepublik Deutschland, 2004, Art. 2 Abs. 1 GG, Rn. 78 ff. [Roßn93] Roßnagel, A., KORA - Eine Methode zur Konkretisierung rechtlicher Anforderungen zu technischen Gestaltungsvorschlägen für Informations- und Kommunikationssysteme (zus. m. Hammer, V. und Pordesch, U.), InfoTech, 5. Jg. (1993), Heft 1, S. 21 24. [Sar+02] Sarma, S.; Weis, S.; Engels, D.: RFID systems and security and privacy implications. In: Burton Kaliski, Cetin Kaya Co, and Christof Paar (Hrsg.), Cryptographic Hardware and Embedded Systems - CHES 2002, LNCS Band 2523, Springer: Berlin et al., 2002, S. 454-469. [Schn96] Schneier, B.: Angewandte Kryptographie. Addison-Wesley. Bonn et al., 1996. [Spin01] Spindler, G. in: Roßnagel, A., Recht der Multimediadienste, 2001, § 2 TDG Rn. 17, 19. [Texa02] Texas Instruments Tag-it HF-I Transponder Inlays Reference Guide, Texas Instruments, Mai 2002. [Wald00.1] Waldenberg, A. in: Roßnagel, A., Recht der Multimediadienste, 2000, §3 TDG Rn. 14. [Wald00.2] Waldenberg, A. in: Roßnagel, A., Recht der Multimediadienste, 2000, §3 TDG Rn. 22. [Weis91] Weiser, M.: The Computer for the 21st Century. Scientific American 265, 1991: S. 94 ff.
Einführung in den Track IT-Sicherheit und Security Management Günther Pernul, Dieter Bartmann Universität Regensburg
Alfred Büllesbach DaimlerChrysler AG Fragen der Sicherheit und Verlässlichkeit von Informations- und Kommunikationssystemen (IuK) sind heute zu einem Schlüsselfaktor fast jeglicher Geschäftstätigkeit geworden. Dabei sind mindestens zwei Aspekte von wesentlicher Bedeutung: Zum einen ist Sicherheit eine notwendige Grundvoraussetzung. Die durch den Einsatz von IuK getriebenen Veränderungen in fast allen Wirtschaftsbereichen und in der öffentlichen Verwaltung führen die Gesellschaft in zunehmende Abhängigkeit vom einwandfreien Funktionieren der Systeme und den in ihnen eingesetzten Sicherheitsmechanismen. Die Akzeptanz und der Erfolg von eBusiness oder eGovernment hängen in hohem Maße davon ab, wie „sicher“ sich Anbieter, Nachfrager und damit Nutzer der IuK fühlen. Zahlreiche Beispiele aus der jüngeren Vergangenheit belegen die Existenz entsprechender Bedrohungen, die Verwundbarkeit der eingesetzten technischen Infrastrukturen und die Notwendigkeit entsprechender personeller, organisatorischer und technischer Gegenmaßnahmen. Zum anderen stellen sichere technische Infrastrukturen auch die Basis für innovative Geschäftsprozesse und neue Geschäftsfelder dar. So bieten effektive Sicherheitsmechanismen neue, bisher nicht gekannte Möglichkeiten der Realisierung und Auslieferung digitaler Produkte, schaffen Qualitätsmerkmale wie Fairness und Anonymität in Markttransaktionen, ermöglichen die Nachweisbarkeit elektronisch veranlasster Handlungen, eliminieren Medienbrüche oder stellen die Grundlage sicherer elektronischer Zahlungssysteme dar. Mit beiden Aspekten haben sich Fragen der Sicherheit und Verlässlichkeit von Informations- und Kommunikationssystemen in das Zentrum der Wirtschaftsinformatik manövriert. Beide Aspekte werden auch in den folgenden Beiträgen zum Track IT Sicherheit – Security Management – angesprochen.
1166
IT-Sicherheit und Security Management
Track-Programmkomitee Prof. Dr. Günther Pernul, Universität Regensburg (Chair) Prof. Dr. Dieter Bartmann, Universität Regensburg (Chair) Prof. Dr. Alfred Büllesbach, DaimlerChrysler AG (Chair) Prof. Dr. Hannes Federrath, Universität Regensburg Prof. Dr. Rüdiger Grimm, Technische Universität Ilmenau Prof. Dr. J. Felix Hampe, Universität Koblenz Prof. Dr. Peter Lory, Universität Regensburg Prof. Dr. Günter Müller, Universität Freiburg Prof. Dr. Gustaf Neumann, Wirtschaftsuniversität Wien Prof. Dr. Otto Petrovic, Universität Graz Prof. Dr. Andreas Pfitzmann, Technische Universität Dresden Prof. Dr. Hartmut Pohl, Fachhochschule Bonn-Rhein-Sieg Prof. Dr. Kai Rannenberg, Universität Frankfurt am Main Dr. Manfred Reitenspieß, Fujitsu Siemens Prof. Dr. Alexander Roßnagel, Universität Kassel Prof. Dr. Stephanie Teufel, Universität Fribourg
Geschäftsmodelle für signaturgesetzkonforme Trust Center Silvia Lippmann, Heiko Roßnagel J. W. Goethe-Universität Frankfurt am Main
Zusammenfassung: Auch sieben Jahre nach der Verabschiedung des deutschen Signaturgesetzes werden nur vereinzelt Anwendungen für qualifizierte elektronische Signaturen angeboten. Üblicherweise wird die Ursache in der Gesetzgebung oder in den möglichen Anwendungen selbst gesucht. Dieser Artikel befasst sich mit den Businessmodellen der Trust Center und sucht nach Fehlern in deren Strategie. Für diese Mängel werden dann jeweils Lösungsansätze beschrieben und diskutiert. Dabei geht es insbesondere um den Entwurf eines neuen Preissystems und um neue Möglichkeiten durch mobile Signaturen und andere neue Trägermedien wie den Digitalen Personalausweis. Schlüsselworte: Trust Center, elektronische Signatur, Businessmodell
1
Einleitung
Mit rund 30.000 qualifizierten Signaturschlüsseln in Deutschland bis Januar 2004 [Siet04, S.28] sind die Hoffungen bezüglich der elektronischen Signatur bei weitem nicht erfüllt worden. Mögliche Anwendungen wurden bislang nur vereinzelt realisiert und Anfang 2002 dachten sogar zwei Trust Center darüber nach, den Zertifizierungsbetrieb wieder komplett einzustellen [Sign02] [Dtru02]. Die rechtlichen Rahmenbedingungen für qualifizierte elektronische Signaturen sind längst gegeben, und die Anwendungsmöglichkeiten sind interessant. Aus diesem Grund stellt sich die Frage: Könnte es an der Strategie der Trust Center liegen? Um eine Antwort auf diese Frage zu finden, werden in Kapitel 2 zunächst die größten deutschen Trust Center im Hinblick auf ihre Preisstrategie, ihre Vertriebsstrategie und die anvisierten Kundensegmente analysiert. Die sich herauskristallisierenden problematischen Aspekte in den Geschäftsmodellen werden in Kapitel 3 erläutert, um in Kapitel 4 neue Lösungsansätze zu diskutieren.
1168
2
S. Lippmann, H. Roßnagel
Analyse der Trust Center
Derzeit gibt es in Deutschland 24 akkreditierte Trust Center, allerdings bieten viele nur branchenspezifische Lösungen an. Bei der folgenden Analyse werden nur die nicht auf spezielle Berufsgruppen spezialisierten Trust Center berücksichtigt.
2.1
Unternehmensprofile
AuthentiDate International AG Die AuthentiDate International AG gehört zur weltweit agierenden AuthentiDate Group. Diese ist in Europa, USA und über Partner auch in Asien vertreten. Die AuthentiDate International AG hat ihren Sitz in Düsseldorf und ist seit November 2001 akkreditiert. Diese Akkreditierung beschränkt sich allerdings auf das Ausstellen qualifizierter Zeitstempel. Die AuthentiDate Deutschland GmbH entwickelt als 100%ige Tochter der AuthentiDate International GmbH herstellerunabhängige Softwarelösungen, um den Einsatz von elektronischen Signaturen in Unternehmen zu ermöglichen [Auth04]. Deutsche Post Signtrust GmbH Schon 1998 begann die Deutsche Post mit dem Aufbau eines Trust Centers, das im Februar 2000 von der Regulierungsbehörde für Telekommunikation und Post genehmigt wurde. Am 23. Mai 2002 gab das Unternehmen bekannt, aus dem Geschäft mit der elektronischen Signatur auszusteigen und die Deutsche Post Signtrust GmbH aufzulösen. Im Laufe des Geschäftsjahres 2002 wurde dieser Entschluss jedoch revidiert. Der Basisbetrieb, der die Ausgabe von Signaturkarten und Starterpaketen, sowie die Sicherstellung der Verzeichnis- und Zeitstempeldienstleistung umfasst, soll weitergeführt werden. Im Zuge dieser Entscheidung wurden auch umfangreiche Restrukturierungsmaßnahmen betrieben. Im Geschäftsjahr 2001 waren bei der Deutsche Post Signtrust GmbH durchschnittlich 50 Angestellte beschäftigt. Am Ende des Geschäftsjahres musste der Personalbestand aufgrund eines zu geringen Umsatzes deutlich reduziert werden. Der gesamte Bereich Consulting / Sales und Marketing / Produkt Management wurde zusammen mit der Schließung des Standortes Bonn aufgegeben. Im Durchschnitt wurden im Geschäftsjahr 2002 ohne Geschäftsführer 38 Angestellte beschäftigt [Sign02]. D-Trust GmbH Das Trust Center D-Trust GmbH mit Sitz in Berlin wurde 1998 gegründet und ist eine 100%ige Tochtergesellschaft der Bundesdruckerei GmbH. Die Akkreditierung des Trust Centers durch die Regulierungsbehörde für Telekommunikation und Post erfolgte im März 2002. Im Lagebericht des Jahresabschlusses von 2001 ging man davon aus, dass der Geschäftsbetrieb zum 30.06.2002 eingestellt würde.
Geschäftsmodelle für signaturgesetzkonforme Trust Center
1169
Dieser Beschluss der Bundesdruckerei GmbH wurde aber dahingehend geändert, dass nur die Vertragsbeziehungen zu den Firmen VeriSign und Phoenix beendet wurden. Die Zahl der Mitarbeiter betrug 2001 noch 22 und wurde im Geschäftsjahr 2002 auf 12 Mitarbeiter gesenkt [Dtru02]. TC TrustCenter AG Die TC Trust Center AG mit Sitz in Hamburg wurde 1997 als ein Geschäftsfeld der MAZ Hamburg GmbH gegründet. Ein Jahr später übernahm die Commerzbank AG die Mehrheitsanteile, und im Jahre 1999 beteiligten sich auch die HypoVereinsbank AG, die Dresdner Bank AG und die Deutsche Bank AG. Im März 2000 konnte dann das IT-Hochsicherheitszentrum eingeweiht werden. Die Akkreditierung nach dem deutschen Signaturgesetz erfolgte im November 2001. Das Unternehmen beschäftigt derzeit rund 100 Mitarbeiter und hat sich auf Kunden spezialisiert, die eine individuelle IT-Sicherheitsinfrastrukturlösung aus einer Hand wünschen [TCTr04]. T-TeleSec Die Deutsche Telekom AG setzt sich aus den vier Konzerndivisionen T-Systems, T-Mobile, T-Online und T-Com zusammen. Das Unternehmen T-Systems hat eine komplexe Organisationsstruktur [Tsys04], es gliedert sich zum einen nach Branchen (Business Lines) und zum anderen nach Dienstleistungen (Service Lines). Die Branchenorganisationen betreuen die Kunden und können die jeweils entsprechende Branchenkompetenz vorweisen. Von ihnen werden die kundenindividuellen Gesamtlösungen aus den Lösungsbausteinen der Service Lines entwickelt. Für uns interessant ist die Business Unit ITC Security, die ein Bestanteil der Service Line „Systems Integration“ ist und unter anderem den Geschäftsbereich T-Telesec beinhaltet. Die Deutsche Telekom AG führt das Trust Center im Produktbereich T-TeleSec seit 1994. Es war 1998 das erste nach dem Signaturgesetz genehmigte Trust Center. In der Business Unit ITC Security waren 2003 circa 270 Mitarbeiter beschäftigt, davon stammen rund 100 aus der ehemaligen Einheit T-TeleSec.
2.2
Welche Kundensegmente sprechen die Trust Center an?
Zunächst wird untersucht, für welche Anwender die Trust Center ihre qualifizierten Zertifikate vorrangig ausstellen. AuthentiDate International AG Deutsche Post Signtrust GmbH D-Trust GmbH TC TrustCenter AG T-TeleSec
Privatanwender
Unternehmen / Behörden
0 9 9 0 9
9 9 9 9 9
Tabelle 1: Das Angebot an personalisierten Chipkarten auf dem Markt
1170
S. Lippmann, H. Roßnagel
Es werden sowohl für Privatanwender als auch für Unternehmen / Behörden personalisierte Chipkarten angeboten. Die AuthentiDate International AG hat sich allerdings mit ihren Komplettlösungen auf Geschäftskunden spezialisiert. Die TC Trust Center AG bietet für Privatanwender nur ein Demo-Zertifikat an. Der Fokus der Unternehmen liegt auf der Gewinnung von Geschäftskunden. Eine personalisierte Chipkarte alleine bringt dem Kunden noch keinen Nutzen. Deshalb ist es interessant, welche Firmen Anwendungen für qualifizierte elektronische Signaturen anbieten. Privatanwender AuthentiDate International AG
----------
Deutsche Post Signtrust GmbH
Signtrust Mail
D-Trust GmbH
digiSeal
TC TrustCenter AG T-TeleSec
Unternehmen / Behörden Massensignatur elektronischer Rechnungen Automatische E-Mail Sicherheit Scan Signatur Lösung Archivierung Workflow Signatur Lösung Signtrust Net Signtrust Mail OptiMahn Lösungen für Massensignaturen Signieren der eigenhändigen Unterschrift verschiedene IHK-Anwendungen elektronische Archivierung digiSeal
----------
---------
----------
---------
Tabelle 2: Die angebotenen Anwendungen für personalisierte Chipkarten
Anwendungen, die von den Trust Centern über Kooperationen mit anderen Unternehmen angeboten werden, sind in der Tabelle ebenfalls enthalten. Bei der Verteilung der von den Trust Centern angebotenen Anwendungen für beide Kundengruppen liegt der Schwerpunkt eindeutig auf dem geschäftlichen Bereich.
2.3
Die Preisstrategie
Dieser Abschnitt beschränkt sich auf die Preise für das Ausstellen einer signaturgesetzkonformen personalisierten Chipkarte zur Erzeugung qualifizierter elektronischer Signaturen.
Geschäftsmodelle für signaturgesetzkonforme Trust Center
1171
Ausstellung des Zertifikates
Jährliche Grundgebühr
Summe für 2jährige Nutzung
D-Trust GmbH
41 €
29 €
99 €
Deutsche Post Signtrust GmbH
0€
39 €
78 €
TC Trust Center
8€
62 €
132 €1
23,57 €
42,95 €
109,47 €
T-TeleSec
Tabelle 3: Preise für eine personalisierte Chipkarte2
Bei allen Unternehmen müssen die Kunden eine jährliche Grundgebühr, unabhängig von der Nutzungsintensität der Karte entrichten. Ein zusätzliches Entgelt für eine Zertifikatsüberprüfung oder ähnliches fällt nicht an.
2.4
Die Vertriebsstrategie
Das Unternehmen AuthentiDate International AG hat sich auf Komplettlösungen für Geschäftsprozesse spezialisiert. Viele Funktionen und Dienste werden als integrierter Bestandteil der Produkte von Partnerfirmen angeboten. Außerdem ist das Unternehmen weltweit tätig. Durch die in New York ansässige AuthentiDate, Inc. werden die Produkte und Services auch in den USA, unter der Berücksichtigung der dortigen Signaturgesetze angeboten. Die TC TrustCenter AG arbeitet mit Vertriebspartnern zusammen, die die Produkte entweder in ihre Gesamtlösungen integrieren oder die Produkte der TC TrustCenter AG in ihr eigenes Produktportfolio aufnehmen. Die TC TrustCenter AG agiert verstärkt im Bankenumfeld. Die Firmen Deutsche Post Signtrust GmbH und D-Trust GmbH verfügen über ein breites Partnernetzwerk. Diese Kooperationspartner stellen die notwendigen Anwendungen für qualifizierte elektronische Signaturen zur Verfügung. Das T-TeleSec Trust Center ist ein Geschäftsbereich der T-Systems ITC Security, die die Trust Center Services im Zusammenhang mit ihren Security Lösungen anbieten. Für die Lösungen der T-TeleSec wird auch der Flächenvertrieb der TCom genutzt [Meta03, S. 8]. Die Produkte des T-TeleSec Trust Centers werden europaweit angeboten.
1 2
Dieses Angebot richtet sich ausschließlich an Geschäftskunden. Alle Preise verstehen sich zuzüglich MwSt.
1172
2.5
S. Lippmann, H. Roßnagel
Die finanzielle Situation der Trust Center
An dieser Stelle wird nur auf die finanzielle Lage der Deutsche Post Signtrust GmbH und der D-Trust GmbH eingegangen, da die Jahresabschlüsse der anderen Trust Center beim Registergericht nicht verfügbar waren. Deutsche Post Signtrust GmbH Der Gesamtumsatz der Deutsche Post Signtrust GmbH betrug im Geschäftsjahr 2002 428.069,92 Euro. Das ist im Vergleich zum Vorjahr mit einem Gesamtumsatz von 459.508,84 Euro ein leichter Umsatzrückgang. Der Jahresfehlbetrag für das Jahr 2002 belief sich auf -8,8 Millionen Euro. Dieser Verlust wurde aufgrund eines Ergebnisabführungsvertrages durch die Deutsche Post eBusiness GmbH übernommen. Im Geschäftsjahr 2001 konnte durch die signaturgesetzkonformen Produkte Signtrust Start und Signtrust Identity lediglich einen Umsatz von 81.836,12 Euro generiert werden. Das sind nur 17,81 % des Gesamtumsatzes in Höhe von 459.508,84 Euro. Die beiden großen umsatzstarken Bereiche waren 2001 die PKILösungen und die Plattform-Einrichtung. [Sign02] D-Trust GmbH Die Höhe der Umsatzerlöse belief sich für das Geschäftsjahr 2001 auf 2.128.356,26 Euro und sank im Jahr 2002 auf 1.220.804,19 Euro. Die gewöhnliche Geschäftstätigkeit im Jahr 2002 verursachte einen Verlust in Höhe von -1,9 Millionen Euro. Ohne den Beherrschungs- und Ergebnisabführungsvertrag mit der Bundesdruckerei GmbH, wäre die D-Trust GmbH bereits im Jahr 2001 überschuldet gewesen. Ein Fortbestand des Unternehmens ist nur durch weitere Ausgleichszahlungen durch die Muttergesellschaft sichergestellt. [Dtru02]
3
Problematische Aspekte in den Geschäftsmodellen
Auf den Aspekt der fehlenden Standardisierung und Inkompatibilitäten wird hier nicht näher eingegangen. Dies wird oft als einer der wichtigsten Gründe für die mangelnde Durchsetzung der qualifizierten Signatur gesehen. Zur Beseitigung dieses Problems beteiligen sich die Trust Center alle an mindestens einer Arbeitsgruppe, entweder an der T7 e.V [T7IS04] oder innerhalb des Signaturbündnisses [Sign04].
3.1
Kosten-/Nutzenverteilung wurde nicht berücksichtigt
Jeder zukünftige Kunde wird sich bei der Kaufentscheidung nach seiner persönlichen Kosten-/Nutzenverteilung richten [HiBü00, S. 83]. Aus diesem Grund wird
Geschäftsmodelle für signaturgesetzkonforme Trust Center
1173
untersucht, welche Kundengruppe bei einer bestimmten Anwendung die Kosten für die Anschaffung der personalisierten Chipkarte inklusive Kartenleser trägt und welcher Kundengruppe daraus ein finanzieller Vorteil entsteht. Die Analyse wurde unter den folgenden Annahmen durchgeführt: 1. Die Analyse basiert auf der aktuellen Preisstruktur für personalisierte Chipkarten. 2. Relevant für diese Analyse ist nur der finanzielle Vorteil. Der Aspekt Zeiteinsparung wird für private Anwender vernachlässigt, da dies aufgrund der wenigen Anwendungen pro Privatperson nicht ins Gewicht fällt. 3. Bei Unternehmen und staatlichen Einrichtungen wird der Aspekt Zeiteinsparung als Nutzen definiert, denn hier fällt die Masse ins Gewicht. 4. Eingesparte Portokosten werden nur als Nutzen gewertet, wenn der einzelne Anwender durch die Nutzung der elektronischen Signatur eine Vielzahl an Briefen pro Monat einsparen kann. 5. Des Weiteren gibt es Anwendungen, bei denen die Transaktion zwischen zwei Akteuren aus derselben Kundengruppe stattfindet. In diesem Fall werden in der Tabelle zwar die Kosten und der Nutzen bei der gleichen Akteursgruppe verbucht, dabei fallen die Kosten aber nicht bei demselben Signaturschlüsselinhaber an wie der Nutzen. Als Beispiele seien hier Homebanking und automatisierte Bestellung bei Lieferanten genannt. Eine Ausnahme bilden die Anwendungsgebiete elektronische Rechnung und Archivierung. In diesen Fällen fallen sowohl die Kosten als auch der Nutzen bei ein und demselben Signaturschlüsselinhaber an. Die Ergebnisse der Kosten-/Nutzenanalyse sind in Tabelle 4 zusammengefasst. Die Analyse zeigt, dass ein Privatanwender bei allen acht potenziellen Anwendungen die Kosten für die Signaturerzeugung tragen muss und dabei nur bei einer einzigen Anwendung, der Teilnahme an elektronischen Marktplätzen, einen finanziellen Nutzen für sich verbuchen kann. Bei den Unternehmen ergibt sich ein sehr viel ausgeglicheneres Bild. Sie müssen bei neun von zehn potenziellen Anwendungen die Kosten tragen, können dafür aber auch bei neun Anwendungen einen finanziellen Nutzen aus der Verwendung einer elektronischen Signatur ziehen. Am Besten stellt sich die Situation für das Marktsegment staatliche Einrichtungen dar. In diesem Segment gibt es elf mögliche Anwendungen, wobei die staatliche Einrichtung nur in vier Fällen für die Kosten aufkommen muss. Demgegenüber stehen zehn Anwendungen, bei denen sie finanziell von der Verwendung einer qualifizierten elektronischen Signatur profitieren.
1174
S. Lippmann, H. Roßnagel
Privatpersonen Kosten
Nutzen
Angebote zu Ausschreibungen
Unternehmen Kosten
Nutzen
Ŷ
Ŷ
Staatliche Einrichtungen Kosten
Nutzen Ŷ
Elektronische Steuererklärung
Ŷ
Ŷ
Zugriff auf amtliche Verzeichnisse
Ŷ
Ŷ
Elektronische Wahlen
Ŷ
Ŷ
Beantragung von Dokumenten
Ŷ
Ŷ
Meldung nach Wohnungswechsel
Ŷ
Ŷ
Elektronische Mahnverfahren Elektronische Marktplätze
Ŷ
Ŷ
Automatisierte Bestellung Online-Banking
Ŷ
Vertragsänderungen online
Ŷ
Ŷ Ŷ
Ŷ
Ŷ
Ŷ
Ŷ
Ŷ
Ŷ
Ŷ
Ŷ
Ŷ
Ŷ
Ŷ
Ŷ
Ŷ
Ŷ
Ŷ
Ŷ
Elektronische Rechnungen
Ŷ
Ŷ
Archivierung
Ŷ
Ŷ
Ŷ
Ŷ
9
9
4
10
Summe
8
1
Tabelle 4: Kosten-/Nutzenverteilung für die einzelnen Signaturanwendungen
Nach der Analyse der Kosten-/Nutzenverteilung kann festgestellt werden, dass für die drei Marktsegmente Privatanwender, Unternehmen und staatliche Einrichtungen die Verteilung der Kosten nicht mit dem erzielten Nutzen übereinstimmen. Der Privatanwender wird hier deutlich benachteiligt. Er hat die meisten Kosten zu tragen, während die Unternehmen und staatlichen Einrichtungen den Nutzen für sich verbuchen können [Mock03, S. 3].
Geschäftsmodelle für signaturgesetzkonforme Trust Center
3.2
1175
Keine Preisdifferenzierung
Ein weiteres Problem liegt in der aktuellen Preisstruktur für Trust Center Produkte. Entscheidet sich ein Kunde für die Anschaffung einer personalisierten Chipkarte, kann er sich nicht zwischen verschiedenen Tarifen entscheiden. Dabei gibt es unterschiedliche Marktsegmente, die ganz unterschiedliche Verwendungsprofile haben. Diese wurden bei der Preisfestsetzung überhaupt nicht berücksichtigt. Vor allem fehlt ein attraktives Einstiegsangebot, um ganz gezielt neue Privatkunden zu gewinnen.
3.3
Fokussierung auf Geschäftskunden
Wie die Analyse in Kapitel 2.2 ergeben hat, sprechen die Trust Center mit ihren Produkten und Lösungen hauptsächlich Unternehmen und staatliche Einrichtungen an. Es werden vor allem Lösungen für Massensignaturen, zum Beispiel für den elektronischen Rechnungsversand oder zur Archivierung angeboten. Auch die Preise sind für den Privatanwender wenig attraktiv. Die Ursache für diese Problematik ist nicht alleine bei den Trust Centern zu suchen, denn es gibt zurzeit kaum attraktive Anwendungsmöglichkeiten für den Privatverbraucher. Die E-Government-Initiativen stecken noch in der Anfangsphase und andere Anwendungsmöglichkeiten gibt es nur wenige. Hier liegt aber auch das Grundproblem, denn solange nicht eine breite Masse über qualifizierte Zertifikate verfügt, wird auch kaum jemand bereit sein, Anwendungen für den privaten Signaturschlüsselinhaber zu entwickeln. Für die Trust Center steckt allerdings im Privatkundensegment ein großes Potential, denn erst wenn die Privatanwender mit dem Umgang von personalisierten Chipkarten vertraut sind, können die Unternehmen das ganze Potenzial der neuen Technik ausschöpfen. Für Unternehmen und staatliche Einrichtungen liegen viele Einsparungsmöglichkeiten in Anwendungen, an denen Privatpersonen beteiligt sind, so zum Beispiel der elektronische Rechnungsversand oder nahezu alle E-Government- Anwendungen.
4 4.1
Neue Lösungsansätze Ein neues Preissystem
Die beiden zentralen Probleme in den derzeitigen Strategien der Trust Center sind die fehlende Preisdifferenzierung und die derzeitige Kosten-/Nutzenverteilung. Als eine Möglichkeit, diese Mängel zu beheben, werden wir im Folgenden ein neues Preissystem vorstellen. Um mittels Preisdifferenzierung bislang nicht berücksichtigte Kundengruppen gewinnen zu können, wird eine Einteilung in Markt-
1176
S. Lippmann, H. Roßnagel
segmente Privatpersonen, Unternehmen und staatliche Einrichtungen vorgenommen. Eine ausgeglichenere Nutzenverteilung lässt sich durch die Einführung einer transaktionsbasierten Abrechung in Kombination mit der Bepreisung von Signaturprüfung und Signaturerzeugung erzielen. Der Privatkunde wird vor allem Signaturen erzeugen und verhältnismäßig wenige Signaturen prüfen. Gleichzeitig zieht er aus den meisten Anwendungen einen geringeren Nutzen als die Unternehmen und staatlichen Einrichtungen. In den Marktsegmenten staatliche Einrichtungen und Unternehmen wird die qualifizierte elektronische Signatur in vielen Fällen innerhalb des Unternehmens bzw. der Behörde zur Anwendung kommen. Beispielsweise bei der Archivierung oder bei internen Arbeitsabläufen, die zur Fortführung einer rechtssicheren Unterschrift bedürfen. Bei all diesen Signaturen wird eine Prüfung nur in Ausnahmefällen, wie zum Beispiel bei einem Rechtsstreit, durchgeführt. Bei dem neuen Preissystem findet die Aufteilung der Kosten zwischen der Signaturerstellung und der Signaturprüfung über die Erhebung einer Grundgebühr für den Signierenden und über die transaktionsbasierte Abrechnung der Signaturprüfung statt. Bei der Festsetzung der Preishöhe ist eine Orientierung am ökonomischen Nutzen, den die qualifizierte elektronische Signatur für den Anwender hat, sinnvoll. Dabei wird aber zunächst nicht das ganze Potenzial ausgeschöpft, das sich durch den ökonomischen Nutzen einer qualifizierten Signatur ergibt. Denn der Markt befindet sich derzeit in der Anfangsphase, weshalb es wichtiger ist, erst einmal in möglichst kurzer Zeit viele Kunden zu akquirieren. Später, wenn sich die qualifizierte elektronische Signatur weit verbreitet hat, können auch die Preise angehoben werden. In Tabelle 5 sind zunächst alle Tarife des neuen Preissystems zusammengefasst, danach wird jeder einzelne Tarif genauer begründet. Für alle Tarife gilt: x
Das zugrunde liegende Zertifikat ist für drei Jahre gültig.
x
Die Abrechnung der Signaturprüfung erfolgt über die persönliche Identifizierung beim Zugriff auf die zugangsgeschützten Zertifikatsverzeichnisse.
x
Die Grundgebühr wird einmal am Anfang jedes Kalenderjahres fällig.
x
Die Kosten für die Signaturprüfungen werden vierteljährlich zum Quartalsende in Rechnung gestellt.
x
Die Tarife für Privatkunden stehen grundsätzlich nicht für Unternehmen und staatliche Einrichtungen zur Verfügung.
x
Der Tarif Public steht weder den Unternehmen noch den Privatanwendern zur Verfügung.
x
Ein Chipkartenleser ist in dem Angebot jeweils nicht enthalten, er muss zusätzlich erworben werden.
Geschäftsmodelle für signaturgesetzkonforme Trust Center
1177
Zielgruppe
Tarif
Anschaffung
Grundgebühr
Prüfung
Zurückhaltende Privatkunden
Starter
15 €
0€
0,4 €
Technikbegeisterte Privatkunden
Independence
0€
15 €
0,25 €
Unternehmen
Customer
0€
60 €
0,25 €
Behörden
Public
0€
60 €
0,05 €
Unternehmen/Behörden
Business
0€
30 €
0,1 €
Unternehmen/Behörden
Flatrate
0€
85 €
0€
Tabelle 5: Ein neues Preissystem für qualifizierte Zertifikate
Starter Dieser Tarif richtet sich vor allem an den zurückhaltenden Privatkunden. Dieser Kunde konnte bislang noch kein Vertrauen in die qualifizierte elektronische Signatur aufbauen. Er ist nur bereit, in die neue Technologie einzusteigen, wenn er diese zunächst unverbindlich und ohne finanzielles Risiko testen kann. In erster Linie wird ein solcher Kunde Anwendungen aus dem E-Government Bereich testen, beispielsweise die Beantragung eines neuen Personalausweises oder eines Kfz-Kennzeichens. Signaturprüfungen werden, wenn überhaupt, nur sehr selten stattfinden. Die Einnahme von 15 Euro in drei Jahren wird zwar für das Trust Center nicht kostendeckend sein, doch dieser Tarif ist als subventionierter Einstiegstarif gedacht, um langfristig neue Kunden zu gewinnen. Es ist davon auszugehen, dass der Prepaid-Kunde nach einer Eingewöhnungszeit auf den für das Trust Center lukrativeren Privatkundenvertrag umsteigen wird. Independence Mit dem Tarif „Independence“ wird das Marktsegment „technikbegeisterter Privatkunde“ angesprochen. Diese Kunden haben bereits Vertrauen in die neue Technik und sind auch bereit, sie in vielen Bereichen anzuwenden. Das bedeutet, bei diesem Kundensegment kann ein höherer Prozentsatz des ökonomischen Nutzens abgeschöpft werden. Diese Anwender werden neben E-Government auch über elektronische Marktplätze handeln, Verträge mit Unternehmen elektronisch abschließen oder rechtsverbindliche Angebote von Handwerkern einholen. Falls die Banken in Zukunft beim Online-Banking qualifizierte elektronische Signaturen als Alternative zu HBCI und PIN/TAN Verfahren akzeptieren, würde sich das Anwendungsfeld nochmals erweitern. Folglich werden deutlich mehr Signaturprüfungen stattfinden als bei den zurückhaltenden Privatkunden. Die Höhe der jährlichen Grundgebühr orientiert sich an der Zahlungsbereitschaft für die jährliche
1178
S. Lippmann, H. Roßnagel
Gebühr einer Kreditkarte. Diese bringt dem Inhaber ähnliche Vorteile wie eine personalisierte Chipkarte. Customer Speziell für das Marktsegment „Unternehmen“ ist der Tarif „Customer“ konzipiert. Unternehmen müssen durch verbesserten Service und durch eine gute Kundenfreundlichkeit neue Kunden gewinnen um so wettbewerbsfähig zu bleiben. Gleichzeitig müssen sie so kosteneffizient wie möglich arbeiten, weshalb der Einsatz einer qualifizierten Signatur in vielen Fällen sinnvoll wäre. Doch in den Anwendungsbereichen elektronischer Rechnungsversand, online-Vertragsabschluss oder Abgabe eines Angebotes bei Privatkunden besteht ein Konflikt zwischen den Zielen Kundenfreundlichkeit und Kosteneinsparung. Das Unternehmen kann für eine erhöhte Grundgebühr ein Zertifikat erwerben, dessen Daten in einem nicht kostenpflichtigen Verzeichnis gespeichert werden. Das bedeutet, der Kunde kann ohne Kosten eine Zertifikatsprüfung vornehmen. Public Der Tarif „Public“ ist für das Kundensegment „staatliche Einrichtung“ interessant und hier vor allem für Angestellte, die sehr viel in Kontakt mit dem Bürger stehen. Diese Angestellten werden bei Anwendungen wie Beantragung eines Personalausweises oder Kfz-Kennzeichens, Einsichtnahme in Grundbücher oder bei der elektronischen Ummeldung nach Umzug beteiligt sein. Folglich werden sehr viele Signaturen pro Tag geprüft. Für diesen Fall gibt es den Tarif „Public“, der sich durch eine etwas höhere Grundgebühr als bei dem Tarif „Business“, dafür aber durch eine kostengünstige Signaturprüfung auszeichnet. Business Dieser Tarif ist ausgerichtet für Anwendungen in Unternehmen und Behörden, bei denen entweder eine für den Transaktionspartner kostenlose Signaturprüfung nicht erwünscht ist, oder bei denen relativ wenig Signaturprüfungen im Unternehmen anfallen, wie beispielsweise bei der elektronischen Archivierung. Auch wird mit 30 Euro Grundgebühr pro Jahr das mögliche Limit längst nicht ausgeschöpft, denn ein einziger Aktenordner verursacht pro Jahr schon Kosten in Höhe eines dreistelligen Eurobetrages [Fox03, S. 103]. Dies könnte durch die elektronische Archivierung eingespart werden. Flatrate Der Tarif „Flatrate“ ist sowohl für Unternehmen als auch für staatliche Einrichtungen geeignet, sofern sie sehr viele Signaturprüfungen pro Jahr durchführen. Bei diesem Tarif wird nur die jährliche Grundgebühr in Höhe von 85 Euro fällig, weitere Kosten für eine Signaturprüfung fallen für den Zertifikatsinhaber nicht an. Nicht in diesem Tarif enthalten ist die kostenlose Signaturprüfung für den Transaktionspartner. Auch bei der nutzenorientierten Preisfindung dürfen die Produktionskosten nicht völlig außer Acht gelassen werden. Es ist davon auszugehen, dass die derzeit von Trust Centern kalkulierten Preise kostendeckend sind, sofern eine kritische Absatzmenge überschritten wird. Deshalb orientiert sich die Preisfindung
Geschäftsmodelle für signaturgesetzkonforme Trust Center
1179
am Preisniveau der heutigen qualifizierten Zertifikate. In diesem Tarifsystem liegt der Durchschnittspreis für die Grundgebühr eines qualifizierten Zertifikates bei rund 42,50 Euro. Hinzukommen noch die Einnahmen für die Signaturprüfungen, so dass der Durchschnittspreis von derzeit auf dem Markt üblichen 52,30 Euro pro Jahr wieder erreicht werden dürfte.
4.2
Die qualifizierte mobile elektronische Signatur
Bei der Entwicklung eines Geschäftsmodelles ist es wichtig, den Nutzen des Produktes oder der Dienstleistung darzulegen. Im Folgenden wird gezeigt, wie die Verwendung von mobilen Endgeräten den Nutzen einer elektronischen Signatur erhöhen kann. 4.2.1
Grundlagen
Eine mobile Signatur zeichnet sich dadurch aus, dass der Signierende ein mobiles Endgerät verwendet und die notwendigen Zertifizierungsdienstleistungen über ortsunabhängige Telekommunikationsnetzwerke genutzt werden können [Ran+03, S. 95]. Die Signatur kann entweder zentral auf einem Signaturserver oder dezentral auf dem mobilen Endgerät selbst generiert werden. Serversignatur Bei der Serversignatur wird die Erzeugung der Signatur zentral von einem Diensteanbieter vorgenommen. Wie in [Ran+03, S. 97ff] und [Ross04, S. 276f] gezeigt, eignen sich Serversignaturen nicht für qualifizierte Signaturen, da der Signierschlüssel nicht unter alleiniger Kontrolle des Kunden ist. Clientsignatur Bei der Clientsignatur findet der Prozess der Signaturerstellung direkt auf dem mobilen Endgerät des Nutzers statt. Hierzu gibt es auch wiederum zwei Möglichkeiten: Die Ein-Karten-Lösung und die Zwei-Karten-Lösung. Bei der Zwei-Karten-Lösung wird dem mobilen Endgerät neben der SIM-Karte noch eine zweite Karte als sichere Signaturerstellungseinheit verwendet. Der Nachteil bei dieser Vorgehensweise ist darin zu sehen, dass für jeden Signiervorgang die Karten ausgetauscht werden müssen oder in dem mobilen Endgerät zwei Chipkartenleser eingebaut sein müssen. Für den Gerätehersteller gibt es keinen Anreiz einen zweiten Kartenleser einzubauen, was auch zu höheren Herstellungskosten führen würde. Bei der Ein-Karten-Lösung werden entweder der Signierschlüssel oder die zur Erzeugung eines Schlüssels notwendigen Komponenten von Anfang an mit auf der SIM-Karte gespeichert, oder die SIM-Karte enthält einen leeren Platz, auf dem der Signierschlüssel nachträglich gespeichert werden kann. Rechtlich ist dies problemlos möglich, solange alle Anforderungen an Produkte für qualifizierte elektronische Signaturen aus dem Signaturgesetz erfüllt werden. Wird der Signier-
1180
S. Lippmann, H. Roßnagel
schlüssel erst nachträglich auf die SIM-Karte aufgebracht, so muss der Anwender nach Erwerb des mobilen Endgerätes die Karte für einen gewissen Zeitraum dem Trust Center überlassen. Während dieser Zeit kann dann aber auch die Telefonund Datenübertragungsfunktion nicht genutzt werden. Bei der zweiten Möglichkeit, den Signierschlüssel schon vorzuinstallieren und über die Mobilfunkprovider zu vertreiben, gibt es weniger Probleme mit dem Signaturgesetz als regulierungs- und wettbewerbsrechtliche Probleme. Der Kunde würde so an einen Mobilfunkprovider gebunden, da bei einem Wechsel das Zertifikat seine Gültigkeit verlieren würde [Ran+03, S. 97 ff]. Vorteile mobiler Signaturen Die mobile Signatur birgt gegenüber der herkömmlichen auf einem PC erzeugten Signatur einige Vorteile. Das mobile Endgerät, wie ein Handy, ein MDA oder ähnliches ist heute für einen Großteil der Bevölkerung zu einem ständigen Begleiter geworden. Der Umgang mit den mobilen Geräten ist den Menschen mehr vertraut als der Umgang mit Chipkartenleser und Smartcard. Außerdem wird durch die Signaturerzeugung mittels Kartenleser und Smartcard die Mobilität des Anwenders eingeschränkt. Ein weiterer großer Vorteil der mobilen Signatur sind die Analogien zur eigenhändigen Unterschrift. Eine eigenhändige Unterschrift kann jederzeit mit einfach verfügbaren Mitteln und ortsunabhängig geleistet werden. Dies würde durch die qualifizierte mobile Signatur auch ermöglicht. Dadurch könnten auch völlig neue Geschäftsfelder erschlossen werden, beispielsweise im Zusammenhang mit Location Based Services. Hilfreich für die Durchsetzung der mobilen Signatur könnte die Tatsache sein, dass es schon heute mehr Mobilfunkkunden (78,3 Prozent [Regu03, S. 32] der Gesamtbevölkerung) als InternetTeilnehmer (58 Prozent [Regu03, S. 37] der Erwachsenen) gibt. Schwachstellen mobiler Signaturen Derzeit weisen die technischen Eigenschaften eines mobilen Endgerätes gegenüber einem herkömmlichen PC noch einige Schwachstellen auf. Diese Mängel reichen vom relativ kleinen Display über die eingeschränkten Eingabemöglichkeiten und auch der begrenzte Speicherplatz stellt ein Problem dar. Die mobilen Geräte sind in dieser Hinsicht nicht so leistungsfähig und hinzu kommen teure Datenübertragungskosten. Aus Anwendersicht wäre es das Einfachste, eine SmartCard mit SIM- Funktion und Signierfunktion zu verwenden, die aber die freie Wahl des Trust Centers ermöglicht [FrRo04, S. 2]. Certification on Demand Bei diesem Konzept wird der Vertrieb von signaturfähigen Smart Cards in die Vertriebsstruktur der Mobilfunkprovider eingegliedert, ohne dass die Kunden an ein bestimmtes Trust Center gebunden werden. Dazu werden beim SmartCardHersteller zusätzlich zur Teilnehmerkennung IMSI und dem individuellen Schlüssel Ki, ein Schlüsselgenerator für Signaturschlüsselpaare und der öffentlichen Schlüssel der RootCA auf die SIM-Karte aufgebracht. Der Mobilfunkprovider
Geschäftsmodelle für signaturgesetzkonforme Trust Center
1181
übergibt dann die Karte zusammen mit einer Nullpin zur Aktivierung der Signierfunktion, seinem Kunden, der sofort nach Erhalt die Telefon- und Datenübertragungsfunktion nutzten kann. Interessiert sich der Kunde auch für die Signaturfunktion, kann er sich bei einer Registrierungsstelle identifizieren lassen und seinen öffentlichen Schlüssel hinterlegen. Außerdem übermittelt der Kunde seine mit dem privaten Schlüssel chiffrierten Identifikationsdaten an das Trust Center. Gleichzeitig übermittelt die Registrierungsstelle den öffentlichen Schlüssel und die Identifikationsdaten des Kunden an das Trust Center. Stimmen die von der Registrierungsstelle übermittelten Daten mit den vom Kunden übermittelten Daten überein, stellt das Trust Center ein Zertifikat aus und sendet es direkt an das mobile Endgerät. Durch das von der RootCA für das Trust Center ausgestellte Zertifikat kann der Kunde die Gültigkeit seines Zertifikates überprüfen [Ross04, S. 279ff]. 4.2.2
Ertragsmöglichkeiten durch mobile Signaturen
Location Based Services Ein sehr viel versprechender Bereich im M-Commerce sind die so genannten Location Based Services. Hier sind in der Regel drei Akteure beteiligt. Zum einen ist das der Service Provider, der über die Datenbank mit den entsprechenden ortsgebundenen Informationen verfügt. Des Weiteren ist der Mobilfunkprovider beteiligt, der den genauen Standort des Kunden ermitteln kann sowie der Kunde. Stellt der Kunde eine Anfrage, muss der Mobilfunkprovider die Standortinformationen an den Service Provider weitergeben. Dabei handelt es sich aber laut Bundesdatenschutzgesetz (BDSG) § 3 Abs. 1 um personenbezogene Daten und für diese bedarf es nach BDSG § 4 Abs. 1 für die Verarbeitung der Einwilligung des Betroffenen. Dabei legt § 4a Abs. 1 fest: „Die Einwilligung bedarf der Schriftform, soweit nicht wegen besonderer Umstände eine andere Form angemessen ist.“ Hier könnte die mobile qualifizierte elektronische Signatur zum Einsatz kommen [FriRo04, S. 3]. Medikamenten-Bestellung Interessante Anwendungsmöglichkeiten für mobile qualifizierte elektronische Signaturen gibt es im Gesundheitswesen. In ländlichen Gegenden ist es noch üblich, dass der Allgemeinmediziner Hausbesuche macht. Vor allem die aufgrund einer Erkrankung nicht mehr mobilen Patienten profitieren davon. Doch meistens benötigen diese Patienten auch Medikamente, die aus der Apotheke besorgt werden müssen – ein Problem für kranke Menschen. Viele Apotheken liefern die Medikamente zwar nach Hause, dennoch wird dazu erst das von einem Arzt unterschriebene Rezept benötigt. Hier könnte der Arzt während des Hausbesuches das Rezept auf dem mobilen Endgerät schreiben, qualifiziert signieren und direkt elektronisch an die Apotheke schicken.
1182
S. Lippmann, H. Roßnagel
Zusammenarbeit von räumlich verteilten Beteiligten Die qualifizierte mobile Signatur kann in vielen Fällen hilfreich im Arbeitsalltag eingesetzt werden. Ein selbständiger Handwerker kann zum Beispiel direkt von der Baustelle aus rechtsverbindlich neue Baustoffe ordern, Versicherungsvertreter können Schadensmeldungen noch während des Gesprächs beim Kunden an die Versicherungsgesellschaft übermitteln. Außerdem können zwei mobile Mitarbeiter von unterschiedlichen Unternehmen Verträge abschließen ohne sich zu treffen. Dies sind nur einige Beispiele für Erleichterungen, die eine qualifizierte mobile Signatur im Arbeitsalltag mit sich bringen kann.
4.3
Neue Trägermedien
Eine weitere Möglichkeit die Durchsetzung der qualifizierten Signatur zu beschleunigen, ist das Aufbringen der Signaturfunktion auf bereits verbreitete Trägermedien, wie die Krankenversicherungskarte, der digitale Ausweis im Chipkartenformat und die JobCard. 4.3.1
Digitaler Reisepass / Personalausweis
Unter anderem Italien, Estland und Finnland haben bereits den Personalausweis mit Signaturfunktion. Auch in Deutschland gibt es derzeit Überlegungen einen solchen Ausweis einzuführen. Er soll dieselben Sicherheitsmerkmale wie der aktuelle Personalausweis haben und zusätzlich das qualifizierte elektronische Signieren ermöglichen. Dies wäre eine große Chance für die Verbreitung der elektronischen Signatur, doch es gibt Einwände [Heis04]. Pro Jahr werden nur rund 10 Prozent aller Personalausweise erneuert, weshalb sich die Signaturfunktion relativ langsam verbreiten würde. Außerdem ist es nicht sicher, ob die verwendeten kryptographischen Lösungen den Gültigkeitszeitraum eines Personalausweises von 10 Jahren überstehen würden. Um bei der Aufbringung des persönlichen Zertifikates auf den digitalen Personalausweis unabhängig von der ausstellenden Behörde zu sein, könnte wieder Certification on Demand zum Einsatz kommen [Ross04, S. 282]. 4.3.2
Gesundheitskarte
Mit dem am 1. Januar 2004 in Kraft getretenen Gesundheitsgesetz wurde die Ablösung der bisherigen Krankenversicherungskarte durch die elektronische Gesundheitskarte zum 1. Januar 2006 festgelegt. Die neue Gesundheitskarte soll neben den verwaltungstechnischen Daten der alten Krankenversichertenkarte auch das Rezept ersetzen und den Ärzten mit Hilfe von abgestuften Zugangsrechten den Zugriff auf Patientenakten freigeben. Außerdem wird auf der Rückseite ein Auslandskrankenschein abgebildet sein [Hei204]. Wird diese elektronische Gesund-
Geschäftsmodelle für signaturgesetzkonforme Trust Center
1183
heitskarte mit einer Signaturfunktion ausgestattet, verfügen schon 2006 mehr als 80 Millionen Versicherte [Siet04, S.26] über eine Signaturkarte. 4.3.3
JobCard
Im August 2002 hat die Bundesregierung beschlossen, bis zum Jan. 2006 für alle Arbeitnehmer eine JobCard einzuführen [ITSG04]. Die Arbeitsverwaltung soll so unkomplizierten Zugriff auf Beschäftigungszeiten, auf die Höhe der Entgeltzahlungen und auf Angaben über die Auflösung eines Beschäftigungsverhältnisses bekommen. Der Zugriffsschutz auf die zentral gespeicherten Leistungsdaten kann durch die signaturgesetzkonforme Signaturkarte gewährleistet werden. Die Arbeitgeber könnten durch die JobCard rund 500 Millionen Euro jährlich einsparen, da rund 60 Millionen ausgedruckte Dienstbescheinigungen an die Behörden und die Archivierung wegfallen würden [Heis04]. Durch die Realisierung der JobCard würden ab 2006 circa 40 Millionen Arbeitnehmer [Siet04, S. 26] über eine Signaturkarte verfügen.
4.4
Business Case
Bei der Kalkulation des zukünftigen Einnahmeüberschusses orientieren wir uns an der Kapital- und Unternehmensstruktur von D-Trust aus dem Jahr 2002 [Dtru02]. Es wird davon ausgegangen, dass ein neues Trägermedium tatsächlich umgesetzt wird und das neue Preissystem eingeführt wird. Unter diesen Annahmen könnten sich bis Ende 2006 folgende Kundenzahlen ergeben: Tarif
Kundenanzahl
Einnahmen Grundgebühr
Starter
1.260.000
6.300.000 €3
Independence
758.000
11.370.000 €
Customer
10.000
600.000 €
Public
10.000
600.000 €
Business
10.000
300.000 €
Flatrate
10.000
850.000 €
Summe
2.028.000
20.020.000 €
Tabelle 6: Einnahmen über die Grundgebühr im Jahr 2006
Die Kundenzahlen unterliegen folgenden Annahmen: x
Rund 1 Prozent der Prepaid Kunden aus dem Mobilfunk von 2003 wird 2006 den Tarif „Starter“ nutzen.
3
Hier wurde der Anschaffungspreis von 15 Euro auf 3 Jahre umgelegt
1184
S. Lippmann, H. Roßnagel
x
Von den DSL-Nutzern aus dem Jahr 2002 werden ungefähr 30% bis 2006 den Tarif „Independence“ wählen.
x
Bis Jan. 2004 wurden rund 30.000 qualifizierte Zertifikate ausgestellt [Siet04]. Wahrscheinlich ging ein Großteil davon an Geschäftskunden, da es für Privatanwender bislang kaum Nutzungsmöglichkeiten gibt. Im Geschäftskundensegment gehen wir von einem Wachstum von rund 10 Prozent pro Jahr aus. Daraus resultieren bis Ende 2006 circa 40.000 Kunden in den Marktsegmenten Unternehmen und staatliche Einrichtungen, die sich in etwa gleichmäßig auf die Tarife aufteilen.
Den Einnahmen stehen folgende Kosten gegenüber: Materialaufwand (2.028.000 * 5 Euro4)
10.140.000,00 €
Personalaufwand
2.022.274,76 €5
Abschreibung immaterieller Vermögensgegenstände des Anlagevermögens und Sachanlagen
811.166,03 €6
Sonstige betriebliche Aufwendungen
1.537.591.89 €7
Zinsen und ähnliche Aufwendungen
656.764.71 €8
Summe der Kosten:
15.167.797, 39 €
Tabelle 7: Kosten im Jahr 2006
Können die angegebenen Kundenzahlen erreicht werden, resultiert daraus ein Gewinn von rund 20.020.000 - 15.167.797, 39 = 4.842.202,61 Euro.
4
5 6 7 8
Materialaufwand wurde auf folgender Grundlage geschätzt: Im Jahresabschluss von D-Trust war der Materialaufwand etwa halb so hoch wie die Umsatzerlöse. Deshalb wurde etwa die Hälfte der neu berechneten Einnahmen für 2006 als Materialaufwand angesetzt und auf die Anzahl der Zertifikate umgelegt. Das ergibt einen Materialaufwand von 4,935 Euro pro personalisierte Chipkarte. Dieser Betrag wurde auf 5 Euro gerundet. Hier wurden aufgrund der erhöhten Absatzmenge die Personalkosten im Vergleich zum Jahresabschluss 2002 von D-Trust verdoppelt. Entspricht Zahlen aus dem Jahresabschluss von der D-Trust GmbH Entspricht Zahlen aus dem Jahresabschluss von der D-Trust GmbH Entspricht Zahlen aus dem Jahresabschluss von der D-Trust GmbH
Geschäftsmodelle für signaturgesetzkonforme Trust Center
5
1185
Zusammenfassung
Bislang steht der Markt für qualifizierte Zertifikate noch am Anfang seiner Entwicklung, und die Trust Center müssen derzeit um ihre Existenz fürchten. In diesem Artikel wurden fünf Trust Center im Hinblick auf ihre Preis- und Vertriebsstrategie analysiert. Dabei wurden einige problematische Aspekte in den Geschäftsmodellen der Trust Center identifiziert. Eines der Hauptprobleme ist eine völlig ungeeignete Preisstrategie. Dabei gibt es weder eine Preisdifferenzierung, um die verschiedenen Kundensegmente anzusprechen, noch wurde die Kosten/Nutzenverteilung bei der Preisfindung berücksichtigt. In diesem Beitrag wurde ein neues Preissystem vorgeschlagen, das durch eine Verteilung der Kosten zwischen dem Signierenden und dem Signaturprüfenden eine ausgeglichene Kosten/Nutzenverteilung schafft. Durch die Einführung von mehreren, auf die jeweiligen Bedürfnisse der einzelnen Kundensegmente abgestimmten Tarifen, wird eine breite Masse angesprochen. Die Umsetzung von mobilen Signaturen mittels Certification on Demand wurde vorgeschlagen, um die Vertriebsstrategie zu verbessern. Mit der mobilen Signatur erweitern sich die Anwendungsmöglichkeiten qualifizierter elektronischer Signaturen. Ein weiterer wichtiger Hoffnungsträger für die Trust Center sind die derzeit diskutierten Möglichkeiten des Aufbringens einer Signaturfunktion auf bereits vorhandene Trägermedien. Die Einführung dieser neuen Trägermedien kann auch dazu beitragen, das Problem der Geschäftskundenfokussierung zu lösen. Wenn sich die qualifizierten Zertifikate hinreichend verbreitet haben, wird die Wirtschaft auch neue Anwendungen für Privatpersonen entwickeln.
Literatur [Auth04] AuthentiDate International AG, www.authentidate.de, (19.02.2004). [Dtru02] Jahresabschlüsse der D-Trust GmbH, zu den Geschäftsjahren 2001 und 2002. [Fox03] Fox, Dirk (2003): E-Government, in: Datenschutz und Datensicherheit, Jg. 27, Heft 2, Seite 103. [FrRo04] Fritsch, Lothar; Roßnagel, Heiko (2004): SIM based Mobile Electronic Signatures: Enabling M-Business with Certification on Demand. Card Forum International Vol.8 Nr.1 Jan/Feb 2004. [Heis04] Heise online (16.01.2004): Markt für E-Signaturen kommt langsam in Schwung, www.heise.de/newsticker/meldung/43695, (16.01.2004). [Hei204] Heise online (15.01.2004): Mit der Gesundheitskarte im Zeitplan, www.heise.de/newsticker/meldung/43653, (30.03.2004). [HiBü00] Hillenbrand, Antette; Büllingen Franz (2000): Erfolgsfaktoren digitaler Signaturen, in: Datenschutz und Datensicherheit, Jg. 24, Heft 2, Seiten 80-84.
1186
S. Lippmann, H. Roßnagel
[ITSG04] ITSG Informationstechnische Servicestelle der Gesetzlichen Krankenversicherung GmbH: die JobCard, www.itsg.de/download/BroschuereJobcard.pdf, (30.03.2004). [Meta03] Meta Group: Unternehmensprofil T-Systems International GmbH, erstellt im Rahmen der Studie IT-Security im Jahr 2003, www.metagroup.de/studien/2003/security/profile/tsystems-profile.pdf, (12.01.2004). [Mock03] Mock-Hecker, Rüdiger: Digitale Signatur – Nutzenpotenziale und Stand der Einführung; Vortrag im Rahmen der Omnicard Berlin am 15.01.2003, www.s-trust.de/veranstaltungen/omnicard_2003_vortrag.pdf (31.03.2004). [Ran+03] Ranke, Johannes; Fritsch, Lothar; Roßnagel, Heiko (2003): M-Signaturen aus rechtlicher Sicht; in: Datenschutz und Datensicherheit, 27. Jg., Heft 2, S. 95-100. [Regu03] Regulierungsbehörde für Telekommunikation und Post: Jahresbericht 2003, www.regtp.de/imperia/md/content/aktuelles/jb2003.pdf, (07.03.2004). [Ross04] Rossnagel, Heiko: Mobile Qualified Electronic Signatures and Certification on Demand, Proceedings of the 1st European PKI-Workshop Research and Applications (EuroPKI 2004), Springer LNCS 3093, S. 274-286. [Siet04] Sietmann, Richard (2004): Chipkarten im Aufwind, in c’t 2004, Heft 3, S.26 – 28. [Sign02] Jahresabschlüsse der Deutsche Post Signtrust GmbH, zu den Geschäftsjahren 2001 und 2002. [Sign04] Signaturbündnis, www.signaturbuendnis.de , (10.07.2004). [T7IS04] T7 – ISIS, www.t7-isis.de, (10.07.2004). [TCTr04] TC TrustCenter AG, www.trustcenter.de, (20.02.2004). [Tsys04] T-Systems International GmbH, www.t-systems.de, (10.01.2004).
Die qualifizierte elektronische Signatur - Vertrauensbonus vom Gesetzgeber, Schaffung von Vertrauen bei den Bürgern durch das deutsche Signaturbündnis? Susanne Schreiber Technische Universität Dresden
Zusammenfassung: In Deutschland sind die rechtlichen Rahmenbedingungen für den Einsatz der qualifizierten elektronischen Signatur günstig. So wurde etwa nach der Gleichstellung der elektronischen Form mit der Schriftform im Privatrecht auch im Verwaltungsverfahrensrecht die rechtsverbindliche elektronische Kommunikation eingeführt. Dennoch konnte sich die qualifizierte elektronische Signatur noch nicht im erforderlichen Maße durchsetzen. Im Folgenden wird untersucht, ob das deutsche Signaturbündnis als eine geeignete Lösung zur Vertrauensschaffung und damit zur Gewinnung der notwendigen kritischen Masse anzusehen ist. Anhand der Analyse ausgewählter wichtiger Problembereiche wird deutlich, dass die Realisierung dieser Ziele nicht leicht sein wird. Außerdem werden zusätzliche Maßnahmen zur Vertrauensschaffung nötig sein. Schlüsselworte: Signaturbündnis, qualifizierte elektronische Signatur, Signaturgesetz, Gültigkeitsmodell, Pseudonym-Zertifikate, Präsentationsproblem, Warnfunktion der Unterschrift, Vertrauensschaffung
1
Einleitung
Obwohl Deutschland im Hinblick auf die Rahmenbedingungen für den Einsatz qualifizierter elektronischer Signaturen „weltweit eine Spitzenstellung“ [Roßn03a, S. 1] einnimmt, konnte sich die qualifizierte elektronische Signatur bislang noch nicht in der für einen elektronischen Geschäfts- und Rechtsverkehr notwendigen Breite durchsetzen. Dabei könnten qualifizierte elektronische Signaturen in den unterschiedlichsten Lebensbereichen eingesetzt werden. Nicht nur beispielsweise im eCommerce, sondern etwa auch im eGovernment könnten so allen Beteiligten Vorteile verschafft werden. Vor allem um die erforderliche kritische Masse von Nutzern zu gewinnen, wurde im April 2003 das deutsche Signaturbündnis gegründet.
1188
S. Schreiber
Im Folgenden wird zunächst kurz beleuchtet, inwiefern die qualifizierte elektronische Signatur im geltenden deutschen Recht der eigenhändigen Unterschrift gleichgestellt ist; es geht dabei also um den Vertrauensbonus des Gesetzgebers für die qualifizierte elektronische Signatur. Daran anschließend wird untersucht, ob das Signaturbündnis als eine geeignete Lösung zur Vertrauensschaffung anzusehen ist. Denn Vertrauen ist eine grundlegende Voraussetzung für die Anwendung qualifizierter elektronischer Signaturen. Analysiert werden hierbei ausgewählte Problembereiche, und zwar sowohl technische Problemfelder – wie etwa das Gültigkeitsmodell oder auch die generellen Grenzen sicherheitstechnischer Lösungen – als auch die Kostenfrage sowie Problembereiche, die sich aus der geplanten kleinen Novelle des Signaturgesetzes (SigG) ergeben. Eingegangen wird außerdem auf nötige flankierende Maßnahmen zur Vertrauensschaffung.
2
2.1
Weitgehende Gleichstellung der qualifizierten elektronischen Signatur mit der eigenhändigen Unterschrift im geltenden Recht Ausgangspunkt: Die EU-Signaturrichtlinie
Vor allem aufgrund der Ende der neunziger Jahre feststellbaren zunehmenden normativen Diversifizierung wurde eine europäische Initiative zur digitalen Signatur veranlasst [Schm02, S. 509]. So wurde im Dezember 1999 die Richtlinie 1999/93/EG – die so genannte EG-Signaturrichtlinie – verabschiedet. Diese war von den Mitgliedstaaten bis zum 19.7.2001 in nationales Recht umzusetzen. In erster Linie bestand das Ziel der Richtlinie in der Harmonisierung und Sicherstellung der grenzüberschreitenden rechtlichen Anerkennung elektronischer Signaturen. Denn divergierende Regelungen im Hinblick auf die rechtliche Anerkennung können sich als eine spürbare Behinderung des elektronischen Handels und der Entwicklung eines gemeinsamen Marktes erweisen [Dum+04, S. 143; LaUl02, S. 85]. Unter anderem regelte die EU-Signaturrichtlinie auch die Voraussetzungen, unter denen die Mitgliedstaaten elektronische Signaturen mit der eigenhändigen Unterschrift gleichzustellen haben und außerdem das Gebot, elektronische Signaturen in gerichtlichen Verfahren als Beweismittel zuzulassen. In Deutschland führten die Vorgaben der EU-Signaturrichtlinie zum einen zu einer Novellierung des Signaturgesetzes durch das Gesetz über Rahmenbedingungen für elektronische Signaturen. Zum anderen wurden die Folgeänderungen im Privatrecht durch das „Gesetz zur Anpassung der Formvorschriften des Privatrechts und anderer Vorschriften an den modernen Rechtsverkehr“ (GAFP) bewirkt.
Die qualifizierte elektronische Signatur
2.2
1189
Anpassung des geltenden Rechts: Wichtige ausgewählte Gesetzesänderungen
Durch das GAFP ergaben sich einige Änderungen im Bürgerlichen Gesetzbuch (BGB) sowie in der Zivilprozessordnung (ZPO). So wurde etwa im Bürgerlichen Gesetzbuch die Vorschrift des § 126 Abs. 3 BGB eingefügt. Diese bestimmt, dass die schriftliche Form grundsätzlich durch die elektronische Form ersetzt werden kann. In § 126a BGB werden die Voraussetzungen angeführt, die die elektronische Form erfüllen muss, um die durch Gesetz vorgeschriebene Schriftform zu ersetzen. Dafür ist gemäß § 126a BGB eine qualifizierte elektronische Signatur (nach dem Signaturgesetz) erforderlich; außerdem muss der Aussteller der Erklärung dieser seinen Namen hinzusetzen. Im Unterschied zu fortgeschrittenen elektronischen Signaturen sind qualifizierte elektronische Signaturen dadurch charakterisiert, dass sie auf einem zum Zeitpunkt ihrer Erzeugung gültigen qualifizierten Zertifikat beruhen und mit einer sicheren Signaturerstellungseinheit – also einer Smartcard – erzeugt werden.1 Ebenfalls durch das GAFP wurde in die Zivilprozessordnung eine neue Vorschrift aufgenommen, nämlich § 292a ZPO. Danach kann der Anschein der Echtheit einer in elektronischer Form (§ 126a BGB) vorliegenden Willenserklärung lediglich durch Tatsachen erschüttert werden, die ernstliche Zweifel daran begründen, dass die Erklärung mit dem Willen des Signaturschlüssel-Inhabers abgegeben worden ist. Somit ergibt sich als Rechtsfolge des § 292a ZPO der Anschein der Echtheit der Willenserklärung, deren Abgabe und auch der willentlichen Entäußerung durch den Sigaturschlüssel-Inhaber [Jung02, S. 136; Jung03, S. 71; Fis+02, S. 710]. Daraus wird erkennbar, dass diese Vorschrift zu einer „beweisrechtlichen Privilegierung“ [Schm02, S. 514] von qualifizierten elektronischen Signaturen führt. Insofern haben qualifizierte elektronische Signaturen durch die Regelung gemäß § 292a ZPO vom Gesetzgeber einen klaren „Vertrauensbonus“ [Jung03, S. 72] erhalten. Zu unterstreichen ist jedoch, dass die Einführung einer derartigen Beweisregelung nicht vom europäischen Recht vorgeschrieben wurde, sondern eine Schlussfolgerung der Bundesregierung aus der Diskussion um die Beweisfragen elektronisch signierter Dokumente darstellt [Roßn01, S. 1819; Geis02, S. 60]. Bedeutsam ist im Übrigen in diesem Zusammenhang, dass nach der grundsätzlichen Gleichstellung der elektronischen Form mit der Schriftform im Privatrecht2 in Deutschland auch die rechtsverbindliche elektronische Kommunikation in der öffentlichen Verwaltung eingeführt worden ist. Auch das neue Verwaltungsverfahrensrecht entscheidet sich hierbei generell für eine qualifizierte elektronische Signatur (§ 3a VwVfG). Damit wird die qualifizierte elektronische Signatur
1 2
Vgl. § 2 Nr. 3 SigG. Zum Ausschluss bestimmter Anwendungen von dieser Regel durch den Gesetzgeber vgl. 3.4.4.
1190
S. Schreiber
„gleichrangiges Äquivalent der herkömmlichen Schriftform und gesetzliches Leitbild rechtsverbindlichen elektronischen Verwaltungshandelns“ [Wohl02, S. 235].
3
3.1
Das Signaturbündnis – geeignete Lösung zur Vertrauensschaffung? Ausgangssituation
Obgleich die rechtlichen Rahmenbedingungen für die qualifizierte elektronische Signatur in Deutschland somit günstig sind, konnte sie sich bisher noch nicht in der für einen elektronischen Geschäfts- und Rechtsverkehr notwendigen Breite durchsetzen [Roßn03a, S. 1; Büg+04, S. 133ff]. Zum einen hängt dies damit zusammen, dass viele potentielle Nutzer nicht das erforderliche Vertrauen in die Sicherheit des eCommerce und des eGovernment haben. So führen etwa Betrügereien bei Online-Händlern zu Verlusten und bewirken bei etlichen potentiellen Kunden, dass sie – aufgrund von Angst vor späterem Ärger – die Möglichkeit des Online-Shoppings gar nicht erst nutzen. Zum anderen ist der Nutzen von qualifizierten elektronischen Signaturen in der Praxis eher gering, wenn sich nicht viele Kommunikationspartner an diesem System beteiligen [Fox04, S. 130; Büg+04, S. 135]. Denn der Nutzen einer solchen Infrastruktur steigt mit der Anzahl der Teilnehmer. Wird das System lediglich von wenigen Teilnehmern genutzt, erweist sich die Bereitschaft von Unternehmen als gering, Applikationen dafür zu schaffen. Gibt es jedoch nur wenige Applikationen, schätzen viele potentielle Nutzer eine etwaige Teilnahme als nicht lohnend ein. Die damit zusammenhängende Hürde ist umso größer, je höher die anfänglichen Kosten für potentielle Nutzer sind. Außerdem wird die momentan geringe Nutzerzahl weiterhin niedrig bleiben, sofern für fast jeden Anwendungsbereich – etwa Online-Banking, Steuererklärung, virtuelles Rathaus, Bundesverwaltung – ein eigenes Signaturverfahren verwendet wird, das sich von den Signaturverfahren der anderen Bereiche unterscheidet und daher in diesen anderen Bereichen nicht verwendet werden kann. Daraus ergibt sich, dass keine dieser Teillösungen zu der nötigen wirtschaftlichen Rentabilität und der gesellschaftlichen Akzeptanz führen wird. Mittlerweile wurde erkannt, dass ein gemeinsames Vorgehen aller Beteiligten erforderlich ist, um den Nutzen für alle zu erhöhen – für die Kunden beispielsweise Zeitersparnis durch eGovernment, für den Handel geringeres Risiko bei elektronischen Geschäften, für den Staat Kostenersparnis und für die Kreditwirtschaft die Durchführung von Finanzdienstleistungen ohne Medienbruch [Büg+04, S. 134] –
Die qualifizierte elektronische Signatur
1191
und zugleich die Kosten zu senken. Um die Verbreitung der elektronischen Signatur in Deutschland gemeinsam zu fördern, haben sich – initiiert von der Bundesregierung – staatliche Stellen, Kreditwirtschaft und Industrie zusammengetan und im April 2003 das „Bündnis für elektronische Signaturen“ – das so genannte Signaturbündnis – gegründet. Inzwischen sind diesem Bündnis weit mehr als 30 Partner beigetreten.
3.2
Zielsetzung des Signaturbündnisses
Wie im Rahmen der Vorgaben und Konvergenzziele für das Signaturbündnis unterstrichen wird, liegt der Zweck des Signaturbündnisses in erster Linie darin, die Anwendung, Verbreitung und Einführung chipkartenbasierter elektronischer Signaturen und anderer PKI-Anwendungen zu fördern [SigBüVK03, S. 3]. Dazu verpflichten sich die Bündnispartner, eine stabile Grundlage für interoperable Infrastrukturen auf Basis gemeinsam akzeptierter Standards zu schaffen. So hat das Bündnis die folgende Vision: „ Der Bürger kann mit x jeder beliebigen Chipkarte x jedem Kartenleser x eine Vielzahl – idealerweise alle – x der verfügbaren Applikationen aus x eCommerce und eGovernment nutzen“ [SigBü03, S. 1]. Als Ausgangspunkte des Signaturbündnisses lassen sich die Schwierigkeiten auffassen, wie das Problem der kritischen Masse überwunden werden kann und wie eine für sämtliche potentielle Nutzer zugängliche Sicherheitsinfrastruktur geschaffen werden kann. Um die Ziele des Signaturbündnisses erreichen zu können, sollen bereits vorhandene Infrastrukturen – wie etwa die Bankkarten der Kreditinstitute – genutzt werden. Da die zugrunde liegende Infrastruktur eine große Verbreitung besitzen muss, bieten sich die von der Kreditwirtschaft ausgegebenen Karten geradezu an, da fast alle volljährigen Bundesbürger Zugriff auf ein Bankkonto haben. Überdies muss aufgrund gesetzlicher Regelungen die Identifizierung von Kunden bei der Eröffnung von Konten sehr genau vorgenommen werden, wobei die Vorlage eines Ausweispapiers zwingend vorgeschrieben ist [Büg+04, S. 135]. So sollen die Bankkarten zukünftig mit einem Chip ausgestattet werden, der – in Verbindung mit einem Kartenleser – die Authentisierung im Netz sowie die rechtsverbindliche elektronische Unterschrift ermöglicht. Dabei besteht das Ziel darin, mit lediglich einer Karte als Zugang zu unterschiedlichen Anwendungen auszukommen; in diesem Zusammenhang spricht man daher von einer multifunktionellen Chipkarte [SigBüVK03, S. 5]. Neben der multifunktionellen Chip-
1192
S. Schreiber
karte gehören auch die Einhaltung einheitlicher Sicherheitsniveaus sowie die Ermöglichung des Einsatzes qualifizierter Signaturen zu den Konvergenzzielen des Signaturbündnisses [SigBüVK03, S. 5]. Das Signaturgesetz unterscheidet nämlich zwischen einfachen, fortgeschrittenen3 und qualifizierten Signaturen.4 Da lediglich die qualifizierten elektronischen Signaturen – wie bereits hervorgehoben – in ihrer Rechtsfolge der handschriftlichen Unterschrift weitgehend gleichgestellt sind, sind qualifizierte elektronische Signaturen in diesem Zusammenhang besonders bedeutsam. Sowohl das Signaturgesetz als auch die Signaturverordnung (SigV) geben einige Voraussetzungen vor, denen ein Anbieter entsprechen muss, der qualifizierte Signaturen herausgibt. So ist für qualifizierte elektronische Signaturen stets eine sichere Signaturerstellungseinheit – das heißt eine Smartcard – notwendig. Daneben werden hohe Anforderungen an die Identifizierung der Karteninhaber gestellt. Indessen war es – als Signaturgesetz und Signaturverordnung abgefasst wurden – nicht vorauszusehen, dass die Kundenkarten der Banken das Trägermedium darstellen würden. Nicht zuletzt um eine Anpassung des rechtlichen Rahmens an die üblichen Prozesse in der Kreditwirtschaft zu ermöglichen [Schu04, S. 32], wurde im April 2004 der Entwurf eines Ersten Gesetzes zur Änderung des Signaturgesetzes (1. SigÄndG) veröffentlicht.
3.3
Geplante „kleine“ Novelle des Signaturgesetzes
In der Begründung zum Entwurf des 1. SigÄndG wird unterstrichen, dass durch die geplante „kleine“ Novelle des Signaturgesetzes die Voraussetzungen für eine schnelle Beantragung und Ausgabe von Signaturkarten mit qualifizierten elektronischen Signaturen im elektronischen Verfahren geschaffen werden sollen [BSigÄndG04, S. 2]. Wie der Begründung außerdem zu entnehmen ist, sollen die Verfahrensprozesse beispielsweise bei der Registrierung und Ausgabe von EC- oder Bankkundenkarten, die im Wirtschaftsleben bereits seit langem eingeführt und bewährt sind, auch für die Ausgabe von Signaturkarten mit qualifizierten elektronischen Zertifikaten genutzt werden, und zwar mit den entsprechenden Synergieeffekten, etwa Kostenreduzierung bzw. Verwaltungsvereinfachung [BSigÄndG04, S. 2]. Bei den Änderungen gemäß dem Gesetzentwurf handelt es sich im Wesentlichen um Folgendes [ESigÄndG04, Artikel 1]: So soll § 5 SigG, der die Vergabe von qualifizierten Zertifikaten regelt, dahingehend geändert werden, dass die Verpflichtung zur Erteilung eines Pseudonyms vertraglich ausgeschlossen werden
3
4
Zu Details im Hinblick auf die fortgeschrittene elektronische Signatur und den damit verbundenen Problembereichen – insbesondere Sicherheitsniveau bzw. Manipulationsmöglichkeiten – vgl. [Roßn03b, S. 166ff]. Vgl. § 2 SigG.
Die qualifizierte elektronische Signatur
1193
kann. Außerdem soll für die Unterrichtung gemäß § 6 SigG in Zukunft die Textform ausreichen. Bisher hat der Zertifizierungsdiensteanbieter nach § 6 Abs. 3 SigG dem Antragsteller eine schriftliche Belehrung über die Maßnahmen auszuhändigen, die notwendig sind, um zur Sicherheit von qualifizierten elektronischen Signaturen und deren zuverlässiger Prüfung beizutragen; überdies muss der Antragsteller darüber unterrichtet werden, dass einer qualifizierten elektronischen Signatur im Rechtsverkehr weitgehend die gleiche Wirkung zukommt wie einer eigenhändigen Unterschrift. § 6 Abs. 3 SigG fordert zudem, dass der Antragsteller die Kenntnisnahme dieser Belehrung durch eine gesonderte Unterschrift zu bestätigen hat. Nach dem Entwurf des 1. SigÄndG soll das Erfordernis dieser handschriftlichen Bestätigung der Kenntnisnahme der Belehrung in Zukunft wegfallen. Klar gestellt werden soll darüber hinaus, dass der Katalog der in § 8 SigG angeführten Gründe für die Sperrung von qualifizierten Zertifikaten vertraglich erweitert werden kann. Neu eingeführt werden soll nach dem Entwurf des 1. SigÄndG auch, dass Zertifizierungsdiensteanbieter unentgeltlich auf Ersuchen die Daten über die Identität eines Signaturschlüssel-Inhabers an die zuständigen Stellen übermitteln müssen, sofern dies zum Beispiel für die Verfolgung von Straftaten oder Ordnungswidrigkeiten oder zur Abwehr von Gefahren für die öffentliche Sicherheit und Ordnung erforderlich ist. Im Folgenden geht es darum, ausgewählte Problemfelder im Zusammenhang mit der qualifizierten elektronischen Signatur zu beleuchten und näher zu analysieren. Dabei werden sowohl generelle Problembereiche im Hinblick auf die qualifizierte elektronische Signatur als auch Problemfelder betrachtet, die sich aus der geplanten Änderung des Signaturgesetzes ergeben. Wichtig ist diese Analyse insbesondere vor folgendem Hintergrund, der auch in der Begründung zum Entwurf des 1. SigÄndG genannt wird: „Sicherheit und Vertrauen sind von zentraler Bedeutung im elektronischen Geschäftsverkehr und in der elektronischen Verwaltung. Kernstück zur Förderung dieses Vertrauens ist die qualifizierte elektronische Signatur“ [BSigÄndG04, S. 1]. Die Schaffung von Vertrauen ist generell vor allem deswegen so wichtig, weil Vertrauen als „komplexitätsreduzierender Mechanismus“ [LaUl02, S.51] dient [Voge01, S. 168].
3.4 3.4.1
Analyse ausgewählter Problembereiche Gültigkeitsmodell
Während handschriftliche Unterschriften auch noch nach vielen Jahren ohne Schwierigkeiten überprüft werden können, ist dies bei qualifizierten elektronischen Signaturen bisweilen problematischer. Dies hängt damit zusammen, dass das nötige Signaturschlüsselpaar – das heißt einerseits der private Schlüssel zum Signieren, der auf der Karte gespeichert ist, und andererseits der öffentliche Schlüssel zum Verifizieren – lediglich so lange zum Erstellen der Signatur einge-
1194
S. Schreiber
setzt wird, wie das betreffende Zertifikat gültig ist. Wenn der Anwender später die Folgekarte erhält, bekommt er damit ein neues Schlüsselpaar sowie ein zugehöriges Zertifikat. Diese Beschränkung der Gültigkeit von Zertifikaten ist erforderlich, um ein dauerhaft hohes Sicherheitsniveau zu garantieren. Dadurch ist es möglich, die verwendeten Verfahren und auch die Schlüssellängen etwa an die Entwicklungen der Rechnerleistungen anzupassen [Büg+04, S. 137]. Der maximale Zeitraum für Anwenderzertifikate beträgt nach dem Signaturgesetz fünf Jahre. Allerdings ergibt sich aus dieser zeitlichen Begrenzung, dass im Rahmen der Prüfung einer qualifizierten elektronischen Signatur zu untersuchen ist, ob die Zertifikate gültig waren. Diese Frage der Gültigkeit bezieht sich generell auf den Zeitpunkt der Erstellung der Signatur. Durch die digitale Unterschrift des Zertifizierungsdiensteanbieters im Anwenderzertifikat wird dessen Überprüfung ermöglicht. So kann die Gültigkeit dieses so genannten Certification Authorithy (CA)Zertifikats geprüft werden [Büg+04, S. 137]. Dieses CA-Zertifikat kann dann wiederum auf andere CA-Zertifikate verweisen. Auf diese Weise kommt eine Kette von Zertifikaten zustande, wobei das letzte Zertifikat – das Wurzelzertifikat – grundsätzlich einen Vertrauensanker darstellt. Alle diese Zertifikate haben dabei jeweils einen bestimmten Gültigkeitszeitraum. Indessen weichen diese Zeiträume prinzipiell voneinander ab. In Abhängigkeit von den Gültigkeitszeiträumen der Zertifikate in dieser Kette bestimmt das Gültigkeitsmodell, wann eine digitale Signatur als gültig aufzufassen ist [Ber+02, S.73]. Zur Zeit sind zwei verschiedene Gültigkeitsmodelle in Deutschland marktund anwendungsrelevant: das Schalenmodell und das Kettenmodell. Jedoch unterstützen Anwendungen im Allgemeinen lediglich eines der beiden Modelle [SigBüVK03, S. 15]. Gemäß dem Schalenmodell gilt eine Signatur als gültig, wenn zu dem Zeitpunkt ihrer Erstellung sowohl das Anwenderzertifikat als auch sämtliche zugrunde liegenden Zertifikate gültig waren. Die Überprüfung erfolgt in „Schalen“. Dabei bildet das Anwenderzertifikat den innersten Kern, und die zugrunde liegenden Zertifikate bilden die höheren Schichten [Büg+04, S. 138]. Bedeutsam ist in diesem Zusammenhang, dass das Schalenmodell das einzige Gültigkeitsmodell ist, welches flächendeckend in Standardsoftware implementiert wurde. Es hat sich auch inzwischen zu einem internationalen Standard entwickelt. Das zweite Modell wird als Kettenmodell bezeichnet. Dieses Modell geht auf den Inhalt von § 19 Abs. 5 SigG zurück. Dort wird nämlich verlangt, dass die „Gültigkeit der von einem Zertifizierungsdiensteanbieter ausgestellten qualifizierten Zertifikate … von … der Einstellung der Tätigkeit … unberührt“ bleiben muss. Auf den ersten Blick scheint dies nicht mit dem Schalenmodell konform zu gehen. Denn eine Sperrung eines CA-Zertifikates bewirkt hierbei, dass danach mit keinem unter diesem CA-Zertifikat ausgegebenen Anwenderzertifikat die Erstellung einer gültigen Signatur erreicht werden kann [Ber+02, S. 73; Büg+04, S. 138].
Die qualifizierte elektronische Signatur
1195
Aufgelöst wird dieser Gegensatz zum bestehenden deutschen Signaturgesetz jedoch, wenn man im Gültigkeitsmodell nur fordert, dass das CA-Zertifikat im Zeitpunkt der Ausgabe des Anwenderzertifikats gültig gewesen sein muss. Zu bedenken ist hierbei auch, dass Signaturgesetz und Signaturverordnung nicht explizit ein bestimmtes Gültigkeitsmodell festlegen. Auch das zuständige Bundesministerium für Wirtschaft und Arbeit hat mittlerweile klargestellt, dass der Inhalt von § 19 Abs. 5 SigG keinesfalls das Schalenmodell in der soeben erläuterten Form ausschließt, wenn dies vertraglich bei der Signaturkartenausgabe vereinbart wird [Büg+04, S. 138]. Im Rahmen der Vorgaben und Konvergenzziele haben sich die Teilnehmer des Signaturbündnisses auf eine Anwendung des Schalenmodells geeinigt [SigBüVK03, S. 15]. Weil dieses Gültigkeitsmodell den internationalen Standard darstellt und bereits in der Standardsoftware implementiert ist, erscheint dies als sinnvoll. Zudem ist das Schalenmodell in der dargelegten Form mit dem Signaturgesetz vereinbar. 3.4.2
Pseudonym-Zertifikate
Vor allem aus Sicht der Banken ein kritischer Punkt am bestehenden Signaturgesetz ist der Inhalt des § 5 Abs. 3 SigG, der dem Anwender die Möglichkeit eröffnet, ein Pseudonym-Zertifikat zu erhalten. So möchten die Kreditinstitute generell nicht verpflichtet werden, Bankkarten an Pseudonyme auszugeben [Büg+04, S. 136]. Im Zuge der geplanten „kleinen“ Novelle des Signaturgesetzes soll daher – wie bereits erwähnt – § 5 Abs. 3 SigG dahingehend geändert werden, dass in Zukunft vertraglich die Verpflichtung zur Erteilung eines Pseudonym-Zertifikats ausgeschlossen werden kann. Folglich soll es sich damit zukünftig bei der Erteilung eines Pseudonyms nicht um eine Pflichtdienstleistung, sondern lediglich um eine Wahldienstleistung des Zertifizierungsdiensteanbieters handeln. Insofern sollen die Vorgaben des Signaturgesetzes auf europäisches Niveau abgesenkt werden. Denn nach dem Inhalt der EU-Signaturrichtlinie zählt die Möglichkeit der Aufnahme eines Pseudonyms nicht zu den zwingenden Anforderungen an ein qualifiziertes Zertifikat [BESigÄndG04, S. 6]. Allerdings enthält die momentan gültige Fassung des § 5 Abs. 3 SigG für die Anwender sozusagen einen Schutz-Mechanismus. So können sich Anwender durch den Gebrauch von Pseudonymen gegen das Erstellen von Persönlichkeitsprofilen schützen („Selbst-Datenschutz“) [BESigÄndG04, S. 5]. Prinzipiell erhöht die Verwendung elektronischer Signaturen das Risiko, dass Datenspuren entstehen, die zu einem Persönlichkeitsbild zusammengefügt werden könnten [Horn04, S. 6]. Durch den Gebrauch von Pseudonymen wird verhindert, „dass der Nutzer im elektronischen Geschäftsverkehr aufgrund der zahlreichen Datenspuren ausgeforscht werden kann“ [HoGr02, S. 83]. Vor allem kann so „das Vertrauen des Nutzers in den elektronischen Geschäftsverkehr gestärkt werden“ [HoGr02, S.
1196
S. Schreiber
83]. Aus diesem Grunde muss anonymes bzw. pseudonymes Handeln weiterhin diskriminierungsfrei möglich sein [Dum+04, S. 146]. Durch pseudonymes Handeln können außerdem die in den modernen Datenschutzgesetzen verankerten Prinzipien der Datenvermeidung und der Datensparsamkeit erfüllt werden [HoGr02, S. 83; LaUl02, S. 20]. Das Recht auf informationelle Selbstbestimmung, das als eine notwendige Voraussetzung für eine funktionierende Demokratie anzusehen ist [Klew03, S. 159; FeHa03, S. 262], erscheint „heute wichtiger denn je“ [Bäum03, S. 160]. Durch die Verwendung von Pseudonymen wird verantwortliches Handeln ermöglicht, ohne dass die Identität des Handelnden offen gelegt werden muss, solange die Transaktionen störungsfrei ablaufen. Die Bedingungen hierfür müssen „jedermann zu bequemen Bedingungen offen stehen“ [LaUl02, S. 20]. Ob dies auch nach der geplanten Gesetzesänderung weiterhin der Fall sein wird, bleibt abzuwarten. Sollte die Gesetzesänderung jedoch bewirken, dass es für Anwender sehr schwierig wird, Pseudonym-Zertifikate zu erhalten, könnte dies dazu führen, dass das Vertrauen vieler Anwender erheblich sinken wird. Dies würde allerdings der Zielsetzung des Signaturbündnisses zuwiderlaufen. Generell ist der „Aufbau von Strukturen für die breite Nutzung elektronischer Signaturen … nur zu verantworten, wenn die Inanspruchnahme von Pseudonymen … zu angemessenen Kosten und ohne Diskriminierung gewährleistet ist“ [LaUl02, S. 20]. Denn es ist zu beachten, dass die „umfassende Gewährleistung von Datenschutz und Datensicherheit … der entscheidende Akzeptanzfaktor für eine wirklich breite Nutzung von internetbasierten eGovernment-Anwendungen in Deutschland“ [Nedd03, S. 128] ist. 3.4.3
Geplante Änderungen im Hinblick auf die Unterrichtungspflicht
Ebenfalls aus Sicht der Kreditinstitute nachteilig am bestehenden Signaturgesetz ist der Inhalt von § 6 Abs. 3 SigG, der bestimmt, dass die vorgeschriebene schriftliche Belehrung dem Antragsteller auszuhändigen ist und dieser deren Kenntnisnahme durch eine gesonderte Unterschrift zu bestätigen hat; dies impliziert eine „persönliche Anwesenheit des Antragstellers beim Zertifizierungsdiensteanbieter oder einem von ihm eingesetzten Dritten“ [Skro04, S. 412]. So wird argumentiert, dies stehe nicht im Einklang mit der üblichen Praxis der Banken, bei der die Karten an die Kunden versendet werden. Zudem seien Bankkunden nicht daran gewöhnt, am Bankschalter obligatorisch belehrt zu werden [Büg+04, S. 136]. Gemäß dem Entwurf des 1. SigÄndG soll – wie schon betont – für die Unterrichtung gemäß § 6 SigG in Zukunft die Textform genügen. Außerdem soll das Erfordernis der Bestätigung der Kenntnisnahme der Belehrung zukünftig wegfallen. Auch insofern soll das deutsche Signaturgesetz an die Signaturgesetze anderer EUMitgliedstaaten angepasst werden. Das Erfordernis einer handschriftlichen Bestätigung der Kenntnisnahme findet sich auch nicht in der EU-Signaturrichtlinie.
Die qualifizierte elektronische Signatur
1197
Insgesamt wird erkennbar, dass der Entwurf des 1. SigÄndG die Hürden „auf dem Weg zur „berührungslosen“ Beantragung … von Signaturkarten“ [Skro04, S. 412] beseitigt. Somit sollen künftig Signaturkarten für qualifizierte elektronische Signaturen beantragt werden können, ohne dass es zu einer persönlichen Überprüfung des Antragstellers kommt. Diese doch eher geringe Sicherheit in Bezug auf die Identifizierung des Antragstellers erscheint problematisch, nicht zuletzt angesichts der weitreichenden Rechtsfolgen der Verwendung qualifizierter elektronischer Signaturen, insbesondere in Anbetracht der „Beweisprivilegierung durch den Anscheinsbeweis in § 292a ZPO“ [Bize04, S. 388]. Zu bedenken ist in diesem Zusammenhang auch, dass sich der deutsche Gesetzgeber bereits ursprünglich bei der Schaffung des Signaturgesetzes der Tatsache bewusst war, dass ein nur auf einem Bildschirm vorhandener Text unter Umständen leichter oder aber sogar leichtfertig unterzeichnet wird, während dies bei einem verkörperten Dokument im Allgemeinen nicht getan wird [Schm02, S. 515]. Diesem Umstand soll in erster Linie dadurch Rechnung getragen werden, dass der Zertifizierungsdiensteanbieter denjenigen, der ein qualifiziertes Zertifikat beantragt, gemäß § 6 Abs. 2 SigG schriftlich darüber belehren muss, dass im Rechtsverkehr eine qualifizierte elektronische Signatur prinzipiell die gleiche Wirkung hat wie eine eigenhändige Unterschrift; diese schriftliche Belehrung darüber hat der Antragsteller nach § 6 Abs. 3 SigG schriftlich zu bestätigen. Ob eine Belehrung, die dem Antragsteller lediglich in Textform übermittelt wird und deren Kenntnisnahme er nicht durch eine gesonderte Unterschrift bestätigen muss, genügt, um bei allen Signierenden ein ausreichendes rechtsgeschäftliches Handlungsbewusstsein zu erzeugen, mag sehr bezweifelt werden. Auch die Inhalte der geplanten neuen Anfügungen in § 5 SigG – das heißt die geplanten neuen Absätze 7 und 8 – dürften daran wenig ändern. 3.4.4
Warnfunktion der Unterschrift
Eng damit hängt Folgendes zusammen: Wie schon erläutert, kann die gesetzliche Schriftform durch die elektronische Form – mit einer qualifizierten elektronischen Signatur – generell ersetzt werden. Allerdings sind vom Gesetzgeber bestimmte Anwendungen von dieser Regel ausgeschlossen worden. Dies hat folgenden Hintergrund: Die Unterschrift in Schriftform erfüllt verschiedene Funktionen: die Abschlussfunktion, die Perpetuierungsfunktion, die Identitätsfunktion, die Echtheitsfunktion, die Verifikationsfunktion, die Beweisfunktion und die Warnfunktion. Dabei bedeutet Warnfunktion, dass der Unterschreibende durch den bewussten Akt der Unterzeichnung auf die erhöhte rechtliche Verbindlichkeit aufmerksam gemacht wird. In erster Linie soll dies dazu dienen, ihn vor übereilten Rechtsgeschäften zu schützen [Uhlm03, S. 177; Ber+02, S. 72]. So hat der Gesetzgeber etwa für Bürgschaftserklärungen (§ 766 BGB), Schuldversprechen (§ 780 BGB), sowie Anerkenntnis (§ 781 BGB) jeweils die elektronische Form ausgeschlossen. Dies lässt sich mit der Warnfunktion der Unter-
1198
S. Schreiber
schrift erklären. Denn der Schuldner soll vor einer übereilten Erklärung geschützt werden [Schm02, S. 514]. Zwar entfalten auch die einzelnen Schritte im Rahmen der qualifizierten elektronischen Signatur durchaus eine deutliche Warnfunktion. Zumindest aus subjektiven Gründen hat die Warnfunktion der Unterschrift bei der elektronischen Form gegenüber der Schriftform noch Nachteile [Ber+02, S. 72]. Nach Ansicht des Gesetzgebers gewährt die Schriftform aufgrund der herkömmlichen Assoziation von Schriftlichkeit mit Verbindlichkeit zumindest mittelfristig noch einen besseren Übereilungsschutz. Dies ist ausschlaggebend, wenn die Rechtsfolgen derart wesentlich sind. Zu Recht hat aber der Gesetzgeber deutlich gemacht, dass sich dies ändern könnte, wenn sich die elektronische Form (mit der qualifizierten elektronischen Signatur) in ähnlicher Weise wie die Schriftform etabliert hat. 3.4.5
Keine Anbieterakkreditierung?
Aus den Reihen der Vertreter der Kreditinstitute im Rahmen des Signaturbündnisses sind Stimmen zu hören, die sich gegen eine Anbieterakkreditierung aussprechen. So würde eine Anbieterakkreditierung für die Anbieter vor allem hohe Kosten nach sich ziehen, die letztendlich die Nutzer zu tragen hätten. Überdies stünden diese zusätzlichen Kosten in keinem Verhältnis zu dem erwarteten Nutzen für den Gebrauch im normalen Geschäftsleben [Büg+04, S. 139]. Dabei ist indessen Mehreres zu bedenken: Angesichts einer behördlichen Vorabkontrolle bei der Akkreditierung „wird ein behauptetes Sicherheitsniveau auf Seiten des Anbieters schwerer zu erschüttern sein als bei nicht akkreditierten Verfahren“ [Jung03, S. 72]. Insofern unterscheidet sich der Beweiswert beider Verfahren. Allerdings wird hiervon lediglich der Bereich des Zertifizierungsdiensteanbieters betroffen, nicht dagegen der kritische Bereich des Signaturkarten-Inhabers. Somit spiegelt sich die Sicherheit akkreditierter Verfahren zum Beispiel bei dem Einsatz sicherer technischer Komponenten wie Verzeichnis-, Sperr- und auch Zeitstempeldiensten wider. Außerdem sollen sich die von einem akkreditierten Zertifizierungsdiensteanbieter ausgestellten Zertifikate gegenüber den anderen qualifizierten Zertifikaten unter anderem insbesondere dadurch auszeichnen, dass sie langfristig prüfbar sind. So muss sichergestellt sein, dass alle Zertifikate von akkreditierten Zertifizierungsdiensteanbietern mindestens 30 Jahre lang online überprüft werden können. Im Unterschied dazu müssen bei qualifizierten Signaturverfahren ohne Anbieterakkreditierung Zertifikate lediglich für eine vergleichsweise kurze Zeit aufbewahrt sowie prüfbar oder abrufbar gehalten werden, und zwar für die Dauer ihrer Gültigkeit zuzüglich fünf Jahre ab Jahresende [Roßn02, S. 218]. Folglich bieten qualifizierte Signaturen ohne Anbieterakkreditierung keine Gewähr für eine langfristige Prüfbarkeit [Stor02, S. 579]. Allerdings sind für rechtlich verbindliche elektronische Willenserklärungen, welche „notfalls auch als Beweismittel vor Gericht dienen sollen, … für viele Anwendungen das Sicherheitsniveau und die Nachweis-
Die qualifizierte elektronische Signatur
1199
sicherheit akkreditierter Signaturverfahren … erforderlich“ [Roßn02, S. 221], ebenfalls auch „in allen Anwendungen, in denen nicht auszuschließen ist, dass die signierten Daten nach fünf Jahren noch benötigt werden“ [Roßn02, S. 221]. Insgesamt ist zu unterstreichen, dass qualifizierte elektronische Signaturen mit Anbieterakkreditierung das positive Image haben, „über die beste Qualität und das höchste Sicherheitsniveau zu verfügen und damit allen Anforderungen gewachsen zu sein“ [Roßn02, S. 222]. Bei der Akkreditierung handelt es sich somit um eine Art Gütesiegel [Geis02, S. 61; Ber+02, S. 75]. Damit dürften allein qualifizierte elektronische Signaturen mit Anbieterakkreditierung dem grundlegenden Ziel des Signaturbündnisses – der Schaffung von Vertrauen bei den Bürgern – dienlich sein. Will man das Vertrauen der Bürger in die qualifizierte elektronische Signatur erhöhen, bedarf es dazu glaubwürdiger Signale. Aus der Informationsökonomie weiß man, „dass nur teure Signale glaubwürdig sein können. Andernfalls wären sie leicht zu imitieren“ [Ball04, S. I] und würden Besseres von Schlechterem „nicht zu unterscheiden erlauben“ [Ball04, S. I]. Auch wenn Anbieterakkreditierungen teuer sind, sollte man daher nicht auf sie verzichten. 3.4.6
Generelle Grenzen sicherheitstechnischer Lösungen
Allerdings vermag all dies nicht darüber hinwegzutäuschen, dass es im Zusammenhang mit digitalen Signaturen generelle Probleme gibt, die zwar bekannt, aber noch immer ungelöst sind. Hierzu zählt beispielsweise das Präsentationsproblem [Pord00, S. 89ff; Schm00, S. 154ff; BoEi02, S. 78]. Darunter versteht man das Problem, dass zwei oder gar mehrere verschiedene Präsentationen derselben signierten Datei derart divergieren, dass der Inhalt der Erklärung unterschiedlich interpretiert werden kann. Dies hängt damit zusammen, dass nicht Dokumente, sondern Bitfolgen unterschrieben werden, sodass „zur Interpretation dieser Bitfolgen häufig parametergesteuerte Präsentationen benötigt werden“ [Ber+02, S. 74]. So können zu bestimmten Rohdaten (zum Beispiel Bitfolgen) verschiedene Präsentationen erzeugt werden, etwa weil Text und Grafikprogramm auf unterschiedliche Fonts zugreifen oder weil auf der Ebene des Betriebssystems etwa Standardeinstellungen für Textfarben und Hintergrund unterschiedlich gewählt werden können. Ohne Veränderung des signierten Bitstrings kann es dadurch dazu kommen, dass verschiedene Erklärungen – und im Extremfall verschiedene sinnvolle Erklärungen – erfolgen [Fox98, S. 386ff]. Ein anderes Problem besteht darin, dass die Sicherheit des Systems generell untergraben werden kann, sofern es einem Angreifer gelingt, einen Trojaner (oder andere Spähprogramme) in die Signaturerstellungsumgebung zu integrieren. So wurde bereits praktisch demonstriert, dass dadurch in Systemen akkreditierter Anbieter Dateien vor dem Signieren verändert und auch die PIN ausgelesen werden konnten [Ber+02, S. 74].
1200
S. Schreiber
Als Gegenmaßnahme gegen derartige Angriffe bietet sich etwa der Einsatz von Kartenlesern mit eigenem Keypad an, damit das Auslesen der PIN dadurch vermieden wird [Schi02, S. 488]. Zusätzlich kann man auch eine Überprüfung auf biometrische Merkmale integrieren. Indessen ist ein umfassender Schutz nicht vorstellbar. Eine absolute Sicherheit kann es nicht geben. Auch der Einsatz biometrischer Erkennungsmerkmale zur Freischaltung der Signaturkarte dürfte keine völlige Fälschungssicherheit bewirken, weil sämtliche Daten, auch die biometrischen Referenzdaten, obwohl sie stark verschlüsselt sind, dennoch lediglich in digitaler Form vorhanden sind und deswegen „theoretisch entschlüsselt, kopiert und manipuliert werden könnten“ [Jung03, S. 70]. Wie bei der Kryptologie kann auch bei dem Einsatz biometrischer Erkennungssysteme infolge technischer Grenzen lediglich ein Sicherheitsniveau nach dem jeweiligen aktuellen Stand der Technik eingehalten werden. Zwar dürfte eine völlige Fälschungssicherheit insofern nie zu erreichen sein. Jedoch ist demgegenüber zu unterstreichen, dass der Fälschungsaufwand im Vergleich zu dem bei einer eigenhändigen Unterschrift um ein Vielfaches größer ist [Jung03, S. 70]. Dies gilt es stets zu bedenken. Im Hinblick auf das Signaturbündnis wäre es sicherlich sinnvoll, im Rahmen einer breit angelegten Informations- und Werbekampagne für die qualifizierte elektronische Signatur auch in gewisser Weise die erwähnten Problembereiche offenzulegen. Auch dies kann dazu beitragen, das Vertrauen zu fördern, denn „Ehrlichkeit ist eine hochgeschätzte, äußerst positiv besetzte Tugend. Deshalb ist das Informieren der Nutzer über eventuelle Risiken zur Vertrauensbildung im Zweifel höher einzuschätzen als die Hoffnung, durch Verschweigen Schäden vermeiden zu können“ [LaUl02, S. 26]. Das Ziel einer solchen Offenlegung besteht darin, aktuelle und potentielle Nutzer objektiv zu informieren. Dabei sollte natürlich insbesondere auch betont werden, dass der Fälschungsaufwand bei qualifizierten elektronischen Signaturen gegenüber dem bei einer handschriftlichen Unterschrift sehr viel höher ist. Dies dürfte auch dazu dienlich sein, das Vertrauen in qualifizierte elektronische Signaturen zu stärken. 3.4.7
Kostenfrage
Einer der Hauptgründe, welche bisher einer schnellen Verbreitung der qualifizierten elektronischen Signatur entgegenstehen, ist die (noch ungeklärte) Kostenfrage. Denn diejenigen, die in Signaturprodukte und in Zertifizierungsdienste investieren sollen, haben oft selbst davon lediglich in begrenztem Maße einen Nutzen. Aus diesem Grunde sind sie lediglich bedingt (oder aber gar nicht) zur Erbringung von Vorleistungen bereit [Roßn03a, S. 2]. So sind bei einigen Unternehmen die
Die qualifizierte elektronische Signatur
1201
Befürchtungen groß, dass sich Mitbewerber später – ohne dass diese dann selbst Kosten zu tragen hätten – „einfach auf die bestehende Struktur aufsetzen könnten“ [LüAd02, S. 12]. Daher dürfte eine der Bedingungen für den Erfolg des Signaturbündnisses darin liegen, „dass es zu einem fairen Interessenausgleich zwischen den Nutzern und Anbietern der neuen Infrastruktur kommt“ [Büg+04, S. 139]. Würden etwa die Kreditinstitute ohne Verrechnung ihre Karten mit der Signaturfunktion ausstatten oder aber sich die dafür notwendigen Kosten lediglich mit ihren Kunden teilen, erhielten beispielsweise Behörden sowie eCommerce-Anbieter (Online-Shops) beträchtliche Vorteile durch Effizienzgewinne und bei der rechtlichen Durchsetzung ihrer Forderungen, ohne überhaupt Kosten für die neue Infrastruktur zu übernehmen. Bei einem fairen Geschäftsmodell müssen deshalb alle Gruppen, die durch die neue Infrastruktur Vorteile erhalten, in angemessener Weise an den Kosten dieser Infrastruktur beteiligt werden. Falls dies nicht gelingt, werden sich diejenigen, denen der Nutzen zu gering erscheint – Kreditinstitute, Kunden oder Applikationsanbieter – lediglich halbherzig bzw. nicht in ausreichendem Maße an der neuen Infrastruktur beteiligen [Büg+, S. 139]. Dadurch könnte das Ziel des Signaturbündnisses kaum erreicht werden. Dabei ist darüber hinaus zu bedenken, dass im privaten Bereich – das heißt im Bereich der Privatkunden – generell keine Bereitschaft für eine mit erheblichen Kosten verbundene Lösung gegeben sein dürfte. Indessen dürften (nahezu) kostenneutrale Lösungen für den privaten Bereich nur schwer realisierbar sein, „möglicherweise entscheiden sie aber über Erfolg oder Misserfolg der elektronischen Signatur im nicht-institutionellen Sektor“ [LaUl02, S. 128].
3.5
Notwendige flankierende zusätzliche Maßnahmen zur Vertrauensschaffung
Vor dem Hintergrund der bereits aufgezeigten Problemfelder wird deutlich, dass zusätzliche flankierende Maßnahmen notwendig sein werden, um bei den Bürgern die erforderliche breite Vertrauensbasis in die qualifizierte elektronische Signatur zu schaffen. Hinzu kommt nämlich außerdem, dass einige Bürger die Tatsache, dass man sich für eine qualifizierte elektronische Signatur „die „in Tinte getauchte Feder“ nicht mehr leihen kann“ [LaUl02, S. 17], als einen technischen Rückschritt empfinden. Deswegen erscheinen weitere Maßnahmen zur Vertrauensschaffung nötig. So wäre es zum Beispiel – wie bereits angedeutet – zweckmäßig, die Öffentlichkeit im Rahmen einer breit angelegten Werbekampagne für die qualifizierte elektronische Signatur aufzuklären und dafür zu sensibilisieren. Dies kann sinnvollerweise unter Zuhilfenahme der neuen medialen Möglichkeiten durch eine In-
1202
S. Schreiber
tegration von „Education and Entertainment“ (Edutainment) geschehen [LaUl02, S. 18]. Dabei sollten natürlich auch in erster Linie die Vorteile von qualifizierten elektronischen Signaturen herausgestellt werden. Um jedoch wirkliches Vertrauen zu schaffen, empfiehlt es sich – wie schon erläutert – ebenfalls, gewisse Informationen zu den Risiken zu gewähren. Der Zweck dieser Marketing- und Aufklärungskampagne besteht hauptsächlich darin, objektive Informationen über qualifizierte elektronische Signaturen bereit zu stellen und eine Förderung des Vertrauens in diese neue Technik zu erreichen. Dies soll auch dazu beitragen, dass es durch den vermehrten Einsatz von qualifizierten elektronischen Signaturen nicht zu einer weiteren Vertiefung der digitalen Teilung der Gesellschaft kommt. Darüber hinaus wäre es eventuell zu erwägen, eine unabhängige Stelle zu schaffen, die dem Gemeinwohl verpflichtet ist und die Aufgabe hat, die Hardware und die Software für qualifizierte elektronische Signaturen zu testen [LaUl02, S. 21]. Zur Zeit ist es für die meisten Verbraucher nämlich „kaum möglich, sich über die Sicherheitseigenschaften von IT-Produkten zu informieren“ [LaUl02, S. 21]. Aus Sicht der Öffentlichkeit wären transparente Produkttests durch eine Stelle ähnlich wie die Stiftung Warentest notwendig, die das breite Vertrauen der Nutzer hat. Denn Vertrauen in qualifizierte elektronische Signaturen kann nur dann geschaffen werden, wenn die Nutzer die digitale Welt als verlässlich und transparent empfinden. Indessen können Transparenz und Verlässlichkeit durch einen durchschnittlichen Nutzer nicht allein erfahren werden. Deswegen stellt die Schaffung einer solchen unabhängigen und vertrauenswürdigen Institution, die dies stellvertretend für die Bürger übernimmt, eine zweckmäßige Begleitmaßnahme zur Förderung des Vertrauens in die qualifizierte elektronische Signatur dar.
4
Zusammenfassung und Ausblick
Angesichts der weitgehenden Gleichstellung der elektronischen Form mit der Schriftform im Privatrecht und der Einführung der rechtsverbindlichen Kommunikation in der öffentlichen Verwaltung wird deutlich, dass der Gesetzgeber der qualifizierten elektronischen Signatur einen Vertrauensbonus eingeräumt hat. Dennoch konnte sich die qualifizierte elektronische Signatur noch nicht im erforderlichen Maße durchsetzen. Vor allem auch um dies zu ändern, wurde im April 2003 das deutsche Signaturbündnis gegründet. Insgesamt betrachtet, erscheinen die Ziele des Signaturbündnisses – die Förderung der Anwendung und Verbreitung chipkartenbasierter elektronischer Signaturen und die Schaffung der dafür erforderlichen Infrastruktur – als überaus sinnvoll. In Anbetracht der analysierten Problembereiche wird jedoch deutlich, dass die Realisierung dieser Ziele alles andere als ein einfaches Unterfangen darstellt.
Die qualifizierte elektronische Signatur
1203
Wünschenswert wäre es jedoch, dass es durch das Signaturbündnis erreicht werden könnte, die notwendige kritische Masse für die neue Infrastruktur sowie eine breite Vertrauensbasis der Bürger in die qualifizierte elektronische Signatur zu schaffen. Sollte dies – nicht zuletzt auch mit Hilfe flankierender Informations- und Werbekampagnen – gelingen, könnten alle von den Vorteilen der qualifizierten elektronischen Signatur profitieren, beispielsweise die Bürger allgemein durch Zeitersparnis infolge von eGovernment, der Handel durch ein niedrigeres Risiko bei elektronischen Geschäften, die Kreditwirtschaft durch die Durchführung von Finanzdienstleistungen ohne Medienbruch und auch der Staat durch Kostenersparnis infolge von eGovernment. Es bleibt daher zu hoffen, dass es – mit Unterstützung durch notwendige begleitende Maßnahmen zur Vertrauensschaffung – gelingen kann, die Ziele des Signaturbündnisses zu verwirklichen. Einen „entscheidenden Impuls“ [HoRo04, S. 269] für die Verbreitung von qualifizierten elektronischen Signaturen könnte dabei auch die geplante Einführung der JobCard darstellen. Ähnlich positiv in diese Richtung könnte sich auch die geplante Einführung der elektronischen Gesundheitskarte und des digitalen Personalausweises auswirken. So soll etwa die elektronische Gesundheitskarte als Weiterentwicklung der Versichertenkarte der gesetzlichen Krankenversicherung ab 2006 jedem Patienten zur Verfügung stehen, allerdings zunächst lediglich als Speicher für elektronische Rezepte [Schu04, S. 32]. Als Hauptmotivation für die Einführung der elektronischen Gesundheitskarte wird generell das Einsparen von Kosten angeführt. Durch das elektronische Rezept (E-Rezept) soll es gelingen, bei der Rezepterstellung, -einlösung und –abrechnung Medienbrüche zu vermeiden; in Anbetracht von jährlich rund 700 Millionen Rezepten in Deutschland wird hierin ein beträchtliches Einsparpotential gesehen [Weic04, S. 396; Schu04, S. 32]. Überdies soll die elektronische Gesundheitskarte auf freiwilliger Basis die Bereitstellung und die Nutzung medizinischer Daten unterstützen wie etwa Informationen für eine Notfallversorgung, den elektronischen Arztbrief sowie eine elektronische Patientenakte [Schu04, S. 32, Weic04, S. 394]. Zwar soll die elektronische Gesundheitskarte zunächst keine qualifizierte elektronische Signatur enthalten, sie soll jedoch entsprechend erweitert werden können [Weic04, S. 395]. Als ein „Schlüsselprojekt“ [Schu04, S. 33] für eine breite Einführung von Chipkarten, die zur Erstellung qualifizierter elektronischer Signaturen in der Lage sind, wird das geplante System der JobCard angesehen. An diesem Verfahren kann jeder Arbeitnehmer nur dann teilnehmen, wenn er über eine Signaturkarte mit einer qualifizierten elektronischen Signatur verfügt [Erne04, S. 405]. Ermöglichen soll die JobCard den Zugriff auf die Daten des jeweiligen Arbeitnehmers zu den Beschäftigungszeiten, zu der Höhe von Entgeltzahlungen und zu einer Auflösung des Beschäftigungsverhältnisses. Dadurch soll die JobCard dazu beitragen, die Verwaltungsabläufe der Arbeitsämter bzw. Jobcenter zu beschleunigen, damit die Bearbeitung und die Genehmigung von Lohnersatzleistungen zügiger ablaufen kann [Schu04, S. 33]. Durch eine gesetzliche Einführung der JobCard erhält jeder Antragsteller in der Arbeitslosenversicherung eine rechtliche Verpflichtung, eine
1204
S. Schreiber
Signaturkarte zu besitzen [HoRo04, S. 265]. Obgleich mit der Einführung der JobCard einige datenschutzrechtliche Probleme verbunden sind [Bize04, S. 388], beispielsweise „eindeutige Identifizierung der Arbeitnehmer, Vorratsspeicherung der Entgeltdatensätze über Jahre und Risiken bei dem Betrieb des Verfahrens“ [Erne04, S. 409], gilt es auch die Vorteile der geplanten Einführung der JobCard zu unterstreichen: So ist damit zu rechnen, dass dadurch „der Preis für Signaturkarten und Anwendungen erheblich fallen wird und damit weitere Anwendungen erschlossen werden könnten“ [Erne04, S. 409]. Dies wiederum dürfte dazu beitragen, dass viele Bürger, die nicht am System der JobCard beteiligt sind, sich eine Signaturkarte mit einer qualifizierten elektronischen Signatur beschaffen, um in den Genuss der neuen Möglichkeiten zu kommen.
Literatur [Ball04] Ballwieser, W.: Entwurf zur Modernisierung der EU-Abschlussprüferrichtlinie: neue Transparenzvorschriften für Abschlussprüfer und Geprüfte. Betriebs-Berater 59, Heft 17, 2004: S. I. [Bäum03] Bäumler, H.: Gibt es ein Recht auf Anonymität? Macht Anonymität heute noch Sinn?. Datenschutz und Datensicherheit 27, 2003: S. 160. [Ber+02] Bertsch, A.; Fleisch, S.-D.; Michels, M.: Rechtliche Rahmenbedingungen des Einsatzes digitaler Signaturen. Datenschutz und Datensicherheit 26, 2002: S. 69-74. [BESigÄndG04] Begründung zum Entwurf eines Ersten Gesetzes zur Änderung des Signaturgesetzes (1. SigÄndG). http://www.iid.de/iukdg/04-04-01-ge%E4nderte-SigGBegr%FCndung-BMVELt.pdf, 2004, letzter Abruf am 2004-06-22. [Bize04] Bizer, J.: Flächendeckende Identifizierungsstruktur. Datenschutz und Datensicherheit 28, 2004: S. 388. [BoEi02] Bovenschulte, A.; Eifert, M.: Rechtsfragen der Anwendung technischer Produkte nach dem Signaturgesetz. Datenschutz und Datensicherheit 26, 2002: S. 76-78. [Büg+04] Büger, M.; Esslinger, B.; Koy, H.: Das deutsche Signaturbündnis: Ein pragmatischer Weg zum Aufbau einer interoperablen Sicherheitsinfrastruktur und Applikationslandschaft. Datenschutz und Datensicherheit 28, 2004: S. 133-140. [Dum+04] Dumortier, J.; Kelm, S.; Nilsson, H; Skouma, G.; van Eecke, P.: The legal and market aspects of electronic signatures. Datenschutz und Datensicherheit 28, 2004: S. 141-146. [Erne04] Ernestus, W.: JobCard – Schlüssel zur elektronischen Kommunikation?. Datenschutz und Datensicherheit 28, 2004: S. 404-409. [ESigÄndG04] Entwurf eines Ersten Gesetzes zur Änderung des Signaturgesetzes (1. SigÄndG). http://www.iid.de/iukdg/04-04-01-ge%E4nderter-SigG-EntwurfBMVEL.pdf, 2004, letzter Abruf am 2004-06-22.
Die qualifizierte elektronische Signatur
1205
[FeHa03] Federrath, H.; Hansen, M.: Wer bin ich?. Datenschutz und Datensicherheit 27, 2003: S. 262. [Fis+02] Fischer-Dieskau, S.; Gitter, R.; Paul, S.; Steidle, R.: Elektronisch signierte Dokumente als Beweismittel im Zivilprozess. MultiMedia und Recht 5, 2002: S. 709-713. [Fox98] Fox, D.: Zu einem prinzipiellen Problem digitaler Signaturen. Datenschutz und Datensicherheit 22, 1998: S. 386-388. [Fox04] Fox, D.: Wiedergeburt. Die zweite. Datenschutz und Datensicherheit 28, 2004: S. 130. [Geis02] Geis, I.: Die neue Signaturverordnung: Das Sicherheitssystem für die elektronische Kommunikation. Kommunikation & Recht 5, 2002: S. 59-61. [HoGr02] Hopp, C.; Grünvogel, A.: Pseudonyme nach dem deutschen und österreichischen Signaturgesetz. Datenschutz und Datensicherheit 26, 2002: S. 79-83. [Horn04] Hornung, G.: Zwei runde Geburtstage: Das Recht auf informationelle Selbstbestimmung und das WWW. MultiMedia und Recht 7, 2004: S. 3-8. [HoRo04] Hornung, G.; Roßnagel, A.: Die JobCard – „Killer-Applikation“ für die elektronische Signatur?. Kommunikation & Recht 7, 2004: S. 263-269. [Jung02] Jungermann, S.: Der Beweiswert elektronischer Signaturen. Eine Studie zur Verläßlichkeit elektronischer Signaturen und zu den Voraussetzungen und Rechtsfolgen des § 292a ZPO. Peter Lang-Verlag: Frankfurt am Main et al., 2002. [Jung03] Jungermann, S.: Der Beweiswert elektronischer Signaturen. Zu den Voraussetzungen und Rechtsfolgen des § 292a ZPO. Datenschutz und Datensicherheit 27, 2003: S. 69-72. [Klew03] Klewitz-Hommelsen, S.: Recht auf Anonymität? Oder Anspruch auf Transparenz? Datenschutz und Datensicherheit 27, 2003: S. 159. [LaUl02] Langenbach, C. J.; Ulrich, O.: Elektronische Signaturen. Springer: Berlin et al., 2002. [LüAd02] Lüdemann, V.; Adams, N.: Die elektronische Signatur in der Rechtspraxis. Kommunikation & Recht 5, 2002: S. 8-12. [Nedd03] Nedden, B.: Handlungsempfehlungen für „Datenschutzgerechtes eGovernment“. Datenschutz und Datensicherheit 27, 2003: S. 128. [Pord00] Pordesch, U.: Der fehlende Nachweis der Präsentation signierter Daten. Datenschutz und Datensicherheit 24, 2000: S. 89-95. [Roßn01] Roßnagel, A.: Das neue Recht elektronischer Signaturen. Neue Juristische Wochenschrift 54, 2001: S. 1817-1826. [Roßn02] Roßnagel, A.: Rechtliche Unterschiede von Signaturverfahren. MultiMedia und Recht 5, 2002: S. 215-222. [Roßn03a] Roßnagel, A.: Editorial: Eine konzertierte Aktion für die elektronische Signatur. MultiMedia und Recht 6, 2003: S. 1-2.
1206
S. Schreiber
[Roßn03b] Roßnagel, A.: Die fortgeschrittene elektronische Signatur. MultiMedia und Recht 6, 2003: S. 164-170. [Schi02] Schindler, W.: Sichere digitale Kommunikation – Motivation, Anforderungen, mathematisch-technische Realisierung und rechtliche Aspekte. Kommunikation und Recht 5, 2002: S. 481-490. [Schm00] Schmidt, A. U.: Signiertes XML und das Präsentationsproblem. Datenschutz und Datensicherheit 24, 2000: S. 153-158. [Schm02] Schmidl, M.: Die elektronische Signatur. Funktionsweise, rechtliche Implikationen, Auswirkungen der EG-Richtlinie. Computer und Recht 18, 2002: S. 508-517. [Schu04] Schulzki-Haddouti, C.: Signaturbündnis macht Dampf. c’t, Heft 10, 2004: S. 3233. [SigBü03] Signaturbündnis. http://www.signaturbuendnis.de, letzter Abruf am 2004-06-22. [SigBüVK03] Signaturbündnis: Vorgaben und Konvergenzziele für das Signaturbündnis. http://www.iid.de/iukdg/sigbue_vorg_konverg.pdf, 2003, letzter Abruf am 2004-06-22. [Skro04] Skrobotz, J.: „Lex Deutsche Bank“: Das 1. SigÄndG. Datenschutz und Datensicherheit 28, 2004: S. 410-413. [Stor02] Storr, S.: Elektronische Kommunikation in der öffentlichen Verwaltung. Die Einführung des elektronischen Verwaltungsakts. MultiMedia und Recht 5, 2002: S. 579584. [Uhlm03] Uhlmann, A. M.: Elektronische Verträge aus deutscher, europäischer und USamerikanischer Sicht. Peter Lang-Verlag: Frankfurt am Main et al., 2003. [Voge01] Vogel, H.-H.: Das Internet und der Schutz der persönlichen Integrität aus verwaltungsrechtlicher Sicht. In: Hohloch, G. (Hrsg.) Recht und Internet. Nomos: BadenBaden 2001, S. 159-169. [Weic04] Weichert, T.: Die elektronische Gesundheitskarte. Datenschutz und Datensicherheit 28, 2004: S. 391-403. [Wohl02] Wohlfahrth, J.: Elektronische Verwaltung – Vorgaben und Werkzeuge für datenschutzgerechte Anwendungen. Recht der Datenverarbeitung 18, 2002: S. 231-236.
Ein Steuerungsmodell für das Management von IV-Sicherheitsrisiken bei Kreditinstituten Christian Locher Universität Regensburg
Zusammenfassung: Die IV-Sicherheit wird in vielen Unternehmen nicht effizient genug gesteuert. Oft wird nur ein pauschaler Anteil des IT-Budgets für die Absicherung der Systeme investiert. Dies liegt daran, dass noch keine anerkannten Methoden zur Evaluation des Nutzens von Investitionen in die IV-Sicherheit entwickelt wurden. Sie werden zu pauschal und unstrukturiert behandelt. Die vorliegende Arbeit stellt einen Lösungsansatz für die Finanzwirtschaft vor. Da IVSicherheitsrisiken Teil des operationellen Risikos bei Kreditinstituten sind, lassen sie sich auch mit den dort gebräuchlichen Methoden bearbeiten. Basierend auf einer Systematisierung von IV-Sicherheitsinvestitionen wird ein Integrationsansatz in eine risikoorientierte Performance-Messmethode vorgestellt, die zur Beurteilung der risiko- und monetären Wirkungen von IV-Sicherheitsinvestitionen dient. Schlüsselworte: Operationelle Risiken, Steuerung, IV-Sicherheitsrisiken, ROSI, RAPM
1
Einführung
Die in der IV-Sicherheit eingesetzten Produkte unterliegen einer stetigen technischen Verbesserung. Eine Umsetzung in ein höheres Sicherheitsniveau ist aber meist nicht festzustellen. Eine repräsentative Umfrage des BSI1 ergab, dass 20% der deutschen IT-Sicherheitsexperten glauben, ihre Organisation wäre wegen unzureichender Sicherheitsmaßnahmen verwundbar. Die jährliche Sicherheitsstudie des CSI (Computer Security Institute)2 ergab, dass die durchgeführten Gegenmaßnahmen oft nicht ausreichten, um auf die veränderte Bedrohungslage zu reagieren. Obwohl die Finanzwirtschaft in IV-Sicherheitsfragen sehr sensibel ist, sind die bekannt gewordenen Vorfälle der letzten Jahre erschreckend3.
1 2 3
Repräsentative Telefonumfrage (N=500) im Jahr 2003, siehe http://www.bsi.de Umfrage (N=494) im Jahr 2004, siehe [Gord+04] z. B. Sicherheitslücke in Homebanking-Applikation (Deutsche Bank 24, 2000); Möglichkeit des Diebstahls geheimer Kundendaten (Deutsche Kreditbank, 2003); Wurm
1208
C. Locher
Diese Vorfälle können sich auf mehrere Ursachen zurückführen lassen: x Die Budgets für Informationssicherheit sind zu niedrig. Notwendige Investitionen werden deshalb nicht durchgeführt. Die durchgeführten Investitionen dienen primär der Technologieanpassung oder der Realisierung von Einsparpotenzialen. x Die Budgets sind ausreichend, aber die Kreditinstitute haben keine mit der IVStrategie korrespondierende Investitionsstrategie für IV-Sicherheitsmaßnahmen. Deshalb wird vorhandenes Kapital nicht zielgerichtet investiert und die Organisation wird leichter verwundbar. Beide Gründe korrespondieren mit der Nutzenbewertung von IV-Sicherheitsinvestitionen sowie der Bereitstellung und zielgerichteten Verwendung des IV-Sicherheitsbudgets. IV-Sicherheitsinvestitionen haben oftmals keinen über die Erhöhung des Sicherheitsniveaus hinausgehenden betriebswirtschaftlichen Nutzen. Weil die Vorteilhaftigkeit der Investition schwer zu zeigen ist, sehen sich IV-Sicherheitsabteilungen mit der Anforderung einer Quantifizierung des Nutzens konfrontiert. Das IVControlling muss diese Anforderungen aufnehmen und Rahmenwerke für die Bewertung von IV-Investitionen, insbesondere von IV-Sicherheitsinvestitionen entwickeln. Neuere Ansätze der Sicherheitsökonomie identifizierten den Faktor Risiko als einen wesentlichen Faktor in der Nutzenberechnung. Diese Ansätze sind aber nach einhelliger Meinung in der Wissenschaft noch am Anfang des Reifezyklus. Viele der Modelle (u. a. der „Return on Security Investment“) nutzen überwiegend qualitative Faktoren, sollen aber monetäre Ergebnisse liefern. Vor allem aber berücksichtigen die bestehenden Ansätze nicht die offensichtliche Beziehung zu den im betriebswirtschaftlichen Controlling bzw. im Risikocontrolling genutzten Methoden. Diese bauen auf rein quantitativen Größen auf. Nur eine Integration der Kennzahlen in die dort verwendeten Methoden ermöglicht aber ein durchgängiges Controlling-Konzept im Unternehmen. Seit der Veröffentlichung von Basel II muss die IV-Sicherheit zudem in einem größeren Rahmen des operationellen Risikos eines Kreditinstituts gesehen werden. Unter diesem Aspekt untersucht die vorliegende Arbeit bestehende Methoden zur Bewertung und Steuerung von IV-Sicherheitsinvestitionen und stellt als Lösungsansatz ein Gesamtkonzept vor. Die Arbeit geht zunächst auf die Evaluation von IV-Investitionen ein. In diesem Kontext wird der Bezug zum Faktor Risiko bei Banken hergestellt und Methoden zur Performance-Messung, die den Faktor Risiko berücksichtigen, vorgestellt.
'Code Red' legt Geldautomaten lahm (Bank of America, 2003); Nimda Wurm legt interne Netzwerke lahm (Deutsche Bank, National Australia Bank, 2001)
Ein Steuerungsmodell für das Management von IV-Sicherheitsrisiken
1209
Danach wird auf die IV-Sicherheit und deren Auswirkungen auf das operationelle Risiko nach Basel II eingegangen. Bestehende Ansätze zur Bewertung und Steuerung von IV-Sicherheitsmaßnahmen werden dargestellt und auf Eignung für die Integration in das operationelle Risikomanagement untersucht. Als Lösungsansatz wird ein Modell vorgestellt, das die Bewertung von IV-Sicherheitsrisiken und die Maßnahmenplanung im Kontext des operationellen Risikomanagements unterstützt. Der Beitrag schließt mit einem Ausblick auf die Integrationsmöglichkeiten in bestehende risikoadjustierte Kennzahlensysteme bei Kreditinstituten.
2
Evaluation von Investitionen
Das Sachziel des finanziellen Controllings ist die Effizienz in Form von Einnahmen, Rentabilität, Produktivität oder Liquidität eines bestimmten Projekts, einer Organisationseinheit oder einer Investition [Reic01]. Dies gilt auch für IVInvestitionen. Der Nutzen von IV-Investitionen kann aber durch weitere Kriterien, wie Qualität, Funktionalität oder Unterstützung der Unternehmensstrategie, ausgedrückt werden. Deshalb können IV-Investitionen nicht auf rein monetärer Basis bewertet werden [Krcm03].
2.1
Bewertungsmodelle für IV-Investitionen
Für eine umfassende Bewertung einer IV-Investition sind deshalb qualitative und quantitative Methoden notwendig. In der Praxis bewerten die Unternehmen Investitionsalternativen vor allem mit finanziellen Kriterien (z. B. NKW), ManagementKriterien (z. B. Unterstützung von Geschäftsmodellen) und EntwicklungsKriterien (z. B. Einführung einer neuen Technologie, Wahrscheinlichkeit der erfolgreichen Beendigung des Projekts) [Baco94]. Die Auswahl der Methode zur Investitionsanalyse basiert auf der Art des Projekts, der Tragweite der Auswirkungen sowie auf dem Investitionsvolumen [Olfe01], [Mile72]. Zur Bewertung der Management- und Entwicklungs-Kriterien werden qualitative Methoden genutzt [CoJa94], [Hoch94], [WiMa94]. Hierbei werden ausgewählte Kriterien ordinal bewertet und in einem Punktbewertungsmodell gewichtet und aggregiert. Anschließend wird eine Rangfolge der Investitionsalternativen festgelegt. Eine finanzielle Betrachtung der Investition muss in der Regel isoliert durchgeführt werden. Sie dominiert in der Investitionsentscheidung, wenn kein Nutzen im Sinne der Unterstützung von Geschäftsmodellen gezeigt werden kann [Baco94]. Dies gilt regelmäßig für IV-Sicherheitsinvestitionen. Nachfolgend wird deshalb insbesondere auf die finanziellen Methoden eingegangen.
1210
2.2
C. Locher
Messung der finanziellen Performance von IVInvestitionen
Finanzielle Aspekte von IV-Investitionen werden mit bereits im Unternehmenscontrolling bekannten Methoden bewertet. Einige dienen eher der einmaligen Investitionsbewertung zur Entscheidungsunterstützung, andere der Unterstützung der unterjährigen Steuerung. Die Performance-Messmethoden werden grob in risikosensitive und nicht risikosensitive Ansätze unterschieden. Weiterhin kann in statische und dynamische Methoden unterschieden werden [Nage88], [Reich01]. Periodenbetrachtung
nicht risikosensitiv
z. B. Kostenvergleiche Pay-Back/Pay-Off Analyse, Return on Investment
risikosensitiv
Risikointegration
statisch
z. B. Risikoadjustierte Pay-Back/ Pay-Off Analyse RAROC, ROR AC RARORAC
dynamisch
z. B. Nettokapitalwert, Annuitätenmethode Interner Zinsfuß Methode
z. B. risikoadjustierter Nettokapitalwert
Abbildung 1: Einordnung quantitativer Methoden zur Performance-Messung
Beide Konzepte können nochmals in Residualkonzepte und Rentabilitätskonzepte unterteilt werden. Im Rahmen der Arbeit wird als statisches Konzept der Return on Investment (ROI) mit seinen abgeleiteten risikosensitiven Ansätzen und als dynamisches Konzept der Nettokapitalwert (NKW) vorgestellt. Der NKW wurde nach [Baco94] bei 75% der untersuchten IV-Projekte zur Bewertung verwendet. Die CSI Studie ergab, dass 55% der Unternehmen den ROI und 25% den NKW anwendeten [Gord+04].
Ein Steuerungsmodell für das Management von IV-Sicherheitsrisiken
1211
Der ROI ist ein statisches Rentabilitätskonzept. Er stellt eine Beziehung zwischen den Cash-Flows und dem gebundenen Kapital her: Einzahlungen Auszahlungen Kapital
ROI
(1)
Die Risikoorientierung bei der Entscheidungsfindung ist eine wesentliche Forderung von Basel II. Um diese Anforderung in den Performance-Messmethoden umzusetzen, wurden in der Kreditwirtschaft statische, risikosensitive Modelle entwickelt, die hauptsächlich auf dem Konzept des ROI basieren (z. B. Risk adjusted return on capital (RAROC), Return on risk adjusted capital (RORAC), vgl. [Brin01], [Chor04]). Allen gemeinsam ist, dass sie eine Verbindung zwischen den Cash-Flows und dem Risiko von Projekten herzustellen versuchen. Der RAROC z. B. wird wie folgt definiert4: RAROC
Einzahlungen Auszahlungen Erwarteter Verlust Regulatorisches Kapital
(2)
Bei den statischen Methoden zur Performance-Messung sind operationelle Risiken erst teilweise integriert. Unter der Annahme, dass operationelle Risiken mit dem Value-at-Risk (VaR)5 gemessen werden, können diese – entsprechende Datenqualität vorausgesetzt – aber methodisch integriert werden. Der RAROC allein reicht aber nicht aus, um die Rentabilität von Investitionen zu zeigen. Hierfür muss der RAROC mit den Kapitalkosten verglichen werden: Eine Investition ist dann sinnvoll, wenn der RAROC mindestens dem Kapitalkostensatz entspricht. Stellvertretend für die dynamischen Ansätze wird der NKW vorgestellt. Er erlaubt die Berücksichtigung von verschiedenen Cash-Flows während der ökonomischen Lebensdauer n der Investition. Alle durch das Projekt verursachten Ein- und Auszahlungen sollen hierbei berücksichtigt werden. Mit Et als Einzahlungen und At als Auszahlungen in der Periode t sowie i als internem Zinsfuß, wird der Nettokapitalwert K0 der Investition wie folgt bestimmt [Olfe01]: n
K0
1
¦ ( Et At ) (1 i)t
(3)
t 0
Die mit dem Projekt direkt verbundenen Risiken werden durch die Justierung des internen Zinsfußes berücksichtigt. Weitere Risiken aus dem Betrieb werden nicht im Modell abgebildet.
4 5
Die erwarteten Verluste sind als der Erwartungswert der Verluste in einer Periode definiert. Das regulatorische Kapital wird als Begriff in Abschnitt 3.2 eingeführt. Der VaR ist die Verlusthöhe, die mit einem bestimmten Konfidenzniveau innerhalb einer gegebenen Periode nicht überschritten wird.
1212
C. Locher
Für positive K0 sind die Rückflüsse aus dem gebundenen Kapital höher als bei einer alternativen Investition. Die Investition wird als profitabel angesehen und sollte durchgeführt werden. Dynamische risikosensitive Methoden in der Art des NKW sind noch nicht verfügbar.
3 3.1
Management von Investitionen in die IV-Sicherheit Begriffsverständnis und Zielsystem der IV-Sicherheit
Das deutsche BSI definiert Sicherheit als den Zustand eines IT-Systems, in dem die Risiken, die bei dessen Einsatz aufgrund von Bedrohungen vorhanden sind, durch angemessene Maßnahmen auf ein tragbares Maß beschränkt sind. Der Sicherheitsbegriff wird verstärkt auf Informationen als schützenswertes Gut bezogen: „Information security is intended to safeguard information. Security is the means of achieving an acceptable level of residual risks. The value of the information has to be protected.” [Caze+03]. Das notwendige Sicherheitsniveau wird in einer IV-Sicherheitsstrategie festgelegt. Diese hat vier Ziele: Vorgabe fundamentaler IV-Sicherheitsziele, Definition von Ressourcen (z. B. monetär, personell), Definition einer IV-Sicherheitspolitik und Vorgabe von Verantwortlichkeiten und Organisationsstrukturen [Stel93]. Die Sachziele des IV-Sicherheitsmanagements sind die Sicherstellung von Vertraulichkeit, Integrität und Verfügbarkeit. Diese Sachziele müssen unter Berücksichtigung von bestehenden Gesetzen, Effizienz, Effektivität und Adäquatheit der Maßnahmen als Formalziele verwirklicht werden. Zur Sicherstellung eines (auch aus ökonomischen Gesichtspunkten) optimalen Investitionsportfolios muss eine Investitionsstrategie für die IV-Sicherheit formuliert werden. Fehlt diese, dann werden IV-Sicherheitsinvestitionen mehr oder weniger zufällig, auf jeden Fall aber ohne Berücksichtigung bestehender Interdependenzen, durchgeführt werden. Dabei könnten sie im schlimmsten Falle sogar entgegengesetzte Wirkungen entfalten. Die Integration möglichst vieler dieser Zielkriterien in einem Kennzahlensystem ist eines der herausragenden Probleme des IV-Sicherheitsmanagements. Die Umsetzung der IV-Sicherheit fand bisher weitgehend isoliert von unternehmerischen Gesichtspunkten statt. Der Kontext der Unternehmenssteuerung und die Integration in das operationelle Risikomanagement sind bei Kreditinstituten aber wesentliche Gestaltungsparameter. Deshalb wird im nächsten Punkt Basel II als wesentliche gesetzliche Rahmenbedingung vorgestellt.
Ein Steuerungsmodell für das Management von IV-Sicherheitsrisiken
3.2
1213
IV-Sicherheitsrisiken im Kontext Basel II
Bankgeschäfte werden zu großen Teilen mit Fremdkapital getätigt. Weil die meisten Bankgeschäfte mit Risiken verbunden sind, müssen die Kreditinstitute diese zu einem bestimmten Prozentsatz mit Eigenkapital absichern [Base04]. Durch die Addition der Verluste aus operationellen Risiken zu den Verlusten aus Markt- und Kreditrisiken, haben Banken zusätzlich die operationellen Risiken mit Eigenkapital abzusichern [Base04]. Dabei folgen sie unten stehender Formel: C Basel
BIS / KWG Kapital t 0,08 (4) Risikoakti va Kreditrisiko 12,5 * (Marktrisiko Operationelles Risiko)
Hohe operationelle Risiken werden nach Inkrafttreten von Basel II in 2007 negative Einflüsse auf das regulatorische Eigenkapital haben. Banken können dann weniger Kapital in profitable, aber risikobehaftete Geschäfte investieren. Weil das regulatorische Eigenkapital das tatsächlich vorhandene Risikokapital nicht übersteigen kann, muss es von den Kreditinstituten effizient genutzt werden: Auf der einen Seite beschränkt es die Höhe des Kapitals, das in Geschäften verbraucht werden darf. Auf der anderen Seite sollte die Summe des ungenutzten Kapitals so niedrig wie möglich sein um die Eigenkapitalrentabilität nicht zu weit zu senken. Obwohl Basel II Banken auch die Anwendung von einfacheren, indikatorbasierten Risikomodellen (mit dem Bruttoertrag als Indikator) gestatten wird, zwingt es größere und international aktive Banken zur Anwendung von anspruchsvolleren Modellen (z. B. den in Abschnitt 4.2.3 vorgestellten Verlustverteilungsansatz). Die Kapitalallokation soll aber nicht nur auf Gesamtbankebene, sondern auch auf Geschäftsbereichsebene zur Steuerung verwendet werden [Base04]. Die Geschäftsbereiche müssen die operationellen Risiken eigenständig steuern, um das in ihrer Verantwortlichkeit liegende operationelle Risiko auf ein sinnvolles Niveau zu verringern. Risikosensitive interne Steuerungssysteme unterstützen dieses Vorgehen [Brin01]. Nach Basel II können operationelle Verluste durch Technologie, Prozesse, Menschen oder externe Ereignisse verursacht werden. Das mit dem Betrieb von ITSystemen verbundene Risiko ist deshalb Teil des operationellen Risikos in Banken. Versuche, IV-Sicherheitsrisiken in das Management operationeller Risiken zu integrieren, sind aber noch am Anfang. Dies wird zusätzlich dadurch erschwert, dass die IV-Sicherheitsrisiken nicht explizit in einer Risikokategorie berücksichtigt werden, sondern über verschiedene Kategorien (z. B. Systemsicherheit in der Kategorie „Externer Betrug“, Kategorie „Geschäftsunterbrechungen und Systemausfälle“) verteilt sind. Dies ist z. T. unverständlich, da Banken großteils immaterielle Produkte herstellen und verarbeiten, deren Verarbeitung mittels IT stattfindet. Demzufolge haben Risiken, die mit der IT zusammenhängen, bei Banken einen sehr hohen Stellenwert. Die Herausforderung für das IV-Sicherheitsmanage-
1214
C. Locher
ment liegt nun darin, entsprechende Steuerungsmethoden zu implementieren. Die damit verbundenen Schwierigkeiten werden nachfolgend diskutiert.
3.3
Bestehende Ansätze zur Steuerung von IV-Sicherheitsinvestitionen
Der Nutzen von IV-Sicherheitsinvestitionen kann nur schwer gemessen werden, da sie oft weder finanzielle Rückflüsse noch Kosteneinsparungen verursachen. Die bereits in Abschnitt 2.1 angesprochene Problematik gilt insbesondere hier: Der ökonomische Wert von IV-Sicherheitsinvestitionen (zumindest derer, die keine positiven Cash-Flows verursachen) kann nicht objektiv gezeigt werden [Voss00].6 Sie dienen in der Regel auch nicht der Ausschöpfung von strategischen Vorteilen, sondern der Technologieanpassung („State-of-the-art“) oder der Verwirklichung eines Grundschutzes. Das IV-Sicherheitsmanagement steht somit vor einem Dilemma: Einerseits müssen Kosten quantifiziert werden, andererseits kann nur ein qualitativer Nutzen gezeigt werden. Diese Problematik ist aber keinesfalls unabhängig vom verwendeten Vorgehensmodell zur Realisierung der IV-Sicherheit im Unternehmen. Der vom BSI favorisierte Grundschutzansatz unterstützt beispielsweise eine KostenNutzen-orientierte Betrachtung nicht, weil nur Maßnahmen, die sich aus Gefährdungskatalogen ergeben, berücksichtigt werden. Eine monetäre Betrachtung der Maßnahmen erfolgt nicht. Deshalb werden Entscheidungsmodelle gefordert, die eine zentrale Steuerung und Priorisierung von Maßnahmen unterstützen. Als zusätzliche Anforderung muss im Kontext Basel II formuliert werden, dass die verwendete Methodik zumindest in die im operationellen Risikomanagement üblichen Methoden integrierbar sein muss. Die erste Anforderung kann durch detaillierte Risikoanalysen überwunden werden [PfPf03], [AnSh94], [Stel02]. Die Risikoanalyse wird als Methode im IVSicherheitsmanagement oft kritisiert [Pfle97], [Voss00]. Sie ermöglicht durch ein kardinales Bewertungsprinzip aber die Verwendung monetärer Größen [Stel02]. Einfachere Ansätze der quantitativen Risikoanalyse gehen von der Definition des Risikos als Erwartungswert eines Schadens aus (Risiko = Schaden x Eintrittswahrscheinlichkeit). Durch diese Darstellung kann es zu einer gefährlichen Gleichbehandlung unterschiedlich schwerer Schäden kommen, weshalb die Ableitung von Maßnahmen hieraus nicht zu empfehlen ist [Voss00].
6
Besonders der Umstand, dass nach [Gord+04] mehr als die Hälfte aller Unternehmen bereits nicht risikosensitive Performance-Messmethoden zur Evaluation von IVSicherheitsinvestitionen nutzten, verwundert hier.
Ein Steuerungsmodell für das Management von IV-Sicherheitsrisiken
1215
Auf Basis der Risikoanalyse wurden Modelle entwickelt, die die Investitionsentscheidung unterstützen sollen. Der Nutzen einer IV-Sicherheitsinvestition wird z. B. durch den Risikominderungseffekt gezeigt [PfPf03]: Nutzen
Monetäre Risikoverminderung - Kosten für Sicherheitsmaßnahme
(5)
Eine Sicherheitsinvestition ist dann profitabel, wenn der Risikominderungseffekt größer als die Kosten der Investition ist. Die Methodik kann über die oben angeführte Kritik hinaus kritisiert werden. Sie unterstützt die Entscheidung bei einer Investition, hilft aber nicht bei der Priorisierung verschiedener Alternativen. Es bleibt Ermessenssache des Entscheiders, wie hoch sein individueller Grenzpreis für IV-Sicherheitsinvestitionen ist (d. h. wie viel ihm z. B. ein Euro Risikoverminderung an Investitionskosten wert ist) – deshalb kann es nicht als objektives Kriterium gewertet werden. Weil traditionelle Performance-Messmethoden nicht auf den Faktor „Risiko“ eingehen, ist es nicht möglich, die Ergebnisse dieser Methode dort zu nutzen. In den risikosensitiven Methoden ist die Anwendung aber ebenso nicht möglich, da der Erwartungswert eines Risikos nur einen Teil der notwendigen Informationen ausmacht. Die zweite Anforderung lässt sich innerhalb dieses Modells deshalb nicht erfüllen. Die vorgestellte Methodik wurde in einer breiten Palette von ROSI-Konzepten weiterentwickelt. Viele ziehen neben den quantitativen Daten auch qualitative Daten zur Bewertung heran. Eine Erweiterung durch Variablen wie criticality factor, exposure factor, vulnerability factor (vgl. [Micr03]) scheint ebenso wenig sinnvoll. Die Kriterien sind nicht mehr orthogonal zu einander und der Vorteil der Quantifizierung wird durch qualitative Kriterien aufgeweicht. [Cavu+04] stellen eine spieltheoretische Lösung des Problems vor. Sie argumentieren, dass IV-Sicherheit mit dem Verhalten von Angreifern und Verteidigern (also dem IV-Sicherheitsmanagement) zu tun habe. Also müssten Ansätze zur Maßnahmenplanung verwendet werden, die die Ziel- und Wertesysteme der beteiligten Parteien berücksichtigen. Allgemein muss an dem Ansatz kritisiert werden, dass er von einem intentionalen Angreifer ausgeht. Es ist fraglich, wie der Ansatz z. %. auf Wurmattacken der letzten Zeit anzuwenden wäre. Der Ansatz geht auch nur auf einen sehr engen Sicherheitsbegriff im Sinne des Angriffs auf bestimmte ITSysteme ein. Die Aufstellung der Auszahlungsmatrix baut wie die oben genannten Modelle auf quantitative Risikoanalysen auf. Der Ansatz kann eine zentrale Entscheidungsunterstützung für einen begrenzten Anwendungsbereich bieten. Die zweite Forderung kann dieser Ansatz ebenfalls nicht erfüllen. Eine andere Herangehensweise ist, die im operationellen Risikomanagement entwickelten Methoden auf Anwendbarkeit zu überprüfen. Schließlich sind IVSicherheitsrisiken, wie in Abschnitt 3.2 gezeigt, ein Bestandteil der operationellen Risiken. Von einem solchen Ansatz geht der in Kapitel 4 gezeigte Lösungsansatz aus. Er wendet den meistverwendeten fortgeschrittenen Ansatz, den Verlustverteilungsansatz, auf die IV-Sicherheit an. Die Datenversorgung geschieht wie in den
1216
C. Locher
anderen Ansätzen durch quantitative Risikoanalysen. Diesen liegt aber ein anderes Risikoverständnis zu Grunde: Das Risiko wird als Zufallsvariable verstanden, die einer spezifischen Verteilung unterliegt. Die Verwendung von statistischen Verteilungen ist dem Erwartungswert vorzuziehen, weil im späteren Verlauf auch unerwartete Verluste (d. h. Verluste, die zwischen dem Erwartungswert und dem VaR liegen) mit in der Berechnung berücksichtigt werden sollen. Gerade diese sind für die Eigenkapitalunterlegung nach Basel II interessant. Die erste Anforderung kann bei einer hinreichend großen Verlusthistorie in Verbindung mit Expertenmeinungen durch Risikoanalysen hergestellt werden. Zusätzliche Informationen zu Risikoereignissen, z. %. der durchschnittliche und maximale Schaden können in den Risikoanalysen mit aufgenommen werden. Die zwei Forderungen können auf diesem Weg erfüllt werden. Der Ansatz weicht nicht unerheblich von den bisherigen Ansätzen zur Umsetzung der IV-Sicherheit ab. Ein Nutzen entsteht aber nur dann, wenn der Ansatz richtig im Unternehmen angewendet wird. Dies wird im nachfolgenden Kapitel beschrieben.
4
Ein Steuerungsmodell für IV-Sicherheitsinvestitionen
Das vorhergehende Kapitel zeigte, dass bestehende Methoden das IVSicherheitsmanagement nur unvollständig unterstützen: Qualitativen Methoden mangelt es an Transparenz und Objektivität, während quantitative Modelle auf Basis von nicht risikosensitiven Methoden nicht in der Lage sind, die Erhöhung des Sicherheitsniveaus als betriebswirtschaftlichen Nutzen auszudrücken. Der hier vorgestellte Ansatz bietet die Möglichkeit, verschiedenartige IV-Sicherheitsinvestitionen quantitativ zu bewerten und Empfehlungen für die Investitionsentscheidung auszusprechen. Hierfür müssen die IV-Sicherheitsinvestitionen in sinnvolle Gruppen unterteilt und eine Investitionsstrategie formuliert werden.
4.1
Systematisierung von IV-Sicherheitsinvestitionen
Alle Investitionen, deren Gegenstand die IV-Sicherheitsinfrastruktur eines Unternehmens ist, werden nachfolgend als IV-Sicherheitsinvestition bezeichnet. Damit wird dem Umstand Rechnung getragen, dass IV-Sicherheitsinvestitionen nicht zwingend nur das Sicherheitsniveau erhöhen. Eine Systematisierung in den Dimensionen Motivation der Investition und deren Auswirkung erscheint deshalb sinnvoll. Eine Investition kann entweder durch eine sicherheitstechnische Notwendigkeit (z. B. verursacht durch Release-Wechsel und Einstellung des Kundensupports
Ein Steuerungsmodell für das Management von IV-Sicherheitsrisiken
1217
durch den Hersteller, Grundschutz, aktuelle Bedrohungen) oder durch ein KostenNutzen-Kalkül motiviert sein. Die Auswirkungen der Investition sind davon unabhängig. Im Wesentlichen können drei Auswirkungs-Typen identifiziert werden: 1. Durch die Investition wird lediglich eine neue Technologie im Unternehmen eingeführt. Es gibt neben den Anschaffungskosten keine Auswirkungen auf die Kostenstruktur bzw. auf das Sicherheitsniveau. 2. Die Investition kann – durch Nutzung von Synergieeffekten oder durch Prozessverbesserungen – Rationalisierungspotenziale freisetzen. Dies ist durch Kosteneinsparungen messbar. Beispiele sind Enterprise Access Management Software, Nutzung von VPN (Virtual Private Networks) an statt RAS (Remote Access Service) Servern, Passwort-Synchronisation (oder Single-Sign-On) oder die Nutzung von Managed Services. Diese Auswirkungen können mit herkömmlichen Methoden zur Investitionsanalyse erfasst werden. 3. Durch eine Erhöhung des Sicherheitsniveaus kann ein geringeres Risiko erreicht werden. Das heißt, ein IT-System wird davor bewahrt, unter das geforderte Sicherheitsniveau zu fallen. Mit den traditionellen Methoden kann dieser Nutzen nicht gezeigt werden. Die Risikoanalyse ist die Ausgangsmethode zur Quantifizierung der Auswirkungen.
4.2
Methodik zur Bewertung von IV-Sicherheitsinvestitionen
Basierend auf der Segmentierung von IV-Sicherheitsinvestitionen wird eine Investitionsstrategie für die IV-Sicherheit formuliert. Anhand der Strategie wird gezeigt, wie IV-Sicherheitsinvestitionen strukturiert evaluiert werden können. Die Investitionsstrategie geht auf die in Abschnitt 2.2 eingeführten Methoden zur Performance-Messung ein. Im Verlauf wird gezeigt werden, dass es durch Einsatz von risikosensitiven Performance-Messmethoden möglich ist, die Investition innerhalb einer geschlossenen Methodik zu bewerten. 4.2.1
Definition einer Investitionsstrategie für das IVSicherheitsmanagement
Aus der Systematik für IV-Sicherheitsinvestitionen kann eine Investitionsstrategie abgeleitet werden. Folgende Investitionen sollen durchgeführt werden: 1. Alle sicherheitstechnisch notwendigen Investitionen, egal ob sie Auswirkungen auf Risiko- oder Kostenstrukturen der IV-Sicherheit haben. 2. Alle Investitionen, die Kostensenkungen nach sich ziehen, sodass der NKW der Investition größer oder gleich Null ist. Wenn mehr als eine mögliche Al-
1218
C. Locher
ternative für die Investition bestehen, dann sollte die mit dem höchsten ROI ausgeführt werden. 3. Alle Investitionen, die ausreichende Risikoverminderungen nach sich ziehen. Weil es schwer möglich ist, die gewollten Effekte von den Nebeneffekten (z. B. durch Änderung der Umgebung) zu trennen, sollte das Risiko als konstant während der betrachteten Periode angenommen werden. Der Nutzen wird mit einem Opportunitätszinssatz berechnet: Nutzen
ǻregulatorisches Kapital x Eigenkapit alrentabilität
(6)
Die unter Punkt 1 genannten Investitionen müssen im Modell nicht zwingend einer Kosten-Nutzen-Betrachtung unterzogen werden. Nachfolgend werden die Auswirkungen 2 und 3 aus Abschnitt 4.1 untersucht. Anschließend werden die Aspekte in Abschnitt 4.3 in ein Gesamtmodell zur Steuerung von IV-Sicherheitsinvestitionen basierend auf dem RAROC zusammengefasst. 4.2.2
Bestimmung der Kostenwirkung
Weil die Einzahlungen Et für Sicherheitsinvestitionen schwierig zu bestimmen sind, werden bei der Investitionsentscheidung nur die Auszahlungen At betrachtet. Im Folgenden werden beispielhaft alle Komponenten des Investitionsvorhabens „Ablösung eines RAS-Dienstes durch VPN“ betrachtet (vgl. [Cisc01]). Veränderung der variablen Kosten (At) = ǻKommunikationskosten + +ǻInfrastrukturkosten + ǻWartungskosten + ǻUser-Supportkosten + ǻandere variable Kosten (7) Anschaffungskosten (A0) = Hardwarekosten + Softwarekosten + Installationskosten + Training des Betriebspersonals + Training der Anwender + andere Kosten (8) Der NKW der VPN-Investition in einer angenommenen 5-Jahres-Periode ist dann7: 5
K0
A0
¦ t 1
At
1 (1 i )t
Bei K0 0 ist die Investition profitabel und sollte durchgeführt werden.
7
In diesem Fall ist At positiv für Kosteneinsparungen
(9)
Ein Steuerungsmodell für das Management von IV-Sicherheitsrisiken
4.2.3
1219
Bestimmung der Risikowirkung
Investitionen, für die K01 arbeiten sind [CGKS95; CGN97; Gil00]. Alle Verfahren versuchen, den Kommunikationsaufwand unter O(N) zu verringern. Bei [CGKS95] beträgt dieser jedoch für M=2 ca. 30% der Datenbankgröße. Zudem haben die Verfahren eine höherere Berechnungskomplexität, da pro Datensatz eine wesentlich kompliziertere Rechenoperation als die XORVerknüpfung ausgeführt werden muss. Mindestens 10 weitere Artikel beschreiben
1274
O. Berthold
Verfahren für Datensätze mit l=1, welche einen ähnlichen Aufwand aufweisen, allerdings pro 1 Bit-Datensatz.
2.2
Vertrauen in physisch geschützte Hardware
Bei diesem Konzept wird ein SC, ein physisch geschützes Gerät verwendet. Dabei ist das Vertrauensmodell, dass der Angreifer dieses Gerät nicht kontrollieren, aber dessen Zugriffe auf die Datenbank beobachten kann. In [SS00] wird eine Basismethode beschrieben, bei welcher der SC bei jeder Anfrage die gesamte Datenbank abruft, den gewünschten Datensatz zwischenspeichert und diesen danach an den Nutzer sendet. Optimierungen sehen den Einsatz mehrerer SC’s und die Durchführung mehrerer paralleler Anfragen vor. Der Kommunikationsaufwand zum Nutzer ist optimal, d.h. unabhängig von der Datenbankgröße, der Berechnungsaufwand O(N). In [AsFr02] wird ein Verfahren vorgestellt, welches auf einer schon in Abschnitt 1 beschriebenen gemischten und verschlüsselten Datenbank beruht. Eine Anfrage Qi nach DS x wird durch Zugriff auf dessen Position SP(x) und zusätzlich auf alle auf dieser Datenbank bisher abgerufenen Positionen SPji befinden. Ein rein passiver Beobachter erhält keine Information über den vom Nutzer tatsächlich abgefragten Datensatz, da die Datenbank verschlüsselt und durchmischt vorliegt und daher nur Zugriffe auf unbekannte Speicherpositionen beobachtet werden können. Durch passive Beobachtung könnten bestenfalls verschiedene Nutzeranfragen in Beziehung gesetzt werden, also Wahrscheinlichkeiten dafür ermittelt werden, das beide Anfragen denselben Datensatz betrafen.
1278
O. Berthold
Will der Angreifer Aussagen zu konkreten Datensätzen erhalten, muss er diese Datensätze vor oder nach einer beobachteten Nutzeranfrage selbst anfragen. Zum Erzielen von Unbeobachtbarkeit ist es daher wichtig, insbesondere bereits abgerufene Datensätze stark zu vermischen. Dies kann durch eine geschickte Bildung der AV geschehen, indem vermehrt Positionen zugegriffen werden, die vor kurzer Zeit angefragte Datensätze enthalten. Dazu verwendet das Verfahren eine History-Liste H, welche die letzten Card(H) Anfragen protokolliert. Die Parameter Card(H), Card(MP) und ch sollten so gewählt werden, dass eine bei einer Nutzeranfrage Qj(>i) beobachtete Überschneidung von AVj(?) mit AVi(x), den Zugriffspositionen einer früheren Anfrage des Angreifers nach Datensatz x, keine signifikante Wahrscheinlichkeits-aussage dafür ergibt, dass bei der Nutzeranfrage Qj Datensatz x zugegriffen wurde. Um dies sicherzustellen sollte die Wahrscheinlichkeit, dass der Zugriff auf AVi(x) zufällig durch Wahl der cx Positionen aus der History geschah, zumindest genauso groß sein, wie die Wahrscheinlichkeit, dass sich Datensatz x an einer Position von AVi(x) befindet. Die linke Seite der Formel repräsentiert die zufällige Auswahl einer Position aus AVi. Zur Bearbeitung von Qj werden dafür cx Elemente aus der History ausgewählt. Um eine Überschneidung zu erzielen, muss mindestens einmal einer der cx Einträge ausgewählt werden, die schon in Anfrage Qi ausgewählt wurden. 2
cx 1 t Card ( H ) Card ( MP )
Die Beobachtung der Speicherzugriffe ermöglicht somit keine signifikante5 Wahrscheinlichkeitsaussage über die Anfrage bezüglich der DS der letzten Card(H) Anfragen. Zudem wird jeder Eintrag in H im Mittel cx Mal erneut zugegriffen und dabei seine Position jeweils mit cx-1 anderen Datensätzen aus H vermischt, so dass die Beobachtung der Zugriffe einer viel späteren Anfrage Qj auf ein AVi ]> The Freeplay(TM) Solar Radio 1999-01-14 application/pdf en-US The Freeplay Solar Radio...
3
Text Mining und Information Extraction
Text Mining beschäftigt sich mit der Erkennung von Mustern und der Extraktion von Wissen aus unstrukturierten Textdokumenten. Da sich die ältere Disziplin Data Mining mit der Extraktion von Mustern aus strukturierten Daten beschäftigt, kann man Text Mining als ein spezielles Anwendungsgebiet von Data Mining bezeichnen [Tan99]. Text Mining beinhaltet darüber hinaus Elemente aus einer Rei-
Semiautomatische Annotation von Textdokumenten mit semantischen Metadaten
1315
he weiterer Wissensgebiete wie z.B. Information Retrieval [BaRi99], Information Extraction und Machine Learning. Beim Text Mining wird versucht, aus einer Menge von Dokumenten Zusammenhänge festzustellen und Regeln abzuleiten. Um klassische Data-Mining-Verfahren anwenden zu können, müssen die Dokumente in eine strukturierte Form konvertiert werden. Tan [Tan99] bezeichnet dies als Text-Refining-Phase, welche eine „Document-based Intermediate Form“ als Ergebnis hat. Die einzelnen Schritte der Textvorverarbeitung sind dabei: x Bei der Tokenization werden logische Einheiten des Textes erkannt, d.h. er wird üblicherweise in Wörter separiert. x Im Zuge der Stoppworteleminierung werden häufig vorkommende Wörter ohne eigene Bedeutung (z.B. „und“, „ist“) eliminiert. x Reduktion von Flexionsformen auf die Stammform eines Wortes. x Identifikation von Mehrwortgruppen und das Auflösen von Mehrdeutigkeiten (Homonyme und Synonyme). Nach abgeschlossenen Vorverarbeitungsschritten wird das Dokument als Vektor d j ( w1, j , w2, j ,...wt , j ) repräsentiert. Diese Vorgehensweise ist auch im Information Retrieval üblich [BaRi99]. Es wird ein t-dimensionaler Raum definiert, wobei t der Anzahl der Terme des verwendeten Vokabulars entspricht. Man spricht daher auch vom Vektorraummodell. Die einzelnen Dimensionen entsprechen dem Auftreten bzw. der Gewichtung der einzelnen Terme des Vokabulars. Alle Vektoren der vorliegenden Dokumentensammlung bilden eine Term Frequency Matrix. Die Weighted Term Frequency gewichtet die einzelnen Terme nach deren Vorkommenshäufigkeit in einem Dokument und nach der Trennschärfe des Begriffs bezogen auf die Dokumentensammlung. Die Gewichtung berechnet sich wie folgt: wi , j
§ N tf i , j u log¨¨ © df i
· ¸ ¸ ¹
Dabei steht tf i , j für die Vorkommenshäufigkeit des Termes i im Dokument j, N für die Anzahl der Dokumente in der Dokumentensammlung und df i für die Anzahl der Dokumente, die den Term i enthalten. Das Ergebnis wi , j ist der Wert des Terms i im Vektor des Dokuments j. Befindet sich das Dokument in der strukturierten Form des Vektorraummodells, können Data-Mining-Methoden angewendet werden.
3.1
Automatische Textkategorisierung
Unter Textkategorisierung versteht man die Zuordnung eines booleschen Wertes zu jedem Paar d j ,ci ! D u C wobei D eine Menge von Dokumenten und C ei-
1316
T. Priebe, C. Kiss, J. Kolter
ne Menge von Klassen darstellt [Seba02]. Man unterscheidet zwischen singlelabel und multi-label Kategorisierung, je nachdem, ob einem Dokument genau eine Kategorie oder mehreren Kategorien zugeordnet werden soll. Zur automatischen Kategorisierung bieten sich aus dem Data Mining bekannte Klassifikationsverfahren an. Die Klassifikation ist ein überwachtes Lernverfahren, welches einer gegebenen Instanz eine aus einer vorher festgelegten Menge diskreter Klassen vorhersagt [WiFr00]. Für die Zuordnung einer neuen Instanz zu einer Klasse ist ein Klassifikator erforderlich, der mithilfe von vorklassifizierten Trainingsdaten erlernt wird. Bei der Auswahl geeigneter Klassifikationsverfahren ist zu beachten, dass Dokumentenvektoren die Eigenschaft haben, dass die Anzahl der Attribute sehr groß ist, hingegen die Anzahl der Instanzen eher gering. Weiteres Merkmal ist, dass alle Attribute metrische Werte haben, die Klassen jedoch nominale. 3.1.1
Entscheidungsbäume
Entscheidungsbäume werden durch rekursive Aufteilung der Datenbestände konstruiert. Hierzu gibt es verschiedene Algorithmen, einer der bekanntesten ist ID3, welcher auch bei C4.5 [Quin86] Anwendung findet. Bei diesem Verfahren wird der Informationsgewinn, der durch einzelne Attribute erreicht wird, als Entscheidungskriterium für die Verzweigung im Entscheidungsbaum herangezogen. Die Blätter des Baumes bilden die Klassen. Es findet eine rein nominelle Auswertung statt, weshalb metrische Attribute zuvor in nominale umgerechnet werden müssen. Da der Dokumentenvektor ausschließlich metrische Attribute enthält, ist dies ein großer Nachteil. Auch die große Anzahl an Attributen spricht gegen den Entscheidungsbaum. 3.1.2
Naive Bayes
Das Naive-Bayes-Verfahren eignet sich prinzipiell besser für die Klassifikation von Dokumenten, da es auch numerische Werte berücksichtigen kann, wobei angenommen wird, dass diese normalverteilt sind. Hier wird die wahrscheinlichste Klasse nach dem Gesetz der bedingten Wahrscheinlichkeiten ermittelt. Allerdings ist zu beachten, dass bei der Klassifikation von neuen Dokumenten eine Dichtefunktion für jede Klasse für jedes Attribut berechnet werden muss. 3.1.3
Instanzbasierte Verfahren
Bei instanzbasierten Verfahren, wie z.B. K-Nearest-Neighbor, erfolgt keine Modellgenerierung; stattdessen werden die Trainingsdaten gespeichert und für die Klassifizierung einer neuen Instanz herangezogen. Der K-Nearest-NeighborAlgorithmus geht davon aus, dass jede Instanz einem Punkt (bzw. Vektor) in einem n-dimensionalen Raum entspricht. Der nächste Nachbar einer Instanz wird durch die Distanz der einzelnen Attribute zu anderen Instanzen bestimmt. K defi-
Semiautomatische Annotation von Textdokumenten mit semantischen Metadaten
1317
niert die Anzahl der Nachbarn, nach denen gesucht wird. Für die zu klassifizierende Instanz wird dann die Mehrheitsklasse der K Nachbarn gewählt. Als Distanz- (bzw. Ähnlichkeits-) Maß bietet sich im Text Mining die aus dem Information Retrieval bekannte Cosine Similarity an [BaRi99]. Wenn d j ( w1, j , w2, j , , wt , j ) dem Dokumentenvektor entspricht, dann ist die Ähnlichkeit zwischen Dokument dj und Dokument dk folgendermaßen definiert: t
sim(dj,dk)
¦w
d j dk d j dk
i, j
wi , k
wi2, j u
¦
i 1
t
¦
i 1
t i 1
wi2,k
Dieses Verfahren eignet sich besonders für das Text Mining, da hier ausschließlich metrische Attribute vorliegen und die Berechnung schnell und einfach durchzuführen ist. Das fehlende Modell stellt bei der Dokumentenklassifikation keinen Nachteil dar. 3.1.4
Support Vector Machines
Ein weiteres Verfahren zur Klassifikation von Textdokumenten bieten die Support Vector Machines. Diese basieren auf dem Structural-Risk-Minimation-Prinzip [Vapn95] der Computational Learning Theory. In ihrer Grundform werden Support Vector Machines für binäre Klassifikation eingesetzt. Es existiert jedoch eine Reihe von Abwandlungen, die die Definition mehrerer Klassen erlauben. Es werden lineare Grenzfunktionen erlernt; das Ziel ist, in einem n-dimensionalen Raum eine Hyperebene zu finden, welche den Raum anhand der Klassenzuordnung in zwei Hälften teilt. 3.1.5
Bewertung
Über die Eignung bzw. Performance von Klassifikationsverfahren kann man keine allgemeinen Aussagen treffen, diese ist grundsätzlich abhängig vom Datenbestand [MiST94]. Betrachtet man die Charakteristika des Datensets, kann die Anzahl der Klassifikationsverfahren eingeschränkt werden, um aber eine optimale Performance zu erzielen, sollten immer mehrere Verfahren evaluiert werden. Bei der Evaluierung von Klassifikatoren wird deren Effektivität betrachtet, sprich die Fähigkeit, die richtige Klassifizierungsentscheidung zu treffen. Üblicherweise werden Performance-Kennzahlen wie Genauigkeit (Anteil der korrekt klassifizierten Instanzen) und die Fehlerrate (Anteil der falsch klassifizierten Instanzen) für die Evaluierung herangezogen. Bei der Textkategorisierung werden hingegen oft auch die aus dem Information Retrieval übernommenen Kennzahlen Precision und Recall als Entscheidungskriterium berechnet. Die Precision gibt den Anteil
1318
T. Priebe, C. Kiss, J. Kolter
der relevanten Dokumente unter den gefundenen Dokumenten an, der Recall gibt den Anteil der relevanten Dokumente an, die gefunden wurden [BaRi99]. Es gab bereits zahlreiche Untersuchungen über die Eignung von Klassifikationsverfahren für Text Mining. Das meist verwendete Datenset für die Evaluierung ist der Reuters 21578 Textkorpus, bestehend aus Berichten aus verschiedenen Bereichen der Wirtschaft (siehe auch in Abschnitt 7). Sebastiani [Seba02] hat einen Vergleich von fünf Benchmarks aufgestellt. Im Ergebnis schneiden Naive Bayes und Entscheidungsbäume schlecht ab. Die Support Vector Machines und der KNearest-Neighbor-Algorithmus sind unter den Gewinnern. Ebenfalls sehr gute Ergebnisse erzielt der Boosting-Algorithmus, welcher eine Kombination von verschiedenen Verfahren darstellt.
3.2
Clustering von Dokumenten
Ziel des Clustering ist die Aufteilung von Eingabedaten in dynamisch erzeugte Gruppen (Cluster), so dass die Datensätze innerhalb einer Gruppe sehr ähnlich und die Attribute unterschiedlicher Gruppen möglichst verschieden sind [WiFr00]. Das Clustering ist ein unüberwachtes Lernverfahren, bei dem keine Klassen vorgeben sind. Clustering-Algorithmen können im Text Mining ihre Anwendung finden, indem ähnliche Dokumente in Gruppen aufgeteilt werden. Die große Anzahl an Attributen führt hier zu keiner Einschränkung, da ClusteringAlgorithmen (beispielsweise K-Means) wie instanzbasierte Klassifikationsverfahren auf Ähnlichkeits- bzw. Distanzfunktionen beruhen. Es bietet sich also auch hier die Verwendung von aus dem Information Retrieval bekannten Maßen wie der Cosine Similarity an.
3.3
Termbasierte Abhängigkeitsanalyse
Mit der Abhängigkeitsanalyse sollen Abhängigkeiten zwischen Attributen identifiziert werden. Es können einzelne Attribute oder auch eine Kombination von Attributen prognostiziert werden [WiFr00]. Klassisches Beispiel für eine Abhängigkeitsanalyse im Data Mining ist die Warenkorbanalyse (d.h. es werden Produkte gefunden, die häufig gemeinsam gekauft werden). Im Text Mining bedeutet dies, dass Wörter bzw. Terme gefunden werden, die häufig gemeinsam in Dokumenten erscheinen. Mithilfe der Abhängigkeitsanalyse lassen sich daher beispielsweise im Rahmen der Vorverarbeitung Synonyme und Hypernyme (Oberbegriffe) erkennen. Interessanter als Zusammenhänge zwischen beliebigen Wörtern sind jedoch oft Zusammenhänge zwischen bestimmten Entitäten, wie Personen- oder Firmennamen. Diese müssen dann zunächst mit Hilfe von Information-Extraction-
Semiautomatische Annotation von Textdokumenten mit semantischen Metadaten
1319
Techniken (s.u.) extrahiert werden. Dadurch reduziert sich dann auch die Anzahl der Attribute.
3.4
Information Extraction
Information Extraction ist eine relativ junge Disziplin und wird zum Teil als Teildisziplin des Text Mining gesehen. Jedoch steht hier die Extraktion und Strukturierung von bestimmten Textsegmenten im Vordergrund, während Text Mining die Aufgabe hat, Muster zu erkennen bzw. neues Wissen zu generieren. Während ein Text im klassischen Text Mining auf eine Menge von Worten (bzw. seinen Dokumentenvektor) reduziert werden kann, müssen bei Information Extraction im Rahmen der Vorverarbeitung sprachwissenschaftliche Verfahren herangezogen werden, beispielsweise das Part of Speech Tagging (Erkennen von Worttypen, wie Substantiv, Verb, etc.) und die syntaktische Analyse (Erkennen von Satzstrukturen: Subjekt, Prädikat, Objekt, etc.). Man unterscheidet Entity, Attribute, Fact und Event Extraction. Eine Entität ist ein Objekt wie z.B. eine Person oder eine Organisation. Da solche Objekte meist einen Namen tragen, den es zu extrahieren gilt, wird auch von Named Entity Extraction gesprochen. Heutige Extraktionssysteme leisten die Extraktion von (benannten) Entitäten bereits mit einer akzeptablen Zuverlässigkeit, die Verfahren sind jedoch sehr aufwendig. Scheffler et al. [ScDW01] beschreiben beispielsweise einen auf Hidden Markov Models basierenden Ansatz. Bei den anderen komplexeren Elementen (insbesondere Fakten und Ereignissen) ist jedoch noch einiges an Forschungsarbeit zu leisten.
3.5
Automatische Textzusammenfassung
Ein weiteres mit Text Mining und Information Extraction verwandtes Gebiet ist die automatische Zusammenfassung von Texten. Dabei soll eine Art Abstract erzeugt werden, der alle wichtigen Informationen des Originaldokuments enthält, jedoch wesentlich kürzer ist. Man unterscheidet zwischen statistischen und sprachwissenschaftlichen Verfahren. Statistische Verfahren orientieren sich an einer strukturierten Repräsentation der Dokumente, beispielsweise dem Vektorraummodell. Ein Ansatz ist hier die schrittweise Suche nach ausdrucksstarken Wörtern anhand der Weighted Term Frequency. Zunächst wird dazu das Dokument in mehrere Abschnitte (z.B. Absätze oder Sätze) aufgeteilt. Anschließend wird für alle Wörter eines Textes die Weighted Term Frequency ermittelt und abschnittsweise aufaddiert. Für die Textzusammenfassung werden diejenigen Abschnitte mit der höchsten Gesamtwertung extrahiert.
1320
T. Priebe, C. Kiss, J. Kolter
In sprachwissenschaftlichen Verfahren (z.B. [BaEl97]) wird nicht nur das Vorkommen einzelner Terme im Dokument untersucht, hier werden auch Wortbedeutungen und Sinnzusammenhänge betrachtet. Bei statistischen Verfahren besteht die Gefahr, dass semantisch zusammengehörige Sätze auseinander gerissen werden und die Zusammenfassung somit unverständlich wird. Dafür ist die Verarbeitungsgeschwindigkeit schneller und die Umsetzung einfacher. Sprachwissenschaftliche Verfahren sind sehr aufwendig, da sie wie Information Extraction komplexere Vorverarbeitungsschritte voraussetzen.
4
Ansätze zur automatischen Metadatengenerierung
Im Folgenden soll nun auf eine automatische Generierung der einzelnen DublinCore-Metadatenelemente aus Abschnitt 2.1 eingegangen werden. Zunächst erfolgt ein Blick auf Elemente, deren Generierung keine Text-Mining- oder InformationExtraction-Techniken erfordert: Das Element Title bestimmt die Überschrift bzw. den Titel eines Dokumentes. Dieser könnte der ersten Zeile oder dem Dateinamen entnommen werden, oder es können Layoutmerkmale, z.B. HTML Tags, herangezogen werden. Auch die Elemente Creator und Date können automatisch generiert werden, indem der Benutzername bzw. das Erstellungsdatum vom Betriebssystem abgefragt werden. Möglicherweise sind diese Informationen auch bereits in strukturierter Form im Dokument (beispielsweise bei Microsoft Office) gespeichert. Das Dublin-CoreElement Format, welches den Medientyp (MIME Type) des Dokumentes beschreibt, kann üblicherweise über die Dateierweiterung oder eine Kennung im Dateikopf erkannt werden. Die Bestimmung der Sprache bzw. des Elementes Language ist für die Textvorverarbeitung ohnehin notwendig. Dies kann durch einen Vergleich der Wörter des Dokumentes mit den Vokabularen der verschiedenen Sprachen erfolgen. Grefenstette und Nioche [GrNi00] beschreiben ein Verfahren, bei welchem das Dokument nach häufig auftretenden Stoppwörtern der einzelnen Sprachen untersucht wird. Das Dublin-Core-Element Description soll den Inhalt einer Ressource, in Form eines Inhaltsverzeichnisses oder eines Abstracts, beschreiben. Da das zu annotierende Dokument bereits in der Repräsentationsform eines Dokumentenvektors vorliegt, bieten sich hierfür statistische Verfahren der automatischen Textzusammenfassung an (siehe Abschnitt 3.5). Die Werte von Subject und Coverage greifen auf ein kontrolliertes Vokabular zurück, welches neben weiteren Kodierungsschemata eine Taxonomie oder eine Ontologie sein kann. In den nächsten Abschnitten wird hierzu daher auf die automati-
Semiautomatische Annotation von Textdokumenten mit semantischen Metadaten
1321
sche Einordnung in eine Taxonomie und die Verlinkung mit Elementen einer Ontologie eingegangen.
4.1
Einordnung von Dokumenten in eine Taxonomie
Wie bereits in Abschnitt 2.2 beschrieben, besteht eine Taxonomie aus einer hierarchisch geordneten Menge von Kategorien. Eine vorhandene Taxonomie kann als Kodierungsschema für das Dublin-Core-Element Subject dienen, welches das Thema eines Dokumentes bestimmt. Eine Taxonomie muss dabei nicht vollständig manuell erstellt werden. Der Prozess der Aufstellung einer Taxonomie kann durch Clustering-Methoden des Text Minings unterstützt werden. Hier bieten sich insbesondere hierarchische Clustering-Verfahren an. Bei der automatischen Einordnung eines Textdokumentes in eine Taxonomie handelt es sich um eine Textkategorisierung. Jedes Element der Taxonomie stellt hierbei eine Klasse dar. Die Taxonomie eines größeren Unternehmens wird dabei aus hunderten bis tausenden Kategorien bestehen. Ein Dokument wird jedoch, wie bereits ausgeführt, tendenziell nur einer oder wenigen Kategorien zugeordnet sein. Es erscheint also sinnvoll, eine single-label Kategorisierung durchzuführen. Die konkrete Problemstellung hat folgende Eigenschaften: x hohe Anzahl an Klassen x hohe Anzahl an Attributen x die Klassen sind nominal x die Attribute sind metrisch Nach den Ergebnissen aus 3.1 bieten sich instanzbasierte Verfahren und mehrere Klassen unterstützende Erweiterungen der Support Vector Machines an. Ein Problem bleibt jedoch die hohe Anzahl der Klassen. Um die Anzahl der Klassen zu reduzieren und so die Performance der Klassifikationsverfahren zu verbessern, könnte man sich die hierarchische Struktur der Taxonomie zunutze machen und bei der Klassifikation hierarchisch vorgehen. Anstatt dass jedes Element der Taxonomie eine Klasse bildet, sollen nur noch die Elemente einer Hierarchieebene als Klassen betrachtet werden. Bei der Klassifikation wird iterativ vorgegangen; sobald die geeignete Klasse (Kategorie) in einer Hierarchieebene gefunden wurde, werden die Kategorien innerhalb dieser Klasse betrachtet und die Klassifikation wird erneut durchgeführt. Die Vertiefung entlang der Hierarchiestruktur erfolgt so lange, bis ein weiterer Detaillierungsgrad keine Verbesserung der Performance darstellt oder die Konfidenz der Klassifikation unter einen bestimmten Wert sinkt. Abbildung 2 zeigt ein Beispiel für eine solche hierarchische Klassifikation. Die grau schattierten Elemente stellen die Klassen dar.
1322
T. Priebe, C. Kiss, J. Kolter
Diese Vorgehensweise sollte die Genauigkeit der Klassifikation wesentlich erhöhen, da bei jeder Iteration nur die relevanten Subklassen betrachtet werden. Allerdings besteht die Gefahr, dass durch einen Fehler bei der Klassifizierung am Anfang dieser Fehler mitgezogen wird und die richtige Klasse nicht mehr identifiziert werden kann. Die empirische Evaluation einer hierarchischen Klassifikation zur Einordnung in eine Taxonomie steht noch aus. Top
Sales
South
New Orleans
Distribution
North West
Memphis
Marketing
Electronics
Audio
Comfort
Travel
Gadgets
Klassifikation I Ergebnis: Marketing Klassifikation II Ergebnis: Electronics Klassifikation III Ergebnis: Comfort
?
Abbildung 2: Hierarchische Klassifikation zur Einordung in eine Taxonomie
4.2
Verlinkung mit Elementen einer Ontologie
In diesem Abschnitt sollen Wege zur automatischen Erstellung des Dublin-CoreElements Coverage untersucht werden. Das Element beschreibt laut Definition den Umfang des Inhalts einer Ressource. Der Umfang wird durch eine Menge von Objekten bzw. Entitäten bestimmt, die im betrachteten Dokument vorkommen. Existiert kein Verzeichnis von möglichen Objekten (beispielsweise in Form einer Ontologie) bietet sich daher die Extraktion von Entitäten aus dem Gebiet der Information Extraction an (siehe Abschnitt 3.4). Hierzu kann ein Name Recognizer erstellt werden, der in einem zu annotierenden Dokument die entsprechenden Begriffe erkennt und extrahiert. Die Verfahren sind jedoch sehr aufwendig und fehleranfällig. Es ist daher anzuraten, als kontrolliertes Vokabular für Coverage eine Unternehmensontologie zu verwenden (siehe Abschnitt 2.2). Die Erstellung einer Ontologie kann auch semiautomatisch erfolgen. Maedche [Maed02] beschreibt Ansätze, die semantische Informationen zur Erstellung einer Ontologie extrahieren. Dazu werden ebenfalls Text-Mining-Techniken verwendet. So kann beispielsweise eine Abhängigkeitsanalyse semantische Zusammenhänge zwischen Termen aufdecken [PaBe03]. Weiterhin können die genannten Verfahren der Information Extraction verwendet werden, um eine Ontologie zu erstellen oder zu erweitern. Im Unter-
Semiautomatische Annotation von Textdokumenten mit semantischen Metadaten
1323
nehmenskontext ist es jedoch oft praktikabler, eine Ontologie aus der Struktur und dem Inhalt existierender Datenbanken oder einem Data Warehouse zu erstellen, in dem die für das Unternehmen relevanten Objekte (Produkte, Abteilungen, etc.) in der Regel erfasst sind. Auf diese Weise entsteht wie bei der Generierung von Subject ein kontrolliertes Vokabular, das jedoch deutlich mehr Begriffe enthält. In einer Unternehmensontologie können unter Umständen mehrere tausende Instanzen enthalten sein. Ein weiteres Merkmal von Coverage ist, dass einem Dokument üblicherweise deutlich mehr als ein Element aus der Ontologie zugewiesen werden kann. Es gilt zu untersuchen, ob unter diesen Bedingungen ebenfalls Verfahren der automatischen Textkategorisierung geeignet sind. Die Problemstellung hat folgende Eigenschaften: x sehr hohe Anzahl an Klassen x hohe Anzahl an Attributen x die Attribute sind metrisch x Ergebnis können beliebig viele Klassen sein Es handelt sich also um eine multi-label Kategorisierung mit sehr vielen Klassen. Will man hierfür Klassifikationsverfahren verwenden, muss für jede einzelne Klasse ein eigener binärer Klassifikator gebildet werden. Dabei entscheidet jeder Klassifikator, ob ein Dokument ein bestimmtes Element besitzt oder nicht; es werden also jeweils nur die Klassen true und false unterschieden. Dem Inhalt von Coverage werden anschließend die positiv klassifizierten Elemente zugewiesen. Für eine binäre Klassifikation sind von den in Abschnitt 3.1 genannten Verfahren die Support Vector Machines besonders geeignet. Zusätzlich können die binär logistische Regression und die Diskriminanzanalyse herangezogen werden. Diese sind statistische Verfahren, welche ähnlich wie die Support Vector Machines mittels einer Hyperebene versuchen, die zwei Klassen best möglich zu teilen. Fishers lineare Diskriminanzanalyse optimiert eine quadratische Kostenfunktion während die logistische Regression den Likelihood maximiert. Da die Diskrimanzanalyse mit nominalen Attributen arbeitet, die logistische Regression hingegen mit metrischen, wäre die binär logistische Regression zu wählen. Diese hat auch bei vielen Klassifikationsvergleichen sehr gut abgeschnitten [KiBi04, MiST94].
5
Semiautomatische Annotation in INWISS
Wissensportale leisten einen wichtigen Beitrag zum Wissensmanagement eines Unternehmens. Unter Verwendung von Web-Technologien bieten sie einen einheitlichen, zentralen Zugriff auf verschiedenste Arten von Informationen. Sie stel-
1324
T. Priebe, C. Kiss, J. Kolter
len zum einen Content- und Dokumenten-Management-Funktionalität, sowie Suchmechanismen zur Verfügung, integrieren zusätzlich aber auch externe Anwendungen, wie ERP- und CRM-Systeme, oder ein OLAP-System zum Zugriff auf Data-Warehouse-Daten. Dies geschieht durch Zusammenfassung mehrerer Portalkomponenten (sog. Portlets) auf einer einzelnen Portal-Webseite. Heutige Portalsysteme bieten jedoch keine oder nur eingeschränkte Interaktion zwischen den Portlets. In [PrPe03] wurde daher ein kontextbasierter Integrationsansatz für Wissensportale entwickelt und im Rahmen des Wissensportalsystems INWISS9 prototypisch implementiert. Dieser basiert auf einem Kommunikationsbus in Form eines Publish/Subscribe-Mechanismus, über den Portlets den aktuellen Benutzerkontext austauschen können. So werden beispielsweise durch die Navigation in einem OLAP-Bericht ausgelöste proaktive (implizite) Suchen in einer Dokumentenbasis möglich. Neben der Portlet-Integration beinhaltet der Prototyp einen unscharfen metadatenbasierten Suchmechanismus [PrSP04] und ein Sicherheitsmodul mit einem metadatenbasierten Zugriffskontrollmodell [PMDP04]. Add Document Title:
The Freeplay(TM) Solar Radio
Creator:
Tina Techwriter
Date:
Type:
Product Brochure
Format:
1999-01-14 PDF
Language: English (US) Description: The Freeplay Solar Radio...
Pick from Taxonomy...
Subject: Marketing / Electronics / Audio
Top Sales Distribution Marketing Electronics Audio Comfort
>> > = c(replacing)
(2)
Using this assumption we calculate the worst case for the cost of a transformation from A to B by replacing all object parts of A with object parts of B, then deleting the rest of object parts of A, and inserting additional object parts of B. The worst case cost is then used to normalize the edit distance. The overall algorithm looks as follows: 1. Determine parts (attributes/relationships) of A 2. Determine parts of B 3. Compute number of transformation steps (replace, insert, delete) from A to B 4. Compute worst case cost for the procedure 5. Relative edit distance = (number of transformation steps) / (worst case costs) Full-text Retrieval Method (tfidf) The probably most often used similarity measure comes from the information retrieval literature and compares two documents by using a weighted histogram of the words they contain [BaRi99; SaMc83]. Specifically, the “term frequency and inverse document frequency” weighing scheme (short tfidf) works as follows: it counts the frequency of occurrence of a term in a document in relation to the word’s occurrence frequency in a whole corpus of documents. The resulting word counts are then used to compose a weighted term vector describing the document. The similarity between the two documents is then computed as the cosine between their respective weighted term vectors. In our case we created a (text) document for each object in the ontology. Every document contained the object name, its attributes, and a brief description of its relationships (similar to the descriptions shown in Figure 1). We then took the cosine between the tfidf-weighed word vectors generated from each of the object-describing documents computed by an offthe-shelf algorithm [McCa96] as the similarity.
How Similar Is It? Towards Personalized Similarity Measures for Ontologies
3
1353
Experimental Evaluation
The similarity measures introduced above provide a first catalogue of candidates for an ontology based similarity metric. All of them have been used in some form or another for related problems and, therefore, have the potential of being useful in the semantic-web domain. In order to assess their usefulness, however, we need to evaluate them against a “gold standard” of object similarity.1 To that end we designed a detailed experiment in which human subjects were asked to assess the similarity between two objects. As Budanitsky and Hirst [BuHi01] found in a study comparing WordNet similarity measures human judgments give the best assessments of the “goodness” of a measure, a finding supported by Blok et al. [Blo+02]. This section will describe the experimental setup and the statistical evaluation of the results setting the stage for a discussion of the results in the next section. Study Design To establish our gold standard we first needed a suitable experimental setup. We found that the experiment described in Miller and Charles [MiCh91], which relies on human judgments, has become the benchmark in determining the similarity of words in NLP research (see [BuHi01; JaSz01; JiCo97; Lin98; Res95; Res99]). We reused their overall experimental design and adapted it to be usable for complex objects in an ontology as follows: First, we had to find a number of suitable object pairs from a large ontology. Then, we had to define an appropriate order in which those pairs were going to be presented to the subjects, who assessed the similarity of the pairs on a scale between one (totally dissimilar) and five (identical). After carefully testing the overall survey with some test subjects and complementing it with demographic questions, we called on three groups of subjects to fill out the survey. Last but not least, we carefully evaluated the answers statistically. We will now visit each of these steps in detail. As the underlying ontology we chose the MIT Process Handbook ontology [Mal+03; Mal+99], which contains over 5000 organizational processes and has been carefully developed for over 10 years. The ontology has a number of advantages. Each process in the ontology has a variety of relationships to attributes, subprocesses, exceptions, etc. and also provides a detailed textual description, providing the subjects with multiple types of information about the processes. Furthermore, the ontology has been used in other semantic-web projects [GrPo02; KlBe04] and treats a domain of interest to researchers in the semantic-web field (services and their description). Finally, note that the subjects’ ability to relate to 1
Alternatively, we could have evaluated the measures in a realistic application for similarity measures, which would go beyond this paper’s scope. The analysis can be found in [Ber+04].
1354
A. Bernstein, E. Kaufmann, C. Bürki, M. Klein
the ontology content is crucial for the success of the experiment. Lord et. al [Lor+03], for example, had to forgo an evaluation with human subjects as experts in their application domain (biology) are difficult to find. Consequently, the Process Handbook was especially suitable, as it treats a domain (business processes/services) that most people can relate to. Unfortunately, the Process Handbook is sometimes confusing in that it, like WordNet, doesn’t distinguish between instances and classes. From the Process Handbook we selected 40 processes that we thought would be understandable to a general audience and combined them into pairs fulfilling the following criteria: x At least one pair should be in close vicinity in the ontology-graph. x At least one pair should be far apart in the ontology-graph. x At least one pair should consist of a process and its descendant/specialization. x One process was paired with itself. The rest of the processes were paired in a way such that the processes’ name, description, attributes, or relations (e.g., parts) featured some similarities. Each pair was then turned into a web-page using the on-line survey tool Opinio™, which offered a comfortable graphical user interface and permitted an accurate definition of survey parameters. As can be seen in Figure 1 the subjects were asked to assess the similarity between two processes on a scale from 1 (no similarity) to 5 (identical). With a simple drop-down list the users could specify how they had made the assessment: 1. by process name, 2. by process description, 3. by process parts/relationships, 4. a combination of 1-3, and 5. using other assessment method. This question should capture in respect to which features of the object the similarity was observed by the subjects – a notion that similarity researchers in the social sciences have found to be central [GeMe98]. Finally, the subjects could add some comments on their assessment. When participating, a subject was presented with a carefully arranged step-by-step introduction and was given the opportunity to assess a simple example. At the end of her assessment, she was offered to finish the survey or continue assessing a second group of ten pairs. When finishing the survey, the subjects where presented with a final page of questions asking some demographic questions such as age group (e.g., 10-19, 20-29, …), education (high-school, bachelor, …), knowledge of English (none, basic, good, …), and whether they had any knowledge in computer science (yes/no) or linguistics (yes/no). As usual we piloted it with test candidates.
How Similar Is It? Towards Personalized Similarity Measures for Ontologies
1355
Figure 1: A sample survey page showing the two processes to compare
We deliberately recruited our subjects from three different groups. The first group consisted of the staff, researchers and faculty of the computer science department. The second group was chosen from the computer science students association. And the last group was made up from computer linguists (both students and staff). From each group an approximately equal number of subjects participated totaling in 50 survey participants, larger than any other study we found in the literature. First Results/Data Analysis To assess the quality of the similarity algorithms we compared their assessments with those of the subjects. This turned out to be a non-trivial task. First, while the algorithms provided nominal predictions the subjects’ assessments where on an ordinal scale. Second, the prediction of some algorithms was non-linear complicating their comparison using traditional correlations. We, therefore, chose to compare each pair of assessments (including both the subjects’ assessments and the algorithms’ predictions) using the corrected Spearman correlation coefficient rs, which compares bindings (corrected ranks) of assessments rather than absolute values addressing both issues [Sach02]. This coefficient compares two paired sets by assigning each number a rank with respect to its set and provides a number rs
1356
A. Bernstein, E. Kaufmann, C. Bürki, M. Klein
between -1 and 1, where 1 represents perfectly correlated sets, -1 inversely correlated sets, and 0 completely uncorrelated sets. Typically values of rs t 0.5, respectively rs d -0.5, are taken as some correlation and values of rs t 0.7, respectively rs d -0.7, as good correlations. In other words, we took each series of similarity assessment (by either of the 50 human subjects or 5 algorithms) and compared it to every other assessment using the corrected Spearman rank correlation. The resulting correlation coefficients are represented in Figure 2 as grey-scales, in which the subjects are numbered from 2 to 51 and the algorithms have alphabetic identifiers (A, …, F). At a first glance the result looks rather abysmal. A large part of the assessments don’t seem to correlate at the rs t 0.5 (respectively d -0.5) level. After careful consideration, however, we find the following interesting results in the data. First, in general the algorithms seem to correlate no better or worse with the subjects’ predictions than the subjects do among themselves. It even turns out that the correlations of the subjects among each other are significantly similar to the correlations of each algorithm with the human subjects’ assessments (as shown by a t-test at level below 0.005 for all but one algorithm; below 0.9 for the information theory measure). Consequently, given the problematic correlation between the subjects’ answers, the algorithms mostly perform significantly similar to “yet another subject,” potentially (as we will see below) providing a good basis to mimic the human similarity measure. Second, the weighted edit distance (A), simple edit distance (B), and vector space (C) predictions seem to correlate well with each other as well as (slightly less consistently) the information theory (D), ontology distance (E), and full-text (F) algorithms. After further consideration, we find that those two groups are indicating clusters in the answers of the subjects. The first cluster, identified by good correlation with either edit distance measures, is shown in Figure 3a. With few exceptions those subjects correlate above the rs = 0.5 threshold. The second cluster, shown in Figure 3b, shows a similar inner cohesion. Consequently, the subjects can be divided into clusters each showing a very high correlation with some of the measures.
How Similar Is It? Towards Personalized Similarity Measures for Ontologies
1357
Figure 2: Grey-scale Spearman correlation matrix between all subjects (with numerical identifiers) and (right of the boxed line) the algorithms (with alphabetic identifiers). The fields are colored white for absolute(rs) < 0.5, grey/yellow for 0.5 d absolute(rs) < 0.7, and black for 0.7 d absolute(rs).
This is an important empirical finding: it shows that a general similarity measure reflecting human similarity assessments can hardly be found. Much more widely applicable similarity measures will have to be personalized to the user’s similarity assessment style. While one might argue that those personalized measures are not
1358
A. Bernstein, E. Kaufmann, C. Bürki, M. Klein
necessary for optimally completing purely computational tasks, they are likely to be more suitable when users are involved. This finding also provides rationale for the recent surge of personalized web search services by companies such as Google™ and Eurekster™.
a)
b) Figure 3: Corrected Spearman rs for a) edit distance based cluster, b) ontology-oriented cluster. Values t 0.5 (or d -0.5) are highlighted yellow/grey; values t 0.7 (or d -0.7) are shown in bold.
Last, we find some interesting results regarding the overall predictive quality of the measures. The two edit distances performed equally, alleviating the need for any type of weighting. The vector space method, so successful in the full-text retrieval domain, performed rather disappointingly throughout. The informationtheoretic method didn’t perform too well. It was mostly equivalent in performance with the ontology distance method. This contradicts the findings from the NLP domain where information theoretic measures outperform the ontology distance [BuHi01; JaSz01; JiCo97; Lin98; Res95; Res99]. One explanation is the difference of the ontology underlying the experiment: the NLP findings based their experiments on WordNet; we used the Process Handbook. This indicates that the quality of a similarity measure seems to be dependent on the ontology – a question definitely deserving further attention in future research. The most consistently per-
How Similar Is It? Towards Personalized Similarity Measures for Ontologies
1359
forming method seems to be the adapted tfidf-measure. We will have to revisit the overall good performance of this measure below. Summary In this section we presented our adaptation of the well established semantic similarity experiment by Miller and Charles [MiCh91]. We asked 50 subjects from three different populations to assess the similarity between carefully chosen process pairs from within the large Process Handbook ontology. When comparing the assessed similarities using the corrected Spearman’s rank correlation we found that (1) the algorithms correlated with the subjects’ assessments to the same extend as the subjects did among themselves, that (2) the algorithms and human assessments could be grouped into cohesive clusters, and (3) we raised the question whether the applicability of a similarity measure is highly ontology dependent, as some measures unexpectedly outperformed others contradicting findings with WordNet.
4
Discussion: Towards a Personalized Similarity Predictor
The survey results provide an interesting foundation for further exploration: we have seen that the algorithmic similarity measures indeed mimic human similarity assessments as long as they belong to the same cluster. While this is a great success in itself it would be interesting to understand the nature of the two major clusters (shown in Figure 3). In this section we will first analyze the nature of the two clusters. Basing on this analysis we will then try to predict cluster membership, which will build the basis for a combined, personalized similarity algorithm. What is the nature of the clusters? The first question we will need to address is whether there seems to be a theoretical justification for the two arising clusters. Indeed, the first group of measures (the two edit distances and the vector model) largely focuses on the object’s parts, i.e., its attributes and relationships (especially the subprocesses). The correlation between the two edit distances is to be expected; essentially they only differ in the weights. The vector space model is highly similar in that it builds a vector from the parts and uses the similarity between those vectors to assess similarity. Two measures of the second group of measures, the information-theoretic approach and the ontology distance are oriented towards a process’s location in the ontology: the information-theoretic approach through its reliance on the processes’ descendants, which are likely to be more common for closer objects, and the ontol-
1360
A. Bernstein, E. Kaufmann, C. Bürki, M. Klein
ogy distance by the direct count of the closeness in the ontology. Also recall that these two measures did correlate in the NLP experiments. Assuming that the Process Handbook ontology is well constructed and, therefore, reflects the “general” mental ontological model of the object/process pairs we chose this would lead to the following conclusions: Subjects who mainly assessed the similarity by the processes’ composition correlate with the first group. Subjects who mainly assessed the similarity using a (potentially implicit) ontology that possibly somewhat reflected the Process Handbook largely correlate with the second group. But where does this explanation leave the full-text tfidf based method? As we can see in Figure 3, this measure mostly correlated with the second group and was the most consistently performing method. The nature of its good performance is likely to be found in its construction. Recall that this method based on a full-text description of the name of the object, all its attributes and their values, as well as all its relationships including the name of the objects participating in that relationship. In addition, it is useful to note that all the attributes (including the object’s description) and parts are inherited down the ontology. Therefore, they are likely to be similar for an object and its descendant unless they were changed by the ontology designers (who often rely on the ontology’s inheritance feature). As such this measure somehow combined the parts-oriented nature of the first cluster with the ontology-oriented nature of the second one. What about the subjects that don’t seem to correlate with either cluster? We hypothesize that there are three explanations for those. First, they could be people who often changed their assessment method within the experiment. Alternatively, they could be people who mainly based their assessment on the processes’ names – an approach for which we didn’t have a similarity measure. Finally, there were some subjects who obviously only gave serious answers to the first few questions and then clicked through to the end of the survey. Can we predict cluster membership? The average (absolute) Spearman correlations of the algorithms, between 0.026 (for the vector measure) and 0.485 (for the tfidf method), are low, largely because of the clustering of the subjects. If we could predict a subject’s cluster membership, then we could just choose the best performing algorithm in that cluster and use that as the automated similarity measure. This would result in a combined, personalized similarity measure. To assess whether this approach would actually work we first manually determined each subject’s cluster-membership. For each subject we then chose the algorithm that performed best within the predicted cluster. The result was an average correlation of 0.689, a highly significant result at the 5% level. This motivated us to try to automatically predict a subject’s cluster-membership. To that end we used the off-the-shelf decision tree learner J48, the Weka [WiFr00]
How Similar Is It? Towards Personalized Similarity Measures for Ontologies
1361
implementation of C4.5 machine learning algorithm [Quin93]. As an input to the algorithm we used the (rather limited) demographic information gathered at the end of the survey. We complemented this information with the subjects’ selfreported explanations of how they performed the similarity assessments. We then evaluated the quality of the algorithm’s cluster-membership-prediction using a leave-one-out approach, which assesses how well a subject’s cluster-membership could be predicted, given that the membership of all other subjects is known – a realistic setup for our problem. Even though our demographic data was so limited J48 could predict the cluster membership with an astonishing 70% accuracy. Furthermore, choosing the best performing algorithm in the J48-predicted cluster resulted in an average Spearman rank correlation of 0.624 – a highly significant figure (at the 5% level), only slightly worse than what we got with the manual cluster prediction. Confirming our hypothesizing about the nature of the clusters above, the algorithm found that the most discriminating feature for predicting a subject’s cluster membership was whether (s)he had reported more than three times that (s)he had used the processes’ parts as the major guiding principle when assessing similarity. Summarizing, we found that the clusters indeed seem to be the result of different human similarity judgment processes. This indicates, again, that we need to know more about human understanding of complex objects and ontologies in order to be able to devise appropriate algorithms for human-computer interaction. Furthermore, we showed that the use of a simple machine learning algorithm can provide the means for deciding which of the presented algorithms to use, which could be used to build a highly accurate and personalizable similarity assessment algorithm – the goal we set ourselves at the onset of this paper. The primary limitation of our evaluation is its restriction to one ontology. Assessing the generalizability of our findings requires the replication and augmentation of our experiment with other large ontologies. This is especially important as we found that methods that were found to be very predictive in other ontologies (such as WordNet) performed rather poor in our ontology. As mentioned above, however, finding a large ontology to which subjects can relate to is a difficult task, which we intend to undertake in a future study. Furthermore, we are convinced that additional work is needed to confirm the hypotheses regarding the nature of the clusters. Other ontologies could even give rise to additional clusters. This would definitely require researchers to gather more data about the subjects’ assessment process. Last, a few subjects reported that they changed their assessment method during the test. How would an algorithm look like that could dynamically predict the similarity method desired for the next use of the retrieval, clustering, or other technique? What type of contextual input information would it require?
1362
5
A. Bernstein, E. Kaufmann, C. Bürki, M. Klein
Related Work
The NLP literature provides the largest group of related work. Motivated by Resnik’s study [Res95; Res99] a number of papers describe improvements to his information-theoretic measure. Wu and Palmer [WuPa94] focus on the semantic representation of verbs in computer systems and find those measures well applicable in machine translation. Jiang and Conrath [JiCo97] propose a combined edge counting and node based method that outperforms either of the pure approaches. This hints at the usefulness of combined approaches like the cluster-aware one we proposed in the previous section. Budanitsky and Hirst [BuHi01] support our claim that the quality of similarity measures is dependent on the ontology. They mention that differences in the quality of WordNet based assessment algorithms found in various papers can be explained by different versions of WordNet used. Jarmasz and Szpakowicz [JaSz01] empirically support this statement by showing how similarity measures based on the Penguin’s Roget’s Thesaurus of English Word and Phrases Thesaurus outperform those based on WordNet. Addressing this issue Lin [Lin98] tries to find an information-theoretic measure of similarity that is not tied to a particular domain or application and that is less heuristic in nature. The measure is found to outperform Resnik’s similarity algorithm slightly. It does, however, still require a probabilistic model of the application domain, which he gets from parsing a large word corpus. This limitation makes it problematic for smaller ontologies. Note that most of these approaches are focused on the comparison of nouns, limiting their generalizability to complex objects or even hierarchies of verbs (which the Process Handbook is in some sense). Di Noia et al. [DiN+03] compare a human based ranking (20 subjects) of 12 items with the returns of an ontology based retrieval engine, which attains imprecise matching by relaxing query constraints. This is similar to using an ontologized edit distance for ranking retrieved objects. They find the automated rankings to show “...good correspondence…” to the average human subject’s assessment and refer to ongoing large-scale experiments for further details. Their work differs from ours in the focus on ranking retrieved objects rather than similarity measures in general. Furthermore, they do not compare their ranking method with any other approaches. Using an experiment with 37 subjects Rodriguez and Egenhofer [RoEg03] find that feature matching is important for detecting the similarity of objects across ontologies relaxing the requirement for a single ontology. Their feature matching algorithm uses a weighted string matching operation of the words describing the feature, which is similar to a (specially) weighted string-oriented edit distance metric. Their study as well as the work of Wu and Palmer shows the potential that similarity measures have for supporting translations between ontologies.
How Similar Is It? Towards Personalized Similarity Measures for Ontologies
1363
Focusing on the bioinformatics application domain, Lord et al. [Lor+03] compare sequence similarity of proteins with Resnik’s information-content based similarity operating on protein annotations. They found a good correlation between the two, but did not perform any subject based experiment due to the difficulty of obtaining domain-qualified subjects. Ouzzani and Bouguettaya’s [OuBo04] propose and implement a generic approach for optimally querying web services using exact, overlapping, partial, as well as combined partial and overlapping matches on their input/output parameters. This is similar to a specially weighted edit distance matching over those parameters, whose sole use for retrieval has been shown to be problematic [KlBe04]. They don’t report any evaluation of their approach. Andreasen et al. [And+03] discuss different principles for measuring similarity of atomic or compound concepts based on edge based principles extending the simple ontology distance metric we used. They don’t report any evaluation or comparison to other similarity metrics. Summarizing, we can say that we found no study that compared a comparable catalogue of similarity measures using a similar size subject pool as we did. While quite a few papers mention the need for ontology-specific measures, none of them seems to have found person-to-person differences. This could be due to the use of WordNet in most human subjects based experiments, which has been modeled after common sense use of the language opposed to most other ontologies, which are designed by specialists for a particular use.
6
Conclusions
In this paper we argued that similarity measures in ontologies, a central component of techniques such a clustering, data-mining, semantic sense disambiguation, ontology translations, automatic database schema matching, and simple object comparison, deserve more attention. We assembled a catalogue of five algorithms (one of which was presented in two versions) and compared them with an experimentally derived gold standard, which we obtained by surveying 50 human subjects. We found that human predictions had a large variance, but that the algorithms varied with them almost mimicking the subjects. We also found that the users and algorithms could be grouped into cohesive clusters showing that similarity assessments will have to be personalized to attain good results. We then constructed a personalized similarity assessment algorithm that predicts a subject’s cluster membership using a machine learning algorithm providing surprisingly accurate similarity assessments for the subjects in our study. Last, given the difference of our results with the findings reported in the NLP literature, we hypothesized that the prediction quality of similarity assessment algorithms might be ontology dependent.
1364
A. Bernstein, E. Kaufmann, C. Bürki, M. Klein
This study provides a first investigation of similarities in ontologies. Nevertheless, the task of understanding similarity in ontologies is far from over. To that end both technical work on better, feature combining, ontology-adapting, and personalized similarity assessment algorithms as well as behavioral studies exploring people’s understanding of similarity and their use of similarity based features are needed.
7
Acknowledgements
The authors would like to thank the MIT Process Handbook project for making available the data on which the experimental evaluation is based, and the anonymous reviewers for their helpful comments. This work was partially supported by the Swiss National Science Foundation grant 200021-100149/1.
References [And+03] Andreasen, T.; H. Bulskov; Knappe, R.: From Ontology over Similarity to Query Evaluation. 2nd CoLogNET-ElsNET Symposium - Questions and Answers: Theoretical and Applied Perspectives. Amsterdam, Holland, 2003: pp. 39-50. [BaRi99] Baeza-Yates, R.; Ribeiro-Neto, B.: Modern Information Retrieval. ACM Press; Addison-Wesley: New York; Harlow, England; Reading, Mass., 1999. [Ber+04] Bernstein, A.; Kaufmann, E.; Bürki, C.; Klein, M.: Object Similarity in Ontologies: A Foundation for Business Intelligence Systems and High-performance Retrieval. Twenty-Fifth International Conference on Information Systems. Washington, DC, 2004: pp. 11-25. [Blo+02] Blok, S.; Medin, D.; Osherson, D.: Probability from Similarity. AAAI Conference on Commonsense Reasoning. AAAI Press: Stanford, CA, 2002. [BrPa98] Brin, S.; Page, L.: The Anatomy of a Large-Scale Hypertextual Web Search Engine. Seventh International World Wide Web Conference. ACM-Press: Brisbane, Australia, 1998. [BuHi01] Budanitsky, A.; Hirst, G.: Semantic distance in WordNet: An experimental, application-oriented evaluation of five measures. Second meeting of the North American Chapter of the Association for Computational Linguistics (NAACL2001). Pittsburgh, PA, 2001. [DiN+03] Di Noia, T.; Di Sciascio, E.; Donini, F. M.; Mongiello, M.: A System for Principled Matchmaking in an Electronic Marketplace. WWW2003. Budapest, Hungary, 2003.
How Similar Is It? Towards Personalized Similarity Measures for Ontologies
1365
[DzLa01] Dzeroski, S.; Lavrac, N.: Relational Data Mining. Springer: Berlin; New York, 2001. [GeMe98] Gentner, D.; Medina, J.: Similarity and the Development of Rules. Cognition 65, 1998: pp. 263-297. [GrPo02] Grosof, B.; Poon, T. C.: Representing Agent Contracts with Exceptions using XML Rules, Ontologies, and Process Descriptions. International Workshop on Rule Markup Languages for Business Rules on the Semantic Web (held at ISWC2002). Sardinia, Italy, 2002. [JaSz01] Jarmasz, M.; Szpakowicz, S.: Roget's Thesaurus and Semantic Similarity. International Conference on Recent Advances in Natural Language Processing (RANLP2003). Borovets, Bulgaria, 2003. [JiCo97] Jiang, J. J.; Conrath, D. W.: Semantic Similairty Based on Corpus Statistics and Lexical Taxonomy. International Conference on Research on Computational Linguistics (ROCLING X). Taiwan, 1997. [KlBe04] Klein, M.; Bernstein, A.: Towards High-Precision Service Retrieval. IEEE Internet Computing 8, 2004: pp. 30-36. [Lee+93] Lee, J. H.; Kim, M. H.; Lee, Y. J.: Information Retrieval Based on Conceptual Distance in IS-A Hierarchies. Journal of Documentation 49, 1993: pp. 188-207. [Lev66] Levenshtein, V. I.: Binary codes capable of correcting deletions, insertions and reversals. Soviet Physics Doklady 10, 1966: pp. 707-710. [Lin98] Lin, D.: An Information-Theoretic Definition of Similarity. Fifteenth International Conference on Machine Learning (ICML'98). Morgan-Kaufmann: Madison, WI, 1998. [Lor+03] Lord, P. W.; Stevens, R. D.; Brass, A.; Goble, C. A.: Investigating semantic similarity measures across the Gene Ontology: The relationship between sequence and annotation. Bioinformatics 19, 2003: pp. 1275-1283. [Mal+03] Malone, T. W., K. Crowston, and G. A. Herman (Eds.). 2003. Organizing Business Knowledge: The MIT Process Handbook. Cambridge, MA: MIT Press. 2003. [Mal+99] Malone, T. W.; Crowston, K.; Lee, J.; Pentland, B.; Dellarocaset C. et al.: Tools for inventing organizations: Toward a handbook of organizational processes. Management Science 45, 1999: pp. 425-443. [McCa96] McCallum, A. K.: Bow: A toolkit for statistical language modeling, text retrieval, classification and clustering. Unpublished manuscript (available online at: http://www.cs.cmu.edu/~mccallum/bow), 1996, Download: 2004-04-15. [Mil+93] Miller, G. A.; Beckwith, R.; Fellbaum, C.; Gross, D.; Miller, K.: Introduction to WordNet: An On-line Lexical Database. Technical Report. Cognitive Science Laboratory, Princeton University, Princeton, NJ, 1993. [MiCh91] Miller, G. A.; Charles, W. G.: Contextual Correlates of Semantic Similarity. Language and Cognitive Processes 6, 1991: pp. 1-28. [Mit97] Mitchell, T. M.: Machine Learning. McGraw-Hill: New York, 1997.
1366
A. Bernstein, E. Kaufmann, C. Bürki, M. Klein
[OuBo04] Ouzzani, M.; Bouguettaya, A.: Efficient Access to Web Services. IEEE Xplore: Internet Computing 8, 2004: pp. 34-44. [Quin93] Quinlan, J. R.: C4.5: Programs for Machine Learning. Morgan Kaufmann: San Mateo, CA, 1993. [Rad+89] Rada, R.; Mili, H.; Bicknell, E.; Bletner, M.: Development and Application of a Metric on Semantic Nets. IEEE Transactions on Systems, Man, and Cybernetics 19, 1989: pp. 17-30. [Res95] Resnik, P.: Using Information Content to Evaluate Semantic Similarity in a Taxonomy. 14th International Joint Conference on Artificial Intelligence. Montreal 1995: pp. 448-453. [Res99] Resnik, P.: Semantic Similarity in a Taxonomy: An Information-Based Measure and its Application to Problems of Ambiguity in Natural Language. Journal of Artificial Intelligence Research 11, 1999: pp. 95-130. [RoEg03] Rodriguez, M. A.; Egenhofer, M. J.: Determining Semantic Similarity Among Entity Classes from Different Ontologies. IEEE Transactions on Knowledge and Data Engineering 15, 2003: pp. 442-456. [Sach02] Sachs, L.: Angewandte Statistik. Springer: Berlin, 2002. [SaMc83] Salton, G.; McGill, M. J.: Introduction to modern information retrieval. McGraw-Hill: New York, 1983. [WiFr00] Witten, I. H.; Frank, E.: Data Mining: Practical Machine Learning Tools and Techniques with Java Implementations. Morgan-Kaufmann: San Francisco, 2000. [WuPa94] Wu, Z.; Palmer, M.: Verb Semantics and Lexical Selection. 32nd Annual Meeting of the Associations for Computational Linguistics. Las Cruces, New Mexico, 1994: pp. 133-138.
The Impact of Semantic Web Technologies on Job Recruitment Processes Christian Bizer Freie Universität Berlin
Ralf Heese Humboldt-Universität zu Berlin
Malgorzata Mochol, Radoslaw Oldakowski, Robert Tolksdorf Freie Universität Berlin
Rainer Eckstein Humboldt-Universität zu Berlin
Abstract: Using Semantic Web technologies in the domain of online recruitment could substantially increase market transparency, lower the transaction costs for employers, and change the business models of the intermediaries involved. In this paper, we describe how online recruitment processes can be streamlined using Semantic Web technologies. We analyze the realization chances of such a scenario from the technological and business viewpoint. We describe a prototypical implementation of the required technological infrastructure and analyze the potential economic impacts, the interests of the involved parties, and potential changes to their business models. Keywords: Semantic Web, Recruitment Process, Electronic Market, Semantic Matching
1
Introduction
The Internet has already evolved into the primary medium for recruitment and employment processes. Over 53% of recently filled positions in Germany are the result of an online job posting and according to most forecasts this share is likely to increase further [WiMo03]. Despite these achievements, the information flow in the online labour market is far from optimal. A large number of online job portals have sprung up, dividing the online labour market into information islands and making it close to impossi-
1368
C. Bizer, R.Heese, M. Mochol, R. Oldakowski, R. Tolksdorf, R. Eckstein
ble for a job seeker to get an overview of all relevant open positions. Their strong market position, as the prime starting point for job seekers, allows job portals to charge employers high fees for publishing open positions. Due to these costs employers publish their job postings only on a small number of portals, which prevents the offers from reaching all qualified applicants. Employers often receive a large number of applications for an open position, due to the strained situation of the labour market. The costs of manually preselecting potential candidates have risen and employers are searching for means to automate the preselection of candidates. Thus, employers would like to decrease transaction costs for publishing job postings and for preselecting appropriate candidates. Job seekers would profit from increased transparency in the labour market in their search for a matching position. In this paper, we argue that both goals could simultaneously be reached by using Semantic Web technologies within recruitment processes. The basic idea of the Semantic Web [BeHe01, HeBe02] is to extend the Web, in addition to classic HTML pages, with machine-understandable data. The objective is to use the Web like a global distributed knowledge store which can be leveraged by applications to perform tasks automatically. The base technologies for realizing this vision are: x Uniform Resource Identifiers (URIs) as a global identification mechanism for resources and terms used to describe them, x the Resource Description Framework (RDF) as basic data model together with its XML-based serialisation syntax for publishing data on the Web [W3C04a], x the Web Ontology Language (OWL) extending RDF with terms and concepts for expressive knowledge representation [W3C04c]. The development of the Semantic Web is a joined effort of scientific (MIT, Stanford, ILRT etc.) and business institutions (HP, IBM, Nokia etc.) led by the World Wide Web Consortium (W3C). There are substantial research and development investments in semantic technologies by the mayor players of the IT market [QuKa04]. The first large scale prototypes have been deployed in the domains of biomedical and bibliographic data integration [Schr04, QuKa04]. The technological foundations of the Semantic Web are getting mature. What is still unclear are the economic effects the new technology will have on markets and enterprises. With our research, we approach potential impacts of semantic technologies from the business and the technological viewpoint, in order to make predictions about the influence of the new technologies on markets, enterprises, and individuals. Who will benefit? Who will lose his market position or will have to change his business model? This analysis of the participants’ roles combined with the analysis of technological restrictions allows us to project whether a scenario is likely to be realized.
The Impact of Semantic Web Technologies on Job Recruitment Processes
1369
In section 2 of this paper, we describe how online recruitment processes can be streamlined using Semantic Web technologies. We describe our prototypical implementation of the required technological infrastructure in section 3, focusing on the ontologies used, the data integration infrastructure, and on semantic matching services. In section 4, we analyze the potential economic impacts of the realization of the scenario from the perspectives of the different participants.
2
Supporting Recruitment Processes with Semantic Web Technologies
A usual recruitment process seen from the organization’s viewpoint can be divided into four phases: 1. Requirements analysis 2. Publishing the job posting 3. Receiving and preselecting applications 4. Final recruitment decision. In this section, we describe how the different phases can be supported by Semantic Web technologies. The central building blocks of the scenario are the use of controlled vocabularies to annotate job postings and applications, and the use of RDF to include these descriptions into process documents. Figure 1 gives an overview of the process described below. Job Portal
Employer
Job Posting annotated using controlled vocabularies
Semantic Matching of applicant’s profile with job postings
Recommended open positions
Automated Preselection Interview Recommendations
Semantic Matching of applications with position’s requirements
Job Application annotated using controlled vocabularies
Figure 1: Recruitment process using Semantic Web technologies.
Applicant
1370
2.1
C. Bizer, R.Heese, M. Mochol, R. Oldakowski, R. Tolksdorf, R. Eckstein
Requirements Analysis
The requirements for an open position are usually conceived by the operating department together with the human resource department. Nowadays the resulting job posting describing the requirements for an open position is written in free text. The usage of free text limits the machine processability of postings in the later phases of the recruitment process. In contrast to a free text description, the usage of a common "language" in the form of a set of controlled vocabularies for describing the details of a job posting would facilitate communication between all parties involved and would open up the potential of the automation of various tasks within the process.
2.2
Publication of the Job Posting
There are a large number of commercial job portals, like Monster1, JobPilot2 or StepStone3, competing to publish job postings for a publication fee. The different portals represent various audiences and are specialized in certain geographic regions. As publication fees easily add up, employers publish their postings only on a limited number of portals. The second publication channel for job postings is the employer’s own website. Publishing postings on the corporate website is cheap but reaches only a very limited audience, because the indexing capabilities of current search engines like Google are too imprecise to support directed searches for open positions. In order to improve market transparency several public bodies like the German Federal Employment Office (BA)4 and the Swedish National Labour Market Administration (AMS)5 have started projects to integrate open positions in a central database. In both projects, participating employers use terms from a controlled vocabulary to categorize their postings and send them to the central database using variations of the HR-XML6 data format. The collected postings are published through a central portal and are forwarded to commercially run job portals. The problem with these projects is that the whole market depends on one central database - an approach to which many market participants object and which can be very error-prone as experience from the German project shows [Cross03]. Using Semantic Web Technologies to distribute job postings would increase market transparency together with avoiding the bottleneck of a central database. Or1 2 3 4 5 6
www.monster.com www.jobpilot.com www.stepstone. com www.arbeitsagentur.de www.ams.se www.hr-xml.org
The Impact of Semantic Web Technologies on Job Recruitment Processes
1371
ganizations would publish annotated job postings directly on their corporate websites using terms from a set of controlled vocabularies and the RDF data format. The postings could be then crawled directly by all interested job portals, meaning that the centralised approach would be replaced with a distributed approach. Consequently, all job portals would operate on the same information and postings would reach more applicants, resulting in higher market transparency. Another benefit from having postings annotated with terms from a controlled vocabulary is that the terms can be combined with background knowledge about an industrial domain. Job portals could offer semantic matching services which would calculate the semantic similarity between job postings and applicants’ profiles based on background knowledge about how different terms are related. For example, if Java programming skills are required for a certain job and an applicant is experienced in Delphi, the matching algorithm would consider this person’s profile a better match than someone else’s who has the skill SQL, because Delphi and Java are closer related than SQL and Java. This approach allows the comparison of job position postings and applicants’ profiles using background knowledge instead of merely relying on the containment of keywords, like traditional search engines do.
2.3
Receiving and Preselecting Job Applications
Employers often receive a large number of applications for an open position, due to the strained situation of the labour market. In order to reduce handling costs employers have begun to prefer online applications over classic paper applications. Other companies like IBM7 or Volkswagen8 have set up web forms for receiving applications, where applicants have to re-enter the basic facts of their application. This data is used for the automated preselection of candidates fulfilling the basic requirements and thus reducing preselection costs. Both applicants and employers would benefit from the semantic annotation of job applications in addition to the classic free text application. Applicants could reuse their RDF profiles and send them to different employers instead of having to fill numerous web forms. Employers use the annotations for automating the preselection process by matching their minimal requirements with the applications. Another issue of this phase is proofing testimonials of experience and education. Testimonials could be attached to applications in the form of RDF statements which are digitally signed by the issuing university or organization. The process of validating digitally signed testimonials can be automated, further reducing costs.
7 8
https://forms.bpfj.intronet.com/ibm/Forms/emea/expro/GeneralApp.jsp https://www.vw-personal.de/content/www/de/bewerbung/onlinebewerbung.html
1372
2.4
C. Bizer, R.Heese, M. Mochol, R. Oldakowski, R. Tolksdorf, R. Eckstein
Interviews and Recruitment Decision
Face-to-face contact with candidates is indispensable for the final recruitment decision. Thus, this phase of the recruitment process, where candidates are interviewed and where their soft and technical skills are evaluated through face-to-face meetings or even in assessment centres will still be done manually in the future.
3
Technical Realization
In this section we present our prototypical implementation of the technical infrastructure needed to realize the scenario described above. We focus on how vocabularies can be derived from standards already in use within the recruitment domain; on how the data integration infrastructure can be coupled with existing non-RDF human-resource systems, and on matching algorithms for calculating the similarity of job requirements and applicants’ profiles. Our prototypical implementation is based on existing open source components which we have extended with scenario-specific features. Our labour market scenario implies three basic roles: x Information Providers who publish open positions and company background information using controlled vocabularies and the RDF data format. x Information Aggregators who crawl the published information and present it to the information users in the desired format and level of aggregation. Combining job postings with background knowledge about the industrial sector allows the aggregators to offer semantic matching services. The usage of URIs as employer identification mechanism allows the enrichment of postings with information about employers from different external information services. x Information Consumers who use one portal of their choice as central access point to all published open positions and background information about employers, instead of collecting information fragments from different sites. Figure 2 illustrates the role model for the scenario and gives an overview of the technical architecture.
The Impact of Semantic Web Technologies on Job Recruitment Processes
Information Consumers
Information Integration + Matching
1373
Information Providers
Semantic Portal
Net API
RDF Repository
Semantic Matching Engine Crawler
RDF-annotated Websites
RDF Repository Net API
Wrapper
Non-RDF HR System
Figure 2: Scenario architecture and participants’ roles.
3.1
Ontologies
The data exchange between employers and job portals is based on a set of vocabularies which provide shared terms for describing occupations, required skills and educational background. A wide range of standards for process documents and classification schemas has already been developed for recruitment. In the following, we give an overview about the relevant standards and describe how we integrated them into the ontology used by our prototype. 3.1.1
Process Documents
The most widely used standard for process documents like job postings and applications is the HR-XML standard. HR-XML has been agreed on by the HRConsortium9, an independent, non-profit organization dedicated to the development and promotion of a standard suite of XML specifications to enable ebusiness and the automation of human resources-related data exchanges. HRXML is a library of more than 75 interdependent XML schemes. The XML schemes define the data elements for particular HR transactions, as well as options and constraints governing the use of these elements. The HR-XML Consortium has produced schemes covering major processes, as well as component schemes used across multiple business processes. 9
www.hr-xml.org
1374
C. Bizer, R.Heese, M. Mochol, R. Oldakowski, R. Tolksdorf, R. Eckstein
3.1.2
Taxonomies
There are several taxonomies available for the description of skills, classification of job profiles and industrial sectors. These taxonomies provide the vocabulary used within process documents. x Standard Occupational Classification System (SOC)10 classifies workers into occupational categories (23 major groups, 96 minor groups, and 449 occupations). x Occupation Code (Berufskennziffer – BKZ)11 is a German version of SOC System. It classifies workers into 5597 occupational categories according to occupational definitions. x North American Industry Classification System (NAICS)12 provides industry sector definitions for Canada, Mexico, and the United States to facilitate economic analyses. x Classification of Industry Sector (WZ2003)13 is a German classification standard for economic activities. 3.1.3
Our Human Resource Ontology
We have created a human resource ontology (HR ontology) by integrating existing widespread used standards and classifications. The ontology is divided into subontologies (see Figure 3), which are used in both job posting and job application descriptions. We adapted the Job Position Seeker and Job Position Posting segments from HR-BA-XML (German version of HR-XML). To specify the industry sub-ontology we utilize both the German Classification of the Industry Sector (WZ2003) and the North American Industry Classification System (NAICS). As occupational classification we utilize the German Occupation Code (BKZ) and the Standard Occupational Classification (SOC) System.
10 11 12 13
http://www.bls.gov/soc http://www.arbeitsamt.de/hst/markt/news/BKZ\_alpha.txt http://www.census.gov/epcd/www/naics.html http://www.destatis.de/allg/d/klassif/wz2003.htm
The Impact of Semantic Web Technologies on Job Recruitment Processes
1375
Figure 3: Sub-ontologies within the HR-ontology.
The skills sub-ontology defines concepts representing competencies, which are used to describe job requirements as well as applicant’s skills. This ontology also provides means for specifying the competence level of a certain skill. We derived the skill sub-ontology from the KOWIEN ontology [Alan03]. Furthermore, we developed a person sub-ontology for describing personal information of job applicants and an Organization sub-ontology to specify the employer’s company. Our HR ontology is modelled using OWL [W3C04c] in order to allow accurate schema validation of incoming data. Descriptions of job postings and applicants’ profiles are stored in RDF [W3C04a] using the vocabulary defined by the HR ontology.
3.2
Data Integration Infrastructure
Employers can use two different approaches for publishing annotated job postings depending on their existing software infrastructure. If they are using database backed standard software, they can export relational data directly into RDF using mapping tools like [Bize03, Bize04]. If they are not using any tools for managing open positions, they can annotate the HTML versions of their postings using annotation tools like [KaHe02]. The created RDF data is published using standard web servers like Apache or specialised query interfaces like the RDF NetAPI [MoSe03]. A job portal which is presenting the published data to job seekers will: x use a directory service to locate information providers; x use a crawler to collect data from the different providers; x use a mapping engine to integrate data published using different vocabularies; x provide semantic matching services to match applicant’s profiles and job postings based on the knowledge included in the ontologies and the available market data;
1376
C. Bizer, R.Heese, M. Mochol, R. Oldakowski, R. Tolksdorf, R. Eckstein
x render the data as HTML according to the user’s preferences (level of detail, device, language, . . .). Following the above architecture, a portal will have to store huge amounts of collected RDF data and provide high performance access to this data for its users. An overview of specialised databases and query languages can be found in [Beck03]. Within our prototype we use D2R MAP [Bize03] for mapping relational data into RDF, the RDF NetAPI [MoSe03] and RAP [OlBi04] for publishing data and the Jena 2 framework [Carr04] extended with a semantic matching engine as a foundation for the portal implementation.
3.3
Semantic Matching
Semantic Matching is a technique which combines annotations using controlled vocabularies with background knowledge about a certain application domain. In our scenario, the domain specific knowledge is represented in the form of various concept hierarchies (skills, occupation classification, industry sectors, etc.) and can be used to determine the semantic similarity between concepts [PoCa95]. This allows us to compare job descriptions and applicants’ profiles based on their semantic similarity and not merely relying on the containment of keywords. Our approach is based on ideas from [ZhZh02] and [BiSa02]. The similarity between two concepts c1 and c2 is determined by the distance dc(c1, c2) between them, which reflects their respective positions in the concept hierarchy. Concept similarity is defined as:
sim c ( c1 , c 2 )
1 d c ( c1 , c 2 )
Every node in a concept hierarchy is assigned a milestone value [ZhZh02], which is calculated with the formula:
milestone ( n )
1/ 2 k l(n)
k is a factor larger than 1, indicating the rate at which the value decreases along the hierarchy. l(n) is the depth of the node n in hierarchy. Since the distance between two given concepts in a hierarchy represents the path from one concept to the other one over the closest common parent (ccp), we calculate the distance as shown below:
d c ( c1 , c 2 ) d c ( c1 , ccp ) d c ( c 2 , ccp ) d c ( c , ccp ) milestone ( ccp ) milestone ( c )
The Impact of Semantic Web Technologies on Job Recruitment Processes
1377
This model implies two assumptions: The semantic differences between upper level concepts are bigger than those between lower level concepts (in other words: two general concepts are less similar than two specialized ones) and that the distance between ‘brothers’ is greater than the distance between ‘parent’ and ‘child’. As an example, we calculate the distance between two concepts from our skill ontology: ‘PropertyLaw’ and ‘CompanyLaw’. Figure 4 shows the corresponding ontology segment together with milestone values for ontology levels. 1/8
1/16
1/32
LegalCompetence
CivilLaw
PropertyLaw
…
CriminalLaw
EconomicLaw
…
CompanyLaw
…
…
Figure 4: Skill ontology segment together with milestone values.
Since the closest common parent is ‘LegalCompetence’, the distance between the two concepts is calculated as follows: dc(PropertyLaw, CompanyLaw) = dc(PropertyLaw, LegalCompetence) + dc(CompanyLaw, LegalCompetence) = (1/8-1/32)+(1/8-1/32) = 0,1875 Consequently, the similarity between the two concepts is: simc(PropertyLaw, CompanyLaw) = 1 – 0,1875 = 0,8125 We also provide means for specifying required competence levels (cl) in job postings. Hence, our algorithm not only considers taxonomic similarity of concepts but also compares competence levels in order to find the best match. The competence level similarity is determined by the following formula:
simp (cl1, cl2 ) {11D (cl1 cl2 )
| cl1 cl2 t 0 | cl1 cl2 0
where 0 d D d 0,25 is a factor indicating the rate at which the value of simp decreases with increasing deviation between competence levels. For example, comparing an expert (cl=5) in property law with a novice (cl=1) in company law and setting D 0,2 results in simp = 1-0,2(5-1) = 0,2. Multiplying this value with the concept similarity yields: simc(PropertyLaw, CompanyLaw)*simp (expert, novice) = 0,8125*0,2 = 0,1625.
1378
C. Bizer, R.Heese, M. Mochol, R. Oldakowski, R. Tolksdorf, R. Eckstein
Our approach gives employers also the opportunity to specify the importance of different job requirements. The concept similarity is then justified by the indicated ‘weight’, i.e. the similarity between more important skills will have greater influence on the similarity between a job position posting and an applicant’s profile. Putting all together, the formula for calculating the similarity of a job position posting (jpp) and a job position seeker (jps) is:
Sim( jpp, jps )
¦ w(c
i jpp
j j ) max{simc (c ijpp , c jps ) sim p ( p (c ijpp ), p (c jps )
iI
j J } where
¦ w(c
i jpp
) 1
iI
Each required skill from the job position posting ( c ijpp ) is compared with each i
skill in an applicant’s profile ( c jps ). This includes the calculation of both concept and competence level similarities. The similarity values of the best matching pairs are multiplied by the corresponding weight and summed up yielding the final similarity.
4
Economic Implications
The possibility of higher market transparency raises new strategic questions for the market participants which will ultimately determine their willingness to participate: Is the scenario of economic interest for all participants? Is it possible to construct an economic win-win situation which would motivate all parties to participate? This section will briefly discuss the possible implications of the realization of our scenario on the business models of the participants. Online job portals are information intermediaries between job seekers and employers. The business model of charging publication fees, which portals are using today, prevents employers from publishing their postings on a larger number of job portals. This leads to a division of the online labour market into information islands and makes it close to impossible for a job seeker to get an overview of all relevant open positions. Using Semantic Web technology would change information flows. An open position published on an employer’s website can be used by all job portals. The formerly controlled communication links change to an open n:m communication situation.
The Impact of Semantic Web Technologies on Job Recruitment Processes
1379
This would allow job seekers to use one single portal of their choice to access all information available in the market. Employers would save publication fees by publishing open positions only on their own website. The additional costs of annotating job postings are likely to be overcompensated by savings in publication fees, which usually amount to several hundred euros. The crucial question is the business model of job portals within our recruitment scenario. How will portals finance their services, if they can not rely on publication fees? There are several options. Portals could be financed by: x service charges paid by job seekers for access to market data and additional services like semantic matching; x consortiums of employers, which could form in order to reach more potential applicants and save publication fees; x public authorities, who have an interest in smoothing information flows in the labour market in order to cut unemployment. Another question is the financing of maintaining the controlled vocabularies used in the market. This could also be a task for a public agency – like the German Federal Employment Office (BA) - as a market maker or could be accomplished by a non-profit consortium of market participants, similar to the process already taking place within the HR-XML Consortium.
5
Conclusion and Outlook
We presented a scenario for supporting recruitment processes with Semantic Web technologies. We described the online recruitment process and analysed the stateof-the-art technologies in this domain. We suggested improvements for several steps by enhancing job postings and job applications with annotations using controlled vocabularies. We described our prototypical implementation of the scenario. The core components of the prototype are a human resource ontology derived from existing standards, a data publishing and integration infrastructure and a retrieval engine using semantic match-making. The creation of the ontology and the prototypical implementation of the software infrastructure showed that our scenario is technologically realizable. The analysis of the interest of the participants and the potential economic impacts showed that the main actors in the employment market - employers and job seekers - would both benefit from the realization of the scenario. Job seekers would benefit from the increased market transparency. Employers would benefit from reaching more potential applicants, saving money on publication fees and from cutting costs by automating the preselection of applications.
1380
C. Bizer, R.Heese, M. Mochol, R. Oldakowski, R. Tolksdorf, R. Eckstein
We will concentrate our future work on the completion of the prototype, the creation of a larger real-world dataset of annotated job postings for testing the scalability of the infrastructure, and on improving the semantic matching algorithm.
Acknowledgements This work is part of the Knowledge Nets project whose aim is to research the impact of the Semantic Web technologies on electronic markets [ToBi04]. KnowledgeNets belongs to the InterVal - Berlin Research Centre for the Internet Economy [InterVal04] and is funded by the German Ministry of Research BMBF.
References [Alan03] Alan, Y.: Konstruktion der KOWIEN-Ontologie. Projektbericht 2/2003, Institut für Produktion und Industrielles Informationsmanagement, Universität Duisburg-Essen, www.kowien.uni-essen.de/publikationen/konstruktion.pdf, 2003, Download 2004-0625. [Beck03] Beckett, D.: Scalability and Storage: Survey of Free Software / Open Source RDF storage systems. http://www.w3.org/2001/sw/Europe/reports/rdf_scalable_storage _report/, 2003, Download 2004-06-20. [BeHe01] Berners-Lee, T.; Hendler, J.; Lassila, O.: The Semantic Web. A new form of Web content that is meaningful to computers will unleash a revolution of new possibilities. http://www.scientificamerican.com/, 2001, Download 2004-06-25. [BiSa02] Billig, A.; Sandkuhl, K.: Match-Making based on Semantic Nets: The XMLbased approach of BaSeWeb. In: Tolksdorf, R., Eckstein, R. (Edt.): Proceedings of the 1st workshop on XML-Technologien für das Semantic Web, 2002, pp. 39–51. [Bize03] Bizer, C.: D2R MAP - A Database to RDF Mapping Language. In: Proceedings of the 12th International World Wide Web Conference, 2003. [Bize04] Bizer, C.; Seaborne, A.: D2RQ - Treating Non-RDF Databases as Virtual RDF Graphs. In: Proceedings of the 3rd International Semantic Web Conference, 2004. [Carr04] Carroll, J.; et al.: Jena: Implementing the Semantic Web Recommendations. In: Proceedings of the 13th International Wourld Wide Web Conference, 2004. [Cross03] Crosswater Systems Ltd.: Der Virtuelle Arbeitsmarkt der Bundesanstalt für Arbeit. Anspruch und Wirklichkeit - das Millionengrab. http://www.crosswatersystems.com/dossier_03_vam_fakten_v100.pdf, 2003, Download 2004-06-25. [HeBe02] Hendler, J.; Berners-Lee, T.; Miller, E.: Integrating Applications on the Semantic Web. Journal of the Institute of Electronic Engineers of Japan 122, 2002, pp. 676–680.
The Impact of Semantic Web Technologies on Job Recruitment Processes
1381
[InterVal04] Günther, O.; et al.: InterVal-Berlin Research Center for the Internet Economy. http://interval.hu-berlin.de/, 2004, Download 2004-06-20. [KaHe02] Kalyanpur, A.; Parsia, B.; Hendler, J.; Golbeck, J.: SMORE - Semantic Markup, Ontology, and RDF Editor. http://www.mindswap.org/papers/SMORE.pdf, 2003, Downlaod 2004-06-25. [MoSe03] Moore, G.; Seaborne, A.: RDF Net API, W3C Member Submission. http://www.w3.org/Submission/2003/SUBM-rdf-netapi-20031002/, 2003, Download 2004-06-20. [OlBi04] Oldakowski, R.; Bizer, C.: RAP: RDF API for PHP. http://www.wiwiss.fuberlin.de/suhl/radek/pub/RAP-oldakowski.pdf, 2004. Download 2004-09-21. [PoCa95] Poole, J.; Campbell, J.A.: A Novel Algorithm for Matching Conceptual and Related Graphs. In: Ellis, G., et al. (Edt.): Conceptual Structures: Applications, Implementation and Theory. Volume 954 of LNAI, Springer Verlag, 1995, pp. 293–307. [QuKa04] Quan, D.; Karger, D.: How to Make a Semantic Web Browser. In: Proceedings of the 13th International Wourld Wide Web Conference, 2004. [Schr04] Schraefel, M.; et al.: CS AKTive Space: Representing Computer Science in the Semantic Web. In: Proceedings of the 13th International Wourld Wide Web Conference, 2004. [ToBi04] Tolksdorf, R.; Bizer, C.; Eckstein, R.; Heese, R.: Trustable B2C Markets on the Semantic Web, Journal on Computer Systems Science & Engineering, 2004. To appear. [W3C04a] W3C: RDF/XML Syntax Specification (Revised). http://www.w3.org/TR/rdfsyntax-grammar/, 2004, Download 2004-06-25. [W3C04b] W3C: RDF Vocabulary Description Language 1.0: http://www.w3.org/TR/rdf-schema/, 2004, Download 2004-06-25.
RDF
Schema.
[W3C04c] W3C: OWL Web Ontology Language-Reference. http://www.w3.org/TR/owlref/, 2004, Download 2004-06-25. [WiMo03] Institut für Wirtschaftsinformatik der Johann Wolfgang Goethe-Universität Frankfurt am Main; Monster Deutschland and TMP Worldwide: Recruiting Trends 2004. 2. Fachsymposium für Personalverantwortliche, 2003. [ZhZh02] Zhong, J.; Zhu, H., Li, J.; Yu, Y.: Conceptual Graph Matching for Semantic Search. In: Proceedings of the 2002 International Conference on Computational Science, 2002.
Einführung in den Track Enterprise Information Warehousing Peter Chamoni Universität Duisburg-Essen
Hans-Georg Kemper Universität Stuttgart
Bernd-Ulrich Kaiser Bayer AG Für den Track „Enterprise Information Warehousing“ wurden vom Programmkomitee Beiträge aufgenommen, welche den Ansatz der aktiven Entscheidungsunterstützung und der benutzerorientierten Entwurfsmethodik aufgreifen. Hierbei steht nicht nur die konsolidierte Sammlung bzw. Bereitstellung von entscheidungsrelevanten und unternehmensweiten Informationen im Vordergrund, sondern auch die Entwicklung von Push-Prinzipien zur modellgestützten Initiierung von Analyseund Planungsaktivitäten. Bisher sind im Kontext der „Business Intelligence“ diese aktiven ereignisorientierten Verfahren noch nicht hinreichend auf ihren Automatisierungsgrad hin untersucht worden. Ziel des „Enterprise Information Warehousing“ ist es, einen umfassenden Überblick über die vorhandenen Daten im Unternehmen zu geben und damit die Entscheidungen zur Unternehmensplanung zu unterstützen. Neben den internen Daten einer Organisation können auch Daten aus externen Quellen integriert werden. Dies erfordert Konzepte, um mit strukturierten und unstrukturierten Daten gemeinschaftlich umgehen zu können. Die Anwender greifen auf die integrierten Daten zu und nutzen diese für ihren Anwendungskontext. Existierende Ansätze konzentrieren sich oftmals nur auf technische Aspekte wie die Extraktion der Daten oder die effiziente Verarbeitung von Anfragen auf den heterogenen Datenbeständen. Jedoch bestehen weitere offene Forschungsfragen an die Wirtschaftsinformatik. Bei der Datenerfassung bilden andere Modelle, Semantiken und Datenqualitätsziele den Integrationsrahmen als auf der Anwenderseite konkret erwartet werden. Ein solcher Konflikt kann die Veständlichkeit und die Nutzbarkeit der Daten für Anwender beeinträchtigen. Solche Kontroversen werden in vielen Ansätzen nicht betrachtet. Erforderlich ist daher auch eine Einbeziehung der Benutzersicht auf die Daten, in der die inhaltlichen Bedeutungen und Qualitätsziele aus der Perspektive des Benutzers dargestellt und mit anderen Perspektiven verknüpft werden. Dies
1384
Enterprise Information Warehousing
insbesondere auch unter dem Aspekt, dass solche Systeme über alle Hierarchiestufen im Unternehmen eingesetzt werden. Dabei ist nicht mehr nur die passive Entscheidungsunterstützung im Fokus der Forschung, sondern auch der Wandel zu einer aktiven Entscheidungsunterstützung durch ein Business-Intelligence-System. Es gilt, eine Standortbestimmung für die Darstellung der Architektur und der aktiven Prozesse eines inzwischen aus heterogenen Daten bestehenden, unternehmensweiten Business-Intelligence-Systems vorzunehmen, um auch die Qualitätsziele der Systembenutzer modellieren zu können. Solche Ergebnisse sollen nicht nur auf Business-Intelligence-Systeme beschränkt, sondern auch auf andere Informationssysteme im Sinne eines „Enterprise Information Warehousing“ übertragbar sein.
Track-Programmkomitee Prof. Dr. Peter Chamoni, Universität Duisburg-Essen (Chair) Prof. Dr. Hans-Georg Kemper, Universität Stuttgart (Chair) Dr. Bernd-Ulrich Kaiser, Bayer AG (Chair) Prof. Dr. Abramowicz, Universität Posen Prof. Dr. Appelrath, Universität Oldenburg Dr. Carsten Bange, BARC GmbH Dr. Wolfgang Behme, Continental AG Dr. Ralf Finger, Information Works GmbH PD Dr. Peter Gluchowski, Universität Chemnitz Prof. Dr. Georg Herzwurm, Universität Stuttgart Prof. Dr.-Ing. Peter Lehmann, Hochschule der Medien Stuttgart Prof. Dr. Bodo Rieger, Universität Osnabrück Prof. Dr. Dirk Stelzer, Technische Universität Ilmenau Prof. Dr. Wolfgang Uhr, Technische Universität Dresden
Integration von Subsystemen in einem Active Data Warehouse Carsten Felden Universität Duisburg-Essen
Zusammenfassung: Die Informationsflut aus dem World Wide Web können Entscheidungsträger in Unternehmen schwer bewältigen. Das Marktdateninformationssystem verwendet einen Filter, der relevante Informationen für ein Unternehmen bestimmt und nur diese im Data Warehouse ablegt. Durch eine, in dieser Arbeit vorgestellte, Erweiterung eines bestehenden Marktdateninformationssystems werden Entscheidungsträger automatisch über wichtige Sachverhalte personalisiert informiert. Die unterschiedlichen Subsysteme der Architektur werden in unterschiedlichen Modellierungssprachen beschrieben und gepflegt. Zur Integration dieser Subsysteme wird eine Metamodellierung vorgeschlagen, welche die Konstruktion einer konsistenten Architektur für das Marktdateninformationssystem, um Wartung und Pflege im Systemlebenszyklus zu erleichtern, erläutert. Schlüsselworte: Active Data Warehouse, Personalisierung, Metamodellierung
1
Einleitung
Die Informationsversorgung von Entscheidungsträgern ist mit Problemen behaftet, die zunächst aus einer Unterversorgung resultieren und in heutigen Zeiten durch eine Überversorgung gekennzeichnet sind [Kamp02, S. 9]. Durch das World Wide Web (WWW) werden unternehmensexterne Informationsquellen erschlossen, welche Textdokumente, im Sinne qualitativer Daten, als Träger der Informationen enthalten. Die umfangreichen qualitativen Daten können aus den Informationsressourcen nicht problemlos extrahiert werden [Hack99, S. 5]. Marktdaten haben entscheidenden Einfluss auf Unternehmen, wenn diese zeitnah genutzt werden. Durch geeignete Formen der Selektion und Repräsentation wichtiger Informationen werden Entscheidungsträger befähigt, ihre Aufgaben schneller zu erfüllen. Zu diesem Zweck kann ein Active Data Warehouse eingesetzt werden. Dieses versorgt Nutzer zeitnah mit entscheidungsrelevanten Informationen. Die verschiedenen Komponenten eines solchen Systems werden in Kapitel 3 erläutert. Jedoch erzeugt eine solche Erweiterung der Architektur Subsysteme innerhalb des Informationssystems. Keines der individuellen Modelle kann Datenobjekte des anderen Subsystems darstellen. Aus diesem Grunde zeigt Kapitel 4, wie mittels
1386
C. Felden
Metamodellierung ein Inhalteraum konstruiert wird, der Subsysteme semantisch integriert und dadurch einen geschlossenen Ansatz ermöglicht.
2
Ausgangslage
Auf Grund der Liberalisierung der Energiemärkte innerhalb der Europäischen Union sah sich die Energiebranche neuen Herausforderungen gegenübergestellt. Die Beschaffungsoptimierung zur Kostenreduzierung umfasst nicht mehr nur die Beschaffung von Primärenergien, die in den eigenen Kraftwerken in elektrischen Strom umgewandelt werden, sondern auch die Beschaffung von Strom selbst. Die Möglichkeit des Handels mit Strom führte zu einer großen Vielfalt an neuen Produkten und potenziellen Handelspartnern. Viele Unternehmen trugen dieser Entwicklung Rechnung, indem sie einen sogenannten Trading Floor einrichteten, dessen Mitarbeiter sich vorwiegend der Aufgabe des Energiehandels widmen. Zu ihrer Unterstützung wurde ein Marktdateninformationssystem (MAIS) bereitgestellt, das allen Mitarbeitern des Handelsbereichs als Datenbank für Marktdaten zur Verfügung steht. Für die anfallenden Entscheidungsaufgaben können auf Grundlage der Marktdaten Marktanalysen, statistische Auswertungen und Preisprognosen betrachtet werden. Dies erfordert die Integration heterogener Datenformate aus internen oder externen Quellen in einer Datenbank. Jedoch ist zu bedenken, dass ein solches System eine Informationsüberversorgung der Entscheidungsträger forciert. Marktanalysten benötigen zwar eine Vielzahl an Daten, jedoch müssen sie diese im ursprünglichen System eigenständig selektieren. Das bedingt einen entsprechenden Zeitaufwand, dem im oftmals hektischen Handel nicht immer entsprochen werden kann. Da die Entwicklung des MAIS in mehreren Stufen erfolgt, an deren Ende jeweils ein funktionsfähiges Informationssystem steht, können Erkenntnisse über die Auswirkungen des Systemeinsatzes als Ausgangspunkt für Weiterentwicklungen betrachtet werden. Sie konzentriert sich darauf, quantitative und qualitative Daten nicht nur zu integrieren, sondern diese auch bedarfsgerecht Entscheidungsträgern zur Verfügung zu stellen. Dazu ist eine Anwenderprofilierung durchzuführen. Das ermöglicht nicht nur eine frühzeitige Information über Marktereignisse, sondern darüber hinaus auch über frühe Signale des Marktes. Um beide Anforderungen befriedigen zu können, wird die Architektur um zwei Bausteine erweitert. Der erste Baustein besteht aus Benutzerprofilen, um personalisiert Informationen zur Verfügung zu stellen zu können. Der zweite Baustein besteht aus Frühindikatorenprofilen, um diese in Texten identifizieren zu können. Dabei handelt es sich um zwei grundsätzlich unterschiedliche Konzepte. Benutzerprofile ermöglichen eine Zeitersparnis, da sie dem Analysten Informationen zielgerichtet zur Verfügung stellen und dadurch der Informationsüberversorgung entgegenwirken. Frühindikatorenprofile ermöglichen einen Zeitvorteil, da An-
Integration von Subsystemen in einem Active Data Warehouse
1387
wender, durchaus profilorientiert, frühzeitig über potentielle Entwicklungen informiert sind. Durch den Wandel von einer Pull- zu einer Push-Architektur entwickelt sich das MAIS zu einem Active Data Warehouse.
3
Gestaltung einer Push-Architektur eines Marktdateninformationssystems
Im folgenden Kapitel wird zunächst das Basissystem vorgestellt. Dies wird um Module zur personalisierten Informationsversorgung sowie zur Identifikation von Frühindikatoren in qualitativen Textdokumenten erweitert.
3.1
Metadaten basierte Integration externer Daten und Erweiterung zum Active Data Warehouse
Die Integration und Repräsentation interner quantitativer und qualitativer Datenbestände externer Herkunft kann durch ein MAIS vorgenommen werden. Das System wurde in einem Projekt der VEW Energie AG und der Universität Duisburg realisiert. In diesem Zusammenhang werden Extraktoren, Filtertechnik, Datenbank sowie die Repräsentation der Daten als Ganzes betrachtet und eine weitgehend automatisierte und fachspezifische Informationsversorgung vorgenommen [Feld02, S. 57f; Feld02, S. 142f]. Die interdependenten Beziehungen der Systemkomponenten des MAIS sind in Abbildung 1 dargestellt.
Abbildung 1: Aufbau des Marktdateninformationssystems [Feld02, 57]
Nach einer metadatenbasierten Suche werden alle potenziell relevanten Dokumente aus dem WWW in der Data Barn klassifiziert [Feld02, S. 58]. In der Daten-
1388
C. Felden
basis werden ausschließlich die relevanten Dokumente abgelegt [Feld02, S. 128f]. Die Prüfung geschieht im Rahmen eines Filterprozesses, indem ein Künstliches Neuronales Netzwerk die Unterscheidung von relevanten und nicht relevanten Dokumenten vornimmt. Dieser Filter beinhaltet lang- und mittelfristig stabile Kriterien und leitet nur spezifische Informationen in die Datenbasis. Die Filterkriterien sind in der Regelbasis abgelegt [Feld02, S. 58]. Grenzen sind der Automatisierung der Datenintegration dahingehend gesetzt, als das eine manuelle Prüfung der Filterklassifikation durchgeführt werden muss. Diese kann nicht hundertprozentig garantiert werden. Die Repräsentation der relevanten Dokumente erfolgt über das Graphical User Interface (GUI) in Form eines Starfield Display [LeRi99], bestehend aus Symbolen in einem zweidimensionalen Koordinatensystem [Feld02, S. 76f]. Über die Abszisse wird die Zeit und über die Ordinate der Relevanzwert wiedergegeben. Eine Einordnung erfolgt somit auf der Grundlage von Erscheinungsdatum1 und Relevanzwert, welcher mit dem Künstlichen Neuronalen Netz (KNN) bestimmt wurde. Obwohl eine Selektion der Textdokumente durch das KNN vorgenommen wird, können aus Gründen der Zeitknappheit nicht alle Dokumente von den Entscheidungsträgern gesichtet werden. Somit rückt die individuelle Versorgung der Entscheidungsträger mit interessanten Informationen ins Zentrum der weiteren Betrachtung. Insbesondere durch eine reaktive Versorgung mit aktuellen Informationen werden bei zeitkritischen Entscheidungen Wettbewerbsvorteile erschlossen. Diese Transaktionen werden automatisiert durch das Active Data Warehouse durchgeführt [Frit02, S. 5]. Dabei wird die reaktive Komponente als Erweiterung des MAIS verstanden. Ein Active Data Warehouse überwacht bestimmte Sachverhalte und führt durch Trigger bestimmte Aktionen aus [Schl00, S. 92]. Im Folgenden wird das Active Data Warehouse genutzt, um Nachrichten an Nutzer zu senden, wobei die zu überwachenden Daten in quantitative und qualitative Daten unterschieden werden. Zunächst wird eine Lösung für quantitative Daten aufgezeigt, um im Anschluss Möglichkeiten für qualitative Daten zu erläutern. Für quantitative Daten führen Trigger-Mechanismen Aktionen auf Basis eines Regelwerkes aus. Trigger bestehen aus einer formulierten Situation und einer Datenbankprozedur, die bei Eintritt der spezifizierten Situation abgearbeitet wird [Schl00, S. 92]. Hierdurch können Geschäftsregeln in ein Informationssystem integriert werden [BeKS02, S. 244, S. 246]. Die Realisierung geschieht durch Event-Condition-Action (ECA)-Regeln [Schl00, S. 3, S. 100; Frit02, S. 5ff]. Die Ereigniskomponente (Event) enthält vordefinierte Ereignisse, welche den Regeldurchlauf auslösen. Die Bedingungskomponente (Condition) enthält die zu prü-
1
Das Erscheinungsdatum ist das Datum, an dem ein Dokument auf einem Server publiziert wurde [Feld02, S. 77]. Dieses wird bei Erfassung auf Greenwich-Zeit standardisiert.
Integration von Subsystemen in einem Active Data Warehouse
1389
fenden Kriterien. Sind die Ereignis- und Bedingungskomponenten erfüllt, wird die in der Aktionskomponente (Action) enthaltene Reaktion ausgeführt. Schwieriger gestaltet sich der Sachverhalt bei qualitativen Daten. Nach Schätzungen liegen bis zu 80 Prozent der betrieblichen Informationen in Textdokumenten vor [Sull01, S. 56]. Sind diese zudem externer Herkunft, kommt ihnen eine besondere Bedeutung zu, da sie wichtige und aktuelle Informationen beinhalten können. Durch den beschriebenen Integrationsprozess werden ständig relevante Textdokumente aus dem WWW in das Data Warehouse importiert. Insbesondere zeitkritische Entscheidungen werden durch eine intensive Datensuche verzögert. Das hat Auswirkungen auf die Entscheidungsträger, welche die Aufgabe der Dokumentensichtung in ihrem begrenzten Zeitportfolio als bedrohlich empfinden [Meie03, S. 475]. Im Sinne eines Active Data Warehouse werden neue Informationen direkt an bestimmte Nutzer weitergeleitet [Ecke03, S. 8]. Bei diesem Push-Dienst sind die rollenspezifischen und individuellen Informationsbedürfnisse der einzelnen Nutzer zu berücksichtigen, damit der Informationsflut entgegen gewirkt werden kann. Da die Textdokumente meist unstrukturiert sind, ist der Interessantheitsgrad schwer zu bestimmen. ECA-Regeln sind auf klar definierte Kriterien ausgelegt, welche für Textdokumente zunächst nicht vorliegen. Das Text Mining unterstützt die Anwendung von ECA-Regeln. Aus den einzelnen Dokumenten werden Metadaten extrahiert und für weitere Analysen genutzt [VoGu01, S. 254ff]. Diese Metadaten bilden die Grundlage, um eine nutzerspezifische Kennzahl zu berechnen. Diese repräsentiert den individuellen Interessantheitsgrad eines Dokumentes. ECARegeln überprüfen die Kennzahl und führen gegebenenfalls Aktionen aus.
3.2
Ontologiebasierte Profilentwicklung
Das Ziel dieses Verfahrens ist eine inhaltsbezogene und weitgehend automatische binäre Textklassifikation in für den Nutzer interessante und uninteressante Dokumente. Da derzeit zu den meisten Textdokumenten aus dem WWW keine Metadaten über den Inhalt verfügbar sind, werden die Terme eines Dokumentes zur inhaltlichen Erschließung verwendet. Über die Technik der Indizierung kann der Inhalt beschrieben werden. Die durch das MAIS bereits vorgenommene Indizierung wird leicht modifiziert verwendet. Der durch das MAIS ausgelöste Informationsstrom an Textdokumenten wird mit einem individuellen Informationsbedarf verglichen und weitergeleitet, wenn dieser befriedigt werden kann [FoDu92, S. 52f]. Der Informationsbedarf kann auf Grund relativ stabiler und spezifischer Aufgabenbereiche von Mitarbeitern bestimmt werden. Dabei werden Dokumente nur einmalig nach dem Import in das Data Warehouse überprüft [AbKW02, S. 89]. Der Informationsbedarf wird somit nur mit aktuellen Informationen verglichen und eine Filterung auf verschiedenen Stufen durchgeführt. Die Stufen können in einen Situationsfilter und einen Benutzerfilter
1390
C. Felden
unterteilt werden [Meie03, S. 485ff]. Der Situationsfilter zeichnet sich vor allem durch die Situierung eines Unternehmens aus und wird durch das KNN des MAIS bereits realisiert. Durch den Benutzerfilter wird eine inhaltlich orientierte Analyse ermöglicht, in der die Informationen in einem Dokument mit dem Informationsbedarf eines Nutzerprofils verglichen werden. Der Benutzerfilter basiert auf Nutzerprofilen, welche bezüglich der Rolle und der Personalisierung unterschieden werden [Meie03, S. 486]. Die Rolle beinhaltet organisatorische und soziale Aspekte, die sich objektiv als komplexes Gebilde von Erwartungen an den Inhaber einer Position manifestiert. Der Fokus liegt im Folgenden auf der Entwicklung einer Schnittstelle zwischen den Dokumenten und den Nutzern. Diese ermöglicht den Nutzern die selbstständige Erstellung eines Profils. Die Dokumente und Nutzerprofile werden hierbei durch Vektoren repräsentiert und miteinander verglichen. Eine Erstellung des Nutzerprofils über die Angabe jedes einzelnen Deskriptors ist aufwändig. Synonym verwendete Deskriptoren sind zudem explizit zu bestimmen. Da Deskriptoren mehrere Bedeutungen haben können, liegen insgesamt die Ergebnisse der Bewertungsmaßgaben Precision und Recall auf niedrigem Niveau [Sull01, S. 472]. Deshalb erfolgt der Zugriff auf die Dokumente über eine Ontologie, die Konzepte enthält. Um Konzepte zu bestimmen, sind Synonyme und Verbundereignisse automatisch zu identifizieren. Zu beachten ist, dass die Konzepte neben den Synonymbeziehungen auch hierarchische oder andere Beziehungen zwischen Deskriptoren enthalten können. Obwohl dies automatisch durchgeführt werden kann, ist eine manuelle Überprüfung vorzunehmen [AbKW02, S. 132]. Die Interdependenzen des gesamten Klassifikationsverfahrens sind in Abbildung 2 dargestellt.
Abbildung 2: Aufbau des Klassifikationsverfahrens
Die gestrichelten Kanäle symbolisieren hierbei die ständig aktiven Verbindungen des eigentlichen Verfahrens. Die Pfeilverbindungen symbolisieren vor allem einmalige Abläufe, die nur unter bestimmten Umständen wiederholt werden. Der
Integration von Subsystemen in einem Active Data Warehouse
1391
Prozess der Ontologieerstellung wird einmalig vollzogen und nur in bestimmten Abständen oder nach besonderen Ereignissen erneut durchlaufen, da die Erstellung mit hohem Aufwand verbunden ist. Durch die zusätzliche Hinterlegung von unternehmensspezifischem Fachwissen [Feld02a, S. 750], in Form der unternehmensspezifischen Terminologie [AbKW02, S. 131], kann die Ergebnisqualität des zu entwickelnden Klassifikationsverfahrens verbessert werden. In diesem Prozess werden die Zusammenhänge und Bezeichnungen des Data Dictionary berücksichtigt, wodurch eine einheitliche Terminologie geschaffen wird und die Verknüpfung mit den quantitativen Daten im Data Warehouse realisiert ist [Sull01, S. 155ff]. Dies führt dazu, dass Ontologie, Data Dictionary und Glossar verschmelzen müssen. Auch hier besteht die Einschränkung der Automatisierung dahingehend, dass die Ontologieentwicklung mit ihren Verknüpfungen manuell verifiziert werden muss. Diese Ontologie ist Basis für ein Benutzerprofil. Sie beinhaltet semantisches Wissen, welches maschinell verarbeitbar ist und somit die Kommunikation zwischen Mensch und Maschine verbessern kann [Fens98, S. 11]. Die Konzepte einer Ontologie bilden ein abstraktes Modell. Dieses Modell gilt nur für einen abgegrenzten Bereich, da ansonsten die Beziehungen zwischen den Konzepten nicht mehr gelten. Somit werden qualitativ hochwertige Ergebnisse nur erzielt, wenn die Textdokumente dem speziellen Themenbereich zugehören, für welche die Ontologie erstellt wurde. Die in einer Ontologie enthaltenen Konzepte werden durch Beziehungen miteinander verbunden [ArCT03, S. 62; KaSh00, S. 12]. Durch die Strukturierung der Konzepte entsteht eine unternehmensspezifische Taxonomie [Feld02a, S. 754]. Die Konzepte bestehen aus einer Konzeptbezeichnung, einer kurzen Konzeptbeschreibung [AbKW02, S. 132], einer dem Konzept zugeordneten Menge synonym verwendeter Begriffe und einer Menge direkt untergeordneter Konzepte. Die erstellten Konzepte können manuell in die zwei Mengen der Synonyme und der untergeordneten Konzepte eingeteilt werden. Über die Hierarchie wird anschließend der benötigte Detaillierungsgrad zur Beschreibung der Dokumente bestimmt. Die Beschreibungen aus dem Data Dictionary werden jedoch nicht vollständig für die Ontologie benötigt. Quantitative Beziehungen werden nicht berücksichtigt. Zudem werden die bereits gebildeten Thesauren zur Modifikation der Indizes für das KNN berücksichtigt. Das Nutzerprofil besteht aus Themenbereichen und Regeln. Beide entnehmen die Terme aus den Konzepten der Ontologie, werden jedoch unterschiedlich überprüft. Ein Themenbereich enthält mehrere Konzepte, und der hieraus entstehende Vektor wird mit dem Index der Dokumente verglichen. Es besteht keine Notwendigkeit, dass alle Konzepte in einem Index existieren, damit ein Dokument als interessant klassifiziert wird. Eine nutzerspezifische Regel enthält ebenfalls Konzepte, um auch alternative Begriffe identifizieren zu können. Alle Konzepte müssen in einem Index vorkommen, damit ein Dokument als interessant klassifiziert wird [LiHs02, S. 467f]. Bevor die Nutzer die Personali-
1392
C. Felden
sierung vornehmen, werden ihnen bestimmte Themenbereiche bezüglich ihrer Rolle im Unternehmen zugewiesen [AbKW02, S. 157]. In der Dokumentenanalyse werden die neu in das Data Warehouse importierten Dokumente auf den individuellen Interessantheitsgrad geprüft. Unter Nutzung der Ontologie werden die Dokumente über die Konzepte abgebildet und mit den Nutzerprofilen verglichen. Ein neues Dokument wird zunächst auf die einzelnen Themenbereiche und im Anschluss daran auf die Regeln für jedes Nutzerprofil überprüft. Jeder Vektor eines Themenbereiches wird mit dem Index eines Dokumentes verglichen und hierzu der Kosinus-Koeffizient als Ähnlichkeitsmaß gebildet [Sull01, S. 335]. Die in den Regeln enthaltenen Konzepte werden mit dem Index des Dokumentes verglichen, wobei diese Konzepte vollständig oder gar nicht enthalten sein müssen. Über den Kosinus-Koeffizienten wird somit die Ähnlichkeit eines Index mit den einzelnen Vektoren der Themenbereiche ermittelt [FoKL98, S. 5]. Jedoch berücksichtigt der Koeffizient nicht die Gewichtung der einzelnen Konzepte, denn er prüft nur die Existenz eines Konzeptes in einem Dokument [Ferb03, S. 74]. Da die im Data Warehouse befindlichen Dokumente durch das KNN auf eine Mindestrelevanz für das Unternehmen geprüft worden sind, ist der Kosinus-Koeffizient ausreichend, um thematische Ähnlichkeiten zu bestimmen. Nach Abschluss der Teilanalyse liegen zu jedem Themenbereich eines Profils die entsprechend ermittelten Ähnlichkeitswerte vor. Somit verbleiben die Regeln, welche anschließend zu prüfen sind. Regeln enthalten weniger Konzepte als die Themenbereiche, wobei die räumliche Nähe der Konzepte zueinander eine wichtige Rolle einnehmen kann [Pull01, S. 8]. Diese wird durch die bisher verwendeten Indizes der Dokumente nicht berücksichtigt [Pull01, S. 3]. Bei der Indizierung gehen jegliche Informationen über die Anordnung der Deskriptoren verloren. Aus diesem Grund werden die Indizes nicht zur Prüfung der Regeln verwendet. Bei der Überprüfung einer Regel werden drei aufeinander folgende Sätze berücksichtigt. Diese Bedingung ist weniger restriktiv. Sind die Sätze relativ kurz, besteht die Möglichkeit, dass die gesuchten Konzepte in einem nachfolgenden Satz enthalten sind. Beginnend mit den ersten drei Sätzen eines Dokumentes wird überprüft, ob die Konzepte in den Sätzen enthalten sind. Hierbei werden die drei Sätze temporär als Ganzes betrachtet und die Konzepte in diesen ermittelt. Die Reihenfolge der Konzepte in den Sätzen ist unwichtig. Nach der Prüfung wird der erste Satz entfernt und für diesen der vierte Satz in die Prüfung einbezogen. Dann werden diese drei Sätze als Ganzes betrachtet und untersucht. Somit wird die Prüfung Schritt für Schritt bis zum letzten Satz des Dokumentes durchgeführt. Nach vollständiger Dokumentanalyse ist festzustellen, ob der Nutzer durch die zuvor im Nutzerprofil spezifizierte Nachricht zu informieren ist. Die Auslösung der Benachrichtigung wird durch einen Trigger vorgenommen. Dieses ist möglich, da im Rahmen der Themen- und Regelüberprüfung die Ergebnisse für jedes Dokument in Form von Werten abgelegt wurden. Für jeden Themenbereich liegt ein Kosinuswert als Betrag aus dem Intervall [0, 1] vor [GeHK01, S. 41]. Da die Re-
Integration von Subsystemen in einem Active Data Warehouse
1393
geln nur auf vollständige Erfüllung überprüft werden, liegen entweder die Werte Null oder Eins vor. Ein Trigger wird für jedes Profil abgeleitet und nach vollständiger Analyse eines Dokumentes (Event) ausgeführt. Dieser Trigger enthält die Schwellenwerte aus den Nutzerprofilen. Ist mindestens ein Schwellenwert überschritten oder eine Regel erfüllt (Condition), wird eine Benutzernachricht mit den entsprechenden Informationen versendet (Action). Somit kann ein Active Data Warehouse auf Basis qualitativer Daten realisiert werden. Hierbei ist es von Interesse, vom Analysten eine Rückkopplung durch eine Bewertung der zur Verfügung gestellten Textdokumente zu erhalten. Dadurch kann die Funktionsweise des Triggers optimiert werden.
3.3
Profilbasierte Identifikation von Frühindikatoren
Sowohl quantitative als auch qualitative Daten im Data Warehouse sind gemäß des Integrationsprozesses vergangenheitsorientiert. Sie repräsentieren entsprechend Ihrer Aufgabe im MAIS betriebswirtschaftliche Ereignisse im Zeitverlauf. Die Analyse von Textdokumenten zur Identifikation von Frühindikatoren wendet die Blickrichtung in die Zukunft. Frühindikatoren geben Hinweise auf potenzielle wirtschaftliche Entwicklungen [Anso80]. Um den Analysten einen Zeitvorsprung zu ermöglichen, wird ein weiteres Modul in der Architektur des MAIS angelegt, um potenzielle Auswirkungen der identifizierten Frühindikatoren aufzuzeigen. Zusätzlich ermöglicht es auch eine thematische Kopplung einzelner Frühindikatorenmodelle an entsprechende Berichtskomplexe im Data Warehouse. Das unterstützt die Bindung an entsprechende Benutzerprofile, um Ergebnisse anwenderorientiert zur Verfügung zu stellen. Eine gleiche zukunftsorientierte Blickrichtung liegt auch dem Konzept der Simulation zu Grunde. Es wird nicht nur in der Betriebswirtschaft eingesetzt, um beispielsweise Planwerte als Zielvorgaben unternehmerischer Tätigkeit zu bestimmen oder die Auswirkung unterschiedlicher Einflussfaktoren auf das Marktgeschehen zu bewerten. Jedoch sind bei der Anwendung einer Simulationstechnik Grenzen gesetzt. Ein allgemein gültiges, unternehmensweites Simulationsmodell lässt sich praxisgerecht nicht erstellen. Die Dynamik der Umwelt sowie der Umfang der Modellparameter sind bei einer umfassenden Modellierung zu intensiv. Des Weiteren ist zu beachten, dass ein Simulationsmodell nicht nur der Dynamik des Modells entsprechen soll, sondern auch der Dynamik der Modellumwelt unterliegt. Dies erfordert einen entsprechenden Pflege- und Wartungsaufwand. Um diesen Aufwand einzuschränken, sind Simulationsparameter derart zu gestalten, dass die Dynamik der Umwelt keinen dominierenden Einfluss erhält und somit die Systemkomplexität unnötig zunimmt. Das konkret im MAIS integrierte Modul basiert auf der Simulationsmethode System Dynamics. Die Auswahl ist damit begründet, dass System Dynamics bei der Modellierung zusätzlich zu quantitativen Einflussgrößen auch qualitative explizit erfasst [Ster00; Forr69; Mead72]. Auf Grund der oben
1394
C. Felden
genannten Einschränkungen, wird ein Feedback-Diagramm gemäß System Dynamics eingesetzt. Zunächst ist ein Modellbereich abzugrenzen. Eine thematische Verbindung zu einem Berichtskomplex grenzt den Modellbereich ein und macht die Parameterkomplexität beherrschbar. Diese orientiert sich analog zur bisherigen Vorgehensweise an den Metadaten und dem Glossar im Kontext zur Ontologie des multidimensionalen Datenmodells. Dadurch ist zum einen Begriffseindeutigkeit gewährleistet, zum anderen erfolgt eine Kopplung der Frühindikatorenprofile an die jeweiligen Berichtskomplexe. Bezieht sich ein Bericht zum Beispiel auf die Nachfrage nach Energiederivaten, ist dies als zentrale Information im Modell zu erfassen. Durch eine Informationsbedarfsanalyse sind Variablen und Konstanten zu identifizieren, die einen Einfluss auf die beispielhaft aufgeführte Nachfrage haben. Das Ergebniss der Informationsbedarfsanalyse wird in einem Feedback-Diagramm beschrieben. Die Identifikation von Wirkungszusammenhängen in qualitativen Daten setzt voraus, dass die Textsemantik automatisiert erkennbar ist. Auch hier besteht das Problem, dass identische Aussagen durch variierende Begriffe beschrieben werden können. Das erfordert ein Verfahren, Inhalte trotz variierender Ausdrucksweisen zu erkennen und Wirkungszusammenhänge zu bestimmen. Die Funktionsweise wird in Abbildung 3 gezeigt.
Abbildung 3: Funktionsweise des Frühindikatorenprofils
Das Architekturmodul Frühindikatorenprofile erfasst disjunkte FeedbackDiagramme zu einem Themenkomplex mit entsprechend generierten Regelbibliotheken der Parameter, die auf Konzepten der Ontologie basieren. Dort sind zusätz-
Integration von Subsystemen in einem Active Data Warehouse
1395
lich die Einflussausprägungen zwischen diesen dokumentiert. Wird ein neues Textdokument in der Datenbank erfasst, ist anhand der Deskriptoren zu prüfen, ob der Wert einer Modellvariablen zu verändern ist. Dem Gedanken der Regelprüfung des Benutzerprofils folgend wird die Prüfung direkt im Dokument ausgeführt, nicht auf dem erzeugten Index. Abbildung 3 zeigt beispielhaft die Regelprüfung, ob Mitarbeiter zu einer Datenbankschulung geschickt worden sind. Ist ein Suchterm gefunden, ist der Variablenwert im Modell um die zugeordnete Quantifizierung zu verändern und der Anwenderkreis zu informieren, in dessen Profil der Bericht als Merkmal erfasst ist. Dieser Output umfasst z. B. den identifizierten Frühindikator, die ausgeführte Änderung sowie das Dokument, in dem der Indikator identifiziert wurde. Die zuvor beschriebene Erweiterung der Architektur erzeugt Subsysteme innerhalb des MAIS. Diese werden durch Beschreibungssprachen mit einer unterschiedlichen Semantik dargestellt. Um einen konsistenten Ansatz zu entwickeln, sind diese Subsysteme miteinander zu verknüpfen.
4
Integration der Architektur-Subsysteme
Grundsätzlich wird eine solche Verknüpfung bereits seit einiger Zeit unter der Bezeichnung Unternehmensmodell diskutiert [Fran99; JJPS96]. Dabei geht es darum, verschiedene sprachliche Systeme, die naturgemäß innerhalb eines Unternehmens bestehen, zu integrieren. Zu diesem Zweck werden, im weiteren Verlauf des Beitrages orientiert an [BeBC+03, S. 27ff], Inhalteräume gestaltet. Hier ist die semantische Vorgabe eine Cube-Struktur des Data Warehouse. Darum wird ein Raum gebildet, in dem Benutzerprofile und Frühindikatorenprofile entsprechend objektiv zugeordnet werden, da sie sich immer auf den Inhalt einer Cube-Struktur beziehen. Eine solche Vorgehensweise integriert die verschiedenen sprachlichen Systeme semantisch durch eine Vielzahl von disjunkten Inhalteräumen im MAIS. Zunächst wird eine Sprache semi-formal mittels Metamodellierung, welche in Abschnitt 3.1 vorgestellt wird, beschrieben. Zur Spezifikation wird dann die im Subsystem angewendete Sprache in das Metamodell eingesetzt. Das Metamodell selbst basiert auf einem Meta-Meta-Modell, das die Beschreibungselemente des Modells definiert. Dies ist die Ebene, auf der die unterschiedlichen Modellierungssprachen zusammengeführt werden können, da eine einheitliche Spezifikation für alle Modelle zu Grunde gelegt wird. Als oberste Integrationsebene wird im Folgenden die Meta-Object-Facility der Object Management Group (OMG) genutzt und in Abschnitt 3.2 beschrieben. Abschließend schildert Abschnitt 3.3 die Integration der unterschiedlichen Sprachen auf Basis des einheitlichen Meta-MetaModells und der darin enthaltenen Konzepte. Dabei handelt es sich im Ergebnis nicht um ein Unternehmensmodell. Jedoch folgt dieses Konzept dem gleichen
1396
C. Felden
Prinzip und unterstützt eine konsistente Architektur für ein Analytisches Informationssystem.
4.1
Meta-Modellierung
Im Rahmen einer Modellierung werden die Inhalte einer Domäne mit den Konzepten, die durch eine Modellierungssprache zur Verfügung gestellt werden, beschrieben. Die Metamodellierung ist eine Ebene höher angesiedelt. Sie erlaubt die Modellierung der Modellierungssprache. Dabei ist die Sprache auf bestimmte Problembereiche zugeschnitten. Dies drückt sich in der jeweiligen Modellmetapher aus. Eine solche Metapher symbolisiert den Entwicklungszweck der Sprache [OMG02, S. 1-1ff]. Um eine Modellierungssprache spezifizieren zu können, muss ein Metamodell generiert werden. Dazu wird eine weitere Sprache benötigt: die Meta-MetaModellsprache. Dies bedeutet auch, dass unterschiedliche Modellebenen in die Betrachtung involviert sind. Im Schrifttum werden (allgemein akzeptiert) vier Ebenen unterschieden [OMG02, S. 2-3]. Die Instanzebene enthält die Tupel der Datenbank, die Schemaebene die Struktur des zu Grunde liegenden Datenmodells. Dabei handelt es sich in diesem Kontext um ein Star-Schema für die Datenbank, eine boolesche Liste für das Benutzerprofil und ein Feedbackdiagramm zur Identifikation der Frühindikatoren. Die Metaebene enthält die Beschreibungselemente, die auf der Schemaebene zu nutzen sind. Jedoch kann ein Metamodell nicht um die Bestandteile eines anderen Metamodells erweitert werden, um die jeweiligen deskriptiven Fähigkeiten zu erreichen. Dies erzeugt einen Widerspruch in der Modellmetapher. Keine dieser Modellierungsmethodiken wurde für andere Darstellungsinhalte geschaffen. Die Integration kann nur auf einer Meta-Meta-Ebene stattfinden, da dort die jeweiligen Metamodelle definiert werden. Auch die OMG [OMG02, S. 2-3] orientiert sich an dieser vierfachen Unterteilung und hat z. B. mit dem Common-Warehouse-Metamodel (CWM) ein Referenzmodell für die Modellierung von Data-Warehouse-Systemen auf der Meta-Ebene geschaffen [OMG01]. Dieses basiert auf der Meta-Object-Facility (MOF), die für das weitere Vorgehen zu Grunde gelegt wird. Ihre Aufgabe ist die eindeutige formale Beschreibung des Meta-Modells. Dabei ist die MOF nicht nur Basis des CWM, sondern sämtlicher Methoden zur spezifizierenden Datenmodellierung [OMG02].
4.2
Meta-Object-Facility
Die Meta-Object-Facility ist eine objektorientierte Modellierungsmethode. Sie basiert auf der zuvor beschriebenen Vier-Schichten-Metamodell-Architektur [OMG02, S. 2-2f]. Ihre Aufgabe ist die Spezifikation von Schnittstellen in Anlehnung an die Common Object Request Broker Architecture (CORBA), um inter-
Integration von Subsystemen in einem Active Data Warehouse
1397
operierende Metamodelle zu definieren und zu manipulieren [OMG02, S. xvi]. Dazu wird die visuelle Syntax der Unified Modelling Language (UML) genutzt [OMG02, xii]. Sämtliche Spezifikationen der OMG sind Instanzen dieser MOF. Die geforderte Interoperabilität soll sämtliche Phasen der Applikationsentwicklung mit deren jeweiligen Metamodellen unterstützen. Dies bedeutet, dass solche Metamodelle eine Instanz der MOF bilden. Das kann in dieser Vollständigkeit nicht strikt eingehalten werden. Strikte Metamodellierung fordert, dass jedes Element einer nachrangigen Stufe Instanz eines Elementes der darüber liegenden Stufe ist. Die OMG hat in diesem Kontext erkannt, dass eine Instanziierung aller MOF-Elemente im Metamodell nicht möglich ist. Somit kann die MOF für die Definition von Metamodellen genutzt werden, die eine andere Philosophie bzw. andere Details aufweisen. Abbildung 4 zeigt einen Ausschnitt des MOF-Klassendiagramms, welches die Struktur und Semantik der Meta-Meta-Daten darstellt.
Abbildung 4: Ausschnitt der Meta Object Facility [OMG02, S. 3-12 (modifiziert)]
Diese Abbildung zeigt die Konstrukte der Metamodellierung. Die vier zentralen Modellierungskonzepte sind [OMG02, S. 2-6ff]: x Klassen (Classes), welche die MOF-Meta-Objekte modellieren. Diese enthalten Attribute und Operationen. x Assoziationen (Associations), welche binäre Beziehungen zwischen MetaObjekten modellieren. Unter dem Aspekt, dass die Beziehung ggf. ein hierarchisches Verhalten aufweist, kann es sich bei der Assoziation auch um eine Aggregation handeln. x Datentypen (DataTypes), die z. B. primitive Typen (Integer, String etc.) oder externe Typen (für nicht MOF-Spezifikationen erforderlich) definieren. x Pakete (Packages), die das Modell in Module aufteilen.
1398
C. Felden
Das MOF-Modell beschreibt die vom Meta-Modellierer nutzbaren Metadaten, um Klassen mit deren Attributen und Assoziationen als Relationen zwischen Klassen abbilden zu können. Diese Konstrukte sind ausreichend, um das Metamodell als abstrakte Syntax zu erstellen. Dazu ist es sinnvoll, die Syntax durch entsprechende Konsistenzbedingungen zu erweitern [OMG, S. 2-17ff]. Abgeleitet aus den Objekten Class und Association werden im Folgenden die Metamodelle für die ADAPTModellierung des Data Warehouse, die Benutzerprofilierung und System Dynamics eingeführt.
4.3
Meta-Modelle des Marktdateninformationssystems
Bei dem mit der MOF verknüpften Metamodell handelt es sich um die Basis für ein konzeptuelles beziehungsweise semantisches Modell. Die Erstellung eines solchen Modells ist eine systemunabhängige Tätigkeit [ElNa02], so dass die Basisanforderungen wertfrei auf der Metaebene modelliert werden können. Die Abbildung 5 zeigt das Metamodell der Modellierungssprache Application Design for Analytical Processing Technologies (ADAPT).
Abbildung 5: ADAPT-Meta-Modell [PrPe01, S. 78 (modifiziert)]
Das Metamodell beinhaltet die Kernelemente Würfel (Cube), Kennzahl (Measure), Hierarchieebene (Dimension) und Dimensionsattribute (Dim.Attribute). Der Würfel besitzt als Untersuchungsobjekt null bis mehrere Kennzahlen, welche die zu analysierenden Fakten repräsentieren. Die Hierarchieebenen sind in Halbordnungen angeordnet, wobei ein Würfel jeweils durch eine Menge von Basishierarchieebenen aufgespannt wird. Die Basis für eine Personalisierung bildet immer ein sogenanntes Benutzerprofil [Runt00; Mert97]. Darin werden die gesammelten personenbezogenen Daten gespeichert. Mit Hilfe dieser Daten lässt sich der gesamte Ablauf von Transaktionen individualisieren. Um die abstrakten und persönlichen Daten erfassen zu können, muss ein wertfreies Metamodell bestehen, um ein systemunabhängiges Modell zu
Integration von Subsystemen in einem Active Data Warehouse
1399
erstellen. Abbildung 6 zeigt das Metamodell zu Gunsten einer Benutzermodellierung.
Abbildung 6: User-Profile-Meta-Modell
Dieses Metamodell enthält die Kernelemente Rolle (Role) und Benutzer (User), die durch entsprechende Attribute charakterisiert werden. Rolle umfasst Beschreibungselemente für die abstrakte Profilierung, Benutzer Elemente für die persönliche Profilierung. Zusätzlich sind die Trigger-Elemente Ereignis, Bedingung und Aktion enthalten, die als Operationen das dynamische Verhalten auf Basis der Attribute modellierbar machen. Das Metamodell einer Simulationsumgebung approximiert das Verhalten von Input und Output des Simulationsmodells. Zu einem Simulationsmodell können mehrere Metamodelle erstellt werden. Ein solches Modell kann demnach immer nur speziell für die Analyse einer Ausgangsvariablen verwendet werden und nicht parallel für sämtliche Ausgangsvariablen des Simulationsmodells [Berc00, S. 2ff; Forr69]. Abbildung 7 zeigt das Metamodell zu System Dynamics. Dabei handelt es sich um ein globales Metamodell, das für sämtliche Simulationssprachen zu Grunde gelegt werden kann.
Abbildung 7: System-Dynamics-Meta-Modell (in Anlehnung an [JJPS96])
1400
C. Felden
Zu sehen ist das Kernelement Objekte, dessen Elemente aus einem Repository abgeleitet werden. Objekte werden durch den Ressourcen- beziehungsweise Informationsfluss innerhalb des Modells beeinflusst. Es werden Verfahren angewendet, welche z. B. die Änderung eines Objektzustands repräsentieren. Dabei unterliegt das Modell einer Aufgaben-/Zielorientierung, die aus entsprechenden Informationen des Problemumfelds resultiert. Die Steuerung des Simulationsablaufes erfolgt durch einen Agenten. In allen Metamodellen ist zu sehen, dass diese aus der MOF abzuleiten sind und somit diesem Meta-Meta-Modell genügen. Damit ist in diesem Kontext das Ziel dieser Facility erreicht, ein Integrationskonzept für unterschiedliche Metamodelle zu sein. Es lassen sich auf diesem Abstraktionsniveau Eigenschaften als Konventionen für alle Metamodelle beschreiben, so dass eine einheitliche Spezifikation innerhalb eines Informationssystems gewahrt bleibt. Die semantische Integration muss jedoch auf Ebene der Metamodelle durch die Verwendung gemeinsamer Konzepte durchgeführt werden.
4.4
Konzeption zur Integration der Meta-Modelle des Marktdateninformationssystems
Wie einleitend dargestellt, werden Inhalteräume in Anlehnung an [BeKS01, S. 20ff] konstruiert (Abbildung 8). Diese repräsentieren, nicht wie dort vorgeschlagen, einen Navigationsraum innerhalb des Informationssystems, sondern spiegeln das Informationsbedürfnis eines Anwenders wider. Das Informationsbedürfnis wird durch die Cube-Struktur, das Benutzerprofil sowie das Frühindikatorenprofil ausgedrückt.
Abbildung 8: Integrierte Modellstruktur
Integration von Subsystemen in einem Active Data Warehouse
1401
Kernbestandteil eines ADAPT-Modells sind Cubes, die durch Dimensionen aufgespannt werden. Dies wird in der Abbildung beispielhaft durch die Struktur Product_Price-History gezeigt. Eine solche multidimensionale Datenstruktur repräsentiert das Informationsbedürfnis eines am System angemeldeten Anwenders (Activated_User). Eine Dimension erfasst Attribute zur Charakterisierung realer Sachverhalte. In der Struktur enthaltene Fakten bilden Urteile zu den jeweiligen Dimensionskombinationen. Qualitative Daten bilden gemäß dem MAIS-Ansatz eine weitere Dimension im Cube. Solche haben jedoch keinen direkten Bezug zu den Fakten. Für das Metamodell der Frühindikatorenprofile gilt, dass die Objekte des Repository ebenfalls reale Sachverhalte beschreiben und ebenso ein Untersuchungsobjekt für Anwender bilden. Ein Modell des Frühindikatorenprofils bezieht sich nur auf einen abgegrenzten Bereich der Realität (Sim_Objects). Diese Realität hat eine Relation zur multidimensionalen Datenstruktur, da diese auf Grund der gemeinsamen Speicherung von quantitativen und qualitativen Daten determiniert wird. Das Informationsobjekt User aus dem Metamodell User Profile beschreibt die Informationen, die ein Anwender automatisiert erhalten möchte. Dort sind dessen persönliche und abstrakte Charakteristika erfasst. Auch diese lassen sich einer multidimensionalen Datenstruktur zuordnen, da dort die Speicherung der Inhalte erfolgt, die ein Anwender gegebenenfalls mittels PushMechanismus bereitgestellt haben möchte. Entsprechend erfolgt die Integration über eine Assoziation zwischen den zentralen Modellelementen. Dies strukturiert die an den multidimensionalen Datenstrukturen orientierten Inhalteräume. Sie enthalten nicht-disjunkte Elemente. Dimensionen sind in der Regel Bestandteil mehrerer Datenstrukturen. Benutzerprofile beziehen sich auf unterschiedliche Berichtsstrukturen. Die Instanzen eines Inhalteraums stehen unabhängig von ihrer Herkunft zueinander in Beziehung. Die Beziehungen bilden die Struktur, die das Zusammenwirken der Teilsysteme realisiert.
5
Zusammenfassung und Ausblick
Im vorliegenden Beitrag wurde zunächst der Aufbau einer Architektur für ein Marktdateninformationssystem skizziert. Auch wenn eine vollständige Automatisierung zurzeit nur schwer zu erzielen ist, integriert dieser Ansatz qualitative und quantitative Daten in einer multidimensionalen Datenstruktur. Bedingt durch eine zunehmende Informationsüberflutung der Entscheidungsträger, wird eine Personalisierung der Informationsversorgung realisiert. Diese individualisierte Informationsversorgung arbeitet nicht nur vergangenheitsorientiert, sondern durch die Erweiterung um Frühindikatorenprofile zukunftsorientiert. Frühindikatoren werden in Textdokumenten identifiziert und mittels Feedback-Diagrammen potenzielle Auswirkungen aufgezeigt. Das Ergebnis erhält der Anwender entsprechend des Benutzerprofils zur Verfügung gestellt. Alle Architekturbausteine führen zu Sub-
1402
C. Felden
systemen. Die einzelnen Modellierungssprachen lassen sich jedoch aus der MetaMeta-Ebene ableiten und durch Bildung von Inhalteräumen integrieren. Dieses Ergebnis birgt inhärente Kritik. Komplexe Modelle sind in Unternehmen in der Regel nicht wirtschaftlich zu pflegen. Dies würde umfangreiche Maßnahmen der organisatorischen Einbettung erfordern, um eine regelmäßige und konsistente Wartung und Pflege der Modelle sicherzustellen. Zusätzlich gehen Entwurf und auch Metamodellierung von Modellierungssprachen mit einer gewissen Beliebigkeit einher. Subjektive Präferenzen der jeweiligen Modellierer spielen eine bedeutende Rolle in der Modellgestaltung. Dies bringt den Nachteil mit sich, dass in verschiedenen Projekten entworfene Artefakte nur schwer miteinander in Verbindung zu bringen sind. Trotzdem ist ein multiperspektivischer Ansatz zu verfolgen. Analytische Informationssysteme werden in ihrem Leistungsangebot immer umfangreicher und komplexer. Um diese konsistent zu gestalten, bietet die Integration der Metamodelle einen Ansatz, Komplexität zu reduzieren. Damit ist es auch ein erster Schritt zu einem Unternehmensmodell, in dem sämtliche Modellierungsansätze integriert werden.
Literatur [AbKW02] Abramowicz, W.; KalczyĔski, P.; WĊcel, K.: Filtering the Web to Feed Data Warehouses. Springer, London 2002. [ArCT03] Arjona, J.; Corchuelo, R.; Toro, M.: A Knowledge Extraction Process Specification for Today’s Non-Semantic Web. In: Liu, J.; Liu, C.; Klusch, M.; Zhong, N.; Cercone, N. (Hrsg.): 2003 IEEE/WIC International Conference on Web Intelligence (Proceedings, Halifax). IEEE-Publishing, Los Alamitos et al. 2003, S. 61 - 67. [Anso80] Ansoff, H. I.: Strategic Issue Management. In: Strategic Management Journal 1 (1980), S. 131 - 148. [BeBC+03] Becker, J.; Brelage, C.; Crisandt, J.; Dreiling, A.; Holten, R.; Ribbert, M.; Seidel, S.: Methodische und technische Integration von Daten- und Prozessmodellierungstechniken für Zwecke der Informationsbedarfsanalyse. In: Becker, J.; Grob, H. L.; Klein, S.; Kuchen, H.; Müller-Funk, U.; Vossen, G. (Hrsg.): Arbeitsberichte des Instituts für Wirtschaftsinformatik, Nr. 103, 2003. [BeKS01] Becker, J.; Knackstedt, R.; Serries, T.: Gestaltung von Führungsinformationssystemen mittels Informationsportalen: Ansätze zur Integration von Data-Warehouse- und Content-Management-Systemen. Becker, J.; Grob, H. L.; Klein, S.; Kuchen, H.; Müller-Funk, U.; Vossen, G. (Hrsg.): Arbeitsberichte des Instituts für Wirtschaftsinformatik, Nr. 80, November 2001. [Berc00] Berchtold, C.: Experimentieren mit Simulationsmodellen. Bericht 2000-05 der Universität der Bundeswehr, Fachbereich für Informatik, November 2000.
Integration von Subsystemen in einem Active Data Warehouse
1403
[Brob02] Brobst, S.: Enterprise Application Integration and Active Data Warehousing. In: von Maur, E.; Winter, R. (Hrsg.): Vom Data Warehouse zum Corporate Knowledge Center. Physica, Heidelberg, 2002, S. 15 - 22. [Ecke03] Eckerson, W.: Smart Companies in the 21st Century: The Secrets of Creating Successful Business Intelligence Solutions. TDWI Report Series. http://www.microstrategy.com/download/files/analyst/TDWI_2003BIReport.pdf, 2003, Abruf am 2003-12-15. [ElNa02] Elmasri, R.; Navathe, S. B.: Grundlagen von Datenbanksystemen, 3., überarbeitete Auflage. Pearson, München 2002. [Feld02] Felden, C.: Konzept zum Aufbau eines Marktdateninformationssystems – auf der Basis interner und externer Daten. DUV, Wiesbaden 2002. [Feld02a] Feldman, R.: Text Mining. In: Klösgen, W.; Zytkow, J. (Hrsg.): Handbook of Data Mining and Knowledge Discovery. Oxford et al. 2002, S. 749 - 757. [Fens98] Fensel, D.: Ontologies. A Silver Bullet for Knowledge Management and Electronic Commerce. Springer, Berlin et al. 1998. [Ferb03] Ferber, R.: Information Retrieval – Suchmodelle und Data-Mining-Verfahren für Textsammlungen und das Web. Dpunkt-Verlag, Heidelberg 2003. [FoDu92] Foltz, P.; Dumais, S.: Personalized Information Delivery: An Analysis of Information Filtering Methods. In: Communications of the ACM, 35 (1992) 12, S. 51 - 60. [FoKL98] Foltz, P.; Kintsch, W.; Landauer, T.: The Measurement of Textual Coherence with Latent Semantic Analysis. Discourse Process. Http:// www.knowledgetechnologies.com/papers/dp2.foltz.pdf, 1998, Abruf am 2003-12-15. [Forr69] Forrester, J. W.: Urban Dynamics. Pegasus, Cambridge 1969. [Fran99] Frank, U.: Eine Architektur zur Spezifikation von Sprachen und Werkzeugen für die Unternehmensmodellierung. http://www.seda.sowi.uni-bamberg.de/fg510/rundbrief/Artikel%5CFran99.pdf, Abruf 2004-06-12. [Frit02] Fritschi, H.: A Component Framework to Construct Active Database Management Systems. Dissertation http://www.ifi.unizh.ch/ifiadmin/staff/rofrei/Dissertationen/Jahr_2002/thesis_fritschi.pd f, 2002, Abruf am 2004-01-13. [GeHK01] Gerstl, P.; Hertweck, M.; Kuhn, B.: Text Mining: Grundlagen, Verfahren und Anwendungen. In: HMD - Praxis der Wirtschaftsinformatik 38 (2001) 222, S. 38 - 48. [Hack98] Hackathorn, R. D.: Web Farming for the Data Warehouse. Morgan Kaufmann, San Francisco 1998. [JJPS96] Jarke, M.; Jeusfeld, M A.; Peters, P.; Szczurko, P.: Coordinating information systems engineering. Proceedings 9th Intl. Symposium on Methodologies for Intelligent Systems (ISMIS'96), Zakopane, Poland, Juni 10-13, 1996. [Kamp02] Kamphusmann, T.: Text-Mining. Eine praktische Marktübersicht. Symposium, Düsseldorf 2002.
1404
C. Felden
[KaSh00] Kashyap, V.; Sheth, A.: Information Brokering Across Heterogeneous Digital Data. A Metadata-based Approach. The Kluwer International Series on Advances in Database Systems, Nr. 20. Boston et al. 2000. [LeRi99] Lewis, C.; Rieman, J.: Task-centered User-Interface Design – A practical Introduction. http://bmrc.berkeley.edu/courseware/cs160/fall99/Book/, 1999, Abruf am 2004-05-06. [LiHs02] Liu, B.; Hsu, W.: User Preferences. In: Klösgen, W.; Zytkow, J. (Hrsg.): Handbook of Data Mining and Knowledge Discovery. Oxford et al. 2002, S. 467 - 474. [Mead72] Meadows, D. H.: The limits of growth. Universe Books, New York 1972. [Meie03] Meier, M.: Situations- und benutzerorientierte Filterung von Führungssituationen. In: Uhr, Wolfgang; Esswein, Werner, Schoop, Eric (Hrsg.): Wirtschaftsinformatik 2003, Band II, Medien - Mobile Märkte – Mobilität. Physica, Heidelberg 2003, S. 475 – 494. [Mert97] Mertens, P.: Recommender-Systeme. In: Wirtschaftsinformatik, 39 (1997) 4, S. 401 - 404. [OMG02] o. V.: Meta Object Facility (MOF) – Spezification, Version 1.4, November 2002. http://www.omg.org/docs/formal/02-04-03.pdf, 2002, Abruf am 2004-06-14. [OMG01] o. V.: Common Warehouse Metamodel (CWM) – Spezification, Version 1.0, Februar 2001. http://www.omg.org/docs/ad/01-02-01.pdf, 2001, Abruf am 2004-06-14. [PrPe01] Priebe, T.; Pernul, G.: Metadaten-gestützter Data-Warehouse-Entwurf mit ADAPTed UML. Proceedings 5. Internationale Tagung Wirtschaftsinformatik (WI 2001) Augsburg, 2001, S. 73 - 86. [Pull01] Pullwitt, D.: Integrating Contextual Information to Enhance SOM-based Text Document Clustering. Graduiertenkolleg Wissenspräsentation, Institut für Informatik, Universität Leipzig. Http://www.informatik.uni-leipzig.de/~pullwitt/papers/nnsi.pdf, 2001, Abruf am 2003-12-13. [Runt00] Runte, M.: Personalisierung im Internet. DUV, Wiesbaden 2000. [Schl00] Schlesinger, M.: ALFRED: Konzepte und Prototypen einer aktiven Schicht zur Automatisierung von Geschäftsregeln. Dissertation. Http://www.staempfli.com/digitalpublications/schlesin/diss_schlesinger_ pdf_version.zip, 2000, Abruf am 2003-12-12. [Ster00] Sterman, J. D.: Business Dynamics – Systems Thinking and Modelling for a Complex World. McGraw-Hill, New York 2000. [Sull01] Sullivan, D.: Document Warehousing and Text Mining. Techniques for Improving Business Operations, Marketing, and Sales. Wiley, New York et al. 2001. [VoGu01] Voß, S.; Gutenschwager, K.: Informationsmanagement. Springer, Berlin et al. 2001.
Mehrstufige Entscheidungsunterstützung durch Active Data Warehouses Markus Gelhoet, Bodo Rieger Universität Osnabrück
Zusammenfassung: Data Warehouses dienen in zunehmendem Maße nicht mehr nur der Unterstützung strategischer sondern auch operativer und taktischer Entscheidungen. Die typischerweise passive Datenbereitstellung des Data Warehouse ist jedoch zur Unterstützung dieser repetitiven routinemäßigen Entscheidungen in Form einer partiellen Automatisierung nur wenig geeignet. Active Data Warehouses lösen den Entscheidungsprozess ereignisgesteuert aus, automatisieren weitestgehend Parameteränderungen an operativen Systemen und realisieren so einen closed loop. Die Bewertung vergangener Entscheidungen und die Ableitung alternativer Handlungsweisen aus dieser Bewertung werden jedoch nicht unterstützt. In diesem Beitrag wird das Grundprinzip des Active Data Warehouse auf diese Kontrollphase angewandt und das Konzept im Sinne einer mehrstufigen Entscheidungsunterstützung erweitert. Schlüsselworte: Active Data Warehouse, Entscheidungsprozesse, Entscheidungsunterstützung
1
Active Data Warehouse – State-of-the-Art
Ein Active Data Warehouse ist ein in der Literatur viel diskutiertes Konzept [ScTh00; Tha+01; Thal01; Brob02; BrTj01; Mert01]. Der verfolgte Zweck dieser Architektur ist eine weitestgehende Automatisierung wohlstrukturierter Entscheidungsprozesse bei repetitiven routinemäßigen Entscheidungsproblemen im operativen und taktischen Bereich [ScTh00, S. 34]. Die damit einhergehende Explizierung impliziten Wissens des Entscheidungsträgers über Entscheidungsprozesse [vgl. MeRi01] in einem Active Data Warehouse soll eine Konsistenz in der Entscheidungsfindung und eine Erhöhung der Entscheidungsqualität im Unternehmen ermöglichen [Tha+01, S. 243; Thal01, S. 76]. Daher ist die Architektur des Active Data Warehouse in der Art zu gestalten, dass es die einzelnen Phasen des Entscheidungsprozesses automatisieren bzw. unterstützen kann. Nach Simon strukturiert sich der Entscheidungsprozess in vier nicht streng sequenziell ablaufende Entscheidungsphasen [Simo77, S. 40f]. Ausgelöst wird der Prozess durch die Anregungsphase, unter der neben der Erkennung von Entschei-
1406
M. Gelhoet, B. Rieger
dungsproblemen durch Analyse und Bewertung eines Zustandes auch eine Klärung und Definition des Probleminhaltes verstanden wird [Adam96, S. 32]. Notwendige Voraussetzung für die Problemerkennung ist eine permanente Analyse und Bewertung der aktuellen Unternehmenssituation unter Berücksichtigung unternehmensinterner und –externer Zusammenhänge [Kle+03, S. 116]. Die anschließende Suchphase umfasst die Suche von Informationen zur Unterstützung der Entscheidungsfindung, wie z.B. Entscheidungsparameter und Zielinformationen, und die Suche von Handlungsalternativen. Die darauf folgende Entscheidungsfindungsphase beschreibt die Entscheidungsfindung durch die Bewertung der Handlungsalternativen und nachfolgend die Umsetzung der Entscheidung. Abschließend bewertet und evaluiert die Kontrollphase die umgesetzten Entscheidungen [Adam96, S. 32]. Sie ist eng mit der Anregungsphase verknüpft, da bei der Bewertung vergangener Entscheidungen entdeckte Soll-Ist-Abweichungen neue Entscheidungsprobleme erkennen lassen können [Kle+03, S. 116]. Wie die einzelnen Phasen eines Entscheidungsprozesses durch die Architektur eines Active Data Warehouse unterstützt bzw. automatisiert werden, zeigt das bisher detaillierteste Konzept zu Active Data Warehouses von Thalhammer et al. [ScTh00; Tha+01; Thal01]: Dabei wird das Prinzip aktiver Datenbanken, auf Ereignisse innerhalb und außerhalb der Datenbank mit definierten Aktionen selbständig zu reagieren [Behr95, S. 11], auf Data Warehouses übertragen. Kern der Architektur aktiver Datenbanken sind sog. ECA-Regeln (event – condition – action), bei denen auf ein definiertes Ereignis, z.B. einen UPDATE-Befehl, eine Bedingung innerhalb der Datenbank überprüft wird und in Abhängigkeit davon eine oder mehrere Datenbankoperationen als Aktion ausgeführt werden [Behr95, S. 20]. Analog zu aktiven Datenbanken, verwenden Active Data Warehouses Analyseregeln, mit denen ereignisgesteuert Aktionen eigenständig ausgelöst werden können. Gegenüber den ECA-Regeln verwenden die Analyseregeln jedoch komplexere Bedingungen, da sie sich auf multidimensionale Analysen im Data Warehouse beziehen [Tha+01, S. 242f]. Die Basis eines Active Data Warehouse ist das klassische Data Warehouse, das die Daten aus den operativen Systemen mittels ETL-Prozessen extrahiert, transformiert und lädt und die aufbereiteten, historisierten Daten passiv für Analysen bereitstellt. Im Gegensatz zum ursprünglichen Data-Warehouse-Konzept [vgl. Inmo96; Rieg01] sollte die Datenbasis des Active Data Warehouse auch atomare und aktuelle Daten enthalten, da operative und taktische Entscheidungen zu einem großen Teil aktuelle detaillierte Informationsquellen benötigen. Dementsprechend ist eine mindestens tägliche Aktualisierung der Data Warehouse Daten notwendig [Tha+01, S. 244]. Die Analyseregeln ermöglichen eine weitestgehende Automatisierung eines Entscheidungsprozesses durch ein ereignisgesteuertes selbständiges Ausführen von Aktionen auf Basis der Daten im Data Warehouse. Die Aktionen übergeben veränderte Parameter an die operativen Systeme zurück und realisieren
Mehrstufige Entscheidungsunterstützung durch Active Data Warehouses
1407
damit einen closed loop zwischen operativen Systemen und dem Active Data Warehouse [Tha+01, S. 242]. Die entscheidende Komponente in der Active-Data-Warehouse-Architektur ist die Ereignissteuerung in der Analyseregel. Nach Gatziu und Dittrich ist ein Ereignis definiert als „... ein Indikator für das eigentliche Eintreten einer bestimmten Situation“ [GaDi93, S. 94]. Demnach repräsentiert und automatisiert ein Ereignis die Erkennung eines Entscheidungsproblems innerhalb der Anregungsphase. Der Anstoß des Entscheidungsprozesses durch den Entscheidungsträger ist nicht mehr erforderlich [Thal01, S. 84]. Die permanente Analyse unternehmensinterner und – externer Daten zur Problemerkennung übernimmt das Active Data Warehouse und entlastet somit den Entscheidungsträger [Thal01, S.76; Mert01]. Ereignisse werden in verschiedene Ereignistypen differenziert. Ein Ereignistyp umfasst Datenänderungen in den operativen Systemen (OLTP-Ereignisse), die sich meist auf die Änderung einzelner Datenelemente, beispielsweise des Verkaufspreises eines Artikels, beschränken. Ein weiterer Ereignistyp umfasst absolute und periodische temporale Ereignisse. Ein absolutes temporales Ereignis ist ein feststehender kalendarischer Zeitpunkt, beispielsweise der 21.06.2004. Ein periodisches temporales Ereignis bildet hingegen eine Sequenz regelmäßiger aufeinanderfolgender Zeitpunkte ab, beispielsweise jeder erste Tag im Monat. Die höchste praktische Relevanz hat eher eine Kombination aus einem OLTP-Ereignis und einem temporalen Ereignis, das sog. relative temporale Ereignis. Ein Beispiel für diesen Ereignistyp wäre 2 Wochen nach Änderung des Verkaufspreises. Mit diesem Ereignistyp können Entscheidungsprozesse ausgelöst werden, die sich auf die Entwicklung der geänderten Objekte nach getroffenen Entscheidungen im operativen oder taktischen Bereich beziehen [Thal01, S. 85ff]. Auf ein Ereignis folgt in der Analyseregel eine Bedingung. Die Bedingung automatisiert neben der Definition des genauen Entscheidungsproblems innerhalb der Anregungsphase auch die Suchphase des Entscheidungsprozesses. Demnach repräsentiert die Bedingung nach der Erkennung eines Entscheidungsproblems durch ein definiertes Ereignis weitere fest vorgegebene Analysen des Entscheidungsträgers zur genauen Bestimmung des Entscheidungsproblems sowie zur Sammlung von Entscheidungsparametern und Zielinformationen, auf denen die Entscheidung basieren soll [Adam96, S. 32]. Diese Analysen verwenden üblicherweise die multidimensionalen aufbereiteten Daten eines OLAP-Berichtes. Die in Abhängigkeit ausgewählter Dimensionen betrachteten Kennzahlen liefern die Informationen zur Unterstützung der Entscheidungsfindung in Form eines oder mehrerer Werte, die zur Überprüfung der Bedingung notwendig sind [Thal01, S. 88f]. Die Auswahl einer Handlungsalternative innerhalb der EntscheidungsfindungsPhase wird auf Basis der Erfüllung oder Nichterfüllung der Bedingung im Rahmen des Aktionsteils der Analyseregel abgebildet. Zusätzlich automatisiert die Aktion die Umsetzung der Entscheidung innerhalb der EntscheidungsfindungsPhase. Die Umsetzung einer Entscheidung im operativen oder taktischen Bereich
1408
M. Gelhoet, B. Rieger
ist in den meisten Fällen durch Änderungen von Parametern der operativen Systeme gekennzeichnet. Daher übergibt der Aktionsteil der Analyseregel definierte Parameterwerte an die operativen Systeme, die daraufhin ihre Parameter entsprechend der übergebenen Werte ändern. Der closed loop zwischen operativen Systemen und dem Active Data Warehouse ist damit realisiert worden [Thal01, S. 90f].
2
Schwachstellenanalyse
Das vorgestellte Konzept des Active Data Warehouse weist eine Reihe von Beschränkungen auf. So wird sowohl das Prinzip des Management by Exception nicht adäquat umgesetzt, als auch die Kontrollphase als Phase des Entscheidungsprozesses nach Simon nicht im Active Data Warehouse abgebildet. Im Folgenden werden diese beiden Kritikpunkte dargestellt. Die bereits beschriebenen Ereignistypen sind nicht ausreichend, um alle operativen und taktischen Entscheidungsprozesse in einem Active Data Warehouse abbilden zu können. Entscheidungsprobleme können nicht immer durch Datenänderungen in den operativen Systemen erkannt werden. Vielmehr werden sie im Rahmen eines Management by Exception durch Fehlentwicklungen von Unternehmenszielgrößen identifiziert [MeGr00, S. 75]. Diese Fehlentwicklungen sind meist in Form von Soll-Ist-Abweichungen in Standardberichten dokumentiert. Der Entscheidungsträger erkennt diese Abweichungen und damit ein Entscheidungsproblem. Als Folge davon sucht er nach Ursachen für die Fehlentwicklung und trifft Entscheidungen, die eine Korrektur der Zielgröße zum Ziel haben. Soll-IstAbweichungen sind jedoch aggregierte, in Bezug zu ausgewählten Dimensionen gesetzte Kennzahlen. Solche aufbereiteten multidimensionalen Daten werden nicht durch die operativen Systeme sondern durch den Derived Data Layer (DDL) des Data Warehouse bereitgestellt. Ein Szenario dieser Art ist bisher jedoch nur bzw. erst in der Bedingung von Analyseregeln abgebildet. Dementsprechend fehlen definierte Ereignisse, die sich auf Datenkonstellationen im Data Warehouse beziehen, da Entscheidungsprobleme auch durch Soll-Ist-Abweichungen erkannt werden können und zudem in der Bedingung (andere) Kennzahlen des Data Warehouse eher zur Klärung der Problemursachen und zur Suche von Zielinformationen und Handlungsalternativen analysiert werden. Mit der Kontrollphase wird eine wichtige Phase des Entscheidungsprozesses durch das Active Data Warehouse nicht unterstützt bzw. automatisiert. Durch die fehlende Integration dieser Entscheidungsphase in das Active Data Warehouse findet eine Bewertung des Erfolgs von in der Vergangenheit mittels Analyseregeln automatisiert getroffener Entscheidungen nicht statt. Hat sich der Entscheidungskontext in Bezug auf einige Analyseregeln geändert und ist die Korrektur der Entwicklung der Zielgrößen durch die Anwendung der Analyseregeln nicht weiter
Mehrstufige Entscheidungsunterstützung durch Active Data Warehouses
1409
gewährleistet, muss der Entscheidungsträger diese Situation selbständig erkennen und die Analyseregeln ohne Unterstützung manuell an den neuen Entscheidungskontext anpassen. Das Ziel des Active Data Warehousing, die Explizierung impliziten Wissens über Entscheidungsprozesse, kann in dieser Phase des Entscheidungsprozesses ebenso nicht erreicht werden wie eine Erhöhung der Entscheidungsqualität. Vor diesem Hintergrund wird im folgenden Kapitel das Konzept des Active Data Warehouse erweitert, um alle Phasen des Entscheidungsprozesses weitestgehend automatisieren bzw. unterstützen zu können und Entscheidungsprozesse nach dem Prinzip des Management by Exception adäquat mit einzubeziehen.
3
Mehrstufige Entscheidungsunterstützung
Die in den Analyseregeln nicht abgebildete Kontrollphase kann zur Erkennung eines neuen Entscheidungsproblems führen und damit einen neuen Entscheidungsprozess auslösen. Bezogen auf das Active-Data-Warehouse-Konzept soll durch die Bewertung vergangener Entscheidungen das bisherige, in Form von Analyseregeln fest definierte Entscheidungsverhalten hinterfragt werden. Der Zweck des auf die Kontrollphase aufbauenden neuen Entscheidungsprozesses ist es, zu entscheiden, ob und wie die bisher verwendeten Analyseregeln zu modifizieren sind. Dieser Entscheidungsprozess wird auch Metaentscheidungsprozess genannt, der Prozess zur automatisierten Änderung von Parametern in den operativen Systemen wird als Objektentscheidungsprozess bezeichnet [Kirs71, S.89f]. Das in diesem Beitrag verfolgte Ziel ist die Darstellung einer erweiterten Sicht eines Active Data Warehouse, das die Kontrollphase und den darauf folgenden Metaentscheidungsprozess in das Konzept von Thalhammer et al. integriert. Dazu wird der Metaentscheidungsprozess in zwei zusätzliche Entscheidungsebenen aufgeteilt. Die erste zusätzliche Ebene (Entscheidungsebene 2) repräsentiert die Anregungsphase und die Suchphase. Nach dem ereignisgesteuerten Erkennen eines Bedarfs zur Anpassung der Analyseregeln als Erkennung eines Entscheidungsproblems steht auf dieser Ebene die Evaluation von Handlungsalternativen mit Hilfe von anwendergesteuerten Modellrechnungen im Vordergrund. Auf Basis dieser Bewertung wird auf der darauf folgenden Ebene (Entscheidungsebene 3) im Rahmen der Entscheidungsfindungsphase dem Entscheidungsträger eine Handlungsalternative zur Entscheidungsunterstützung vorgeschlagen. Die Anpassung der Analyseregeln wird daraufhin vom Entscheidungsträger manuell vorgenommen. Die Differenzierung des Metaentscheidungsprozesses in zwei Entscheidungsebenen ist sinnvoll, da die dritte Entscheidungsebene nur unter bestimmten Voraussetzungen ereignisgesteuert ausgelöst werden soll, beispielsweise falls eine alternative Analyseregel höher bewertet worden ist als die aktuell implementierte Regel.
1410
M. Gelhoet, B. Rieger
Abbildung 1: Die Architektur eines Active Data Warehouse zur mehrstufigen Entscheidungsunterstützung
Die Integration dieses Metaentscheidungsprozesses in die Architektur des Active Data Warehouse für eine mehrstufige Entscheidungsunterstützung ist in Abb. 1 dargestellt und wird im Folgenden näher erläutert.
3.1
Die erste Entscheidungsebene
Die erste Entscheidungsebene enthält im Wesentlichen das Active-DataWarehouse-Konzept nach Thalhammer et al. Daten werden mittels ETLProzessen aus den operativen Systemen in das Data Warehouse geladen. Im Unterschied zu diesem Konzept bezieht sich die Ereignissteuerung des erweiterten
Mehrstufige Entscheidungsunterstützung durch Active Data Warehouses
1411
Active-Data-Warehouse-Konzepts nicht nur auf Datenänderungen in den operativen Systemen. Das Überschreiten von Grenzwerten bei Soll-Ist-Abweichungen im Sinne eines Management by Exception wird in der Ereignissteuerung zusätzlich berücksichtigt. Dafür ist der Bezug der Ereignisse auf die aggregierten und aufbereiteten Daten des Data Warehouse notwendig (vgl. Kap. 2). Durch diese Ereignisse werden die Analyseregeln differenzierter ausgelöst, deren Aktion darauf folgend Parameterwerte an die operativen Systeme übergibt. Ergänzend zu dem dadurch beschriebenen (ersten) closed loop werden neben der Übergabe der Parameterwerte an das operative System auch die angewandten Analyseregeln im Data Warehouse dokumentiert. Die Übernahme der ausgeführten Analyseregeln mit Ereignis, Bedingung und Aktion, inklusive der an ein operatives System übergebenen Parameterwerte, in das Data Warehouse stellt die Grundlage für die Repräsentation einer späteren Bewertung und Evaluation der ausgeführten Entscheidungen (Kontrollphase) im Active Data Warehouse dar. Anhand dieser Daten wird es in der zweiten Entscheidungsebene ermöglicht, den Erfolg der Analyseregel im Hinblick auf die Entwicklung der Unternehmenszielgrößen beurteilen zu können.
3.2
Die zweite Entscheidungsebene
Die Aufgabe dieser Ebene ist die ereignisgesteuerte Bewertung vergangener Entscheidungen der ersten Ebene sowie die Evaluation möglicher Handlungsalternativen. Die Kontrollphase des Objektentscheidungsprozesses und die damit eng verbundene Anregungsphase des Metaentscheidungsprozesses werden durch ein Ereignis der zweiten Entscheidungsebene repräsentiert (vgl. Abb. 2). Im Rahmen der Anregungsphase müssen danach weitere Analysen durchgeführt werden, um die Art einer Anpassung der Analyseregeln genau bestimmen und den weiteren Verlauf des Metaentscheidungsprozesses festlegen zu können. Dieses Vorgehen innerhalb der Anregungsphase kann in Analogie zu den ECA-Regeln durch eine Bedingung abgebildet werden.
Abbildung 2: Entscheidungsphasen im Active Data Warehouse
1412
M. Gelhoet, B. Rieger
Die Kontrollphase und die Anregungsphase repräsentieren das Wissen des Entscheidungsträgers, wie auf Basis einer Bewertung ein Entscheidungsproblem erkannt wird und Metaentscheidungen über die Gestaltung des zukünftigen Entscheidungsverhaltens unter veränderten Umweltbedingungen ausgelöst werden. Wesentliche Elemente dieses Wissens sind in der Data-Warehouse-Komponente des Active Data Warehouse abgebildet. Neben den aufbereiteten Daten über die Entwicklung interner Zielgrößen und unternehmensexterner Daten zur adäquaten Repräsentation veränderter Umweltbedingungen stehen im Data Warehouse die in der Vergangenheit ausgeführten Analyseregeln und deren Bezug zu den jeweiligen Zielgrößen zur Verfügung (vgl. Kap. 3.1). Die auf die Anregungsphase folgende Suchphase wird auf dieser Entscheidungsebene nur noch partiell automatisiert unterstützt. Im Vordergrund dieser Entscheidungsphase steht die Evaluation von Handlungsalternativen, d.h. die unterschiedliche Gestaltung von Parametern im Aktionsteil der Analyseregeln. Eine automatisierte Berechnung des Einflusses verschiedener Parameter-konstellationen auf die Unternehmenszielgröße sowie eine als Aktion gestaltete automatisierte Umsetzung der höchstbewerteten Parameterkonstellation in eine modifizierte Analyseregel ohne Interaktion eines Anwenders ist sehr komplex und aufgrund fehlender Kontrollmöglichkeiten wenig erfolgversprechend. Daher wird über ein Ereignis dieser Entscheidungsebene ein Anwender beauftragt, Modellrechnungen, z.B. Simulationsrechnungen, für die Anpassung einer festgelegten Analyseregel durchzuführen. Dabei soll der jeweilige Einfluss verschiedener Parameterkonstellationen auf die betroffene Unternehmenszielgröße prognostiziert werden. Die im Modell verwendeten Parameter werden in Bedingungs- und Steuerparameter differenziert. Bedingungsparameter repräsentieren die möglichen Schalter der Bedingung von Analyseregeln und bestimmen damit den Zeitpunkt des Auslösens einer Aktion auf der ersten Entscheidungsebene. Steuerparameter hingegen repräsentieren mögliche Stellgrößen von Analyseregeln, die an die operativen Systeme übergeben werden und operative und taktische Geschäftsprozesse steuern sollen. Als Abschluss der Suchphase werden die Ergebnisse der Modellrechnungen über die Zielgrößenentwicklung unter bestimmten Parameterkonstellationen zurück in das Data Warehouse geschrieben, um auf einer dritten Entscheidungsebene ereignisgesteuert entscheiden zu können, ob eine Anpassung der Analyseregeln erforderlich scheint. Denn es wäre auch möglich, dass die Modellrechnungen die gegenwärtige Kombination von Parameterwerten als am geeignetsten bewerten, andere Parameterwerte hingegen die Entwicklung der Unternehmenszielgröße negativ beeinflussen und damit eine Anpassung der Analyseregeln auf der dritten Entscheidungsebene nicht in Betracht kommt. Die Entscheidungsfindungsphase des Metaentscheidungsprozesses beschränkt sich in diesem Fall auf die Bestätigung der aktuell implementierten Analyseregel.
Mehrstufige Entscheidungsunterstützung durch Active Data Warehouses
3.3
1413
Die dritte Entscheidungsebene
Die dritte Entscheidungsebene dient der ereignisgesteuerten Unterstützung des Entscheidungsträgers bei der Auswahl einer Handlungsalternative zur Anpassung des Objektentscheidungsprozesses auf Basis der Modellergebnisse der zweiten Entscheidungsebene, um in Zukunft eine bessere Entwicklung der Unternehmenszielgröße erzielen zu können. Auch hier soll wieder ein Ereignis die Umsetzung der Entscheidungsfindungsphase des Metaentscheidungsprozesses bestimmen. Das Ereignis erkennt, ob die Ergebnisse der Modellrechnungen der zweiten Ebene eine Anpassung des Objektentscheidungsprozesses erfordern. Haben die Modellrechnungen die implementierten Analyseregeln bestätigt, wird die dritte Entscheidungsebene nicht angesprochen. Die Entscheidungsfindungsphase beschränkt sich damit auf den Erhalt der implementierten Analyseregeln. Haben die Modellrechnungen für eine andere als die bisher in einer Analyseregel implementierte Parameterkonstellation einen besseren Einfluss auf die Unternehmenszielgröße prognostiziert, wird die dritte Entscheidungsebene aktiviert. Selbstverständlich sind auch weniger komplexe Ereignisse denkbar. Beispielsweise, falls ein Vorschlag zur Anpassung einer Analyseregel in einem festgelegten zeitlichen Abstand nach Erhalt der Ergebnisse der Modellrechnungen erstellt werden soll. Die Entscheidungsfindungsphase des Metaentscheidungsprozesses wird in Form eines Regelkonfigurators konzipiert, der aus den Modellergebnissen einen Änderungsvorschlag für Analyseregeln ableitet, der einen bestmöglichen Einfluss auf die Unternehmenszielgröße verspricht. Der Konfigurator legt fest, welche Bedingungs- bzw. Steuerparameter dazu mit welchen Parameterwerten belegt werden sollen. Dieser generierte Entscheidungsvorschlag wird dem Entscheidungsträger übermittelt. Um eine effektive Entscheidungsunterstützung des Entscheidungsträgers gewährleisten zu können, benötigt dieser neben dem Änderungsvorschlag für die Analyseregeln zusätzlich die prognostizierte Entwicklung der Unternehmenszielgröße sowie das zugrunde liegende Ereignis der zweiten Entscheidungsebene als Auslöser des Metaentscheidungsprozesses. Darüber hinaus erscheint die Bereitstellung anderer Parameterkonstellationen aus den Prognoseergebnissen und deren Einfluss auf die Unternehmenszielgröße sinnvoll, um dem Entscheidungsträger eine Vergleichsmöglichkeit einzuräumen. Diese Informationen geben dem Entscheidungsträger die erforderliche Transparenz über den ablaufenden Metaentscheidungsprozess. Ihm wird der Einfluss von Bedingungs- und Steuerparametern auf die Unternehmenszielgröße verdeutlicht und er kann daraufhin die Analyseregeln nach seinem Ermessen verändern. Durch die manuelle Regelanpassung wird zudem eine Kontrolle des Objekt- und des Metaentscheidungsprozesses im Active Data Warehouse gewährleistet. Die abschließende Kontrollphase des Metaentscheidungsprozesses ist implizit in der zweiten Entscheidungsebene implementiert, da auf dieser Ebene der Objekt-
1414
M. Gelhoet, B. Rieger
entscheidungsprozess bewertet wird und damit letztendlich auch das Ergebnis eines vorangegangenen Metaentscheidungsprozesses einer kritischen Beurteilung unterzogen wird.
4 4.1
Anwendungsmöglichkeiten Allgemeine Voraussetzungen
Das vorgestellte erweiterte Active-Data-Warehouse-Konzept ist nicht für alle Entscheidungssituationen anwendbar. Besonders geeignet ist es für gut strukturierte Problemstellungen, deren Entscheidungsprozesse eher im operativen, taktischen Bereich einzuordnen sind. Solche Entscheidungsprozesse sind gut durch Analyseregeln abzubilden und zu automatisieren. Strategische Entscheidungen, die eher durch schwach strukturierte Problemstellungen gekennzeichnet sind, können dagegen schwer durch ein Regelsystem adäquat abgebildet werden und sind daher für das Konzept des Active Data Warehouse ungeeignet. Weiterhin sollten die Problemstellungen regelmäßig auftreten, damit sich der Implementierungsaufwand rechnet. Bei einmaligen oder selten auftretenden Problemstellungen überwiegt der Implementierungsaufwand den Nutzen einer Automatisierung. Darüber hinaus ist es notwendig, dass das Wissen der Entscheidungsträger, wann das bisherige Entscheidungsverhalten wie bei bestimmten Ereignissen angepasst werden muss bzw. kann, explizierbar und bekannt ist. Nur so können Ereignisse definiert bzw. implementiert werden, die den Anpassungsmechanismus der Regeln auslösen können. Schließlich ist es sinnvoll, ein Active Data Warehouse nur in einer Domäne anzuwenden, deren Problemstellungen durch eine begrenzte Zahl an Entscheidungsparametern gekennzeichnet sind. Dadurch wird es erst ermöglicht, Modellrechnungen auf der zweiten Entscheidungsebene durchzuführen, da sie weniger komplex und somit erfolgversprechender sind.
4.2
Eine beispielhafte Anwendungsdomäne
Das vorgestellte erweiterte Konzept eines Active Data Warehouse soll im Folgenden am Beispiel der Tarifgestaltung in der Mobilfunkbranche dargestellt werden. Diese Domäne entspricht den beschriebenen Voraussetzungen, da Entscheidungen über die Gestaltung verschiedener Tarife eher taktischer als strategischer Natur sind. Das Ziel solcher Entscheidungen ist es, die Entwicklung von Unternehmens-
Mehrstufige Entscheidungsunterstützung durch Active Data Warehouses
1415
zielgrößen, wie beispielsweise des Umsatzes oder des Absatzes eines ausgewählten Tarifs, in gewünschter Weise zu beeinflussen. Strukturierbar werden diese taktischen Entscheidungen zur Steuerung der genannten Zielgrößen hauptsächlich durch die Gestaltung abzählbarer fester Steuerparameter. Sie bestimmen maßgeblich die Ausgestaltung eines Tarifs. Ein möglicher Steuerparameter für die Gestaltung eines Mobilfunktarifs ist der Minutenpreis, differenziert nach Einwahl in Fest- oder Mobilfunknetz sowie unterschieden nach der Tageszeit. Weitere Parameter könnten die Höhe der Grundgebühr, die Subventionierung eines Mobiltelefons bei Vertragsabschluss, der Mindestgesprächsumsatz, die Taktfrequenz bei der Einheitenabrechnung, die Gestaltung der Tageszeitzonen sowie Preise für Zusatzleistungen, z.B. SMS, sein. Der Einfluss verschiedener Konstellationen von Steuerparametern auf die Unternehmenszielgrößen scheint darüber hinaus abbildbar. Entsprechende Modellrechnungen der zweiten Entscheidungsebene auf Basis einer historisierten Sammlung unternehmensinterner und –externer Daten im Data Warehouse ermöglichen ein Abschätzen der Entwicklung der Zielgrößen. Die Suchphase des Metaentscheidungsprozesses kann deshalb strukturiert dargestellt und damit zwar nicht vollständig automatisiert, zumindest aber in einem hohen Maße unterstützt werden.
4.3
Ein Anwendungsszenario
Das Zusammenspiel der Entscheidungsebenen im Active Data Warehouse und die damit verbundene (partielle) Automatisierung und Unterstützung des Objekt- bzw. Metaentscheidungsprozesses wird im Folgenden in einem stark vereinfachten Anwendungsszenario dargestellt. Gegeben sei ein Mobilfunkvertrag mit dem Tarif A. Dieser Tarif sei gekennzeichnet durch die Steuerparameter Zeitintervall Hauptzeit (ziH) und Nebenzeit (ziN) und die dazugehörigen Minutenpreise (pH) und (pN). Dem Parameter ziH sei der Wert 9-18h, dem Parameter ziN dementsprechend der Wert 18-9h zugewiesen. Dem Steuerparameter pH sei der Wert 0,39€ und dem Steuerparameter pN sei der Wert 0,14€ zugeordnet. Mit der Gestaltung dieser Steuerparameter werde das Ziel verfolgt, die Unternehmenszielgröße Umsatz durch Mobilfunkverträge des Tarifs A positiv zu beeinflussen. Das Ereignis der ersten Entscheidungsebene als Auslöser des Objektentscheidungsprozesses sei definiert als: Der Umsatz des Tarifs A ist im vergangenen Monat im Vergleich zum Vormonat um 10% gesunken. Die an dieses Ereignis gekoppelte Analyseregel bestimme vereinfachend lediglich den Steuerparameter pH in Abhängigkeit von zwei Bedingungsparametern. Der Erste sei die prozentuale Abweichung des durchschnittlichen Minutenpreises der Konkurrenz eines vergleichbaren Zeitintervalls (Mkonk) und der Zweite sei die Absatzentwicklung von Verträ-
1416
M. Gelhoet, B. Rieger
gen mit Tarif A des letzten Monats im Vergleich zum Vormonat (AE). Diese Analyseregel (1) dargestellt als Funktion f(Mkonk, AE) sei folgendermaßen gestaltet:
pH: f(Mkonk, AE) =
pH = 0.37, falls -10% Mkonk < - 5% 0% < AE < 5% pH = 0.35, falls -15% Mkonk < -10% 0% < AE < 5% Mkonk < -15% 0% < AE < 5% pH = 0.33, falls pH = 0.39 sonst
(1)
Diese Analyseregel bewirkt somit bei nahezu unveränderten Absatzzahlen von Mobilfunkverträgen des Tarifs A und einem geringeren durchschnittlichen Minutenpreis der Konkurrenz eine differenzierte Anpassung des eigenen Minutenpreises an das Preisniveau der Konkurrenz. Das verfolgte Ziel ist neben einer Erhöhung der Gesprächsdauer der Kunden auch ein Abwerben von Kunden der Konkurrenz und eine damit verbundene Steigerung des Umsatzes. Um den Erfolg der Analyseregel (1) bewerten zu können, sei ein Ereignis der zweiten Entscheidungsebene folgendermaßen definiert: Die Analyseregel (1) wurde vor einem Monat ausgeführt, der Umsatz für diesen Tarif ist aber im Vergleich zum Vormonat um weniger als 2% angestiegen. Tritt dieses Ereignis ein, ist zu überprüfen, ob eine Anpassung der Regel (1) sinnvoll ist. Dazu könnte ein Anwender per Email benachrichtigt werden, dass für die angesprochene Analyseregel Modellrechnungen durchgeführt werden müssen, um zu evaluieren, wie die Bedingungsparameter Mkonk und AE sowie die Steuerparameter pH und ziH unter der Annahme eines unveränderten Kundenverhaltens eingestellt werden müssten, um den Umsatz für die Tarifgruppe A ceteris paribus höchstmöglich ansteigen zu lassen. Hat der Anwender Modellrechnungen mit verschiedenen Konstellationen von Bedingungs- und Steuerparametern durchgeführt, würden die Modellergebnisse inklusive einer Bewertung im Data Warehouse dokumentiert. Am besten bewertet (mit der höchsten Umsatzprognose) sei in diesem Szenario eine Parameterkonstellation, bei der die Bedingungsparameter nahezu unverändert bleiben und der Steuerparameter pH durch ziH mit dem Wert 9-20h ausgetauscht würde1. Das Ereignis der dritten Entscheidungsebene vergleicht die Parameter und deren Werte des am höchsten bewerteten Ergebnisses der Modellrechnung mit den verwendeten Parametern und Parameterwerten der Analyseregel (1) sowie deren Bewertung. Besteht ein Unterschied zwischen der Analyseregel und dem Modellergebnis, könnte der Regelkonfigurator der dritten Entscheidungsebene automatisch einen Vorschlag zur Anpassung der Analyseregel auf Basis des Modellergebnisses generieren. Der Vorschlag einer modifizierten Analyseregel (1b) sei folgendermaßen gestaltet: 1
Dem Steuerparameter ziN wird dementsprechend durch die Änderung von ziH der Wert 20-9h zugewiesen. Die Parameter pH und pN bleiben unverändert.
Mehrstufige Entscheidungsunterstützung durch Active Data Warehouses
ziH: f(Mkonk, AE) =
ziH = 9-20h, falls Mkonk < - 5% ziH = 9-18h, sonst
0% < AE < 5%
1417
(1b)
Durch diese neue Analyseregel würde das Kundenverhalten, während der günstigeren Nebenzeit von 18-9h zu telefonieren, ausgenutzt. Eine Ausweitung der Hauptzeit um zwei Stunden könnte unter der Annahme eines unveränderten Kundenverhaltens ein erhöhtes Gesprächsaufkommen zur Hauptzeit bewirken. Durch den damit verbundenen höheren Minutenpreis im Vergleich zur Nebenzeit könnte der Umsatz gesteigert werden. Die vorzuschlagende Analyseregel (1b) wird zusammen mit der originären Analyseregel (1) per Email an den Entscheidungsträger versandt. Zusätzlich umfasst die Email die an die Analyseregel (1) gekoppelten Ereignisse der ersten und zweiten Entscheidungsebene sowie die Ergebnisse der durchgeführten Modellrechnungen und deren Einfluss auf den Umsatz der Tarifgruppe A. Dem Entscheidungsträger könnte dadurch eine höchstmögliche Unterstützung bei der Entscheidung über die Anpassung der Analyseregel geboten werden. Auf Basis dieser bereitgestellten Informationen könnte der Entscheidungsträger den Vorschlag der dritten Entscheidungsebene zur Modifikation der Analyseregel (1) bestätigen und diese Regel manuell in der Regelbasis ändern.
5
Zusammenfassung und Ausblick
Mit dem erweiterten Konzept eines Active Data Warehouse wurde ein Ansatz dargestellt, der Schwachstellen des bisher in der Literatur diskutierten Konzepts aufgreift und Lösungsvorschläge darlegt. Neben der Einbindung des Prinzips Management by Exception in die Ereignissteuerung beinhaltet das erweiterte Konzept vor allem die Automatisierung der Kontrollphase des Objektentscheidungsprozesses und darüber hinaus eine weitgehende Unterstützung und Teilautomatisierung des Metaentscheidungsprozesses zur Anpassung der Analyseregeln. Hierzu wurde das Grundprinzip des Active Data Warehouse (ECA-Regeln) iterativ auf höheren Entscheidungsebenen angewandt. Der Metaentscheidungsprozess wurde dazu in zwei zusätzliche ereignisgesteuerte Entscheidungsebenen aufgeteilt. Die zweite Ebene diente der Evaluation verschiedener Handlungsalternativen zur Anpassung der Analyseregeln. Die dritte Ebene hatte die Aufgabe, aus den Ergebnissen der Evaluation einen Vorschlag zur Regelanpassung abzuleiten und dem Entscheidungsträger zur Entscheidungsunterstützung bereitzustellen.
1418
M. Gelhoet, B. Rieger
Die weitere Forschungsarbeit bei der Entwicklung einer mehrstufigen Entscheidungsunterstützung durch Active Data Warehouses konzentriert sich zunächst auf Möglichkeiten zur Gestaltung der Modellrechnungen auf der zweiten Entscheidungsebene. Dabei ist zu evaluieren, inwieweit verschiedene Modellrechnungen, wie z.B. genetische Algorithmen, Simulationsrechnungen oder LP-Ansätze, für die Abbildung der Suchphase des Metaentscheidungsprozesses geeignet sind. Wichtig ist, zu überprüfen, ob und inwieweit diese Modelle den Einfluss verschiedener Parameterkonstellationen auf festgelegte Zielgrößen prognostizieren können. Um die praktische Relevanz der vorgestellten Architektur evaluieren zu können, soll zunächst ein Demonstrationsprototyp (mit alternativen/konfigurierbaren ECAElementen) entwickelt werden. Damit sollen potenzielle Anwender für Praxiskooperationen zur Implementierung und Evaluation konkreter Active Data Warehouses in Unternehmen gewonnen werden.
Literatur [Adam96] Adam, D.: Planung und Entscheidung: Modelle, Ziele, Methoden, Mit Fallstudien und Lösungen. 4. Aufl., Gabler: Wiesbaden, 1996. [Behr95] Behrends, H.: Beschreibung ereignisgesteuerter Aktivitäten in datenbankgestützten Informationssystemen. Dissertation, Universität Oldenburg, 1995. [Brob02] Brobst, S. A.: Enterprise Application Integration and Active Data Warehousing. In: von Maur, E.; Winter, R. (Hrsg.): Vom Data Warehouse zum Corporate Knowledge Center: Proceedings der Data Warehousing 2002. Physica-Verlag: Heidelberg, 2002, S. 15-22. [BrTj01] Bruckner, R. M., Tjoa, A. M.: Managing Time Consistency for Active Data Warehouse Environments. In: Kambayashi, Y.; Winiwarter, W.; Arikawa, M. (Hrsg.): Data Warehousing and Knowledge Discovery – Third International Conference, DaWaK 2001, Munich, Germany, September 5-7, Proceedings, Lecture Notes in Computer Science, Vol. 2114. Springer: Berlin et al., 2001, S.254-263. [GaDi93] Gatziu, S.; Dittrich, K. R.: Eine Ereignissprache für das aktive, objektorientierte Datenbanksystem SAMOS. In: Stucky, W.; Oberweis, A.: BTW’93 Tagungsband Datenbanksysteme in Büro, Technik und Wissenschaft. Springer: Braunschweig, 1993, S. 94-103. [Inmo96] Inmon, W. H.: Building the Data Warehouse. 2nd Edition, John Wiley & Sons, Inc.: New York et al., 1996. [Kirs71] Kirsch, W.: Entscheidungsprozesse, Band III: Entscheidungen in Organisationen. Gabler: Wiesbaden, 1971. [Kle+03] Klesse, M.; Melchert, F.; von Maur, E.: Corporate Knowledge Center als Grundlage integrierter Entscheidungsunterstützung. In: Reimer, U.; Abecker, A.; Staab, S.;
Mehrstufige Entscheidungsunterstützung durch Active Data Warehouses
1419
Stumme, G. (Hrsg.): Professionelles Wissensmanagement – Erfahrungen und Visionen (WM'2003), 02.-04.04.2003, Luzern, GI-Edition – Lecture Notes in Informatics (LNI), P-28. Köllen Verlag: Bonn, 2003, S. 127-136. [MeGr00] Mertens, P.; Griese, J.: Integrierte Informationsverarbeitung 2: Planungs- und Kontrollsysteme in der Industrie. 8. Aufl., Gabler: Wiesbaden, 2000. [MeRi01] Mentrup, A.; Rieger, B.: MSS und Wissensmanagement: Dimensionen und Perspektiven der Integration. In: Schnurr, H.-P.; Staab, S.; Studer, R.; Stumme, G.; Sure, Y. (Hrsg.): Professionelles Wissensmanagement – Erfahrungen und Visionen (WM'2001), 14.-16.3.2001, Baden-Baden. Shaker Verlag: Aachen, 2001, S. 99-112. [Mert01] Mertens, P.: Aktives Management-Informationssystem (AMIS). In: Mertens, P. et al. (Hrsg.): Lexikon der Wirtschaftsinformatik. 4. Aufl., Springer: Berlin et al., 2001, S. 289-290. [Rieg01] Rieger, B.: Data Warehouse-gestützte Management-Informations-Systeme. In: von Knop, J.; Haverkamp, W. (Hrsg.): Innovative Anwendungen in Kommunikationsnetzen, 15. DFN-Arbeitstagung über Kommunikationsnetze, GI-Edition – Lecture Notes in Informatics (LNI), P-9. Köllen Verlag: Bonn, 2001, S. 147-154. [ScTh00] Schrefl, M.; Thalhammer, T.: On Making Data Warehouses Active. In: Kambayashi, Y.; Mohania, M.; Tjoa, A M. (Hrsg.): Proceedings of the 2nd International Conference on Data Warehousing and Knowledge Discovery (DaWaK 2000), Greenwich, U.K., September 4-8, Lecture Notes in Computer Science, Vol. 1874. Springer: Berlin et al., 2000, S. 34-46. [Simo77] Simon, H. A.: The New Science of Management Decision. Prentice Hall: Englewood Cliffs, USA, 1977. [Tha+01] Thalhammer, T.; Schrefl, M.; Mohania, M.: Active Data Warehouses: Complementing OLAP with Active Rules. In: Chen, P.P. (ed.); in: Data & Knowledge Engineering (DKE), Vol. 39, Nummer 3. Elsevier Science B.V.: North-Holland, 12-2001, S. 241-269. [Thal01] Thalhammer, T.: Active Data Warehouses: Complementing OLAP with Analysis Rules. Dissertation, Universität Linz, 2001.
Benutzerorientierter Entwurf von unternehmensweiten Data-WarehouseSystemen Lars Burmester, Matthias Goeken Philipps-Universität Marburg
Zusammenfassung: Der Beitrag beschreibt eine Entwurfsmethode für die DataWarehouse-Entwicklung. Als Bezugsrahmen dient dabei eine erweiterte DataWarehouse-Architektur und ein Verfahren zur Zerlegung des zu erstellenden Systems. Dies unterstützt die Definition von Ausbaustufen für ein inkrementelles Vorgehen. Für die einzelnen Inkremente werden ausgehend vom Informationsbedarf der Benutzer fachkonzeptionelle Strukturen entwickelt, die wiederum schrittweise in logische Schemata transformiert werden. Diese logischen Modelle dienen der Vorbereitung der Implementierung auf physischer Ebene und der Modellierung der ETL-Prozesse. Schlüsselworte: Data-Warehouse-System, Multidimensionale Modellierung, ETLModellierung, Inkrementelles Vorgehen, Informationsbedarfsanalyse
1
Einleitung
Die Entwicklung von Data-Warehouse-Systemen steht regelmäßig im Spannungsverhältnis zwischen betriebswirtschaftlich-fachlichen und technisch-integrativen Anforderungen. Die zentrale Herausforderung besteht daher darin, eine informationsbedarfs- und benutzerorientierte Sichtweise mit einer am Informationsangebot ausgerichteten technischen Sichtweise abzustimmen. Grundsätzlich bieten sich hierfür zwei generelle Vorgehensrichtungen an. Bei einer am Informationsbedarf ausgerichteten Vorgehensweise würde die Entwicklung des Gesamtsystems auf Ebene der inhaltlichen Anforderungen an das System beginnen. Die Entwicklung der Data-Warehouse-Ebene oder der ETL-Prozesse würde nachlaufend erfolgen, sodass diese Art des Vorgehens auch als Top-Down-Vorgehen bezeichnet werden kann. Im Gegensatz dazu stellen bei einer Bottom-Up-Vorgehensweise z.B. die konzeptionellen Schemata der operativen Systeme den Ausgangspunkt dar, aus denen die Schemata des Data-Warehouse abgeleitet werden [Gol+98; GoRi98]. Legt man ein Top-Down-Vorgehen zu Grunde, so stellt die Analyse des Informationsbedarfs regelmäßig das Kernproblem dar [Holt99]. Als Hindernisse bei der Erhebung des Informationsbedarfs identifizieren Valusek und Fryback „obstacles
1422
L. Burmester, M. Goeken
which can be categorized as within an individual user, among users, and between the individual user and those responsible for system development“ [VaFr85, ähnlich BrRo01]. Die Between-Obstacles ergeben sich dadurch, dass Entwickler und Benutzer in unterschiedlichen Sprachen sprechen. Hieraus resultiert eine „Sprachlücke“, die durch geeignete Methoden und Techniken überwunden werden muss [Ortn95]. Zusätzlich sind die Anforderungen und Informationsbedarfe im Verlaufe eines Entwicklungsprojekts häufig noch instabil, da sie der Dynamik des betrieblichen Umfelds unterliegen und die zukünftigen Benutzer eines Systems sich möglicherweise erst im Projektverlauf ihrer Bedarfe klar werden. Den skizzierten Problemen soll im Folgenden durch ein prototypenorientiertes Vorgehen begegnet werden. Dabei werden lauffähige Prototypen eingesetzt, um bestimmte Aspekte des zu realisierenden Systems zu veranschaulichen und so auf einfache, realitätsnahe Weise mit dem zukünftigen Anwender zu kommunizieren [Hess97; Hec+03; Bey+99]. Die zentrale technische Herausforderung im Data Warehousing besteht darin, einen unternehmensweit integrierten und konsistenten Datenbestand aufzubauen, was regelmäßig ein komplexes, langwieriges und kostspieliges Unterfangen mit einem hohen Realisationsaufwand darstellt [Eick01; Hack98]. Daher wird häufig empfohlen, mit der Entwicklung von Data Marts zu beginnen, also inkrementell vorzugehen und zunächst kleine Data-Warehouse-Systeme für einzelne Funktionsbereiche oder Abteilungen zu erstellen. Unterstützung für eine ganzheitliche Planung unternehmensweiter Data-Warehouse-Systeme findet sich jedoch nur vereinzelt (vgl. zu älteren Ansätzen der Architekturevolution [Hack98; Ong99]). In den folgenden Ausführungen wird eine auf den einleitenden Überlegungen basierende Entwurfsmethode für Data-Warehouse-Systeme vorgestellt. In Kapitel 2 wird eine erweiterte Data-Warehouse-Architektur hergeleitet, welche als Bezugsrahmen für den Entwurfsprozess dient. Kapitel 3 stellt die Entwurfsmethode dar, wobei die Planung des Gesamtsystems und das Vorgehen einleitend erläutert werden (Kapitel 3.1). Die Analyse und der Entwurf der fachlichen Strukturen sowie deren Validierung vor dem Hintergrund der Benutzeranforderungen wird in Kapitel 3.2 dargestellt. Dieser dient der Überwindung der oben erwähnten Sprachlücke in der Benutzer-Entwickler-Kommunikation. In Kapitel 3.3 erfolgt eine Beschreibung des Übergangs zur Systemspezifikation und der Implementierung der ETLProzesse. Abschließend soll ein kurzer Ausblick erfolgen (Kapitel 4).
2
Erweiterte Data-Warehouse-Architektur
In diesem Abschnitt wird eine erweiterte Data-Warehouse-Architektur vorgestellt, die die Entwicklungsergebnisse der in Abschnitt 3 beschriebenen Methode präsentiert. Durch die Betrachtung der Architekturebenen eines Data-Warehouse-
Benutzerorientierter Entwurf von unternehmensweiten Data-Warehouse-Systemen
1423
Systems lässt sich der schrittweise Datenfluss von den Quellsystemen hin zu analyseorientierten Anwendungen auf der Präsentationsebene beschreiben (vgl. dazu Abbildung 1, rechte Seite sowie [Holt99; Herd01; Sche00; BoUl00]). Mit dieser physischen Perspektive wird jedoch nur ein Teil der Aufgaben des Data Warehousing abgedeckt. Insbesondere lassen sich die fachlich-betriebswirtschaftlichen Aufgaben eines Data-Warehouse-Systems in dieser nicht adäquat fassen [Vas+00; Jar+99; Quix03]. Um die Datenbestände der operativen Systeme nicht nur physisch, sondern auch in fachlicher Hinsicht für die Informationsversorgung und Entscheidungsunterstützung nutzbar zu machen, bietet sich an, die jeweiligen Architekturebenen in eigenen konzeptionellen Schemata explizit zu beschreiben. Dadurch wird neben dem (Bottom-up-) Datenfluss der Prozess der Nutzung von Informationen mit in die Betrachtung integriert. Die konzeptionelle Perspektive bzw. die konzeptionellen Schemata unterstützen die Kommunikation mit Benutzern / Anwendern und dokumentieren Ergebnisse der einzelnen Entwicklungsschritte. Sie sind benutzerund anwendernah, da sie Modellierungskonstrukte verwenden, die für diese leicht verständlich sind. Zusätzlich stellen sie den entscheidenden „Input“ für die folgenden Phasen des Entwicklungsprozesses dar [WaWe02]. Den Ausgangspunkt bilden konzeptionelle multidimensionale Datenschemata (MDDS), die der Erhebung der informatorischen Anforderungen an das zu erstellende System dienen (Abbildung 1). Sie unterstützen die Informationsbedarfsanalyse und dokumentieren deren Entwicklungsergebnisse. Hierbei wird zwischen den Anforderungen eines Benutzers (bzw. einer Benutzergruppe) und den Anforderungen, die schließlich in die Spezifikation des Gesamtsystems eingehen, unterschieden. Diese Unterscheidung korrespondiert mit der für FIS geforderten Empfängerorientierung und erlaubt die Rückverfolgung (Traceability) von Anforderungen hin zu ihrer Quelle (vgl. [Goek04a]; dort auch zu nicht-informatorischen Anforderungen, wie z.B. Performance, Usability usw.). Durch die individuellen konzeptionellen MDDS werden zum einen adressatengerechte Berichte, Navigationsmöglichkeiten und Alternativen zur Analyse des Entscheidungsraumes definiert, die durch die Frontendclients bereitgestellt werden. Zum anderen werden sie konsolidiert und zum konzeptionellen MDDS vereint, welches wiederum in das logische MDDS transformiert wird. Darüber hinaus werden konzeptionelle Schemata auch für die Datenerfassungsebene entworfen. Diese konzeptionellen Schemata der ETL-Prozesse, die aus den logischen MDDS abgeleitet werden, dienen der Kommunikation mit den Administratoren der operativen Systeme. Sie stellen gleichsam Anforderungen des Data-Warehouse-Systems an diese als Datenlieferanten dar. Die konzeptionellen Schemata werden wiederum in logische Schemata transformiert und physisch als ETL-Prozesse implementiert. Durch diese erweiterte Architektur ergibt sich ein durchgängig strukturierter Prozess zur Entwicklung von Data-Warehouse-Systemen und deren Dokumentation auf verschiedenen semantischen Stufen. Darüber hinaus stellt die Architektur ei-
1424
L. Burmester, M. Goeken
nen Bezugsrahmen dar, der eine Integration verschiedener, z. T. unabhängiger Modellierungsansätze im Gebiet des Data Warehousing ermöglicht. definieren Berichte / Navigationsmöglichkeiten
Individuelle konzeptionelle MDDS
definieren
Konzeptionelle Logische MDDS als Konzeptionelle Benutzerschemata materialisierte Benutzerschemata (individuell) Sichten (individuell) (optional)
Frontendclient
Frontendclient
Präsentationsebene - Frontendclients -
werden konsolidiert zum
OLAPServer Konzeptionelle(n) MDDS
wird transformiert in
Logische MDDS
erhält Schema von
Data Warehouse
wird transformiert in
Konzeptionelle ETLSchemata
werden transformiert in
Logische ETLSchemata
Datenbereitstellungsebene
implementiert als
ETL-Prozesse
Datenhaltungsebene - Data Warehouse i.e.S.-
Datenerfassungsebene
Fließt ein in
Konzeptionelle Konzeptionelle Konzeptionelle Schemata Schemata Schemata
Logische Logische Logische Schemata Schemata Schemata
Operative Datenbank Operative Datenbank Operative
Ebene der operativen Systeme
Datenbank
Abbildung 1: Erweiterte Data-Warehouse-Architektur1
Die so beschriebene erweiterte Data-Warehouse-Architektur weist Parallelen zu dem im DWQ-Projekt entwickelten „Meta-Data-Framework“ auf [Vas+00; Jar+99; Quix03]. Sie unterscheidet sich von diesem jedoch in zwei wesentlichen Punkten: Zum einen wird im DWQ-Projekt ein „Enterprise Model“ als gegeben angenommen. Da solche Unternehmensdatenmodelle in der Praxis oftmals nicht vorhanden sind und in der Wirtschaftsinformatik häufig als problematisch angesehen werden [StHa05; Schi01], wird ein solches an dieser Stelle nicht als gegeben angenommen und auch nicht hergeleitet. Den Ausgangspunkt bilden stattdessen die individuellen Anforderungen der Benutzer und Anwender. Zum zweiten wird ein anderer Integrationsansatz verfolgt. Während im DWQ-Projekt der sog. Local-as-ViewAnsatz zugrunde gelegt wird, werden hier die Inhalte des Data-Warehouse als Sichten auf die Datenquellen beschrieben. Dieser Global-as-View-Ansatz ent-
1
Zur Vereinfachung wird davon ausgegangen, dass sich die Schemata der Datenbereitstellungs- und der -haltungsebene entsprechen. D.h. dass das Data Warehouse i. e. S. bereits die für den OLAP-Server notwendigen Datenstrukturen enthält. Soll dagegen auf der Datenhaltungsebene ein „Reconciled Data Layer“ eingerichtet werden, dann greifen die in Teil 3.3 beschriebenen Transformations- und Ladeprozesse auf dieses zu anstatt auf die operativen Systeme.
Benutzerorientierter Entwurf von unternehmensweiten Data-Warehouse-Systemen
1425
spricht einem prozeduralen Vorgehen, mit dem sich besser beschreiben lässt, wie die Daten für das integrierte System aus den Datenquellen extrahiert und geladen werden.
3
3.1
Methode zum benutzerorientierten Entwurf von Data-Warehouse-Systemen Ausbaustufenplanung und Vorgehen
Um die Komplexität der Entwicklung unternehmensweiter Data-WarehouseSysteme zu verringern, wird oftmals ein von Data-Marts ausgehendes, inkrementelles Vorgehen vorgeschlagen, welches eine Orientierung an einem festen Ziel bedeutet, das durch die schrittweise Erweiterung von zunächst unvollständigen Teillösungen verfolgt wird [Hess97; Flo+97]. Dies erlaubt einen flexiblen Umgang mit der Dynamik des Umfeldes und ermöglicht eine feingranulare Terminplanung. Missverständnisse können frühzeitig beseitigt werden, und die Erprobung liefert Hinweise, ob das zur Verfügung gestellte Informationsangebot dem tatsächlichen Informationsbedarf entspricht. Eine inkrementelle Vorgehensweise macht es erforderlich,
dass das zu entwickelnde Gesamtsystem zerlegbar ist. Ist dies gegeben, können Ausbaustufen (Builds) eines Systems festgelegt und in einem Ausbaustufenplan definiert werden [Flo+97; GoLi93]. Die sich so ergebenden Schleifen im Entwicklungsprozess können als geplante Iterationen angesehen werden. Bei dem hier vorgestellten Vorgehen erfolgt eine Zerlegung des zu erstellenden Data-Warehouse-Systems anhand von Informations- und Entscheidungsobjekten auf der einen Seite und Architekturebenen auf der anderen Seite. Die Informations- und Entscheidungsobjekte stellen betriebswirtschaftlich relevante Betrachtungsgegenstände dar, die bspw. aus dem Zielsystem des Unternehmens oder einem Controllingkonzept abgeleitet werden können. Sie definieren die thematischen Schwerpunkte, an denen sich das zu erstellende Data-Warehouse-System orientiert, auf abstrakter Ebene. Durch Kombination dieser fachlichen Sicht mit den Architekturebenen eines Data-Warehouse-Systems ergeben sich Entwicklungsobjekte, die Module des Gesamtsystems darstellen. (vgl. Abbildung 2). Finanzen
Vertrieb
Produktion
...
Personal Präsentationsebene Datenbereitstellungsebene Datenhaltungsebene Datenerfassungsebene
Abbildung 2: Entwicklungsobjekte als Ergebnis der Systemzerlegung
1426
L. Burmester, M. Goeken
Im Rahmen der Prototypenplanung sowie der Planung von Ausbaustufen bei der inkrementellen Entwicklung stellen diese Entwicklungsobjekte den Gegenstand von Entscheidungen dar. D. h. es wird festgelegt, welche Objekte in welcher Reihenfolge realisiert werden sollen. Um eine bessere Feinplanung der Entwicklungsstufen eines Entwicklungsobjekts zu ermöglichen, erfolgt dessen Betrachtung in Form der vorgestellten erweiterten Data-Warehouse-Architektur. Im Ausbaustufenplan können Zeitpunkte (Milestones) im Entwicklungsprozess definiert werden, zu denen ein bestimmter Entwicklungsvorgang abgeschlossen sein muss. Abbildung 3 stellt den Ausbaustufenplan eines beispielhaften Projekts dar.
Zeit Informations- und Entscheidungsobjekt 1
...
Informations- und Entscheidungsobjekt n
Abbildung 3: Beispielhafter Ausbaustufenplan verschiedener Teilsysteme
Das Vorgehen zur Entwicklung einzelner Ausbaustufen gliedert sich in mehrere Teilschritte. Den Ausgangspunkt stellt die Wissensakquisitionsphase dar, in welcher die inhaltlichen Anforderungen der einzelnen Nutzer an das zu entwickelnde System erhoben werden. Zu Beginn der Entwurfsphase werden diese Anforderungen in individuelle konzeptionelle MDDS überführt und im weiteren Phasenverlauf zu einer konzeptionellen Gesamtsicht konsolidiert (konzeptionelles MDDS). Den Abschluss der Entwurfsphase bildet die Transformation des konzeptionellen MDDS in ein logisches Datenmodell (logische MDDS), welches als Grundlage für die Konstruktion eines Validierungsprototypen dient. In der Validierungsphase erfolgt die Validierung der bislang generierten fachlichen Strukturen durch die zukünftigen Nutzer, wobei dies anhand des in der vorangegangenen Phase konstruierten Prototyps geschieht. Bei Ablehnung des Prototyps sind in Abhängigkeit von den geäußerten Ablehnungsgründen explizite Rückschritte bzw. Rückkopplungen in frühere Phasen vorgesehen. Die positive Validierung des Prototyps ist Auslöser für den Übergang zur Spezifikation und Implementierung des Systems. Hierbei spezifizieren die generierten logischen MDDS die formalisierte Informationsnachfrage, welche mit dem Informationsangebot auf der Datenerfassungsebene zum Ausgleich gebracht werden soll. Die Transformation der logischen MDDS in konzeptionelle ETL-Schemata sowie die darauf basierende logische Abbildung von ETL-Prozessen bilden die Grundlage für die abschließende physische Implementierung. Die Gesamtsicht auf das Vorgehensmodell für die Realisierung der einzelnen Entwicklungsobjekte stellt Abbildung 4 dar.
Benutzerorientierter Entwurf von unternehmensweiten Data-Warehouse-Systemen
1427
Informations- und Entscheidungsobjekt n Informations- und Entscheidungsobjekt 2 Informations- und Entscheidungsobjekt 1 Validierung Initialisierung: Ausbaustufenplanung
Spezifikation
Implementierung
Wissensakquisition
Konzeption
Abbildung 4: Vorgehensmodell für die Realisierung einzelner Entwicklungsobjekte
3.2 3.2.1
Analyse und Entwurf der fachlichen Strukturen Wissensakquisition
Die Phase Wissensakquisition stellt den Einstieg in den Zyklus zur Ermittlung und Formulierung des bestehenden Informationsbedarfs dar. Dieser wird zunächst einzeln für die zukünftigen Nutzer oder ggf. für Nutzergruppen erhoben. Hierbei soll einerseits festgestellt werden, welche Fakten und Kennzahlen ein Informationsund Entscheidungsobjekt quantifizieren. Andererseits werden mit der Ermittlung von Dimensionen und Dimensionshierarchien benutzerdefinierte, qualifizierende Sichten auf die Maßgrößen bzw. Kennzahlen geschaffen [Lehn03]. Aufgrund des hohen Abstraktionsgrades erscheinen die gängigen konzeptionellen multidimensionalen Modellierungssprachen (z.B. DFM, ADAPT u. a.; vgl. [Bulo98; Gol+98; Abe+00]) zum Teil als ungeeignet, um mit dem Nutzer über die Anforderungen an das zu entwickelnde System zu kommunizieren. Die mit konzeptionellen Modellen verfolgten Ziele – Dokumentation, Input für den weiteren Entwicklungsprozess und Kommunikation mit dem Benutzer [WaWe02] – sind nach Ansicht der Autoren nur schwer mit ein und derselben Sprache zu realisieren. Vor allem bei der Überwindung der „Sprachlücke“ ergeben sich Probleme, da die formale Darstellung häufig die Artikulation des Informationsbedarfs erschwert. Insbesondere erweist es sich oft als schwierig, den Benutzern die Unterschiede der in der multidimensionalen Datenmodellierung verwendeten Konstrukte nahe zu bringen. (Zu einer empirischen Studie, die zu ähnlichen Ergebnissen gelangt vgl. [NoCr99]). Somit bleibt es Aufgabe des Entwicklers, die geäußerten Bedarfe der Benutzer zu analysieren und zu interpretieren. Hierzu und auch zur Kommunikation haben sich sog. „Interrogatives“ bzw. „W-Fragen“ (was, wann, wer, wo, womit ...) als nutzbringend erwiesen, da sie gebrauchssprachlich die Konstrukte der multidimensionalen Modellierung beschreiben [vgl. BrRo01; StHa05; QuDe99]. Interrogative lassen sich als eine einfache Grammatik (Satzbauplan) interpretieren, wie sie von Ortner für den methodenneutralen Fachentwurf von Anwendungssystemen vorgeschlagen wird [Ortn95].
1428
L. Burmester, M. Goeken
Zur Repräsentation wird ein vereinfachtes konzeptionelles Modell (dimensionales Kennzahlenmodell) genutzt, das nur eine Teilmenge der Modellelemente verwendet, die in konzeptionellen multidimensionalen Modellen zum Einsatz kommen (Fakten, Kennzahlen und Dimensionen (vgl. Abbildung 5)). Diese Beschränkung auf wenige Konstrukte führt zu einem besseren Verständnis und ermöglicht die Konzentration auf allgemeine Aspekte. Im oberen Teil des vereinfachten konzeptionellen Modells findet sich ein Kennzahlensystem, welches die relevanten Fakten des Entwicklungsobjekts sowie die eigentlichen Kennzahlen beinhaltet. Zusätzlich werden, da in betriebswirtschaftlichen Ansätzen die Dimensionen von Kennzahlen in der Regel keine Beachtung finden, diese im unteren Teil ergänzt. Hierbei ist zu beachten, dass versucht wird, Dimensionen gleicher Art auf einer Ebene anzuordnen. Dadurch werden Überschneidungen der Dimensionen verschiedener Kennzahlen deutlich. Für das konzeptionelle Schema ergeben sich so potenziell gemeinsame Dimensionen, bzw. Conformed Dimensions [KiRo02]. Informations- und Entscheidungsobjekt
Vertriebskennzahlen
Fakt
Maßgrößen
Finanzen
Erlöse
Erfolge
Kosten
Absatzregion
Zeit
Dimensionen
Absatzregion
Zeit
Kunde
Produkt
Verkäufe Stück
Zeit
Kunden
Produkt
Produkt
Wirtschaftlichkeit
Deckungsbeiträge
...
Produktivität
...
...
...
...
...
...
...
...
Kostenart
Abbildung 5: Vereinfachtes konzeptionelles Modell (dimensionales Kennzahlenmodell)
Das Ergebnis der Wissensakquisitionsphase stellt die Repräsentation der Informationsbedarfe einzelner Benutzer und Benutzergruppen dar. Als Artefakte bzw. Ergebnisdokumente gehen eine Reihe individueller vereinfachter konzeptioneller Schemata sowie „Interrogatives“ in die nächste Phase ein. 3.2.2
Konzeption
Im Folgenden soll der Entwurfsprozess im Rahmen der erweiterten DataWarehouse-Architektur vorgestellt werden, welcher die informatorischen Anforderungen, die im Rahmen der Wissensakquisitionsphase ermittelt wurden, umsetzt. Den Ausgangspunkt bilden hierbei die Ergebnisdokumente der Wissensakquisitionsphase, welche die Bedarfe einzelner Anwender widerspiegeln. In einem ersten Schritt erfolgt die Transformation der Ergebnisdokumente in gängige konzeptionelle MDDS sowie deren Konsolidierung zu einer Gesamtsicht auf das Sys-
Benutzerorientierter Entwurf von unternehmensweiten Data-Warehouse-Systemen
1429
tem. Da diese Modelle nicht mehr zur direkten Kommunikation mit dem Nutzer herangezogen werden, entfallen auch die bisher vorgebrachten Einwände. Vielmehr dienen sie neben der Dokumentation als Input für die weitere Transformation in ein logisches MDDS (vgl. wiederum Abbildung 1). Zur Illustration des Vorgehens soll ein durchgängiges Beispiel herangezogen werden. Dabei handelt es sich um Elemente eines Vertriebsinformationssystems, wobei der Bereich Finanzen im Mittelpunkt steht. Im Rahmen der Wissensakquisitionsphase wurden die Einzelsichten der Benutzer auf das zukünftige System erhoben und in vereinfachten konzeptionellen Modellen zusammengefasst. Des Weiteren kann das zu entwickelnde System mit dem Interrogativ „Welche Beträge (in €), welcher Art (z.B. Erlöse, Erlösschmälerungen, Promotion-Kosten), sind bei welchen Kunden (Großhandel, Einzelhandel usw.), in welcher Region (Bundesland, Nielsen-Gebiet, usw.), wann (Kalenderjahr, Fiskaljahr) geflossen?“ charakterisiert werden. Als Datenquellen sollen Verkaufsdaten aus dem ERP-System sowie Daten aus nicht integrierten Marketinginformationssystemen (z.B. Systeme zur Werbe- und Promotionplanung) herangezogen werden. Die Abbildung der dimensionalen Kennzahlenmodelle in eine gängige Modellierungssprache soll an dieser Stelle beispielhaft an der Transformation in die Notation des ADAPT dargestellt werden [BuFo02]. Den Ausgangspunkt bilden hierbei die Dimensionen, die ein Benutzer im Rahmen der Wissensakquisition für die Beschreibung einer Kennzahl genannt hat. Die Formalisierung einer Dimension erfordert die Darstellung der hierarchischen Strukturen der Dimensionselemente. In gängigen multidimensionalen Modellierungssprachen werden Dimensionshierarchien nicht vollständig abgebildet, da dies das Modell schnell unübersichtlich werden lässt. Daher werden Dimensionen meist komprimiert, in Form generalisierter, abstrahierender Dimensionsebenen dargestellt. Einfache, balancierte Hierarchien können direkt in diese Darstellungsform überführt werden (vgl. Abbildung 6). Bei Dimensionen mit komplexeren Dimensionsstrukturen, wie z.B. multiplen oder unbalancierten Hierarchien sowie anteiligen Verrechnungen, kann dieses Verfahren nicht ohne Weiteres angewandt werden, sodass ggf. wieder von einer stark komprimierten Abbildung abgewichen werden muss [Sche98]. Kunde Kunde Kundenhierarchie
Großhandel
Key-Accounts
Müller
Meier
Einzelhandel
Normale Kunden
Key-Accounts
Schulze
Lehmann
...
Normale Kunden
Hansen
Borchers
{ }
Vertriebszweig
{ }
Kundengruppe
{ }
Kunde
Abbildung 6: Transformation einer einfachen balancierten Dimensionshierarchie in die Notation des ADAPT.
1430
L. Burmester, M. Goeken
Nach der Überführung der dimensionalen Modelle der Einzelsichten in formalisierte konzeptionelle MDDS sollen diese zu einer Mehrpersonensicht konsolidiert werden. Das daraus resultierende Schema stellt das konzeptionelle MDDS der Datenhaltungsebene dar. Da die Maßgrößen und Kennzahlen des Fakts in der Regel bekannten betrieblichen Kennzahlensystemen entstammen, sollte ihre Konsolidierung ohne größeren Aufwand zu realisieren sein. Dahingegen stellt die Zusammenführung der Dimensionen eine zentrale Herausforderung dar. Hierbei ist es erforderlich, unterschiedliche Sichten auf Dimensionen zu erkennen und zu einer konsistenten Dimension zu konsolidieren. Im Folgenden soll dieser Prozess an unterschiedlichen Sichten auf eine Zeitdimension demonstriert werden. In diesem fiktiven Beispiel benötigt ein Controller für seine Analysen deutlich tiefere Untergliederungen der Zeitdimension als bspw. der Vertriebsvorstand des Unternehmens. Letzterer orientiert sich am Fiskaljahr, während der Controller das Kalenderjahr für seine Analysen zu Grunde legt. Abbildung 7 zeigt die im Beispiel skizzierte Konsolidierung verschiedener Sichten auf eine Zeitdimension. Zeit
Kalender
{ }
Kalenderjahr
{ }
Woche
{ }
Tag
Controller
{ }
{ }
Fiskalkalender
Kalenderjahr
{ }
Fiskaljahr
{ }
Fiskaljahr
{ }
Fiskalquartal
{ }
Fiskalquartal
{ }
Monat
{ }
Monat
Woche
{ }
Tag
Konsolidierte Zeitdimension
Vertriebsvorstand
Abbildung 7: Konsolidierung verschiedener Sichten auf eine Zeitdimension
Nach Bildung des konzeptionellen MDDS der Mehrpersonensicht erfolgt dessen Transformation in das logische Schema der Datenhaltungsebene. Trotz der Unabhängigkeit von der späteren physischen Repräsentation sind logische Modelle multidimensionaler Strukturen an der einzusetzenden Datenbanktechnologie ausgerichtet. Aufgrund des hohen Verbreitungsgrads relationaler Datenbanken sind auf Ebene der logischen Modellierung regelmäßig Varianten des Star-Schemas anzutreffen [Hahn98], weshalb diese im Folgenden im Mittelpunkt stehen. Die Bildung eines logischen Datenschemas aus konzeptionellen Strukturen stellt einen kritischen Schritt im Entwicklungsprozess dar, da diese Transformation mit einem semantischen Informationsverlust verbunden ist [Sche00; Blas00; Hahn02]. Daher ist an dieser Stelle auch die Wahrscheinlichkeit von Mappingfehlern am
Benutzerorientierter Entwurf von unternehmensweiten Data-Warehouse-Systemen
1431
größten. Betrachtet man die grundlegenden Bestandteile eines multidimensionalen Datenmodells, erscheint die Umwandlung von Fakten bzw. Maßgrößen im Vergleich zur Transformation der Dimensionen in wenigen Schritten realisierbar. Obwohl die meisten semantischen Modellierungssprachen in der Lage sind, komplexe Dimensionsstrukuren, wie z.B. multiple oder unbalancierte Hierarchien, anteilige Verrechnungen oder nicht additive Roll-ups [Herd01], abzubilden, existieren kaum Ansätze, die deren semantisch verlustfreie Übertragung in das logische Modell zulassen. Das Mapping eines konzeptionellen multidimensionalen Modells auf logische ROLAP-Schemata soll im Folgenden durch Betrachtung ihrer Metamodelle erläutert werden [Blas00]. Nahezu alle multidimensionalen Modellierungssprachen verfügen über grundlegende Konstrukte wie Fakt, Maßgrößen, Dimensionsebenen und Dimensionsattribute sowie über eine Notation zur Abbildung der hierarchischen Beziehungen innerhalb einer Dimension. Auch die Beziehungen dieser Konstrukte untereinander sind festgelegt, z.B. dass einem Fakt eine oder mehrere Dimensionen zugeordnet sind. Diese Konstrukte und Beziehungen lassen sich in Form eines ERM darstellen, wobei Kardinalitäten zur Beschreibung der Beziehungen eingesetzt werden. Da das Ziel der Transformation eine Relation ist, soll diese ebenfalls in ihren grundlegenden Konstrukten und Beziehungen beschrieben werden. Als Entity-Typen gelten hierbei die Tabelle selbst sowie die Spalte. Diese werden durch eine 1:n-Beziehung miteinander verbunden. m
m
Dimension hat Hierarchie
1
1
Mappt Hierarchieebenen
Mappt Fremdschlüssel
1
Fakt hat Maßgröße
n
Dimension hat Dimensionsebenen
n
1
Fakten
Fakt hat Dimension
1
n
1
n
Dimension
Mappt Dimensionstabellen
Dimensionsebene
Mappt Fakttabelle
Maßgrößen
1
1
n
1
1
n Spalte
1
Mappt Maßgröße
n
n
Mappt Dimensioansebene
1 Tabelle hat Spalten
Tabelle
Abbildung 8: Metamodell der Mappingbeziehungen zwischen konzeptionellem und logischem Modell (verändert übernommen aus [Blas00, S. 92])
Das Mapping des multidimensionalen Modells auf Tabellenstrukturen lässt sich in Form von Beziehungen zwischen den einzelnen Metamodellen darstellen. So stehen beispielsweise die Entity-Typen Fakt oder Dimension in einer 1:1-Beziehung mit dem Entity-Typ Tabelle (für jede Dimension bzw. für jedes Fakt existiert genau eine Tabelle). Dagegen stehen Entity-Typen wie Dimensionsebene und Maßgröße in Beziehung mit dem Entity-Typ Spalte der korrespondierenden Tabelle
1432
L. Burmester, M. Goeken
(Für jede Maßgröße existiert genau eine Spalte in der Fakttabelle). Eine Darstellung der Metamodelle (weiß) sowie der Mappingbeziehungen zwischen ihnen (grau hinterlegt) kann Abbildung 8 entnommen werden. Aus den dargestellten Mappingbeziehungen können Regeln zur Transformation eines konzeptionellen Modells hergeleitet werden [vgl. GoRi98; Herd01]. So kann die 1:1-Beziehung zwischen Fakt und Dimension als „Bilde für jeden Fakt und jede Dimension genau eine Tabelle“ formuliert werden. Dies führt bei einem einfachen multidimensionalen Schema zu einer Fakt- und mehreren Dimensionstabellen (den grundlegenden Bestandteilen eins Star-Schemas). Die Spaltenbildung in einer Tabelle erfolgt in Abhängigkeit vom Tabellentyp. Bei Dimensionstabellen werden Spalten für Dimensionsebenen, hierarchische Beziehungen sowie für einen Primärschlüssel gebildet. Für die Fakttabelle müssen Spalten für die Maßgrößen sowie die Primärschlüssel der Dimensionstabellen als Fremdschlüssel eingesetzt werden. Die Verknüpfung zwischen Fakttabelle und Dimensionstabellen erfolgt über die vergebenen Fremdschlüssel, wobei die Menge der Fremdschlüssel den zusammengesetzten Primärschlüssel der Fakttabelle ergeben. Abbildung 9 zeigt beispielhaft das Mapping eines ADAPT-Modells auf ein Star-Schema (logisches MDDS). DIM_Zeit
DIM_Kunde
Zeit
Kundennummer
{ } Vertriebszweig
Ebene_Vertriebszweig Ebene_Kundengruppe Ebene_Kunde
{ } Kundengruppe
{ } Kunde
DIM_Absatzregion
FAKT
Kundenhierarchie
K_Region K_Primary K_Kundennummer Zeit K_Region K_Produkt K_Konto M_Betrag
DIM_Zahlungsart K_Konto PK_K_Konto Kontenbezeichnung Roll-Up_to_Parent
Ebene_Vertriebsregion Ebene_Vertriebsbezirk Ebene_Postleitzahl
Kunde
Finanzen
DIM_Produkt
Absatzregion
Kunde Produkt Absatzregion Zeit Zahlungsart
K_Produkt Ebene_Produktgruppe Ebene_Marke Ebene_Typ
Zeit
Zahlungsart
Produkt Produkt
Abbildung 9: Mapping von ADAPT auf ein einfaches Star-Schema
Zur relationalen Optimierung einer ROLAP-Lösung hinsichtlich Performance, Wartbarkeit und Speicherplatz bieten sich Verfahren wie z.B. Indexierung, Partitionierung sowie die Materialisierung von Sichten an [Herd01; Pera03; PeRu03; BoUl00; Lehn03]. Auf eine Darstellung und Diskussion der genannten Verfahren und ihrer Auswirkungen auf das Gesamtsystem soll in diesem Rahmen verzichtet werden, da an dieser Stelle lediglich die Umsetzung der Anforderungen, die sich aus dem konzeptionellen Modell ergeben, erläutert werden soll.
Benutzerorientierter Entwurf von unternehmensweiten Data-Warehouse-Systemen
1433
Durch das logische MDDS sind die inhaltlichen Anforderungen an ein DataWarehouse-System in Tabellenstrukturen abgebildet. Zur Validierung der generierten Strukturen ist es erforderlich, diese mit Daten zu befüllen. Im Rahmen des hier vorgeschlagenen inkrementellen und prototypingorientierten Vorgehens sollte zunächst auf Simulationsdaten zurückgegriffen werden, da die Modellierung und Implementierung von ETL-Prozessen mit erheblichem Aufwand verbunden ist ([Vas+02a] bspw. schätzen den Anteil an der Gesamtentwicklung auf 80%). 3.2.3
Validierung
Die Validierung des konzeptionellen Modells und der logischen Strukturen erfolgt in einem gemeinsamen Schritt. Die Benutzer des zu erstellenden Systems können anhand des fertig gestellten Prototyps validieren, ob die erhobenen Anforderungen bezüglich Kennzahlen und Dimensionen entsprechend der Diskurswelt umgesetzt sind. Sollte der zu validierende Prototyp keine oder nur teilweise Zustimmung erfahren, findet ein Rückschritt bzw. eine Rückkopplung zu einer früheren Phase statt. Um die im Rahmen einer Rückkopplung anzusteuernde Phase zu bestimmen, sind Verifikationen der Artefakte bereits durchschrittener Phasen notwendig. Abbildung 10 verdeutlicht das notwendige Vorgehen im Rahmen der Validierungsphase. Wird der realisierte Build hingegen angenommen, so sieht das Vorgehensmodell den Übergang zur Spezifikationsphase vor. Verifikation: Prototyp setzt konzeptionelles Modell richtig um? Ja
Nein
Verifikation: Konzeptionelle Modell setzt Anforderungen aus Phase Wissensakquisition richtig um? Ja Nein Erneute Wissensakquisition (Phase 2)
Korrektur des konzeptionellen Modells
Korrektur des konzeptionellen Modells
Korrektur des Prototypen
Erneute Validierung des Prototypen
Abbildung 10: Vorgehen bei nicht akzeptiertem Prototyp
3.3
Spezifikation und Implementierung
Wird ein Prototyp nach der Validierung angenommen, so können die generierten logischen Strukturen als formalisierte Informationsnachfrage angesehen werden. Dem gegenüber steht ein Informationsangebot, welches überwiegend aus den operativen Systemen einer Unternehmung generiert und zusätzlich durch externe Informationen angereichert wird. Der Ausgleich zwischen Informationsbedarf und
1434
L. Burmester, M. Goeken
Informationsangebot findet in Data-Warehouse-Systemen auf der Datenerfassungsebene in Form von ETL-Prozessen statt. Wie bereits auf der Datenbereitstellungs- und Datenhaltungsebene besteht auch auf der Datenerfassungsebene die Möglichkeit zur konzeptionellen, logischen und physischen Modellierung [Vas+02a; TrLu03]. Analog zu den vereinfachten konzeptionellen Modellen, welche im Rahmen der Informationsbedarfsanalyse angewandt wurden, können konzeptionelle ETL-Modelle zur Kommunikation mit den Administratoren der operativen Systeme herangezogen werden. Das Konzept zur konzeptionellen Modellierung von ETL-Prozessen von Vassiliadis et al. sieht vor, dass vor Beginn des Modellierungsprozesses eine Aufnahme der Benutzeranforderungen sowie eine strukturelle und inhaltliche Analyse der Datenquellen stattfindet [Vas+02a]. Die Benutzeranforderungen bezüglich des zu modellierenden ETL-Prozesses liegen in Form der Tabellendefinition des logischen Modells bereits vor (s.o.) und werden im Folgenden als Datenkonsumenten („Data Consumer“) bezeichnet. Dem gegenüber stehen die Datenquellen (interne und externe) als Datenlieferanten („Data Provider“). Die Erstellung des konzeptionellen Modells des ETL-Prozesses erfolgt in einem dreistufigen Vorgehen [SiVa03]. In Schritt eins müssen adäquate Datenlieferanten gefunden und ausgewählt werden. Im Anschluss daran müssen die Liefer- und Mappingbeziehungen zwischen ggf. mehreren potenziellen Datenlieferanten und den Datenkonsumenten konkretisiert werden. Dieser zweite Schritt stellt aufgrund der Heterogenität der Quellsysteme einen kritischen Punkt im Modellierungsprozess dar und erfordert umfassende Diskussionen mit den Administratoren der operativen Datenbanken sowie umfangreiche Testläufe, um eine inhaltlich anforderungsgemäße Befüllung der Zieltabellen sicherzustellen. Nach Abbildung des Mappingvorgangs können durch Annotation des Prozesses Laufzeitbeschränkungen, wie z.B. Informationen über Ausführung, Überwachung und Logging des Prozesses sowie über Ausnahmen und Fehlerbehandlungen erfasst werden. Hierbei können auch zusätzliche Anforderungen, z.B. bezüglich der Aktualität der Daten, erfasst werden, welche es bei der physischen Implementierung zu beachten gilt (z.B. das Aktualisierungsintervall).
Benutzerorientierter Entwurf von unternehmensweiten Data-Warehouse-Systemen
Notwendige Datenquellen: Q.Sales Q.Promotion
1435
Aktualisierung spätestens bis 5 Werktage vor Ende des Kalendermonats
U
DW.Vertrieb
Q.Sales
K_Kundennummer
K_Primary
SK
Zeit
er numm nden K_Ku
les Q.Sa Q.Sales.Zeit
K_Region
Y
K_Produkt
Q.Sa les.K_R egion Q.S ale s.K _P rod ukt Q
Umsatz
F
Q.Promotion
.S ale s.U
m sa tz
SK
K_Kundennummer
Zeit
Q.Pro motion.K undenn umme r Q.Promotion.Zeit
K_Region
K_Produkt
K_Konto
K_Primary
K_Kundennummer
Y
_Region otion.K Q.Prom dukt _Pro n.K otio rom Q.P n te s o n.K tio mo ro Q.P
Zeit
K_Region
K_Produkt
F
Kosten
Betrag
Zuordnung eines Kontentyps. Hier: Kontentyp Umsatz
Zuordnung eines Kontentyps. Hier: Kontentyp KostenÆ Promotion
Abbildung 11: Beispielhafte Darstellung des konzeptionellen Modells eines ETL-Prozesses
Eine beispielhafte Darstellung des konzeptionellen Modells eines ETL-Prozesses kann Abbildung 11 entnommen werden (die grafische Notation wurde aus [Vas+02a] übernommen). Datenkonsument ist hierbei eine Fakttabelle (DW.Vertrieb) des Vertriebsinformationssystems, welche aus zwei verschiedenen Quellen (Q.Sales und Q.Promotion) versorgt wird. Im dargestellten Modell finden sich neben einfachen Mappingvorgängen (Y (Aggregationen)) auch weitere Transformationen. Einerseits wird ein einheitlicher Surrogatschlüssel vergeben (SK), um widersprüchliche Werte bei der Primärschlüsselvergabe der Fakttabelle zu vermeiden. Andererseits kommt eine Transformationsfunktion (F) zur Anwendung, welche einer Maßgröße Betrag in der Fakttabelle einen qualifizierenden Kontentyp zuordnet. So wird z.B. den Datensätzen aus der Quelldatenbank Promotion der Kontentyp Promotionkosten und den Datensätzen der Quelldatenbank Sales der Kontentyp Umsatz zugeordnet. Des Weiteren finden sich Annotationen für die Implementierung des Prozesses z.B. über die Ausführung oder die notwendigen Datenquellen (U). Nach Vassiliadis et al. besteht ein ETL-Prozess auf logischer Ebene aus dem Datenfluss zwischen einer Datenquelle und dem Data-Warehouse sowie aus verschiedenen Aktivitäten, welche als logische Abstraktion physischen Codes angesehen werden können [Vas+02b; Vas+02c; Simi03]. Grundbestandteil des logischen Modells sind ETL-Aktivitäten, welche auf mehreren Ebenen betrachtet werden können. Aus Sicht des Metamodells bestehen Aktivitäten aus mehreren
1436
L. Burmester, M. Goeken
elementaren Bestandteilen, wie z.B. dem Namen, Input- und Outputgrößen und dem Verhältnis zwischen diesen. Instanzen dieser Meta-Aktivitäten werden als Vorlage- oder Standard-Aktivitäten bezeichnet (z.B. Push, Join, Not Null Check usw.). Standard-Aktivitäten können weiter an die Anforderungen eines konkreten ETL-Prozesses angepasst werden. Diese angepassten Aktivitäten gelten dann als Instanz der Vorlagenebene. Die Darstellung des logischen ETL-Prozesses erfolgt in so genannten ETLSzenarios, welche aus einer Sequenz von Aktivitäten bestehen, die den Datenfluss zwischen den Quell- und Zieldatensätzen skizzieren. Abbildung 12 zeigt das ETLSzenario des bereits vorgestellten Beispiels zum konzeptionellen ETL-Modell. Hierbei werden aus den Quelldatenbanken (Q.Sales, Q.Promotion) die in Frage kommenden Datensätze über FTP in Tabellen der Data-Staging-Area geladen (DS.Sales, DS.Promotion). Danach folgen mit der Zuordnung eines einheitlichen Surrogatschlüssels und dem Lookup der zutreffenden Kontenbezeichnung zwei ETL-Aktivitäten, wobei fehlerhaft verarbeitete Datensätze in Log-Dateien erfasst werden. Die abschließende Aktivität vereinigt die Datensätze aus den beiden Datenquellen und lädt diese in die Data-Warehouse-Tabelle (DW.Vertrieb). FTP 1
Q.Sales
DS.Sales
SK 1
Kto.Lookup
Fehler
Fehler Log
FTP 2
Q.Promotion
DS.Promotion
SK 2
DW.Vertrieb
Kto.Lookup
Fehler
Fehler Log
U
Log
Log
Abbildung 12: Darstellung eines ETL-Szenarios (logische Ebene)
Auf physischer Ebene werden logische ETL-Aktivitäten durch Programmcode konkretisiert, wobei auch dieser z.B. in Form von Struktogrammen, Programmablaufplänen, Pseudocode usw. [StHa05] konzeptionell abgebildet werden kann.
4
Fazit
In dem vorliegenden Aufsatz wurde eine Methode zur benutzerorientierten Entwicklung unternehmensweiter Data-Warehouse-Systeme entworfen. Der Schwerpunkt lag dabei auf einer Systemzerlegung, die die Aufteilung eines unternehmensweiten Data-Warehouse-Systems in inkrementell zu realisierende Builds vornimmt sowie einem Vorgehensmodell, welches Phasen und Entwicklungsergebnisse definiert. In dem von den Autoren durchgeführten Projekt EiSFach hat
Benutzerorientierter Entwurf von unternehmensweiten Data-Warehouse-Systemen
1437
sich die Methode als nutzbringend und handhabbar erwiesen [GoBu04a; GoBu04b; Goek04b]. Ob sich diese Nutzenpotentiale auch in einem komplexeren betrieblichen Umfeld realisieren lassen, sollte durch Anwendung der vorgeschlagenen Vorgehensweise und Methode geprüft werden. Konkrete Techniken zur Erhebung der Benutzeranforderungen wurden nur am Rande betrachtet. Mögliche Techniken sollten im Rahmen einer Weiterentwicklung der Methode konkretisiert und den verschiedenen Entwicklungsphasen zugeordnet werden. Hierfür könnten Kontingenzmodelle zur situationsspezifischen Auswahl von Methoden und Techniken der Informationsbedarfsanalyse aufbereitet werden. Dies würde erlauben, eine sinnvoll begründete Auswahl aus der Vielzahl der zur Verfügung stehenden Techniken zu treffen. Zusätzlich sollten die Techniken zur Transformation der Entwicklungsergebnisse stärker formalisiert werden, woraus sich die Möglichkeit zur Werkzeugunterstützung ergeben könnte. Darüber hinaus wurde mit dem Informationsbedarf zwar die wohl wichtigste Anforderung an Data-Warehouse-Systeme in den Mittelpunkt gestellt. Andere Anforderungen – wie z. B. Performance, Usability und Wartbarkeit – wurden nicht betrachtet. Dabei bietet der in Teil 2 dargestellte Bezugsrahmen Ansatzpunkte für die Modellierung und Implementierung auch dieser Anforderungen (bspw. lassen sich Performancegewinne alternativ auf der Ebene der logischen MDDS modellieren (Partitionierung und Fragmentierung der Tabellen) oder durch Techniken der Anfrageoptimierung (Indexstrukturen) auf physischer Ebene implementieren). Diese weitergehenden Anforderungen und zwischen ihnen auftretende Zielkonflikte sollten bei einer Weiterentwicklung der Methode im Rahmen eines umfassenden Anforderungsmanagements stärker Beachtung finden.
Literatur [Abe+00] Abello, A.; Samos, J.; Saltor, F.: A Data Warehouse Multidimensional Data Models Classification. Technical Report LSI-2000-6. Dept. Llenguages y Sistemas Informáticos (Universidad de Granada). Grenada, 2000. [Bey+99] Beynon-Davies, P.; Tudhope, D.; Mackay, H.: Information systems prototyping in practice. In: Journal of Information Technology 14, 1999: S. 107–120. [Blas00] Blaschka, M.: FIESTA: A Framework for Schema Evolution in Multidimensional Databases. Dissertation, Technische Universität München, 2000. [BoUl00] Böhnlein, M.; Ulbrich vom Ende, A.: Grundlagen des Data Warehousing: Modellierung und Architektur. Bamberger Beiträge zur Wirtschaftsinformatik, Nr. 55. Bamberg, 2000. [BrRo01] Browne, G.; Rogich, M.: An Empirical Investigation of User Requirements Elicitation: Comparing the Effectiveness of Prompting Techniques. In: Journal of Management Information Systems 17 (4), 2001: S. 223–249.
1438
L. Burmester, M. Goeken
[BuFo02] Bulos, D.; Forsman, S.: Getting started with ADAPT – OLAP Database Design. White Paper. Symetry Corp: San Rafael, 2002. [Bulo98] Bulos, D.: OLAP Database Design – A new Dimension. In: Chamoni, P.; Gluchowski, P. (Hrsg.): Analytische Informationssysteme – Data-Warehouse, OLAP, DataMining. Springer: Berlin et al., 1998, S. 249–262. [Eick01] Eicker, S.: Ein Überblick über die Umsetzung des Data-Warehouse-Konzepts aus technischer Sicht. In Schütte, R.; Rotthowe, T.; Holten, R. (Hrsg.): Das Data Warehouse Managementhandbuch. Springer: Berlin et al., 2001, S. 65–79. [Flo+97] Floyd, C.; Krabbel, A.; Ratuski, S.; Wetzel, I.: Zur Evolution der evolutionären Systementwicklung: Erfahrungen aus einem Krankenhausprojekt. In: Informatik Spektrum 20 (1), 1997: S. 13–20. [Goek04a] Goeken, M. Anforderungsmanagement bei der Entwicklung von DataWarehouse-Systemen. Ein sichtenspezifischer Ansatz. DW2004 – Data Warehousing und EAI. Friedrichshafen, 2004. [Goek04b] Goeken, M.: Referenzmodellbasierte Einführung von Führungsinformationssystemen. In: Wirtschaftsinformatik 46 (5), 2004: S. 353–365. [GoBu04a] Goeken, M.; Burmester, L.: Entwurf und Umsetzung einer BusinessIntelligence-Lösung für ein Fakultätscontrolling. In: Chamoni, P. et al. (Hrsg.): Tagungsband Multikonferenz Wirtschaftsinformatik 2004, Band 2. Essen, 2004, S. 137– 152. [GoBu04b] Goeken, M.; Burmester, L.: Vorgehensmodell zur evolutionären und benutzerorientierten Data-Warehouse-Entwicklung. In: Bauer, A. et al. (Hrsg.): Internationales Symposium: Data-Warehouse-Systeme und Knowledge-Discovery. Darmstadt, 2004, S. 53–64. [GoLi93] Goguen, J. A.; Linde, C.: Techniques for Requirements Elicitation. Proceedings of IEEE International Symposium on Requirements Engineering 1993. San Diego, 1993, S. 152–164. [Gol+98] Golfarelli, M.; Maio, D.; Rizzi, S.: Conceptual Design of Data Warehouses from E/R Schemes. Proceedings of the Hawaii International Conference On Systems Science. Kona, 1998. [GoRi98] Golfarelli, M.; Rizzi, S.: A Methodological Framework for Data Warehouse Design. Proceedings of the ACM first international Workshop on Data Warehousing and OLAP (DOLAP). Washington, 1998. [Hack98] Hackney, D.: Architectures and Approaches for Successful Data Warehouses. http://datawarehouse.ittoolbox.com/documents/document.asp?i=815, 1998, Abruf am 2004-09-12. [Hahn98] Hahne, M.: Logische Datenmodellierung für das Data Warehouse – Bestandteile und Varianten des Star Schemas. In: Chamoni, P.; Gluchowski, P. (Hrsg.): Analytische Informationssysteme – Data Warehouse, OLAP, Data Mining. Springer: Berlin et al., 1998, S. 103–122.
Benutzerorientierter Entwurf von unternehmensweiten Data-Warehouse-Systemen
1439
[Hahn02] Hahne, M.: Transformation mehrdimensionaler Modelle. In: von Maur, E.; Winter, J. (Hrsg.): Vom Data Warehouse zum Corporate Knowledge Center. PhysicaVerlag: Heidelberg, 2002, S. 399–420. [Hec+03] Heck-Weinhart, G.; Mutterer, G.; Herrmann, C.; Rupprecht, J.: Entwicklung eines Vorgehensmodells für DWH-Projekte bei der W&W AG. In: von Maur, E.; Winter. R. (Hrsg.): Data Warehouse Management. Das St. Galler Konzept zur ganzheitlichen Gestaltung der Informationslogistik. Springer: Berlin et al., 2003, S. 197–220. [Herd01] Herden, O.: Eine Entwurfsmethodik für Data Warehouses. Dissertation, Universität Oldenburg, 2001. [Hess97] Hesse, W.: Wie evolutionär sind die objektorientierten Analysemethoden? Ein kritischer Vergleich. In: Informatik Spektrum 20, 1997: S. 21–28. [Holt99] Holten, R.: Entwicklung von Führungsinformationssystemen. Ein methodenorientierter Ansatz. Dissertation, Universität Münster, 1999. [Jar+99]Ҝ Jarke, M.; Jeusfeld, M.A.; Quix, C.; Vassiliadis, P.: Architecture and Quality for Data Warehouses: An Extended Repository Approach. In: Information Systems 24 (3), 1999: S. 229–253. [KiRo02] Kimball, R.; Ross, M.: The Data Warehouse Toolkit. John Wiley: New York, 2002. [Lehn03] Lehner, W.: Datenbanktechnologie für Data-Warehouse-Systeme: Konzepte und Methoden. dpunkt-Verlag: Heidelberg, 2003. [NoCr99] Nordbotten, J. C.; Crosby, M. E.: The effect of graphic style on data model interpretation. In: Information Systems Journal 9, 1999: S. 139–155. [Ong99] Ong, H.: The Evolution Of A Data Warehouse Architecture - One Size Fits All? WA Oracle User Group Conference 1999, Perth. http://www.aurora-consult.com.au/white.html, 1999, Abruf am 2004-10-12. [Ortn95] Ortner, E.: Elemente einer methodenneutralen Konstruktionssprache für Informationssysteme. In: Informatik - Forschung und Entwicklung. 10 (3), 1995: S. 148–160. [Pera03] Peralta, V.: Data Warehouse Logical Design from Multidimensional Databases. http://www.fing.edu.uy/inco/grupos/csi/esp/Publicaciones/2003/clei2003-vp.pdf, 2003, Abruf am 2004-10-12. [PeRu03] Peralta, V.; Ruggia, R.: Using Design Guidlines to improve Data Warehouse logical Design. Proceedings of the International Workshop on Design and Management of Data Warehouses colocated with VLDB'03, Berlin. http://www.fing.edu.uy/inco/grupos/csi/esp/Cursos/cursos_act/2003/DAP_SistDW/Mat erial/DesGuidelines-VPRR.pdf, 2003, Abruf am 2004-10-12. [QuDe99] Quigley, E. J.; Debons, A.: Interrogative Theory of Information and Knowledge. Proceedings of the 1999 ACM SIGCPR conference on Computer personnel research. San Diego, 1999, S. 4–10. [Quix03]Ҝ Quix, C. J.: Metadatenverwaltung zur qualitätsorientierten Informationslogistik in Data-Warehouse-Systemen. Dissertation, Technische Hochschule Aachen, 2003.
1440
L. Burmester, M. Goeken
[Sche98] Schelp, J.: Konzeptionelle Modellierung mehrdimensionaler Datenstrukturen. In: Chamoni, P.; Gluchowski, P. (Hrsg.): Analytische Informationssysteme – Data Warehouse, OLAP, Data Mining. Springer: Berlin et al., 1998, S. 263–275. [Sche00] Schelp, J.: Modellierung multidimensionaler Datenstrukturen analyseorientierter Informationssysteme. Dissertation, Universität Bochum, 2000. [Schi01] Schirp, G.: Anforderungsanalyse im Data-Warehouse-Projekt: Ein Erfahrungsbericht aus der Praxis. In: HMD 222, 2001: S. 81–87. [Simi03] Simitsis, A.: Modeling and managing ETL Processes. Proceedings of the VLDB 2003 PHD Workshop. Berlin, 2003. [SiVa03] Simitsis, A.; Vassiliadis, P.: A Methodology for the Conceptual Modeling of ETL Processes. Decision Systems Engineering Workshop (DSE'03), in conjunction with the 15th Conference on Advanced Information Systems Engineering (CAiSE '03). Klagenfurt / Velden, 2003. [StHa05] Stahlknecht, P.; Hasenkamp, U.: Einführung in die Wirtschaftsinformatik, 11. Auflage. Springer: Berlin et al., 2005. [TrLu03] Trujillo, J.; Lorán-Mora, S.: A UML Based Approach for Modeling ETL Processes in Data Warehouses. In: Song, I-Y. (Hrsg.): Proceedings ER 2003. Springer: Berlin et al., 2003, S. 307–320. [VaFr85] Valusek, J.R.; Fryback, D.G.: Information requirements determination obstacles within, among and between participants. Proceedings of the twenty-firstannual conference on computer personnel research. Minneapolis, 1985, S. 103–111. [Vas+00] Vassiliou, Y. et al.: Data Warehouse Research: Issues and Projects. In: Jarke, M. et al. (Hrsg.): Fundamentals of Data Warehouses. Springer: Berlin et al., 2000, S. 15– 21. [Vas+02a] Vassiliadis, P.; Simitsis, A.; Skiadopoulos, S.: Conceptual Modeling for ETL Processes. Proceedings of the 5th International Workshop on Data Warehousing and OLAP (DOLAP 2002). McLean, 2002, S. 14–21. [Vas+02b] Vassiliadis, P.; Simitsis, A.; Skiadopoulos, S.: On the logical Modeling of ETL Processes. Proceedings of the 14th conference on advanced information Systems Engineering (CaiSE’02). Toronto, 2002, S. 782–786. [Vas+02c] Vassiliadis, P.; Simitsis, A.; Skiadopoulos, S.: Modeling ETL Activities as Graph. Proceedings of the 4th international Workshop on Design and Management of Data Warehouses (DMDW’2002). Toronto, 2002, S. 52–61. [WaWe02]Wand, Y.; Weber, R.: Research Commentary: Information Systems and Conceptual Modeling - A Research Agenda. In: Information Systems Research 13 (4), 2002: S. 363–376.
Einführung in den Track Enterprise Application Architecture Hermann Krallmann, Marten Schönherr Technische Universität Berlin
Uwe Bath Deutsche Post AG
Reinhardt Eschbach HypoVereinsbank AG Die im Kontext komplexer IT-Infrastrukturen oft verwendeten Begriffe der Architektur, des Architekturmanagements bzw. einer stringenten Architekturlehre folgen keiner einheitlichen Definition.1 Die Literatur betrachtend muss festgestellt werden, dass die existierenden Definitionen stark vom Fokus des jeweiligen Autors abhängen. Sowohl Definitionen als auch Ziele unterscheiden sich deutlich. Je nach Fachrichtung stehen entweder ausschließlich technologische Aspekte im Zentrum der Betrachtung bzw. sozio-technische Konzepte, die sich in Frameworks, Methoden und Tools manifestieren. Die International Organization for Standardization (ISO) definiert die Ziele einer Enterprise Architecture (EA) allgemein mit der Befähigung eines Teams, umfassend alle Ressourcen eines Unternehmens zu integrieren.2 In diesem Sinne bezeichnen SCHALLERT/ROSEMANN die Beherrschbarkeit von Komplexität und Management von Unternehmensintegration als oberstes Ziel einer Architekturbetrachtung.3 Nach DERN ist das Hauptziel die Sicherstellung der effizienten IT-Unterstützung vor dem Hintergrund sich permanent ändernder Geschäftsprozesse, Produktportfolios und Vertriebskanäle.4 Die Abstimmung bzw. Synchronisation der Unternehmensstrategie mit den existierenden technischen Infrastrukturen kann als kritischer Erfolgsfaktor in der Nachhaltigkeitsdiskussion bezeichnet werden.5 Die Ziele unterscheiden sich darüber hinaus aufgrund des unterschiedlichen Verständnisses von Enterprise Architecture. Es werden 2 Architekturtypen differenziert. Typ 1 wird als die direkte Beschreibung bzw. Modellierung des Designs eines Systems oder einer Menge von Systemen definiert. In diesem Sinne subsumiert FOEGEN unter dem Begriff Archi1 2 3 4 5
Vgl. F. WALL, Organisation und betriebliche IS, Wiesbaden, 1996, S. 26 Vgl. ISO 15704, 2000, S. vii. Vgl. M. SCHALLERT et al., Issues in the design of EA, St. Gallen, 2003, S. 48. Vgl. G. DERN, Mgmt. von IT-Architekturen, Wiesbaden, 2003, S. 11 Vgl. S. AIER, M. SCHÖNHERR, EAI, Berlin, 2003, S. 16 ff.
1442
Enterprise Application Architecture
tektur alle Dinge, welche die (Grund) Struktur eines Systems definieren. Mit Struktur sind dabei nicht nur die statischen Aspekte eines Systems wie Komponenten, Schnittstellen und Beziehungen untereinander gemeint, sondern ebenfalls dynamische Aspekte wie etwa die Kommunikation zwischen den Komponenten. Eine Architektur definiert sich somit aus einer Reihe von beschreibenden Sichten.6 KRCMAR versteht Architekturen „im Wesentlichen als eine Beschreibung von Strukturen“7. Architekturen des Typs 2 beziehen sich auf Projekte, die zum Ziel die nachhaltige Veränderung des Unternehmens, seiner Prozesse, der Aufbauorganisation und der IT-Systeme hat.8 Eine Architektur im weiteren Sinne beschreibt demnach Aspekte, die mit der Konzeption, der Entwicklung und dem Betrieb neuer Umgebungen als Folge bzw. im Rahmen von Änderungen eine Rolle spielen. Dem Architekturtyp I folgend gibt es eine Vielzahl von Elementen, die einer Architektur zugeschrieben werden. Die META-Group etwa beschreibt folgende Sichten9: x Business Architecture x Information Architecture x Technology Architecture x Solution Architecture ISO identifiziert als erweiternde Architekturelemente des Typs 2 u. a.:10 x Enterprise Engineering x Modellierungssprachen & -tools x Generische Elemente x Partielle & spezifische Modelle Die Beiträge des Tracks EAA behandeln Aspekte dieses Diskursbereiches.
Track-Programmkomitee Prof. Dr. Hermann Krallmann, Technische Universität Berlin (Chair) Dr. Marten Schönherr, Competence Center für EAI (Chair) Dr. Uwe Bath, Deutsche Post AG (Chair) Reinhardt Eschbach, HypoVereinsbank AG (Chair) 6 7 8 9 10
Vgl. M. FOEGEN, Modellierung von Architekturen, Darmstadt, 2004, S. 1. vgl. H. KRCMAR, Bedeutung & Ziele von IS-Architekturen, Wiesbaden,1990, S. 396. Vgl. O.S. NORAN, Mapping ISO 15288 & 12207 to ISO 15704, Brisbane, 2000, S. 3. Vgl. W. APPEL, Enterprise Architecture, META-Group, 2003. Vgl. ISO 15704, 2000, S. 6 ff.
Softwarekartographie: Systematische Darstellung von Anwendungslandschaften Josef Lankes, Florian Matthes, André Wittenburg Technische Universität München
Zusammenfassung: Ziel der Softwarekartographie ist es, unter Rückgriff auf Erkenntnisse und Methoden der Kartographie, komplexe Anwendungslandschaften in Unternehmen systematisch darzustellen und damit die Beschreibung, Bewertung und Gestaltung von Anwendungslandschaften zu verbessern. In Zusammenarbeit mit mehreren großen Unternehmen haben wir verschiedene Darstellungen – so genannte Softwarekarten – untersucht, die im Gegensatz zu Karten in der Kartographie keine geographische Verortung besitzen. In dieser Arbeit stellen wir verschiedene Kartentypen und ihre Sichten vor, die von unseren Projektpartnern und uns entwickelt wurden und bereits in der Praxis im Einsatz sind. Da eine manuelle Erstellung dieser Softwarekarten zu einem schlechten Kosten-NutzenVerhältnis führt, diskutieren wir im zweiten Teil der Arbeit eine adäquate Werkzeugunterstützung, die auf bestehenden Repository-gestützten Anwendungen aufbaut. Schlüsselworte: Softwarekartographie, Softwarekarten, Anwendungslandschaften, Kartentypen
1
Einleitung
Die Anwendungslandschaft in einem Unternehmen besteht aus einer Vielzahl von Informationssystemen, die über verschiedene Technologien miteinander gekoppelt sind, unterschiedliche betriebliche Geschäftsprozesse unterstützen und durch zahlreiche Projekte einem steten Wandel unterliegen. In Zusammenarbeit mit verschiedenen Unternehmen (u.a. Allianz, AXA Service, BMW, HVB Systems, T-Com) haben wir den Status quo bei der Beschreibung von Anwendungslandschaften untersucht und Anforderungen an adäquate Darstellungen erhoben. Parallel haben wir die verschiedenen existierenden Werkzeuge, die einen Bezug zum Management von Anwendungslandschaften besitzen, analysiert und Defizite bei der Erstellung und der Pflege von Softwarekarten identifiziert.
1444
J. Lankes, F. Matthes, A. Wittenburg
Das Ziel unseres Forschungsprojektes Softwarekartographie ist es in Zusammenarbeit mit unseren Projektpartnern x einen Begriffsapparat zur Beschreibung von Anwendungslandschaften zu definieren, x ein Modell für Softwarekarten zu entwickeln, x das Modell adäquat in graphische Repräsentationen umzusetzen und x den Projektpartnern Entscheidungshilfen zur Bewertung und Planung ihrer Anwendungslandschaften zu geben. In Abschnitt 2 stellen wir unser Forschungsprojekt Softwarekartographie vor, zu welchen Ergebnissen wir bisher gelangt sind und wie Softwarekarten aufgebaut sind. Unsere Projektpartner haben bereits eigene Softwarekarten für Anwendungslandschaften entwickelt, um für ihre individuellen Fragestellungen adäquate Darstellungen mit den relevanten Informationen zu erhalten. Abschnitt 3 kategorisiert diese Darstellungen, definiert verschiedene Typen von Softwarekarten und diskutiert die besondere Thematik des Kartengrundes. Die Werkzeuge, die von unseren Projektpartnern eingesetzt werden, erfüllen deren Anforderungen an die Softwarekartographie nicht, da u.a. die Erstellung und Pflege der Softwarekarten mit einem hohen manuellen Aufwand verbunden sind. In Abschnitt 4 geben wir einen Überblick über die speziellen Anforderungen an ein Werkzeug zur Softwarekartographie und diskutieren einen Prototypen, der sich derzeit in der Entwicklung befindet.
2
Softwarekartographie
Die Softwarekartographie soll Unternehmen bei der Beschreibung, langfristigen Gestaltung und Bewertung ihrer Anwendungslandschaften unterstützen. Softwarekarten (Beispiel in Abbildung 1) sollen als Kommunikationsmittel dienen, Zusammenhänge zwischen relevanten Aspekten hervorheben und spezielle Fragestellungen, wie beispielsweise das Erkennen von Redundanzen, die Koordination von Projekten oder das Identifizieren von Abhängigkeiten, beantworten1. Die Anwendungslandschaften unserer Projektpartner variieren zwischen hundert und mehreren tausend Informationssystemen und sind für diese ein Investitionsgut, das nachhaltig geschützt werden muss. Ein erstes Ergebnis unserer Anforde1
Die verschiedenen Softwarekarten in dieser Arbeit sind vereinfachte Darstellungen. Die Originale unserer Projektpartner sind wesentlich komplexer und enthalten vertrauliche Informationen.
Softwarekartographie: Systematische Darstellung von Anwendungslandschaften
1445
rungsanalyse ist, dass eine ganzheitliche Betrachtung der Anwendungslandschaft auf verschiedenen Ebenen erfolgen muss [MaWi04a].
Abbildung 1: Softwarekarte mit logischen Einheiten und Verbindungen
2.1
Betrachtungsebenen der Softwarekartographie
Die drei Betrachtungsebenen der Softwarekartographie sind in Abbildung 2 dargestellt. Die Softwarekartographie soll eine ganzheitliche Betrachtung der Anwendungslandschaft ermöglichen und nicht nur die Ebene „Wie?“ mit Informationssystemen, Schnittstellen etc. einbeziehen. Analog zur thematischen Kartographie, bei der auf topographischen Kartengründen thematische Inhalte visualisiert werden (z.B. die Bevölkerungsdichte), kommen bei der Analyse von Anwendungslandschaften verschiedene Sichten zum Einsatz. Die Anwendungszwecke der einzelnen Sichten variieren und stellen je nach Anforderung unterschiedliche Aspekte bzw. Kennzahlen dar (siehe Abschnitt 2.2), die aus den Informationen der drei Betrachtungsebenen stammen. Insbesondere die Rolle des Betrachters ist hierbei hervorzuheben, da unterschiedliche Stakeholder (vgl. [IEEE00; Clem+02]) verschiedene Sichten benötigen, um ihre spezifischen Fragestellungen zu beantworten. Den unternehmerischen und strategischen Zielen eines Unternehmens wird auf der obersten Ebene („Warum?“) Rechnung getragen. IT-Strategien, die eine Reduzierung von Individualsoftware vorsehen, oder neue gesetzliche Regelungen, die Veränderungen oder neue Geschäftsprozesse fordern (z.B. MaK oder Basel II im
1446
J. Lankes, F. Matthes, A. Wittenburg
Finanzsektor), haben Auswirkungen auf die Anwendungslandschaft und ändern Investitionsplanungen für IT-Projekte in den kommenden Planungsphasen. Änderungen und Neuerungen bei operativen Geschäftsprozessen und Geschäftsobjekten, die durch immer kürzere Produktzyklen und sich wandelnde Kundenanforderungen entstehen, haben direkte Auswirkungen auf die unterstützenden Informationssysteme und werden auf der mittleren Ebene („Was?“) in die Betrachtung der Anwendungslandschaft einbezogen. Auf der untersten Ebene („Wie?“) werden die Geschäftsprozesse/-objekte implementiert bzw. durch betriebliche Informationssysteme unterstützt, die durch unterschiedliche Technologien realisiert sind, verschiedene Softwarearchitekturen benutzen, etc. Die Vernetzung der Anwendungslandschaft, die durch zahlreiche Verbindungen über Schnittstellen zwischen den Informationssystemen realisiert ist, die unterstützenden Middleware-Systeme etc. komplettieren die Sicht auf die Anwendungslandschaft auf der technischen Ebene. Die Fragestellungen „Warum?“, „Was?“ und „Wie?“ haben sich mit einem anderen Betrachtungswinkel bereits im Business Process Reengineering für eine grundlegende Betrachtung von Geschäftsprozessen bewährt [HaCh93, S. 32-33].
Abbildung 2: Betrachtungsebenen der Softwarekartographie
Die drei Betrachtungsebenen ermöglichen in der Summe eine statische Analyse der Anwendungslandschaft, die um eine dynamische Betrachtung ergänzt werden muss, um die Evolution der Anwendungslandschaft zu berücksichtigen. Informationssysteme werden aufgrund von sich ändernden Rahmenbedingungen, Geschäftsprozessen oder Zielen etc. neu gebaut, adaptiert oder abgelöst. Dieser dy-
Softwarekartographie: Systematische Darstellung von Anwendungslandschaften
1447
namische Wandel wird durch Programme und/oder Projekte vollzogen, die möglicherweise parallel verschiedene Informationssysteme modifizieren.
2.2
Relevante Aspekte von Informationssystemen
In zahlreichen Gesprächen mit unseren Projektpartnern haben wir die relevanten Aspekte von Informationssystemen, die für eine Analyse der Anwendungslandschaft relevant sind und auf Softwarekarten visualisiert werden sollen, gesammelt und die folgende Kategorisierung in fünf Gruppen herausgearbeitet: Planerische Aspekte umfassen die Evolution der Anwendungslandschaft über die Zeit. Programme und Projekte verändern Informationssysteme, schaffen neue oder lösen existierende ab. Dies führt zu einer Betrachtung von Ist-, Soll- und PlanAnwendungslandschaften, die verschiedene Zyklen der Evolution analysieren. IstAnwendungslandschaften erfassen den Status quo und sind die Basis für die Abstimmung und Priorisierung von Projekten und Programmen im nächsten Planungsintervall. Soll-Anwendungslandschaften aggregieren die Programme und Projekte eines Planungszeitraums und führen zu einer Anwendungslandschaft in der Zukunft. Unsere Projektpartner betrachten mehrere Soll-Anwendungslandschaften, die typischerweise halbjährliche oder jährliche Evolutionsschritte darstellen. Jede SollAnwendungslandschaft ergibt hierbei die Basis für den nächsten Planungszeitraum, um sicherzustellen, dass die Basis für den Planungszeitraum x+1 nicht die Ist-Anwendungslandschaft sondern der Planungszeitraum x ist. Plan-Anwendungslandschaften sind zukunftsgerichtete Betrachtungen, die nicht durch geplante oder konkrete Projekte oder Programme entstehen, sondern strategische Ziele der Anwendungslandschaften aufnehmen. Projektpartner stützen die Unterscheidung zwischen Soll- und Plan-Anwendungslandschaften beispielsweise durch die Festlegung, dass Soll-Anwendungslandschaften ein Budget besitzen, Plan-Anwendungslandschaften hingegen nicht. Wirtschaftliche Aspekte betrachten Kosten, die im Lebenszyklus eines Informationssystems entstehen bzw. entstehen werden. Verschiedene Kostenarten (Anschaffung, Wartung, Betrieb etc.), IT-Kennzahlen [Kütz03] und Balanced Scorecards [KaNo91] sollen visualisiert werden. Prozesse, Organisationseinheiten, Geschäftsobjekte etc. bilden die Kategorie der fachlichen Aspekte. Die Anzahl von Nutzern oder der quantifizierte Nutzen (z.B. mittels Function Points [IFPU01]) zählen ebenso zu den fachlichen Aspekten. Die Implementierungssprachen, die Verbindungen über Schnittstellen, die genutzten Middleware-Systeme oder die Softwarearchitekturen sind Beispiele für technische Aspekte von Informationssystemen. Unterscheidungen wie Individual- vs.
1448
J. Lankes, F. Matthes, A. Wittenburg
Standardsoftware in Kombination mit Eigen- oder Fremdentwicklung zählen gleichfalls zu den technischen Aspekten. Die operativen Aspekte fokussieren auf den Betrieb von Informationssystemen und die verbundenen Ereignisse (zeitgesteuerte Abläufe, Batch-Jobs etc.). Datenflüsse und Kontrollflüsse mit bestimmten Abhängigkeiten bei Verarbeitungszyklen oder Domino-Effekte bei Ausfällen werden von den operativen Aspekten berücksichtigt. Das Problem-Management, wie es in der IT Infrastructure Library diskutiert wird, detailliert die operativen Aspekte um beispielsweise „mean time between failure“ oder „number of incidents“ [OGC00]. Bei der Umsetzung der verschiedenen relevanten Aspekte in ein Modell muss berücksichtigt werden, dass Unternehmen nicht ad hoc über alle Informationen verfügen, sondern einzelne Aspekte ggf. nachträglich aufnehmen. Des Weiteren ist die Beziehung zwischen erfassbaren und pflegbaren Aspekten sowie dem Nutzen zu beachten, da mit dem entstehenden Aufwand nicht immer ein adäquater Nutzen einhergeht.
2.3
Aufbau von Softwarekarten
Softwarekarten als graphische Repräsentationen von Anwendungslandschaften sollen Informationssysteme, die verschiedenen relevanten Aspekte und die Beziehungen zwischen ihnen visualisieren.
Abbildung 3: Schichtenaufbau von Softwarekarten
Abbildung 3 zeigt beispielhaft den Schichtenaufbau einer Softwarekarte, die aus einem Kartengrund und mehren Schichten besteht. Auf den Kartengrund, der je nach Kartentyp (siehe Abschnitt 3) variiert, werden die unterschiedlichen Schich-
Softwarekartographie: Systematische Darstellung von Anwendungslandschaften
1449
ten aufgetragen, wobei zu jeder Schicht eine Referenzschicht existiert, auf die sich die Elemente dieser Schicht beziehen2. Durch das Ein-/Ausblenden und das Zoom-In/Out können die angezeigten Informationen gefiltert und die Informationsdichte variiert werden, um für einen bestimmten Anwendungsfall die gewünschte Softwarekarte zu erhalten. Existierende Visualisierungssprachen im Bereich des Software-Engineering fokussieren auf der Darstellung eines einzelnen Softwaresystems und berücksichtigen dabei nur Teile der oben genannten Betrachtungsebenen und relevanten Aspekte. UML [OMG03] definiert zwar unterschiedliche Diagrammtypen, die für unterschiedliche Fragestellungen bei der Analyse, dem Design etc. von Softwaresystemen geeignet sind, verbindet jedoch beispielsweise nicht mehrere Informationssysteme mit den unterstützten Geschäftsprozessen. Ebenso besitzt UML keine Semantik für Position, Größe oder Farbe von Objekten auf den Diagrammen (vgl. [MaWi04a]). Ein Schichtenaufbau eines Diagramms, um für unterschiedliche Fragestellungen bei gleich bleibendem Kartengrund die entsprechenden Informationen zu selektieren, ist in UML ebenso nicht möglich.
3
Typen von Softwarekarten
Bei einer kartographischen Karte handelt es sich um ein Abbild eines geographischen Standorts, sie dient dazu, räumliche Beziehungen zu kommunizieren. Dazu liefert sie eine visuelle Repräsentation der räumlichen Beziehungen, die dem Kommunikationspartner mitgeteilt werden sollen. Die Kartographie stellt eine außerordentlich effiziente Möglichkeit dar, Ideen, Gedanken, Formen und Beziehungen auszudrücken, zu analysieren und zu manipulieren [Robi+95, S. 9-10]. Damit bietet sich an, die von dieser Disziplin bereitgestellten Instrumente bei der Beherrschung der oben als komplex und mit hohen Investitionen verbunden dargestellten Anwendungslandschaften einzusetzen. Beim Versuch, Techniken aus der Kartographie zur Erstellung von Repräsentationen einer Anwendungslandschaft zu nutzen, erweist sich allerdings eine grundsätzliche Begrenzung von Karten als hinderlich. Die Techniken der Kartographie eignen sich nur zur Abbildung von Gegebenheiten, die in einem zwei- oder dreidimensionalen Raum auftreten. Bei der Darstellung von geographischen Informationen stellt dies keine Beschränkung dar, der Kartengrund ist immer ein topogra2
Beispielsweise würde eine Schicht mit Verbindungen, die Verbindungen zwischen Informationssystemen visualisiert, auf die Schicht mit Informationssystemen referenzieren.
1450
J. Lankes, F. Matthes, A. Wittenburg
phischer, was unter anderem auch auf die enorme Bedeutung derartiger Informationen zurückgeht: „Our desire for spatial imagery of things in our environment is as normal as breathing.“ [Robi+95, S. 9] Informationssysteme als Elemente einer Anwendungslandschaft lassen sich anhand verschiedenster Merkmale beschreiben (unterstützte Prozessschritte, Zeitraum des aktiven Betriebs, betreibende Organisationseinheit, bearbeitende Projekte, verwendete Technologien etc.), darunter findet sich aber kein Satz von zwei oder drei Merkmalen, die als Dimensionen derartig prominent hervortreten wie die räumlichen Dimensionen in der Kartographie. Damit steht für Softwarekarten kein eindeutiger Kartengrund fest. Durch Auswahl bestimmter Merkmale als Dimensionen, die dann zur Bildung des Kartengrunds (zur Verortung) zum Einsatz kommen, erhält der „Softwarekartograph“ zusätzlichen Freiraum bei der Gestaltung der Karte. Bei den Projektpartnern, mit denen wir im Rahmen des Projekts „Softwarekartographie“ zusammenarbeiten, haben wir Karten identifiziert, die sich anhand der Merkmale, auf denen die Verortung der Elemente basiert, in vier Kartentypen einteilen lassen.
3.1
Softwarekarten mit Kartengrund zur Verortung
Ein wichtiges Attribut eines Elements auf einer Karte in der Kartographie stellt die Position des Elements auf dem Kartengrund dar, die sich aus der geographischen Position des Objekts ableitet. Dies legt die Verortung von Elementen auf der Karte fest: Erscheint ein bestimmtes Element an einer anderen Stelle der Karte, ändert sich die von ihr transportierte Botschaft3. Durch den gleichartigen Aufbau und eine gleich bleibende Positionierung von Elementen auf der Softwarekarte entsteht zusätzlich ein Wiedererkennungswert, der es dem Betrachter erleichtert, sich schnell in der Karte zu orientieren. 3.1.1
Clusterkarte
Bei diesem Kartentyp bilden logische Einheiten, die in der Organisation, deren Anwendungslandschaft untersucht wird, existieren, den Kartengrund. Als logische Einheiten einsetzbar sind z.B. Funktionsbereiche, Organisationseinheiten oder sogar geographische Einheiten wie z.B. Standorte, Städte oder Regionen. Eine Mög-
3
Bei anderen graphischen Darstellungen, wie z.B. UML-Klassendiagrammen ist dies nicht der Fall. Einen auf diesem Visualisierungskonzept aufbauenden Kartentyp beschreibt Abschnitt 3.2.
Softwarekartographie: Systematische Darstellung von Anwendungslandschaften
1451
lichkeit, die verschiedenen logischen Einheiten zu unterscheiden besteht z.B., wie in Abbildung 4 dargestellt, in der Verwendung eines Farbcodes4.
Abbildung 4: Softwarekarte vom Typ Clusterkarte
Das Problem der Verortung von Elementen der Karte löst dieser Kartentyp, indem jedes Element in der logischen Einheit, zu der es in Beziehung steht, dargestellt wird. Damit stehen beim Erstellen einer derartigen Karte bereits grobe Regeln fest, wo z.B. ein bestimmtes Informationssystem (mit den Kartenelementen, die best. Attribute dieses Systems visualisieren) darzustellen ist. Es besteht die Möglichkeit, dass ein System, das zu mehreren der in der Darstellung verwendeten logischen Einheiten gehört, auf der Karte mehrmals erscheint. Dieser Kartentyp spezifiziert nicht, wie die logischen Einheiten auf der Karte platziert werden und wie sich die verschiedenen Elemente innerhalb der Darstellung einer logischen Einheit anordnen. Bezüglich dieser Fragestellungen wurden bei den Projektpartnern unterschiedliche Vorgehensweisen identifiziert: x platzoptimierte Verortung x konventionsgestützte Verortung Bei der konventionsgestützten Verortung werden beispielsweise Einheiten mit Kundenkontakt rechts und Einheiten mit Lieferantenkontakt links auf der Karte angeordnet.
4
Je nach Verwendung eines Farb- und/oder S/W-Drucks muss der Farbcode entsprechend optimiert werden.
1452
J. Lankes, F. Matthes, A. Wittenburg
Als Mittel zum Erhöhen der Lesbarkeit stehen bei diesem Kartentyp zur Verfügung: x Verortung der logischen Einheiten bzw. der Elemente in den logischen Einheiten x Selektive Informationspräsentation über Schichten Für eine selektive Informationspräsentation nutzen Abbildung 1 und Abbildung 4 unterschiedliche Darstellungsweisen der Verbindungen zwischen Informationssystemen. Abbildung 1 visualisiert die Schnittstellen mit kurzen Pfeilen, die mit dem Quell- bzw. Zielsystem beschriftet sind; Abbildung 4 verbindet die Informationssysteme und verwendet unterschiedliche Pfeilenden für Kommunikationsarten. Mittels Schichten könnte je nach Bedarf diese Information ein- oder ausgeblendet werden. Für weitere Darstellungsmöglichkeiten von Anwendungslandschaften und Verbindungen zwischen Informationssystemen wird auf [MaWi04b] verwiesen. 3.1.2
Prozessunterstützungskarte
Abbildung 5: Prozessunterstützungskarte mit Geschäftseinheiten
Im Rahmen der Prozessorientierung erhalten organisationseinheitsübergreifende Prozesse eine größere Bedeutung innerhalb von Unternehmen [Sche01, S. 7-11]. Obwohl zwischen den einzelnen Prozessschritten Schnittstellen existieren, besteht ein Ziel der Prozessorientierung (insb. auf den höheren Ebenen) darin, den kontinuierlichen Verlauf der Wertschöpfung im Prozess zu betonen. Damit bietet ein Prozess ähnliche Möglichkeiten im Rahmen der Verortung wie eine räumliche Dimension. Eine Voraussetzung für eine derartige Verwendung eines Prozesses ist, dass dieser linear abläuft. Deshalb kommen hier Prozessdarstellungen auf höheren Ebenen (üblicherweise Ebenen 0 bis maximal 3) zum Einsatz, deren Darstellung, wie in Abbildung 5 gezeigt, als Wertschöpfungsketten erfolgt. Dieser Prozess legt typischerweise die x-Achse der Softwarekarte fest.
Softwarekartographie: Systematische Darstellung von Anwendungslandschaften
1453
Da in einer Organisation meistens mehrere Prozesse existieren, die sich wie oben beschrieben, für die Verwendung in einer Softwarekarte eignen, muss ein bestimmter Prozess, dies kann der gesamte Primär-Prozess sein, zum Einsatz in der Verortung der Kartenelemente gewählt werden. Diese Auswahl kann sich am erwarteten Einsatzzweck der Karte orientieren. So ist es z.B. ein wichtiger Einsatzzweck dieses Kartentyps, den Zusammenhang zwischen Prozessschritten und verwendeten Systemen zu untersuchen. Durch die gewachsene Anwendungslandschaft eines Unternehmens werden beispielsweise in gleichen Prozessschritten unterschiedliche Anwendungen mit gleicher Funktion eingesetzt, die aber selbst wiederum verschiedenste Prozessschritte bedienen können. Die Softwarekarte kann hier bei der Identifikation von Optimierungspotential und Redundanzen unterstützen.
Abbildung 6: Prozessunterstützungskarte mit Evolutionsschritten
Zur Verortung auf der y-Achse können bei diesem Kartentyp verschiedene Merkmale zum Einsatz kommen, wie z.B.: x Geschäftseinheiten, zu denen ein System gehört (siehe z.B. Abbildung 5) x Zeit, während der ein System besteht (siehe z.B. Abbildung 6) x Systemtyp, z.B. dispositiv, operativ, administrativ (siehe z.B. Abbildung 7) Die Karte in Abbildung 6 stellt die Evolution der einzelnen Informationssysteme, die den Prozess auf der x-Achse unterstützen, dar. In dem Betrachtungsintervall unveränderte Informationssysteme werden in der untersten Zeile (im Beispiel Zeitraum 2004 bis 2006) dargestellt. Die anderen Zeilen zeigen Neuerstellung, Ablösung und Veränderung von Informationssystemen in den jeweiligen Planungszeiträumen. Neue, abgelöste, unveränderte und geänderte Systeme werden durch eine Farbkodierung dargestellt. Die Prozessunterstützungskarte weist größere Ähnlichkeit zu den Darstellungen der Kartographie auf als die Verortung nach logischen Einheiten. Die logischen
1454
J. Lankes, F. Matthes, A. Wittenburg
Einheiten stellen eher ein nominales Merkmal dar und müssen deshalb erst unter Festlegung einer Vorgehensweise auf dem Kartengrund positioniert werden. Dagegen basiert die Verortung bei Karten vom Typ Prozessunterstützung auf der Auswahl von ein oder zwei Merkmalen5 als Dimensionen zur Verortung. Dabei lässt sich mindestens eine Dimension, nämlich der Prozess, als ordinal betrachten, was diese besonders geeignet zur Verortung macht, wenn auch nicht der Eignungsgrad von Entfernungen, wie sie in der Kartographie verwendet werden, die ein metrisches Merkmal darstellen, erreicht wird.
Abbildung 7: Prozessunterstützungskarte mit Systemtypen
3.1.3
Intervallkarte
Als mögliche Dimension zur Verortung wurde in Abschnitt 3.1.2 die Zeit erwähnt, dieser Aspekt tritt bei der Intervallkarte in den Mittelpunkt. Sie verwendet als Dimension zur Verortung auf der x-Achse die Zeit, ein intervallskaliertes Merkmal. Auf der y-Achse stellt dieser Kartentyp, wie in Abbildung 8 gezeigt, die verschiedenen Systeme dar. Damit besteht hier eine Nähe zu vorgangsbezogenen GanttDiagrammen [Balz98, S. 32-42]. Die Information, die die Karte bezüglich der Ent-
5
Die Verwendung der y-Achse ist optional, auch eine beliebige Anordnung entlang der y-Achse ist möglich.
Softwarekartographie: Systematische Darstellung von Anwendungslandschaften
1455
wicklung der Informationssysteme über die Zeit hinweg enthält, lässt sich durch die Aufnahme von Versionsinformationen in die Darstellung, wie in Abbildung 8 geschehen, ergänzen. Nr.
Vorgangs nam e
Anfang
1
Giro System
04.03.1988
30.12.2005
2
v1.0
04.03.1988
01.03.2002
3
v1.5
04.03.2002
30.12.2005
4
ConFi System
03.03.2003
22.06.2015
5
v2.3
03.03.2003
22.06.2015
05.02.1990
12.02.2043
6
Credit System
Ende
7
v3.2
05.02.1990
03.05.200
8
v3.3
04.05.200
14.10.2004
9
v4.0
15.10.2004
12.02.2043
31.12.1990
31.12.2049
10
BoSha System
11
v3.2
31.12.1990
31.12.2049
12
Settlement
31.12.1990
31.12.2049
13
v1.4
31.12.1990
31.12.2049
14
Clearing
03.01.1994
30.12.2039
15
v6.1
03.01.1994
16 17 18 19 20 21 22 23 24 25 26 27 28
v7.0 w ww .myBank.com v10.3 banking.m yBank.com v8.4 brokerage.myBank.com v5.3 v5.8 Credit4Banker v4.3 Cash4Cashier v2.4 CallCenter System
31.08.200
03.09.200
30.12.2039
31.12.1986
30.12.2049
31.12.1986
30.12.2049
31.12.2049
31.12.2049
31.12.2049
31.12.2049
02.01.2003
12.11.2042
02.01.2003
2003 2004 2005 2006 1. Qtl 2. Qtl 3. Qtl 4. Qtl 1. Qtl 2. Qtl 3. Qtl 4. Qtl 1. Qtl 2. Qtl 3. Qtl 4. Qtl 1. Qtl 2. Qtl 3. Qtl 4. Qtl
14.07.2004
15.07.2004
12.11.2042
01.01.1989
31.12.2048
01.01.1989
31.12.2048
02.01.1986
02.01.2040
02.01.1986
02.01.2040
02.01.1998
02.01.2002
29
v1.0
02.01.1998
02.01.2002
30
CRM System
02.01.1997
02.03.2016
31
v3.32
02.01.1997
02.03.2016
32
Customer DB
02.01.1984
31.12.2049
33
v9.7
02.01.1984
02.01.1998
34
v10.0
05.01.1998
31.12.2049
Abbildung 8: Intervallkarte mit Versionsinformationen
Auf dem eigentlichen Kartengrund stellt diese Karte mittels Balken dar, in welchen Zeiträumen sich die einzelnen Informationssysteme bzw. Versionen im Einsatz befinden. Auch hier können in konkreten Instanzen dieses Kartentyps Schichten zum Einsatz kommen, um weitere Informationen in die Darstellung zu integrieren. Eine Möglichkeit wäre z.B. in den Balken, die ein Informationssystem/eine Version eines Informationssystems darstellen, mittels Farbcodierung anzugeben, in welchem Stadium ihres Lebenszyklus sich die Anwendung/Version zu den verschiedenen Zeitpunkten befindet.
3.2
Softwarekarten ohne Kartengrund zur Verortung
Neben den in Abschnitt 3.1 vorgestellten Kartentypen existieren auch Karten, bei denen die Verortung von Elementen auf der Karte keine festgelegte Bedeutung besitzt. Die Entscheidungen bezüglich der Positionierung der Elemente auf dem Kartengrund bleiben hier vollständig dem Ersteller der Karte überlassen. Damit rücken derartige Karten eher in die Nähe von graphischen Darstellungen, die nicht
1456
J. Lankes, F. Matthes, A. Wittenburg
auf Verortung basieren, wie UML-Klassendiagramme [OMG03] oder auch die ADLs ACME [Garl+97] oder RAPIDE [Luck96]. Meistens kommt dieser Kartentyp zum Einsatz, um speziell auf eine Problemstellung hin optimierte Visualisierungen einer Anwendungslandschaft oder von Ausschnitten daraus zu generieren.
Abbildung 9: Ad hoc generierte Softwarekarte
Aus der Domäne der Darstellung von Graphen sind verschiedene Positionierungsregeln bekannt, die zu übersichtlichen Darstellungen führen sollen [Purc+01]: x Überschneidungen zwischen Verbindungslinien minimieren x Kästchen (z.B. Klassen) gleichmäßig über das Diagramm verteilen x Verbindungslinien zwischen Kästchen von ähnlicher Länge verwenden x Gerichtete Verbindungen möglichst in die gleiche Richtung zeigen lassen Solche Regeln können die Entwicklung von Layout-Algorithmen [Gutw+04, Wies+04] anleiten, die Softwarekarten automatisch aus einem Repository mit Daten zu einer Anwendungslandschaft generieren. Ein derartiger Algorithmus könnte z.B. die in Abbildung 9 gezeigte Karte erzeugen, indem er ein vom Benutzer auszuwählendes System in der Mitte der Karte positioniert und die Systeme, die Verbindungen zum ausgewählten System aufweisen, kreisförmig um dieses herum anordnet. Stärker als die Befolgung von Regeln wie den oben genannten, die allgemein für die Darstellung von Graphen entwickelt wurden, wirkt sich die Berücksichtigung von inhaltlichen Aspekten, die nicht direkt in den Gestaltungselementen ausgedrückt werden können, auf die Übersichtlichkeit aus. So ist es z.B. möglich, über die Gruppierung bestimmter Elemente auszudrücken, dass sie im Rahmen des betrachteten Problems eng zusammen hängen [Purc+01]. In dieser Hinsicht erscheint es nützlich, Benutzern die Möglichkeit zu geben, die Positionierung der Elemente - wie z.B. bei UML-Werkzeugen üblich - manuell anzupassen.
Softwarekartographie: Systematische Darstellung von Anwendungslandschaften
1457
Durch die relativ großen Freiheiten bei der Verortung, die dieser Kartentyp bietet, lassen sich, unter anderem durch Beachtung von Regelungen wie den oben erwähnten, Darstellungen erzeugen, die eine spezielle Problematik mit guter Übersichtlichkeit visualisieren. Die Möglichkeit der freien Positionierung der Elemente steht hier neben der selektiven Darstellung von Information (über Schichten) als weiteres Mittel zur Komplexitätsreduktion bereit. Mangels eines Kartengrundes, der auf Dimensionen zur Verortung basiert, fehlt bei diesen Karten die Möglichkeit, bestimmte Informationen mittels Positionierung von Elementen exakt auszudrücken. Beziehungen zwischen Informationssystemen und Prozessschritten müssten beispielsweise durch Assoziationslinien ausgedrückt werden.
4
Werkzeugunterstützung
Ein adäquates Werkzeug für die Softwarekartographie muss neben der Unterstützung der in Abschnitt 3 beschriebenen Softwarekartentypen weitere Anforderungen erfüllen. Der in Abschnitt 2.3 beschriebene Aufbau von Softwarekarten fordert beispielsweise einen mehrschichtigen Aufbau von Softwarekarten auf Basis eines zu definierenden Kartengrundes. Der Kartengrund visualisiert je nach Kartentyp (mehrere) Instanzen unterschiedlicher Objekttypen (Prozessschritte, Funktionsbereiche etc.) und wird in Abhängigkeit vom Anwendungszweck aufgebaut. Dem Kartengrund und den Elementen werden auf einer darüber liegenden Schicht Informationssysteme zugeordnet, die mittels eines entsprechenden Filters aus allen Informationssystemen zur Visualisierung ausgewählt werden. Die nächst höheren Schichten visualisieren relevante Aspekte mit einem Bezug zu den darunter liegenden Schichten (vgl. Referenzschicht in Abschnitt 2.3) und können je nach Bedarf ein- und ausgeblendet werden. In unserer Anforderungsanalyse haben wir verschiedene Werkzeuge zur Softwarekartographie identifiziert, die wir in Abschnitt 4.1 betrachten. Beispiele für Objekte, die für ein Meta-Modell der Softwarekartographie relevant sind, werden in Abschnitt 4.2 vorgestellt, um anschließend unser Konzept für ein Werkzeug zur Softwarekartographie in Abschnitt 4.3 vorzustellen.
4.1
Repository-Unterstützung zur Softwarekartographie
Eine erste grobe Klassifikation, der von uns identifizierten Werkzeuge [MaWi04a], unterteilt diese in Repository-gestützte und nicht Repository-
1458
J. Lankes, F. Matthes, A. Wittenburg
gestützte, die verschiedene Vor- und Nachteile zur Erstellung und Pflege von Softwarekarten besitzen. In der Klasse der nicht Repository-gestützten Werkzeuge finden sich u.a. Microsoft PowerPoint und Microsoft Visio, die von einigen Projektpartnern zur Erstellung ihrer Softwarekarten eingesetzt werden. Der Vorteil dieser Werkzeuge liegt in dem Freiheitsgrad, den der Kartenersteller beim Modellieren besitzt. Beispielsweise können Elemente auf der Karte beliebig positioniert werden oder Farben, Größen etc. frei gewählt werden. Der Nachteil dieser nicht Repository-gestützten Werkzeuge liegt in dem hohen manuellen Aufwand und der Fehleranfälligkeit bei der Erstellung von Softwarekarten. Existierende Daten für die Softwarekarten über Informationssysteme, Schnittstellen etc. werden manuell in die Softwarekarte übertragen. Dieser Prozess der manuellen Datenübernahme führt ebenso zu Fehlern, da ein Abgleich der Daten zwischen dem Quell-Datenbestand und den Softwarekarten nicht automatisch möglich ist. Der Vorteil der Repository-gestützten Werkzeuge liegt in der Erfassung und Pflege der Daten. Einige unserer Projektpartner setzen derartige Werkzeuge bereits zur Planung ihrer Anwendungslandschaft ein und pflegen Daten über Prozesse, Informationssysteme, Organisationseinheiten etc. in den Repositories. Allerdings sind nicht alle Meta-Modelle dieser Werkzeuge variabel genug, um die relevanten Aspekte in geeigneter Form im Repository zu speichern. Bei der Erstellung von Softwarekarten bietet keines der analysierten Repositorygestützten Werkzeuge die Möglichkeit verschiedene Aspekte mittels unterschiedlicher Schichten auf einem gemeinsamen Kartengrund aufzutragen und einzelne Schichten Ein- und Auszublenden. Auch die Nutzung von Gestaltungsmitteln (Linien, Signaturen, Schrift etc.) und -variablen (Farbe, Form, Größe etc.) in Abhängigkeit von Daten des Repositories genügt nicht den Anforderungen der Softwarekartographie. Eine Auflistung der von uns für die Softwarekartographie untersuchten Werkzeuge findet sich in [MaWi04a].
4.2
Objekte eines Meta-Models für die Softwarekartographie
Durch die Analyse der relevanten Aspekte und der existierenden Softwarekarten wurden verschiedene Objekte und Assoziationen zwischen diesen Objekten identifiziert. Im Gegensatz zu Meta-Modellen, wie sie Werkzeugen zur Prozessmodellierung zugrunde liegen, fokussiert ein Modell für die Softwarekartographie auf die Informationssysteme der Anwendungslandschaft, die Beziehungen zwischen diesen und ihre relevanten Aspekte. Meta-Modelle zur Prozessmodellierung fokussieren hingegen auf Funktionen, Ereignissen, Daten etc. und deren Simulation.
Softwarekartographie: Systematische Darstellung von Anwendungslandschaften
1459
Ein Meta-Modell für die Softwarekartographie muss des Weiteren zwischen optionalen und obligatorischen Objekten, Assoziationen und Attributen von Objekten unterscheiden (siehe Abschnitt 2.2). Eine Softwarekarte vom Typ Prozessunterstützungskarte, die die Abhängigkeit zwischen Informationssystemen, den unterstützten Prozessen und den Einsatzbereichen visualisieren soll, benötigt beispielsweise neben den Prozessschritten und den Einsatzbereichen die Beziehungen zwischen diesen Objekten und den Informationssystemen, um die Objekte richtig platzieren zu können. Unternehmen wollen zusätzlich die Möglichkeit besitzen, die für sie relevanten Softwarekartentypen sowie die darauf darzustellenden Elemente auszuwählen und das Repository inkrementell zu erweitern. Entscheidungen in diesem Zusammenhang sollen auf Basis von Kosten/Nutzen-Verhältnissen getroffen werden können. Neben den oben angeführten Objekten Prozessschritte, Einsatzbereiche und Informationssysteme zählen beispielsweise Verbindungen zwischen Informationssystemen, Konnektoren, die Schnittstellen anbieten, Organisationseinheiten oder Projekte zu den Objekten des Meta-Modells zur Softwarekartographie.
4.3
Architektur eines Werkzeuges zur Softwarekartographie
Die wesentlichen Anforderungen an ein adäquates Werkzeug zur Softwarekartographie sind: x Import von Datenbeständen aus Repository-gestützten Anwendungen x Abbildung der Import-Daten auf ein generisches Meta-Modell für Anwendungslandschaften x Abbildung der Objekte des Meta-Modells auf Gestaltungsmittel und -variablen x Export von Softwarekarten in unterschiedlichen Daten- und Grafikformaten Die existierenden Datenbestände in den Repository-gestützten Anwendungen (siehe Abschnitt 4.1) sollen für die Erstellung von Softwarekarten genutzt werden, wobei die Hoheit über diese Daten in den existierenden Repositories verbleibt. Die Abbildung der Import-Daten auf ein geeignetes Meta-Modell erfordert, so lange kein einheitliches Datenformat für den Export aus den Repository-gestützten Anwendungen existiert, eine Konvertierung in das Meta-Modell für die Softwarekartographie, um eine Abbildung der Objekte auf die Gestaltungsmittel der Softwarekarten zu ermöglichen. Der Modellierer für Softwarekarten filtert nach der Konvertierung in einem ersten Schritt die relevanten Daten für einen Kartengrund aus dem Datenmodell und ordnet diese ggf. manuell an, wenn keine Verortung aus den gefilterten Objekten abzuleiten ist.
1460
J. Lankes, F. Matthes, A. Wittenburg
Nach der Definition des Kartengrundes werden über weitere Filter die Informationssysteme und die relevanten Aspekte ausgewählt und schrittweise auf der Softwarekarte visualisiert. Je nach Art des relevanten Aspektes (z.B. quantifizierbar oder nicht quantifizierbar) werden unterschiedliche Gestaltungsmittel für die einzelnen Schichten gewählt. Die Informationen über eine erstellte Softwarekarte müssen in einem Repository gespeichert werden. Persistente Informationen sind beispielsweise die Position von Elementen, die Filter der einzelnen Schichten etc. Zusätzlich müssen Versionsinformationen der einzelnen Objekte gespeichert werden, um bei einer erneuten Generierung den Modellierer auf neue, geänderte oder gelöschte Objekte hinweisen zu können und ggf. die Evolution der Anwendungslandschaft zu visualisieren. Abbildung 10 stellt die Architektur eines Werkzeuges zur Softwarekartographie dar und insbesondere die Beziehungen zu der Repository-gestützten Anwendung und der Intranet-Applikation. Die derzeitige Architektur bei einigen unserer Projektpartner nimmt die Daten aus dem Repository und setzt diese mittels einer Template-Engine in so genannte Knowledge-Pages (K-Pages) um. Die erzeugten K-Pages werden im Intranet bereitgestellt, um die Informationen über die Anwendungslandschaft möglichst vielen Benutzern zur Verfügung zu stellen. Derzeit enthalten die K-Pages manuell erstellte Softwarekarten und zusätzliche Informationen über Informationssysteme und die Anwendungslandschaft.
Abbildung 10: Architektur eines Werkzeuges zur Softwarekartographie
Das Werkzeug zur Softwarekartographie soll diesen Workflow dahingehend ergänzen, dass die Daten aus dem Repository einem Map Editor zur Verfügung gestellt werden, mit dem Softwarekarten – wie oben beschrieben – erstellt werden können. Die von einem Publisher mit dem Map Editor erstellten Softwarekarten werden dann über eine Export-Funktion in die existierenden K-Pages eingebunden, um eine Integration in das existierende Intranet zu ermöglichen.
Softwarekartographie: Systematische Darstellung von Anwendungslandschaften
5
1461
Zusammenfassung und Ausblick
In dieser Arbeit haben wir unser Forschungsprojekt Softwarekartographie vorgestellt, in dem wir mit verschiedenen Unternehmen Modelle und Methoden zur Beschreibung, Bewertung und Gestaltung von Anwendungslandschaften entwickeln. Aus den existierenden Softwarekarten und neu entwickelten haben wir vier Typen von Softwarekarten abgeleitet. Diese unterscheiden sich in dem zugrunde liegenden Aufbau des Kartengrundes, der mit ihnen verfolgten Zielsetzung und dem Redaktionsprozess (automatisch vs. semi-automatisch vs. manuell). Bedingt durch den hohen Aufwand, den die Erstellung und Pflege von Softwarekarten verursacht, haben wir ein Konzept für ein Werkzeug zur Softwarekartographie entwickelt. Dieses Konzept sieht hierbei eine Integration in existierende Systemumgebungen vor, die bereits über Repositories mit Daten der Anwendungslandschaft und Intranet-Anwendungen zur Publikation von Softwarekarten verfügen. Um eine Interoperabilität mit einer großen Anzahl Repository-gestützter Anwendungen zu erreichen – ohne zusätzliche Aufwände für Konverter –, ist ein gemeinsames Austauschformat nötig. Den derzeit entstehenden Begriffsapparat und das Meta-Modell zur Softwarekartographie werden wir in den kommenden Projektschritten mit unseren Projektpartner abstimmen und konkretisieren. Dieser Begriffsapparat und das Meta-Modell bilden die Basis für ein mögliches Austauschformat. Das parallel entstehende Werkzeug zur Softwarekartographie wird die Machbarkeit zur semi-automatischen Erstellung von Softwarekarten zeigen und entsteht in einer Systemumgebung mit einem Modellierungswerkzeug inkl. Repository und einer entsprechenden Template-Engine zur Publikation der Softwarekarten.
Literatur [Balz98] Balzert, H.: Lehrbuch der Software-Technik: Software-Management, SoftwareQualitätssicherung, Unternehmensmodellierung. 1. Auflage, Heidelberg, Berlin: Spektrum, 1998. ISBN 3-8274-0065-1. [Clem+02] Clements, P.; Bachmann, F.; Bass, L.: Documenting Software Architectures views and beyond.1. Auflage, Boston: Addison-Wesley, 2002. ISBN 0-201-70372-6. [Garl+97] Garlan, D.; Monroe, R.; Wile, D.: Acme: An Architecture Description Interchange Language. In CASCON'97, Toronto, Ontario, Canada, IBM Press, 1997. [Gutw+04] Gutwenger, C.; Jünger, M.; Klein, K.; Kupke, J.; Leipert, S.; Mutzel, P.: GoVisual - A Diagramming Software for UML Class Diagrams. In Graph Drawing Software,
1462
J. Lankes, F. Matthes, A. Wittenburg
Jünger, M.; Mutzel, P.(Eds). Berlin, Heidelberg: Springer-Verlag, 2004. ISBN 3-54000881-0. [HaCh93] Hammer, M.; Champy, J.: Reengineering the Corporation: A Manifesto for Business Revolution. 1. Auflage, New York: HarperCollins Publishers, 1993. ISBN 088730-640-3. [IEEE00] IEEE: IEEE Std 1471-2000 for Recommended Practice for Architectural Description of Software-Intensive Systems. IEEE Computer Society, 2000. [IFPU01] IFPUG. Function Point Counting Practices Manual. Version 4.1.1: International Function Point Users Group, 2001. [KaNo91] Kaplan, R.; Norton, D.: The Balanced Scorecard - Measures That Drive Performance. Harvard Business Review, vol. 70, pp. S. 71-79, 1991. [Kütz03] Kütz, M.: Kennzahlen in der IT : Werkzeuge für Controlling und Management, 1. Auflage, dpunkt.Verlag, 2003. ISBN 3-89864-225-9. [Luck96] Luckham, D.C.: Rapide: A Language and Toolset for Simulation of Distributed Systems by Partial Orderings of Events. In DIMACS Partial Order Methods Workshop IV, Princeton University, 1996. [MaWi04a] Matthes, F.; Wittenburg, A.: Softwarekarten zur Visualisierung von Anwendungslandschaften und ihrer Aspekte. Technische Universität München, Lehrstuhl für Informatik 19 (sebis), Technischer Bericht 02/04, 2004. http://wwwmatthes.in.tum.de/ de/main.htm?t=document/1xeim9muktl5m.htm (Abruf am 2004-07-01) [MaWi04b] Matthes, F.; Wittenburg, A.: Softwarekartographie: Visualisierung von Anwendungslandschaften und ihrer Schnittstellen. In: Informatik 2004 - Informatik verbindet, 34. Jahrestagung der GI, Ulm, Deutschland, 2004. ISBN 3-88579-380-6. [OGC00] Office of Government Commerce (OGC): ITIL - Service Support. Norwich, UK: The Stationery Office, 2000. ISBN 0-11-330015-8. [OMG03] OMG: Unified Modeling Language Specification, Version 1.5. Object Management Group, 2003. [Purc+01] Purchase, H.; McGill, M.; Colpoys, L.; Carringtion, D.: Graph drawing aesthetics and the comprehension of UML class diagrams: an empirical study. In Australian symposium on Information visualisation - Volume 9, Sydney, Australia, Australian Computer Society, Inc., 2001. [Robi+95] Robinson, A.; Morrison, J.; Muehrcke, P.; Kimerling, A.; Guptill, S.: Elements of Cartography. 6. Auflage, Wiley, 1995. ISBN 0471555797. [Sche01] Scheer, A.-W.: ARIS - Modellierungsmethoden, Metamodelle, Anwendungen. 4. Auflage, Berlin, Heidelberg, New York: Springer-Verlag, 2001. ISBN 3-540-41601-3. [Wies+04] Wiese, R.; Eiglsperger, M.; Kaufmann, M.: yFiles - Visualization and Automatic Layout of Graphs. In Graph Drawing Software, Jünger, M.; Mutzel, P. (Eds.). Berlin, Heidelberg: Springer-Verlag, 2004. ISBN 3-540-00881-0.
Entwicklungsmethodiken zur Integration von Anwendungssystemen in überbetrieblichen Geschäftsprozessen – ein Überblick über ausgewählte Ansätze Martin Schissler, Stephan Mantel, Sven Eckert, Otto K. Ferstl, Elmar J. Sinz Otto-Friedrich-Universität Bamberg
Zusammenfassung: Die überbetriebliche Integration von Anwendungssystemen ist ein wichtiger Erfolgsfaktor für eine durchgehende Automatisierung überbetrieblicher Geschäftsprozesse. Eine solche Integration erfordert eine Kopplung der beteiligten Anwendungssysteme durch Kopplungssysteme. Aufgrund der in der Regel hohen Komplexität der Kopplungen werden umfassende Ansätze benötigt, die v. a. die Aspekte Modellierung und Vorgehen im Rahmen einer Entwicklungsmethodik berücksichtigen. Der vorliegende Beitrag stellt zunächst eine Systematik zur Erfassung wesentlicher Aspekte solcher Ansätze vor. Anschließend werden vier ausgewählte Ansätze unter Verwendung dieser Systematik beschrieben. Schlüsselworte: Anwendungssystem, Integration, Kopplungssystem, Entwicklungsmethodik, Modellierung, Vorgehensmodell
1
Einleitung
Ein überbetrieblicher Geschäftsprozess verbindet Aktivitäten mehrerer Unternehmen und stimmt diese ganzheitlich auf eine gemeinsame Zielsetzung hin ab. Beispiele hierfür bieten das Supply-Chain-Management oder Virtuelle Unternehmen. Ein wesentlicher Erfolgsfaktor bei der Gestaltung überbetrieblicher Geschäftsprozesse ist die Integration der zugehörigen Anwendungssysteme (AwS) durch geeignete Kopplungssysteme. Produkte und Plattformen zur Realisierung von Kopplungen werden am Markt in großer Breite angeboten, wie z. B. Microsoft® BizTalk™ oder IBM® WebSphere® MQ Integrator®. Angesichts der in der Regel hohen Komplexität der Kopplungen werden darüber hinaus umfassende methodische Ansätze benötigt, die auch die Aspekte Modellierung und Vorgehen bei der Entwicklung von AwS-Kopplungen berücksichtigen. Solche Ansätze sind in Teilen bereits verfügbar. Bei Durchführung eines Integrationsprojekts ist aus der Menge verfügbarer Ansätze ein geeigneter Ansatz auszuwählen, wobei die Selektion u. a.
1464
M. Schissler, S. Mantel, S. Eckert, O. K. Ferstl, E. J. Sinz
durch unterschiedliche Blickwinkel, Begriffsysteme und Formen der Beschreibung erschwert wird. Der vorliegende Beitrag gibt einen Überblick über vier ausgewählte Entwicklungsmethodiken zur überbetrieblichen Kopplung von AwS. Er ist ein Ergebnis des im Rahmen des Bayerischen Forschungsverbundes Wirtschaftsinformatik (FORWIN) durchgeführten Projekts „Offene Anwendungssystem-Architekturen in überbetrieblichen Wertschöpfungsketten“ (OASYS). Zur Darstellung der Ansätze wird eine einheitliche Beschreibungssystematik verwendet. Eine solche Darstellung bietet einen guten Ausgangspunkt für die nachfolgende, im Rahmen dieses Beitrags nicht betrachtete, Auswahl eines Ansatzes. In Kapitel 2 werden zunächst die Gestaltung überbetrieblicher Geschäftsprozesse und ihre Unterstützung durch gekoppelte AwS beleuchtet. Kapitel 3 gibt einen Überblick über die vier betrachteten Ansätze. Hierzu wird zunächst die erwähnte Beschreibungssystematik eingeführt und anschließend auf die Ansätze angewendet. In Kapitel 4 erfolgt eine Zusammenfassung der Ergebnisse.
2
Unterstützung überbetrieblicher Geschäftsprozesse durch gekoppelte Anwendungssysteme
Geschäftsprozesse innerhalb eines Unternehmens sind auf dessen Unternehmensziele ausgerichtet. Sie interagieren an den Unternehmensgrenzen mit Geschäftsprozessen benachbarter Unternehmen. Eine Zusammenfassung der interagierenden Geschäftsprozesse zu einem überbetrieblichen Geschäftsprozess mit abgestimmter Zielsetzung ist Gegenstand betriebswirtschaftlicher Konzepte, wie z. B. SupplyChain-Management und Virtuelle Unternehmen [Chri98, S. 15ff.; Pico+01, S. 2ff.]. Um die Potenziale überbetrieblicher Geschäftsprozesse auszuschöpfen, sind maschinelle Aufgabenträger in Form von AwS einzusetzen und unternehmensübergreifend zu koppeln. Damit können z. B. Potenziale wie die Verkürzung der Durchlaufzeiten von Aufträgen, die Senkung von Lagerbeständen und höhere Flexibilität bei der Auftragsabwicklung genutzt werden [Chri98, S. 31ff.; Pico+01, S. 9ff.]. Die überbetriebliche Kopplung von AwS erfolgt mittels eines Kopplungssystems, das alle kopplungsrelevanten Elemente der AwS enthält. Bei jedem der beteiligten AwS wird zwischen dem Kern und dem Kopplungs-Teilsystem unterschieden [Mant+04, S. 22f.]. Der AwS-Kern enthält die zu koppelnden Elemente sowie weitere, nicht kopplungsrelevante Elemente. Das Kopplungs-Teilsystem enthält diejenigen Elemente des AwS, die ausschließlich der Kopplung mit anderen AwS dienen. Es wird auf der Basis von Kopplungsmechanismen realisiert, die Dienste und Kommunikationsprotokolle für die Kopplung bereitstellen. Die Architektur eines Kopplungssystems wird in Form einer Kopplungsarchitektur spezifiziert.
Entwicklungsmethodiken zur Integration von Anwendungssystemen
3
1465
Entwicklungsmethodiken zur Kopplung von Anwendungssystemen
Im folgenden Kapitel werden vier Ansätze zur Kopplung von AwS vorgestellt. Den wesentlichen Bestandteil dieser Ansätze bildet die jeweilige Entwicklungsmethodik. Bei der Auswahl der vier Ansätze wurde versucht, einen repräsentativen Überblick über aktuelle Entwicklungsmethodiken im überbetrieblichen Umfeld zu geben. Es handelt sich dabei um zwei Ansätze aus einer Kooperation von Wissenschaft und Praxis (MOVE, Juric et al.), einen Ansatz einer Standardisierungsinitiative (ebXML) sowie einen Ansatz aus einem Forschungsprojekt (OASYS). Zur strukturierten und einheitlichen Darstellung der Ansätze wird eine Beschreibungssystematik eingeführt. Diese berücksichtigt das zugrunde liegende Untersuchungsproblem, die Entwicklungsmethodik und die Verfügbarkeit wiederverwendbarer Modellbausteine (Abbildung 1). Das Untersuchungsproblem besteht aus den Untersuchungsobjekten und den Untersuchungszielen der Methodik [Fers79, S. 43]. Die Untersuchungsobjekte der Ansätze werden danach differenziert, ob der betrachtete Ansatz nur die überbetriebliche Kopplung von AwS oder zusätzlich auch die überbetrieblichen Geschäftsprozesse erfasst. Hinsichtlich der Untersuchungsziele wird zwischen Analyse und Gestaltung des jeweiligen Untersuchungsobjekts unterschieden. Die Entwicklungsmethodik wird gemäß [Fers+01, S. 180] anhand des Vorgehens und der dabei unterstützten Modellebenen charakterisiert. Hinsichtlich der Modellebenen [Sinz02] werden unterschieden: (1) die Anwendungsmodellebene, deren Gegenstand ein fachlich orientiertes Modell der Diskurswelt ist, (2) die Softwareentwurfsebene, bestehend aus der Spezifikation der Kopplungsarchitektur in Form von Softwarekomponenten und deren Beziehungen, sowie (3) die Implementierungsebene für die Umsetzung der Spezifikation in das Kopplungssystem. Wesentliche Aspekte sind hierbei die verfügbaren Modellierungskonstrukte auf den Ebenen, Beziehungen zwischen den Ebenen und die methodische Unterstützung bei der Wiederverwendung von Modellbausteinen. Hinsichtlich des Vorgehensmodells wird geprüft, ob die verwendeten Ansätze ein iteratives oder ein inkrementelles Vorgehen unterstützen. Ein iterativer Ansatz geht auf Basis einer verrichtungsorientierten Zerlegung der Gestaltungsaufgabe schrittweise vor und betrachtet in jedem Schritt das gesamte Aufgabenobjekt. Ein mehrfach zyklisches Durchlaufen der Schrittfolge ist dabei möglich, aber nicht zwingend. Ein inkrementeller Ansatz zerlegt im Gegensatz dazu das Aufgabenobjekt der Gestaltungsaufgabe in Teilobjekte. Die Teilobjekte werden dann unabhängig voneinander oder aufeinander abgestimmt gemäß den Gestaltungszielen behandelt.
1466
M. Schissler, S. Mantel, S. Eckert, O. K. Ferstl, E. J. Sinz
Wiederv.
Methodik
U-Problem
Zusätzlich zu den Modellebenen und zum Vorgehen wird untersucht, ob die Methodik den Entwickler bei der Spezifikation nicht-funktionaler Anforderungen, wie z. B. Skalierbarkeit oder Anpassbarkeit, unterstützt, die bei der Gestaltung von Kopplungssystemen zu berücksichtigen sind. Funktionale Anforderungen an das Kopplungssystem werden typischerweise in der Anwendungsmodellebene erfasst. Funktionale und nicht-funktionale Anforderungen konkretisieren folglich die Ziele bez. der Gestaltung des Kopplungssystems. Die Erfassung der nichtfunktionalen Anforderungen kann unstrukturiert oder in Form eines systematischen Kataloges erfolgen.
Untersuchungsobjekt Untersuchungsziel
Modellebenen Vorgehen nicht-f. Anford. Verfügbarkeit wiederverwendbarer Bausteine
GP: Geschäftsprozess +
trifft voll zu
Überbetriebl. GP Überbetriebl. KS Analyse GP Gestaltung GP Analyse KS Gestaltung KS Anwendungsmodell Softwareentwurf Implementierung Iterativ Inkrementell Anwendungsmodell Softwareentwurf Implementierung KS: Kopplungssystem o
MOVE + + + + + + + + o + +
ebXML Juric et al. OASYS + o + + o + + + + + + + + + + + + + + o + + + + + + + + + + o o + + + o o + o -
nicht-f. Anford.: nicht-funktionale Anforderungen
trifft teilweise zu
-
trifft nicht zu
Abbildung 1: Einordnung der vier Ansätze in die Beschreibungssystematik
Abschließend wird untersucht, ob die betrachteten Ansätze eine Wiederverwendung von Modellbausteinen auf den einzelnen Modellebenen, z. B. in Form von Bausteinbibliotheken, unterstützen. Zur Erläuterung der vier Ansätze werden in den jeweiligen Abschnitten Abbildungen verwendet, in denen die Vorgehensschritte des Ansatzes den einzelnen Modellebenen zugeordnet werden. Ein Vorgehensschritt wird einer Ebene zugeordnet, wenn er Modelle dieser Ebene erzeugt. Die Kanten in den Abbildungen stellen Reihenfolgebeziehungen zwischen den Schritten dar.
Entwicklungsmethodiken zur Integration von Anwendungssystemen
3.1
1467
MOVE
Das Projekt MOVE - Modellierung einer verteilten Architektur für die Entwicklung unternehmensübergreifender Informationssysteme und ihre Validierung im Handelsbereich - ist ein Verbundvorhaben zwischen dem Beratungs- und Softwarehaus BFK GmbH, dem Hersteller von Kassen- und Warenwirtschaftssystemen ICL Retail Systems GmbH, dem Europäischen Handelsinstitut und dem Schwerpunkt Wirtschaftsinformatik 1 der Universität-GH Paderborn [Fisc+98]. Untersuchungsproblem Das Untersuchungsobjekt des Projektes bilden überbetriebliche Geschäftsprozesse im Rahmen des Supply-Chain-Management und ihre Unterstützung durch Interorganisationssysteme (IOS). Ein IOS realisiert hierbei eine Menge von KopplungsTeilsystemen und kann autonom gegenüber den AwS-Kernen agieren [Fisc+99, S. 17f.]. Untersuchungsziel des Projektes ist zum einen die Analyse und Gestaltung überbetrieblicher Geschäftsprozesse mit besonderer Betonung der überbetrieblichen Informationsflüsse. Ein weiteres Ziel ist die Entwicklung eines auf die Geschäftsprozesse abgestimmten IOS auf der Basis einer im Rahmen des MOVEProjektes entwickelten Architektur, die den Austausch von Geschäftsdokumenten ermöglicht [Fisc+98; Fisc+99, S. 24]. Die AwS-Kerne werden als nicht direkt veränderbar betrachtet [Fisc+99, S. 17]. Methodik Im MOVE-Ansatz erfolgt keine explizite Differenzierung von Modellebenen [Fisc+99, S. 10f.]. Es können jedoch die Anwendungsmodellebene und die Implementierungsebene identifiziert werden. Auf der Anwendungsmodellebene wird ein Wertschöpfungsfluss auf Basis eines objektorientierten Metamodells modelliert. Das Metamodell umfasst die vier Entwurfselemente Klient, Interaktion, Objekt und Kanal. Klienten, z. B. Unternehmen oder Haushalte, tauschen Leistungen, Zahlungen und Informationen in Form von Interaktionen aus. Diese werden durch das Objekt als Gegenstand der Interaktion und den zu ihrer Realisierung notwendigen Kanal näher bestimmt. Jedes Entwurfselement kann durch Attribute, Methoden und Rollen beschrieben werden [Fisc+99, S. 11ff., S. 159]. Sämtliche Modellelemente müssen aus einer von allen beteiligten Unternehmen akzeptierten Referenzbibliothek stammen [Fisc+99, S. 162]. Der MOVE-Ansatz unterscheidet auf der Anwendungsmodellebene drei Sichten. (1) Im Prozessübersichtsmodell werden alle am jeweiligen Wertschöpfungsfluss beteiligten Klienten und ihre Interaktionen modelliert [Fisc+99, S. 169f.]. (2) Interaktionsmodelle beschreiben detailliert die Interaktionen von genau zwei in einer Geschäftsbeziehung stehenden Klienten. Hierbei werden für jede Interaktion
1468
M. Schissler, S. Mantel, S. Eckert, O. K. Ferstl, E. J. Sinz
das übertragene Objekt und der verwendete Kanal angegeben [Fisc+99, S. 171]. (3) Strukturmodelle der Informationsobjekte beschreiben die Attribute und Methoden eines im Rahmen einer Informations-Interaktion übertragenen Objektes [Fisc+99, S. 171ff.]. Die Implementierungsebene umfasst die Implementierung eines IOS auf der Basis eines Java™-Framework. Alternativ ist auch eine Implementierung auf der Basis von Komponententechnologien, wie DCOM oder CORBA®, möglich, über die jedoch keine weiteren Aussagen getroffen werden [Fisc+99, S. 16]. Daher wird auf diese Alternative im Folgenden nicht weiter eingegangen. Präsentation
Anwendungsmodellebene
Analyse
Bewertung
Branchenschicht
Entwurf Systemschicht
Softwareentwurfsebene
Implementierungsebene
Implementierung
Integration
DV-Schicht
Abbildung 2: Modellebenen und Phasen des MOVE-Ansatzes
Im MOVE-Ansatz erfolgt aus Entwicklersicht ein direkter Übergang von der Anwendungsmodell- auf die Implementierungsebene. Die Softwareentwurfsebene wird durch das MOVE-Java™-Framework vorgegeben. Der Entwickler erstellt keinen Softwareentwurf eines IOS, sondern kann aus den Modellen der Anwendungsmodellebene Software-Artefakte in Form von Java™-Klassen erzeugen und in das Framework einbinden [Fisc+99, S. 184]. MOVE gliedert das Vorgehen bei der Entwicklung eines IOS in die folgenden Vorgehensschritte, die als Phasen bezeichnet werden (Abbildung 2): x In der Phase „Präsentation“ können sich interessierte Unternehmen über die Anwendung des MOVE-Ansatzes informieren [Fisc+99, S. 228f.]. x In der „Analyse“ wird der überbetriebliche Geschäftsprozess untersucht und das Nutzenpotenzial einer MOVE-Implementierung identifiziert. Im Rahmen einer Nutzwertanalyse wird hierzu die Wirkung einer solchen Implementierung auf Kosten und Umsatz bestimmt [Fisc+99, S. 93ff., S. 229].
Entwicklungsmethodiken zur Integration von Anwendungssystemen
1469
x Durch Simulation verschiedener Geschäftsprozessalternativen wird in der Phase „Bewertung“ versucht, eine geeignete Gestaltung des überbetrieblichen Geschäftsprozesses zu ermitteln [Fisc+99, S. 121ff., S. 229]. x In der Phase „Entwurf“ wird ein Modell der gewählten Alternative des überbetrieblichen Geschäftsprozesses erstellt. Ziel ist die detaillierte Beschreibung der Informationsobjekte und ihrer Beziehungen [Fisc+99, S. 153, S. 229]. x Die „Implementierung“ umfasst die Generierung von Java™-Klassen aus den im Entwurf beschriebenen Entwurfselementen und deren Einbindung in das Java™-Framework [Fisc+99, S. 183, S. 230]. x In der Phase „Integration“ erfolgt die Einbettung der implementierten Klassen in die Systemumgebung des Unternehmens [Fisc+99, S. 230]. Zur Strukturierung des Ansatzes werden von MOVE die Schichten Branchen-, System- und DV-Schicht unterschieden. Diese können als grobe Phasen bei der Entwicklung eines IOS verstanden werden. Hierbei umfasst die Branchenschicht die Phasen Analyse und Bewertung, die Systemschicht die Phase Entwurf und die DV-Schicht die Phasen Implementierung und Integration. Das Vorgehensmodell von MOVE ermöglicht den Rücksprung zu früheren Phasen und ist daher als zyklisch iterativ zu bezeichnen [Fisc+99, S. 19]. Des Weiteren erlaubt es ein inkrementelles Vorgehen, indem Teilprojekte abgegrenzt und unabhängig bearbeitet werden („Tintenklecksansatz“). Bei der Zusammenführung der Inkremente müssen diese daher eventuell angepasst werden. Wie dies erfolgen soll, wird nicht näher erläutert [Fisc+99, S. 232]. Der MOVE-Ansatz erfasst keine nicht-funktionalen Anforderungen bez. der Gestaltung eines IOS, da das Design und die Implementierung des IOS durch das Java™-Framework vorgegeben sind. Somit können in einem konkreten Integrationsprojekt keine spezifischen diesbezüglichen Anforderungen berücksichtigt werden. Verfügbarkeit wiederverwendbarer Modellbausteine Auf der Anwendungsmodellebene stellt MOVE eine Referenzbibliothek zur Verfügung. In dieser Bibliothek sind Referenzklassen für die Entwurfselemente Klient, Objekt, Interaktion und Kanal in Form von Klassendiagrammen zusammengefasst. Darüber hinaus enthält sie einen Rollenkatalog für Klienten und Objekte, sowie Informationsbausteine, aus denen sich die Attribute der zu modellierenden Informationsobjekte zusammensetzen [Fisc+99, S. 162]. Das Java™Framework von MOVE stellt ein Wiederverwendungsangebot auf Implementierungsebene dar.
1470
3.2
M. Schissler, S. Mantel, S. Eckert, O. K. Ferstl, E. J. Sinz
ebXML
Die Electronic Business Extensible Markup Language (ebXML) ist Gegenstand einer internationalen Initiative, die durch das „United Nations Centre for Trade Facilitation and Electronic Business” (UN/CEFACT) und die „Organization for the Advancement of Structured Information Standards” (OASIS) getragen wird. Das Kernziel dieser Initiative ist die Realisierung eines XML-basierten, offenen Framework, das eine einheitliche und konsistente Basis für den sicheren Austausch von Informationen im Kontext überbetrieblicher Integration schafft. ebXML sieht modular gegliederte Spezifikationen vor, durch deren Umsetzung eine Einführung des Framework realisiert wird [ebXM01a, S. 7]. Untersuchungsproblem Untersuchungsobjekt von ebXML sind überbetriebliche Geschäftsprozesse und Kopplungssysteme. Die Untersuchungsziele beziehen sich auf die Analyse und Gestaltung der Geschäftsprozesse sowie die Entwicklung von Kopplungssystemen unter Berücksichtigung von Eigenschaften der Geschäftsprozesse [Busi01, S. 5f.]. Anpassungen bestehender AwS-Kerne sind nicht Gegenstand von ebXML. Methodik Das ebXML-Framework beinhaltet keine Methodik zur Entwicklung von AwSKopplungen. Es wird jedoch die Verwendung der UN/CEFACT Modeling Methodology (UMM) empfohlen, die auf der Unified Modeling Language (UML™) basiert und bei der es sich um eine Spezialisierung des Rational Unified Process (RUP®) handelt [ebXM01b, S. 9]. Die UMM nimmt keine explizite Differenzierung von Modellebenen vor. Es kann jedoch eine der Beschreibungssystematik entsprechende Ebeneneinteilung identifiziert werden (Abbildung 3). Zur Erfassung und Modellierung der Geschäftsprozesse auf der Anwendungsmodellebene werden gemäß UMM Geschäftsprozesse als Menge von Kollaborationen erfasst, die die Interaktionen zwischen Rollen im Geschäftsprozess als Abfolge von Geschäftstransaktionen beschreiben. Einer Geschäftstransaktion ist eine anfragende und eine antwortende Aktivität zugeordnet. Sie dient dem Austausch von Geschäftsdokumenten. Des Weiteren sieht die UMM auf der Anwendungsmodellebene eine initiale Analyse der Geschäftsdokumente vor, die unter Verwendung wiederverwendbarer, kontextabhängiger Bausteine, der ebXML Core Components (ebCC), definiert werden können. Zur Modellierung der Geschäftsprozesse werden u. a. Use-Case-, Activity- und Sequence-Diagrams, zur Spezifikation der Geschäftsdokumente Class-Diagrams eingesetzt [UNCE01, S. 2-1ff., S. 9-1ff.]. Die Softwareentwurfsebene besitzt im Rahmen der UMM eine untergeordnete Bedeutung. Das Kopplungssystem wird in Form von Kollaborationen zwischen
Entwicklungsmethodiken zur Integration von Anwendungssystemen
1471
Netzwerkkomponenten beschrieben, die Dienste bereitstellen. Außerdem wird ein Informationsmodell erstellt, das die Geschäftsdokumente detailliert spezifiziert. Auf dieser Ebene werden Sequence-, Collaboration- und Class-Diagrams der UML™ verwendet [UNCE01, S. 5-1ff., S. 9-41ff.]. Auf der Implementierungsebene erfolgt die Konfiguration eines der Message Service Specification entsprechenden ebXML Message Service (ebMS) [OASI02a]. Diese legt technische Aspekte des Austausches von ebXML-Nachrichten fest, beschreibt den Aufbau der Nachrichten und definiert Dienste wie Routing oder Packaging. Eine ebMS Implementierung stellt einen Kopplungsmechanismus zur Realisierung eines ebXML-konformen Kopplungs-Teilsystems dar. Sie beinhaltet das Message Service Interface (MSI) als Schnittstelle zu bestehenden AwSKernen, sowie einen Message Service Handler (MSH), der die Funktionalität des ebMS kapselt [OASI02a, S. 8ff.]. Die Konfiguration des ebMS erfolgt auf der Basis verschiedener XMLDokumente: (1) ebXML Business Processes Specification (ebBPS), (2) Collaboration Protocol Profile (CPP) und (3) Collaboration Protocol Agreement (CPA). Eine ebBPS enthält die Informationen über einen Geschäftsprozess, die für einen ebMS relevant sind, basierend auf dem ebXML Business Process Specification Schema (ebBPSS) als Metamodell. ebBPSS ist eine Untermenge des UMMMetamodells, wodurch eine automatisierte Transformation der mit UML™ modellierten Geschäftsprozesse in XML-basierte ebBPS ermöglicht wird [Busi01]. Die Collaboration Protocol Profile and Agreement Specification definiert ein Regelwerk für die Erstellung von CPP und CPA [OASI02b]. Das CPP dient der Festlegung eines unternehmensspezifischen Profils auf Basis einer ebBPS. Es erfolgt eine Zuordnung des Unternehmens zu relevanten Rollen und Aktivitäten sowie eine Erweiterung des fachlich modellierten Geschäftsprozesses um technische Parameter, wie z. B. Verschlüsselungsanforderungen. Ein CPA, das die CPP zweier Unternehmen abgleicht, beschreibt fachliche und technische Protokolle, die für die Unternehmen bei der Durchführung der Interaktion bindend sind [Busi01, S. 9f.]. Bei Verwendung der UMM kommt das Vorgehensmodell des RUP® mit UMMund ebXML-spezifischen Anpassungen zum Einsatz [Chap+01, S. 53ff.; ebXM01b, S. 7ff.; Kruc00; UNCE01]. Es werden folgende als Workflows bezeichnete Vorgehensschritte unterschieden: x In den Workflows „Geschäftsmodellierung“, „Erfassung Anforderungen“ und „Analyse“ wird das Geschäftsprozessmodell erfasst und sukzessive verfeinert. x „Entwurf“ umfasst die Abbildung der Kollaborationen des Geschäftsprozessmodells auf konkrete Dienste und die Verfeinerung der Geschäftsdokumente. x Im Workflow „Implementierung“ werden eine ebBPS und zugehörige XMLbasierte Geschäftsdokument-Spezifikationen auf der Grundlage der UML™Modelle erzeugt. Basierend auf der ebBPS werden unternehmensspezifische Profile im XML-Format erstellt. Durch den Abgleich zweier solcher CPP wird
1472
M. Schissler, S. Mantel, S. Eckert, O. K. Ferstl, E. J. Sinz
anschließend ein CPA generiert. Zuletzt erfolgt die Konfiguration des ebMS auf der Grundlage dieses CPA [Busi01, S. 5f.]. x Die beiden letzten Workflows umfassen das „Testen“ und die „Einführung“ des Kopplungssystems. Anwendungsmodellebene
Geschäftsmodellierung
Erfassung Anforderungen
Analyse
Softwareentwurfsebene
Implementierungsebene
Entwurf
Erstellung ebBPS und GeschäftsdokumentSpez.
Erstellung CPP
Erstellung CPA
Konfiguration ebMS
Implementierung Einführung
Testen
Abbildung 3: Modellebenen und Workflows des ebXML-Framework
Der RUP® erlaubt ein zyklisch iteratives und teilweise abgestimmtes inkrementelles Vorgehen. Das Vorgehensmodell unterscheidet, zusätzlich zu den genannten Workflows, die vier von einem Softwareprojekt zu durchlaufenden Phasen Initial-, Ausarbeitungs-, Konstruktions- und Übergangsphase. In jeder dieser Phasen werden null, ein oder mehrere Inkremente erstellt. Im Rahmen der Erstellung eines Inkrements werden die genannten Workflows durchgeführt. Je nach zugehöriger Phase werden die Workflows hierbei unterschiedlich stark betont [Kruc00, S. 53ff.]. Die Definition nicht-funktionaler Anforderungen wird nicht als expliziter Vorgehensschritt berücksichtigt. Im Rahmen der Erstellung der UMM-Modelle sowie von ebBPS und CPP können jedoch verschiedene Anforderungen erfasst werden, z. B. Sicherheits-, Verbindlichkeits- und Zuverlässigkeitsanforderungen bez. der Transaktionen. Ein resultierendes CPA beinhaltet sämtliche funktionale und nichtfunktionale Anforderungen, die für die Realisierung einer unternehmensübergreifenden Integration bindend sind [OASI02b, S. 11]. Verfügbarkeit wiederverwendbarer Modellbausteine Auf Anwendungsmodellebene stehen wiederverwendbare Modellbausteine in Form von ebCC zur Verfügung [UNOA01]. Außerdem beinhaltet die UMM sechs Analysemuster, die bei der Erfassung des Geschäftsprozesses eingesetzt werden
Entwicklungsmethodiken zur Integration von Anwendungssystemen
1473
können [UNCE01, S. 8-3ff.]. Auf der Softwareentwurfsebene stellt die UMM fünf korrespondierende Designmuster zur Modellierung der Interaktionen zwischen Diensten bereit [UNCE01, S. 8-32ff.]. Bez. der Implementierungsebene kann auf verschiedene, einen ebMS implementierende Integrationsprodukte zurückgegriffen werden, wie z. B. BEA Weblogic Integration. Außerdem ist zu erwarten, dass zukünftig über öffentliche ebXML Registries auf weitere Bausteine zugegriffen werden kann [Chap+01, S. 257].
3.3
Juric et al.
In [Juri+01] beschreiben Matjaz B. Juric, S. Jeelani Basha, Rick Leander und Ramesh Nagappan wie mithilfe der von J2EE bereitgestellten Mechanismen AwS gekoppelt werden können. Untersuchungsproblem Der Ansatz beschäftigt sich im Schwerpunkt mit der Gestaltung von Kopplungssystemen zur Integration der AwS eines Unternehmens. Das wesentliche Ziel ist dabei die Entwicklung eines Composite-Information-System [Juri+01, S. 33f., S. 75]. Hierbei handelt es sich um ein neues AwS, das auf den bestehenden AwS aufbaut und diese, ausgehend von einer Analyse ihrer Eigenschaften, durch ein entsprechendes Kopplungssystem integriert. Die bestehenden AwS-Kerne werden bei diesem Vorgehen durch virtuelle Komponenten gekapselt, die Bestandteile des Kopplungs-Teilsystems darstellen [Juri+01, S. 77ff.]. Eine Anpassung bestehender AwS-Kerne wird nicht betrachtet. Die Geschäftsprozesse werden hinsichtlich ihrer für die Entwicklung des Kopplungssystems relevanten Eigenschaften analysiert. Die Gestaltung der Geschäftsprozesse steht nicht im Fokus des Ansatzes. Die überbetriebliche Integration von AwS stellt eher ein Randthema des Ansatzes dar. Allerdings werden weite Teile der hierzu notwendigen überbetrieblichen Kopplungsarchitektur bereits durch die Architektur des Composite-InformationSystem abgedeckt. Zusätzlich wird beschrieben, wie dessen Architektur zu erweitern ist, um eine solche Kopplung zu realisieren [Juri+01, S. 102ff., S. 851ff.]. Es werden vier Stufen der Integration unterschieden. (1) Die Data-LevelIntegration beschäftigt sich mit der gemeinsamen Nutzung von Daten durch mehrere AwS durch gegenseitigen Zugriff auf deren Datenbanken [Juri+01, S. 80ff.]. (2) Die Application-Interface-Level-Integration beschäftigt sich mit der gemeinsamen Nutzung von Funktionen und Daten durch mehrere AwS unter Verwendung vorhandener bzw. neu zu implementierender API (Application-Programming-Interface) der AwS [Juri+01, S. 85ff.]. (3) Die gleiche Zielsetzung wird durch die Business-Method-Level-Integration verfolgt [Juri+01, S. 91ff.]. Im Gegensatz zur Application-Interface-Level-Integration, bei der die virtuellen Komponenten nur eine technische Abstraktion der AwS-Kerne bereitstellen, erfolgt
1474
M. Schissler, S. Mantel, S. Eckert, O. K. Ferstl, E. J. Sinz
hier zusätzlich eine fachliche Abstraktion. Die virtuellen Komponenten werden entsprechend den Anforderungen des angestrebten Composite-InformationSystem fachlich abgegrenzt. (4) Mithilfe der Presentation-Level-Integration wird den Nutzern eine einheitliche Oberfläche angeboten, die den Zugriff auf die Funktionen und Daten der verschiedenen AwS erlaubt [Juri+01, S. 97ff.]. Methodik Eine explizite Unterscheidung von Modellebenen wird durch den Ansatz nicht vorgenommen. Die verwendeten Modelle lassen sich jedoch den in Abbildung 1 genannten drei Modellebenen zuordnen. Zur Darstellung der Modelle nutzt der Ansatz in weiten Teilen UML-Diagramme [OMG03]. Teilweise werden auch tabellarische Darstellungen verwendet. Zu bemängeln ist die teilweise geringe Durchgängigkeit. Auf der Anwendungsmodellebene kommt den Use-Case-Diagrams der UML eine zentrale Bedeutung zu [Juri+01, S. 167ff.]. Im Rahmen der Business-MethodLevel-Integration werden zusätzlich fachliche Class-Diagrams und zugehörige Sequence-Diagrams eingesetzt [Juri+01, S. 402ff.]. Auf der Ebene des Softwareentwurfs werden Modelle zur Erfassung von Eigenschaften der bestehenden AwS erstellt, sowie Modelle, die beschreiben wie die formulierten Anforderungen durch eine Kopplungsarchitektur umgesetzt werden können. Hierfür wird vor allem auf die durch die UML angebotenen Component-, Deployment- und Sequence-Diagrams zurückgegriffen [Juri+01, S. 415ff.]. Komponenten dienen dabei zur Abbildung der bestehenden AwS und zur Beschreibung der zu entwickelnden virtuellen Komponenten. Im Rahmen der DataLevel-Integration werden zum Zwecke der Datenmodellierung in Abhängigkeit vom verwendeten Datenbankmodell verschiedene Ansätze vorgeschlagen, z. B. das Entity Relationship Model [Juri+01, S. 215ff.]. Aufgrund der Konzentration auf J2EE werden auf der Implementierungsebene vor allem die Sprachelemente von Java sowie die verschiedenen von J2EE zusätzlich angebotenen Mechanismen verwendet, z. B. Java Database Connectivity (JDBC), Java Message Service (JMS), Java Connector Architecture (JCA). Juric et al. vermeiden die Vorgabe eines detaillierten Prozesses [Juri+01, S. 148]. Sie orientieren sich jedoch teilweise an verbreiteten Softwareentwicklungsprozessen, z. B. dem RUP® [Kruc00]. Wie in Abbildung 4 dargestellt, wird das Vorgehen bei der Entwicklung des Composite-Information-System anhand der von Juric et al. unterschiedenen vier Stufen der Integration in vier entsprechende Integrationsphasen gegliedert. Die Reihenfolge der Integrationsphasen ist dabei so gewählt, dass jeweils auf den Ergebnissen der vorherigen Phasen aufgebaut werden kann. In den Integrationsphasen sind verschiedene, z. T. sehr detailliert beschriebene Aktivitäten durchzuführen [Juri+01, S. 155ff.]:
Entwicklungsmethodiken zur Integration von Anwendungssystemen
1475
x „Erfassung der Anforderungen“ zielt auf die Ermittlung von funktionalen und nicht-funktionalen Anforderungen an das Composite-Information-System. x In der Aktivität „Analyse der existierenden AwS“ werden die relevanten Eigenschaften der bestehenden AwS erfasst. x Die Aktivität „Auswahl der Integrationsinfrastruktur“ beschäftigt sich mit der Auswahl der zu verwendenden Kopplungsmechanismen. x In der Aktivität „Analyse der Problemdomäne“ werden dann verschiedene fachliche Modelle des angestrebten Kopplungssystems erstellt. x Die technische Umsetzung dieser Modelle wird anschließend in der Aktivität „Entwurf“ erarbeitet.
Softwareentwurfsebene
Analyse exist. AwS
Entwurf
Implementierungsebene
Auswahl Infrastruktur
Implementierung
Testen
Presentation-Level-Integration
Analyse Problemdomäne Business-Method-Level-Integration
Erfassung Anforderungen
Application-Interface-Level-Integration
Anwendungsmodellebene
Data-Level-Integration
x In den drei letzten Aktivitäten erfolgen schließlich „Implementierung“, „Testen“ und „Einführung“ des Kopplungssystems.
Einführung
Abbildung 4: Modellebenen, Phasen und Aktivitäten des Ansatzes von Juric et al.
Der Ansatz unterstützt ein zyklisch iteratives und teilweise abgestimmtes inkrementelles Vorgehen [Juri+01, S. 154]. Er orientiert sich hierbei an den entsprechenden Vorschlägen des RUP® [Kruc00, S. 53ff.]. Die Abgrenzung der Inkremente erfolgt anhand der in der Aktivität „Erfassung der Anforderungen“ identifizierten Use-Cases. Nicht-funktionale Anforderungen an das Kopplungssystem werden in [Juri+01] an verschiedenen Stellen berücksichtigt. Eine systematische Behandlung findet sich aber nicht.
1476
M. Schissler, S. Mantel, S. Eckert, O. K. Ferstl, E. J. Sinz
Verfügbarkeit wiederverwendbarer Modellbausteine Weite Teile von [Juri+01] beschreiben detailliert anhand von Programmierbeispielen wie auf der Grundlage von J2EE Kopplungsarchitekturen implementiert werden können. Diese Beispiele können grundsätzlich als Vorlagen bei der Implementierung von eigenen Kopplungsarchitekturen genutzt werden. Der Softwareentwurf wird durch die Beschreibung verschiedener Muster unterstützt. Eine zentrale Rolle nimmt dabei das Architekturmuster ein, das den Aufbau eines Composite-Information-System beschreibt [Juri+01, S. 74ff., S. 96, S. 100]. Dessen Architektur gliedert sich in die drei Schichten User-Interface, BusinessLogic und Data-Persistence [Juri+01, S. 76]. Die bestehenden AwS-Kerne finden sich in der Data-Persistence-Schicht wieder. Die Business-Logic-Schicht wird durch die bereits angesprochenen virtuellen Komponenten gebildet, die über einen Integration-Broker kommunizieren. Die im Rahmen der Presentation-LevelIntegration entwickelten Nutzerschnittstellen bilden die User-Interface-Schicht. Zur Realisierung einer überbetrieblichen Kopplungsarchitektur wird die beschriebene Architektur durch Einfügen einer Web-Services-Schicht erweitert. Diese beinhaltet Web Services, die auf den virtuellen Komponenten der Business-LogicSchicht aufbauen [Juri+01, S. 102ff.]. Allgemein lässt sich festhalten, dass Modellbausteine zwar zum Teil angeboten werden, dies erfolgt jedoch nicht in einer systematischen und strukturierten Form. Die Auswahl der Bausteine wird teilweise durch Beschreibung der Konsequenzen hinsichtlich der nicht-funktionalen Anforderungen unterstützt.
3.4
OASYS
Das Projekt „Offene Anwendungssystem-Architekturen in überbetrieblichen Wertschöpfungsketten“ (OASYS) wird an der Universität Bamberg im Rahmen des Bayerischen Forschungsverbundes Wirtschaftsinformatik (FORWIN) durchgeführt. Ziel des noch nicht abgeschlossenen Projektes ist die Entwicklung und Erprobung von Kopplungssystemen zur Integration heterogener AwS mehrerer Unternehmen. Dabei werden insbesondere Methoden und Werkzeuge zur Unterstützung der Integration entwickelt. Untersuchungsproblem Untersuchungsobjekt des OASYS-Ansatzes sind überbetriebliche Geschäftsprozesse im Rahmen von unternehmensübergreifenden Wertschöpfungsketten sowie die zugehörigen Kopplungssysteme. Ziel ist die Analyse und Gestaltung der überbetrieblichen Geschäftsprozesse, sowie die Entwicklung von Kopplungssystemen unter Berücksichtigung relevanter Eigenschaften der Geschäftsprozesse und der
Entwicklungsmethodiken zur Integration von Anwendungssystemen
1477
bestehenden AwS-Kerne. Eine Anpassung bestehender AwS-Kerne wird nur hinsichtlich ihrer Schnittstellen zum Kopplungs-Teilsystem verfolgt. Es werden drei Arten von Kopplungsarchitekturen unterschieden, die sich anhand des jeweils verfolgten Ziels unterscheiden [Mant+04, S. 23; Schi+02, S. 460ff.]. (1) Ereignisorientierte Kopplungsarchitekturen zielen auf die Übertragung von Ereignissen und zugehörigen Daten zwischen AwS durch den Austausch von Nachrichten in Form einer losen Kopplung [Fers+01, S. 225]. (2) Datenorientierte Kopplungsarchitekturen dienen der Manipulation gemeinsamer Daten mehrerer AwS in Form einer engen Kopplung der auf den Daten operierenden Funktionen [Fers+01, S. 225]. (3) Funktionsorientierte Kopplungsarchitekturen ermöglichen die gemeinsame Nutzung von Funktionen und ggf. zugehörigen Daten durch mehrere AwS. Methodik Der OASYS-Ansatz unterscheidet sechs Modellebenen [Mant+04], die den Ebenen aus der Beschreibungssystematik zugeordnet werden können (Abbildung 5). Die Ebene des überbetrieblichen Geschäftsprozesses beschreibt diesen gemäß dem Modellierungsansatz des Semantischen Objektmodells (SOM) [Fers+01, S. 179ff.]. Ein Geschäftsprozess wird dabei als ein verteiltes System aus autonomen und lose gekoppelten betrieblichen Objekten modelliert, die sich mittels Transaktionen koordinieren. Die Struktur des Geschäftsprozesses wird im Interaktionsschema (IAS) in Form von betrieblichen Objekten und Transaktionen spezifiziert. Ein betriebliches Objekt umfasst eine Menge von Aufgaben, die zusammengehörige Ziele verfolgen und auf einem gemeinsamen Aufgabenobjekt durchgeführt werden. Das Verhalten wird im Vorgangs-Ereignis-Schema (VES) anhand von Vorgangstypen und Ereignisbeziehungen erfasst [Fers+01, S. 181f.]. Hierbei spezifiziert ein Vorgangstyp die Durchführung einer Aufgabe eines betrieblichen Objekts [Fers+01, S. 91]. Es werden domänenunabhängige und domänenabhängige Strukturmuster unterstützt [Fers+01, S. 189ff.; Fers+98]. Integrationsrelevante Teilbereiche des Geschäftsprozesses werden unter Verwendung von kategorisierten Aufgabenintegrations-Mustern (AIM) abgegrenzt. Diese stellen funktionale Anforderungen an das Kopplungssystem dar und spezifizieren zusammen mit den zu erfassenden nicht-funktionalen Anforderungen die zu lösenden Integrationsprobleme. Im Rahmen des Projekts wurde ein Konzept zur strukturierten Beschreibung von Integrationsproblemen in Form von wiederverwendbaren Mustern erarbeitet. Die AwS-Kern-Ebene beschreibt die maschinellen Aufgabenträger der Aufgaben des Geschäftsprozesses in Form von zu koppelnden AwS-Kernen. Die folgenden drei Ebenen, die Funktionen-, Subsystem- und Prozess-Ebene, spezifizieren die Architektur eines Kopplungssystems zur Kopplung von zwei oder mehreren AwS-Kernen aus verschiedenen Blickwinkeln. Die Funktionen-Ebene
1478
M. Schissler, S. Mantel, S. Eckert, O. K. Ferstl, E. J. Sinz
beschreibt die Funktionalität des Kopplungssystems in Form von objektorientierten Funktionskomponenten, unabhängig von Kopplungsmechanismen, die zur Realisierung des Kopplungssystems verwendet werden können. Funktionskomponenten kapseln eine Menge von Operationen und verfügen über einen Speicher. Operationen tauschen Informationen über Kommunikationsbeziehungen aus. Auf der Subsystem-Ebene des Kopplungssystems wird beschrieben, wie die Funktionskomponenten auf der Basis verfügbarer Kopplungsmechanismen durch eine Menge interagierender Subsysteme realisiert werden. Zentrales Modellierungselement ist das Subsystem, das über Schnittstellen eine Menge von Operationen anbietet und einen Speicher besitzt. Über Benutzt-Beziehungen werden Nachrichten zwischen Subsystemen ausgetauscht. Die Modellierungselemente dieser Ebene orientieren sich z. T. an der UML [OMG03]. Auf der Prozess-Ebene wird das Kopplungssystem als System parallel ablaufender Prozesse, z. B. Betriebssystemprozesse, dargestellt. Prozesse interagieren über Konnektoren, mit denen sie über Ports verbunden sind (vgl. z. B. [Clem+03, S. 103ff., S. 142ff.]). Nachrichten zwischen Prozessen werden über Konnektoren ausgetauscht. Weiterhin werden Prozesse auf Prozessoren verteilt. Auf der Ebene der Implementierung erfolgt die Realisierung des Kopplungssystems anhand der entworfenen Kopplungsarchitektur. Hierbei kann z. B. auf bestehende Integrationsprodukte, wie Microsoft® BizTalk™ oder IBM® WebSphere® MQ Integrator® zurückgegriffen werden. Eine detaillierte Unterstützung dieser Ebene wird im Rahmen der OASYS-Methodik nicht angestrebt. Das Vorgehen des Ansatzes gliedert sich in neun Schritte (Abbildung 5): x Der Schritt „Modellierung des überbetrieblichen Geschäftsprozesses“ umfasst die Analyse und Gestaltung des überbetrieblichen Geschäftsprozesses anhand der SOM-Methodik. x Die Automatisierungsgrade der Aufgaben und Transaktionen des Geschäftsprozesses werden im Schritt „Kartierung der AwS-Kerne“ bestimmt. Weiterhin erfolgt die Zuordnung der AwS-Kerne zu den von ihnen unterstützten Aufgaben. x Im Schritt „Identifikation von AIM“ werden im Rahmen einer Analyse des Geschäftsprozessmodells integrationsrelevante Teilbereiche in Form von AIM identifiziert. Ein solcher Ausschnitt eines Geschäftsprozessmodells spezifiziert die funktionalen Anforderungen an die Integration der entsprechenden AwS. x Die „Spezifikation von nicht-funktionalen Anforderungen an die AwSIntegration“ erfasst die nicht-funktionalen Anforderungen eines durch ein AIM abgegrenzten Integrationsbereiches. x Im Schritt „Erstellung des Funktionskomponentenmodells“ wird ausgehend von den spezifizierten Anforderungen die Funktionalität des Kopplungssystems in Form von Funktionskomponenten beschrieben.
Entwicklungsmethodiken zur Integration von Anwendungssystemen
1479
x Bei der „Auswahl geeigneter Kopplungsmechanismen“ werden Kopplungsmechanismen ausgewählt, die in der Lage sind, die im vorigen Schritt modellierten Funktionskomponenten zu unterstützen. x Im Schritt „Erstellung des Subsystemmodells“ wird ein Subsystemmodell entworfen, das geeignet ist, die in Form von Funktionskomponenten beschriebene Funktionalität des Kopplungssystems zu realisieren. x Bei der „Erstellung des Prozessmodells“ wird das Subsystemmodell in ein entsprechendes Prozessmodell umgesetzt. Hierzu werden die Subsysteme, unter Berücksichtigung von Anforderungen an eine parallele Ausführung, Prozessen zugeordnet. x Im letzten Schritt erfolgt die „Implementierung“ des Kopplungssystems auf der Basis der spezifizierten Kopplungsarchitektur. Anwendungsmodellebene
Modellierung überb. GP Ebene des überb. GP
Identifikation AIM Kartierung AwS-Kerne
Spezifikation nichtfunktionaler Anforderungen
AwS-Kern-Ebene
Softwareentwurfsebene
Funktionen-Ebene
Subsystem-Ebene
Prozess-Ebene
Implementierungsebene
Erstellung Funktionskomponentenmodell
Auswahl Koppl.-Mech.
Erstellung Subsystemmodell Erstellung Prozessmodell
Implementierung Implementierungsebene
Abbildung 5: Modellebenen und Schritte des OASYS-Ansatzes
Der OASYS-Ansatz verwendet ein zyklisch iteratives Vorgehen, d. h. es erfolgt ein sequentieller Durchlauf durch die beschriebenen Schritte, wobei Rücksprünge zu früheren Schritten möglich sind. Bezüglich der einzelnen AIM ist ein inkrementelles Vorgehen mit abgestimmter Entwicklung der zugehörigen Kopplungssysteme vorgesehen. Die Erfassung und Auswertung nicht-funktionaler Anforderungen an die Kopplung der AwS wird explizit unterstützt. Sie werden in Form eines strukturierten Kataloges angeboten, der die vier Kategorien Korrektheit, Echtzeitverhalten, Integration und Flexibilität unterscheidet [Fers92, S. 11]. Die den einzelnen Katego-
1480
M. Schissler, S. Mantel, S. Eckert, O. K. Ferstl, E. J. Sinz
rien zugeordneten Anforderungen orientieren sich u. a. an den in der ISO-Norm 9126-1 beschriebenen Merkmalen [ISO01]. Verfügbarkeit wiederverwendbarer Modellbausteine Auf der Ebene des überbetrieblichen Geschäftsprozesses stellt der Ansatz Referenzmodelle, z. B. für das Supply-Chain-Management-Konzept Vendor-ManagedInventory, bereit. Es können im Rahmen des SOM-Ansatzes entwickelte domänenabhängige Strukturmuster sowie domänenunabhängige Strukturmuster genutzt werden [Fers+98; Fers+01, S. 189ff.]. Darüber hinaus erfolgte im Rahmen des Projekts OASYS u. a. eine Erfassung von Integrationsproblemen Elektronischer Marktplätze in Form von wiederverwendbaren Mustern [Wies04].
4
Zusammenfassung
Im vorliegenden Beitrag wurden vier Ansätze beschrieben, die zur Entwicklung von überbetrieblichen Kopplungssystemen eingesetzt werden können. MOVE, ebXML und OASYS unterstützen neben der Gestaltung von Kopplungssystemen zusätzlich die Gestaltung der überbetrieblichen Geschäftsprozesse. Alle vier Ansätze bieten eine Methodik und wiederverwendbare Modellbausteine. Unterschiede finden sich vor allem in der Betonung der in der Beschreibungssystematik eingeführten drei Modellebenen. Im MOVE-Ansatz bewegt sich ein Entwickler vor allem auf der Anwendungsmodellebene und nur nachrangig auf der Implementierungsebene. Aus diesem Grund benötigt er kein ausgeprägtes technisches Fachwissen. Der Entwickler wird bei der Implementierung durch eine automatisierte Generierung von Java-Klassen unterstützt. Diese Klassen werden in ein vorgegebenes Framework eingebunden. Bei ebXML stehen die Anwendungsmodellebene und die Implementierungsebene im Vordergrund. Die Softwareentwurfsebene hat eine untergeordnete Bedeutung. Auf der Implementierungsebene wird ein ebXML-konformer Kopplungsmechanismus mittels spezifischer XML-Dateien konfiguriert. Der Entwickler benötigt aus diesem Grund, wie bei MOVE, nur relativ geringe technische Kenntnisse. Im Gegensatz zu MOVE ist hier aber eine stärkere Anpassung des Kopplungssystems an die konkreten nicht-funktionalen Anforderungen, z. B. Skalierbarkeit, möglich. Der Ansatz von Juric et al. beschäftigt sich im Schwerpunkt mit der innerbetrieblichen Integration von AwS, leistet aber auch wesentliche Beiträge für die überbetriebliche Integration. Er betont alle drei Modellebenen in gleicher Weise. Die Implementierung der Kopplungsarchitektur erfolgt auf der Basis von J2EE™. Zur Anwendung des Ansatzes ist somit umfangreiches technisches Wissen insbesondere im Bereich der Implementierung notwendig.
Entwicklungsmethodiken zur Integration von Anwendungssystemen
1481
Der OASYS-Ansatz konzentriert sich auf die Anwendungsmodellebene und auf die Softwareentwurfsebene. Der Ansatz versucht eine möglichst breite Abdeckung bez. der behandelten Integrationsprobleme zu erzielen. Das Integrationsproblem wird durch die Identifikation von AIM in Geschäftsprozessmodellen und die Erfassung zugehöriger nicht-funktionaler Anforderungen beschrieben. Anschließend wird eine Integrationslösung in Form einer Kopplungsarchitektur aus verschiedenen Blickwinkeln auf vier Entwurfsebenen spezifiziert, wodurch die Komplexität typischer Integrationsprojekte bewältigt werden kann.
Literatur [Busi01] Business Process Project Team: ebXML Business Process Specification Schema Version 1.01. http://www.ebxml.org/specs/ebBPSS.pdf, 2001, Abruf am 2004-07-13. [Chap+01] Chappel, D. A.; Chopra, V.; Dubray, J.-J.; Evans, C.; Harvey, B.; McGrath, T.; Nickull, D.; Noordzij, M.; Peat, B.; van der Eijk, P.; Vegt, J.: Professional ebXML Foundations, Wrox: Birmingham, 2001. [Chri98] Christopher, M.: Logistics and Supply Chain Management - Strategies for Reducing Cost and Improving Service. 2. Auflage, Financial Times Prentice Hall: London, 1998. [Clem+03] Clements, P.; Bachmann, F.; Bass, L.; Garlan, D.; Ivers, J.; Little, R.; Nord, R.; Stattford, J.: Documenting Software Architectures – Views and Beyond. AddisonWesley: Boston 2003. [ebXM01a] ebXML Requirements Team: ebXML Requirements Specification Version 1.06. http://www.ebxml.org/specs/ebREQ.pdf, 2001, Abruf am 2004-07-13. [ebXM01b] ebXML Technical Architecture Project Team: ebXML Technical Architecture Specification Version 1.0.4. http://www.ebxml.org/specs/ebTA.pdf, 2001, Abruf am 2004-07-13. [Fers79] Ferstl, O. K.: Konstruktion und Analyse von Simulationsmodellen. Hain: Königstein/Ts., 1979. [Fers92] Ferstl, O. K.: Integrationskonzepte Betrieblicher Anwendungssysteme. Fachberichte Informatik der Universität Koblenz-Landau, Nr.1/1992. [Fers+98] Ferstl, O. K.; Sinz, E. J.; Hammel, Ch.; Schlitt, M.; Wolf, S.; Popp, K.; Kehlenbeck, R.; Pfister, A.; Kniep, H.; Nielsen, N.; Seitz, A.: WEGA - Wiederverwendbare und erweiterbare Geschäftsprozeß- und Anwendungssystemarchitekturen. Abschlussbericht, Walldorf, 1998. [Fers+01] Ferstl, O. K.; Sinz, E. J.: Grundlagen der Wirtschaftsinformatik. 4. Auflage, Oldenbourg: München, 2001. [Fisc+98] Fischer, J.; Hammer, G.; Kern, U.; Rulle, A.; Städler, M.; Steffen, T.: Verbundprojekt MOVE - Modellierung einer verteilten Architektur für die Entwicklung unter-
1482
M. Schissler, S. Mantel, S. Eckert, O. K. Ferstl, E. J. Sinz
nehmensübergreifender Informationssysteme und ihre Validierung im Handelsbereich. In: Projektträger Informationstechnik des BMBF beim DLR e.V.: Statusseminar des BMBF Softwaretechnologie, Bonn, 23-24. März 1998. [Fisc+99] Fischer, J.; Atzberger, M.; Städler, M.; Kambergs, P.; Hluchy, R.; Hoos, J.; Pauls, M.; Walter, F.; Steffen, T.; Dresing, H.; Rulle, A.; Brentano, F.: MOVE - Objektorientierte Modelle und Werkzeuge für unternehmensübergreifende Informationssysteme im Rahmen des Electronic Commerce. Sammelband, Paderborn, 1999. [ISO01] ISO: Software engineering – Product quality – Part 1: Quality model ISO/EIC 9126-1:2001. ISO, 2001. [Juri+01] Juric, M. B.; Basha, S. J.; Leander, R.; Nagappan, R.: Professional J2EE EAI. Wrox: Birmingham, 2001. [Kruc00] Kruchten, P.: The Rational Unified Process - An Introduction. 2. Auflage, Addison Wesley: Boston, 2000. [Mant+04] Mantel, S.; Eckert, S.; Schissler, M.; Schäffner, C.; Ferstl, O. K.; Sinz, E. J.: Eine Entwicklungsmethodik für die überbetriebliche Integration von Anwendungssystemen. In: Bartmann, D. et al. (Hrsg.): Überbetriebliche Integration von Anwendungssystemen - FORWIN-Tagung 2004. Shaker: Aachen, 2004, S. 21-39. [OASI02a] OASIS ebXML Messaging Services Technical Committee: Message Service Specification. http://www.ebxml.org/specs/ebMS2.pdf, 2002, Abruf am 2004-07-13. [OASI02b] OASIS ebXML Collaboration Protocol Profile and Agreement Technical Committee: Collaboration-Protocol Profile and Agreement Specification Version 2.0. http://www.ebxml.org/specs/ebcpp-2.0.pdf, 2002, Abruf am 2004-07-13. [OMG03] OMG: Unified Modelling Language Specification Version http://www.omg.org/docs/formal/03-03-01.pdf, 2003, Abruf am 2004-07-09.
1.5.
+ [Pico 01] Picot, A.; Reichwald, R.; Wigand, R. T.: Die grenzenlose Unternehmung - Information, Organisation und Management. 4. Auflage, Gabler: Wiesbaden, 2001.
[Schi+02] Schissler, M.; Mantel, S.; Ferstl, O. K.; Sinz, E. J.: Kopplungsarchitekturen zur überbetrieblichen Integration von Anwendungssystemen und ihre Realisierung mit SAP R/3. In: Wirtschaftsinformatik 44 (2002) 5, S. 459-468. [Sinz02] Sinz, E. J.: Architektur von Informationssystemen. In: Rechenberg, P.; Pomberger, G. (Hrsg.): Informatik-Handbuch. 3. Auflage, Hanser: München, 2002, S. 10551068. [UNCE01] UN/CEFACT Techniques and Methodologies Working Group (TMWG): UN/CEFACT Modelling Methodology. http://www.ebxml.org/project_teams/jdt/ resources/TMWG_N090R9.zip, 2001, Abruf am 2004-10-04. [UNOA01] UN/CEFACT & OASIS: Core Components Dictionary Version 1.04. http://www.ebxml.org/specs/ccDICT.pdf, 2001, Abruf am 2004-10-12. [Wies04] Wiese, S.: Integrationsprobleme bei elektronischen Marktplätzen - eine strukturierte Erfassung. Diplomarbeit am Lehrstuhl für Wirtschaftsinformatik, insb. Systementwicklung und Datenbankanwendung, Otto-Friedrich-Universität, Bamberg, 2004.
Strategie-, Prozess- und IT-Management: Ein Pattern-orientierter Integrationsansatz Harald Kühn BOC Information Systems GmbH
Dimitris Karagiannis Universität Wien
Zusammenfassung: Das Augenmerk von Enterprise Application Integration (EAI) liegt auf technischen Lösungen zur Integration und Interoperabilität heterogener Komponenten und Workflows für durchgehende, interorganisationelle Geschäftsanwendungen. Eine ganzheitliche Unternehmensintegration muss jedoch bereits auch auf der Strategie-, Geschäfts- und konzeptionellen Ebene beginnen. Aufgrund der Heterogenität von Modellierungssprachen und Methoden in diesen Bereichen gibt es keine einheitliche Modellierungssprache bzw. Methode in der modellgestützten Unternehmensintegration. Vielmehr wird ein unternehmensspezifisches Bündel von situations- und problemspezifischen Methoden und Methodenfragmenten benötigt, die durch Kombination und Integration die geforderte Hilfestellung für den Strategen, Architekten, Modellierer und Entwickler liefern. Im vorliegenden Beitrag werden Integrations-Patterns des Enterprise Model Integration Ansatzes (EMI) und deren Anwendung vorgestellt. Schlüsselworte: Enterprise Model Integration, Integrations-Patterns, Methodenintegration, Metamodellierung, IT-gestützte Managementansätze
1
Einführung
Die Integration und Interoperabilität von Anwendungen zur Unterstützung unternehmensübergreifender Geschäftsprozesse stellt sowohl einen aktuellen Forschungsgegenstand als auch einen starken Interessensschwerpunkt in der Entwicklung betriebswirtschaftlicher Anwendungen dar [AiSc04, HaRe04]. Für die technische Integration zeigen sich Ansätze hilfreich wie Daten-orientierte, Benutzerschnittstellen-orientierte, Methoden-orientierte, Anwendungsschnittstellen-orientierte, Service-orientierte oder Prozess-orientierte Integration [Joha+00, Lint00, Bole+04]. Projekterfahrungen haben jedoch gezeigt, dass Anwendungsintegration bereits auf der Strategie-, Geschäfts- und konzeptionellen Ebene beginnen muss [Kühn+03].
1484
H. Kühn, D. Karagiannis
Heutige Zielplattformen wie Workflow-Management-Systeme (WMS), Integrations-Server, ERP-Systeme, J2EE-Plattformen etc. nutzen größtenteils proprietäre Modellierungssprachen und Modellrepräsentationen. Eine ähnliche Vielfalt findet sich für die Beschreibung strategischer Aspekte, der Geschäftsprozesse und der organisatorischen Umgebung. Nahezu das einzige – jedoch recht prominente – Beispiel für eine Standardisierung auf Modellierungsebene ist die Unified Modelling Language (UML). Mit der Meta Object Facility (MOF) und der Model Driven Architecture (MDA) bestehen darüber hinaus Bestrebungen zur Nutzung von Objektorientierung, Meta-Konzepten und Modellierung zur Produktivitätssteigerung in der Softwareentwicklung und Anwendungsintegration [OMG02, OMG03]. MDA Terminology
Business Modelling Level
Enterprise Model Integration
Scorecard Models
Product Models
Business Process Models
Organisational Models
...
BusinessOrientation
CIM Level
IT Modelling Level Data and Function Models
UML Models
Workflow Models
Reference Models
...
PIM Level
WMS
ERP Systems
...
PSM Level
Target System Level Legacy Systems
Enterprise Application Integration
J2EE Systems
Execution Level
...
...
...
...
...
ExecutionOrientation
Code Level
Abbildung 1: Modellierung in der Unternehmensintegration
Aufgrund der Heterogenität von Modellierungssprachen und Methoden im Bereich der Unternehmensmodellierung und EAI wird ein unternehmensspezifisches Bündel von Methoden und Methodenfragmenten benötigt. Diese liefern durch Kombination und Integration die geforderte Hilfestellung für den Strategen, Architekten, Modellierer und Entwickler. Im vorliegenden Beitrag werden Integrations-Patterns des Enterprise Model Integration Ansatzes vorgestellt. In Kapitel 2 wird der Enterprise Model Integration Ansatz und der dort enthaltene Ansatz zur Metamodellintegration skizziert. Kapitel 3 gibt eine Einführung in Patterns für die Methodenintegration und stellt drei konkrete Patterns vor. In Kapitel 4 wird der Nutzung von Patterns bei der Methodenintegration anhand eines Anwendungsbeispiels demonstriert. Im abschließenden Kapitel 5 wird eine Zusammenfassung und ein Ausblick auf zukünftige Forschungs- und Entwicklungsthemen gegeben.
Pattern-orientierter Integrationsansatz
2
1485
Enterprise Model Integration
Die Metamodellierung nimmt eine zentrale Rolle in der flexiblen Definition von inner- und zwischenbetrieblichen Aspekten ein [Kühn+03]. Davon ausgehend werden in Abschnitt 2.1 wichtige Konzepte der Methodendefinition und -integration vorgestellt. Abschnitt 2.2 gibt einen Kurzüberblick zum EMI Ansatz.
2.1
Methodendefinition und -integration
Der in diesem Beitrag verwendete Methodenbegriff besteht aus drei Elementen: den einzusetzenden Modellierungstechniken, den Mechanismen und Algorithmen zur Nutzung der Modellierungstechniken und dem Vorgehensmodell [Kühn+03]. Eine Modellierungstechnik beschreibt "Was bzw. welche Modelle werden mit einer Methode abgebildet?". Die Mechanismen und Algorithmen einer Methode beschreiben "Womit werden die Modelle erstellt und genutzt?". Das Vorgehensmodell beschreibt: "Wann und wie werden Modelle erstellt?". Zur Wiederverwendung existierender Methodenelemente und deren Integration zu neuen Methoden bzw. Methodenvarianten, wird das Konzept des Methodenfragments genutzt. Methodenfragmente werden in einem Fragmentkatalog verwaltet. Ein Methodenfragment besteht aus einem Interface und einem Package. Das Interface wiederum besteht aus einer Fragmentspezifikation und einem oder mehreren Adaptoren. Die Fragmentspezifikation ist eine nicht formale Beschreibung eines Methodenfragments anhand seines Einsatzbereichs, Einsatzkontexts etc. ist abgelegt in
Methodenfragment
Interface
0..*
veröffentlicht 1..1
Fragmentkatalog
1..1
Package 1..1
beinhaltet 1..*
0..1
Fragmentspezifikation
Atomares Package
Adapter 1..*
repräsentiert
Zusammengesetztes Package
1..1 1..1
macht zugänglich
1..1
Methodenelement
Abbildung 2: Metamodell eines Methodenfragments
Über die Adaptoren werden die Elemente eines Package für die Integration zugänglich gemacht. Die Funktionalität eines Methodenfragments wird durch sein Package zur Verfügung gestellt. Ein atomares Package beschreibt eine einzelne, logisch-zusammengehörende und wiederverwendbare Einheit genau eines Methodenelements. In einem zusammengesetzten Package werden zwei oder mehrere
1486
H. Kühn, D. Karagiannis
Packages zu einer logischen Einheit höherer Ordnung zusammengefasst. Die in einem zusammengesetzten Package enthaltenen (Sub-)Packages können sowohl atomare als auch zusammengesetzte Packages sein. In einem zusammengesetzten Package können auch Packages unterschiedlicher Methodenelemente gemischt werden. Die Verbindung der Packages innerhalb eines zusammengesetzten Package erfolgt durch Nutzung der Adaptoren. Innerhalb eines Package wird in Strukturelemente und Inhaltselemente unterschieden. Die Strukturelemente beschreiben die in einem Methodenelement enthaltenen Konzepte. Die Inhaltselemente repräsentieren die Eigenschaften der Strukturelemente und werden nicht direkt über die Adaptoren zugänglich gemacht, sondern implizit über die assoziierten Strukturelemente. Für weiterführende Ausführungen zur Nutzung von Methodenfragmenten in der Methodendefinition und -integration vgl. [Kühn+03, Kühn04]. A1
Interface
Fragmentspezifikation
A2
...
An
Adaptoren
Package (Strukturelemente)
Package Package (Inhaltselemente)
Abbildung 3: Interface und Package eines Methodenfragments
2.2
EMI: Übersicht und Komponenten
Die Ziele und Rahmenbedingungen des Einsatzes einer Methode beeinflussen die Auswahl und Konfiguration der Methodenelemente und deren Interdependenzen untereinander. Entsprechende Hilfestellung bei der Methodenintegration liefern die drei im Folgenden skizzierten Teilbereiche des EMI Ansatzes. Detaillierte Ausführungen hierzu finden sich in [Kühn+03, Kühn04]. x Metamodellierung und Metamodellintegration: Die Elemente einer Methode werden jeweils durch ihr Metamodell beschrieben. Zur Definition und Integration der Metamodelle werden u.a. das im Abschnitt 2.1 vorgestellte Fragmentkonzept und die in Kapitel 3 ausgeführten Integrations-Patterns genutzt. x Modelltransformation: Wird eine Methode verändert, ändert sich dadurch das ihr zugrundeliegende Metamodell. Dabei stellt sich die Aufgabenstellung, bereits existierende Modelle eines Metamodells A auf Modelle basierend auf ei-
Pattern-orientierter Integrationsansatz
1487
nem Metamodell B zu überführen. In EMI wird der BMT Ansatz für die regelbasierte Modelltransformation genutzt [Kühn+04]. x Vorgehensmodell: Die Anwendung einer Methode und die damit verbundene Ergebniserstellung wird durch Vorgehensmodelle beschrieben. EMI bietet ein Vorgehensmodell für das Vorgehen im Kontext der Methodenintegration.
3
Integrations-Patterns
Für die Definition und Integration von Methoden ist sowohl ein intensives Kennen der mit einer Methode verfolgten Ziele als auch die Rahmenbedingungen des Methodeneinsatzes sehr wichtig. Darüber hinaus trägt das Wissen von konkreten Vorgehensweisen und Basiskonzepten der Methodenintegration wesentlich zur effizienten und qualitätsgesicherten Gestaltung einer praxistauglichen Methode bei. Um dieses Wissen wiederverwendbar zu gestalten, wird im vorliegenden Beitrag ein Pattern-System zur Methodenintegration vorgestellt. Darauf aufbauend werden anschließend konkrete Integrations-Patterns erläutert.
3.1
Pattern-System
Mittels des Pattern-Systems können Integrations-Patterns in Form eines einheitlichen Templates beschrieben, klassifiziert und die Abhängigkeiten der Patterns untereinander verdeutlicht werden. 3.1.1
Pattern-Template
Die Wiederverwendung von Expertenwissen und von Erfahrungen ist in allen Bereichen menschlicher Arbeit von großem Interesse. Die Hauptvorteile sind dabei eine oft bedeutende Einsparung an Zeit und Kosten und die Erhöhung der Qualität der für eine Problemstellung erarbeiteten Lösung. Um das für die Methodenintegration wichtige Expertenwissen explizit und den damit verbundenen Erfahrungsschatz einem breiteren Publikum zugänglich zu machen, wird im vorliegenden Beitrag ein pattern-orientierter Ansatz eingesetzt [Gamm+94, ErPe00]. Zur Beschreibung eines Pattern wird dabei ein schlanker Ansatz verwendet, d.h. ein Template mit wenigen Beschreibungselementen1:
1
Gamma et al. beschreiben ein Pattern unter Nutzung eines Template mit 13 Merkmalen (vgl. [Gamm+94], S. 6f), Erikkson und Penker nutzen ein PatternTemplate mit 10 Merkmalen (vgl. [ErPe00], S. 175f).
1488
H. Kühn, D. Karagiannis
Name: Der Name ist der eindeutige und aussagekräftige Bezeichner des Pattern. Durch den Namen müssen auch ungeübte Anwender intuitiv auf den Anwendungszweck des Integrations-Pattern hingeführt werden. Kontext: Der Kontext beschreibt die Situation und die Rahmenbedingungen, unter denen ein konkretes Problem bei der Methodenintegration auftritt. Aus der Kontextbeschreibung muss für den Pattern-Nutzer klar erkennbar sein, wann der Einsatz eines bestimmten Pattern in Frage kommt. Problem: Die Problembeschreibung spezifiziert das Integrationsproblem, welches durch die Anwendung des Pattern gelöst werden soll. Hierdurch weiß der PatternNutzer, wofür er das Pattern einsetzen kann. Lösung: Der Lösungsansatz beschreibt unter Zuhilfenahme von Richtlinien, Anweisungen und Regeln, wie das Integrations-Pattern in einem bestimmten Kontext zur Lösung eines bestimmten Problems eingesetzt werden kann. Die Struktur eines Pattern wird durch ein UML Klassendiagramm beschrieben. Klassifikation: Die Klassifikation eines Pattern beschreibt dessen allgemeine Eigenschaften. Hierfür wird ein morphologischer Kasten verwendet. Die Klassifikation dient zusammen mit dem Kontext und der Problembeschreibung als Hilfestellung für die Auswahl eines Integrations-Pattern. Beispiel: Mit einem oder mehreren Beispielen wird das Anwendungsszenario eines Pattern verdeutlicht. Dabei soll ein Beispiel ein vollständiges Szenario enthalten, d.h. die Anwendung der Lösung auf ein gegebenes Problem in einem spezifischen Kontext. 3.1.2
Pattern-Klassifikation
Die Klassifikation von Integrations-Patterns wird anhand von fünf Merkmalen vorgenommen. Diese Merkmale, inklusive ihrer Ausprägungen, sind: Methodenelement: Ein Integrations-Pattern kann auf ein spezifisches Methodenelement fokussieren oder übergreifend für mehrere Methodenelemente angewendet werden. Es werden die Ausprägungen "Modellierungstechnik", "Mechanismen & Algorithmen", "Vorgehensmodell" und "Übergreifend" unterschieden. Patternkategorie: In der Methodenintegration können zwei Patternkategorien unterschieden werden. Auf einer Makro-Ebene werden generelle Abhängigkeiten zwischen Methoden beschrieben. Dagegen beschreiben Patterns, die sich auf einzelne Fragmente einer Methode beziehen, die innere Sichtweise einer Methode. Es werden die Ausprägungen "Methode" und "Fragment" unterschieden. Integrationsansatz: Bei der Integration von Methoden muss die Abstraktionsstufe der jeweils zu integrierenden Methodenelemente und deren Fragmente berücksichtigt werden. Dies spiegelt sich in unterschiedlichen Integrationsansätzen wider. Es werden die Ausprägungen "vertikal", "horizontal" und "hybrid" unterschieden.
Pattern-orientierter Integrationsansatz
1489
Integrationsdichte: Die Integrationsdichte beschreibt die Abhängigkeit der zu integrierenden Methodenelemente bzw. deren Metamodelle. Sind die Metamodelle vollständig komplementär spricht man von schwacher Integration. Bei teilweiser oder sogar vollständiger Abhängigkeit spricht man von mittlerer und starker Integrationsdichte. Es werden die Ausprägungen "schwach", "mittel" und "stark" unterschieden. Redundanz: Bei der Integration der Metamodelle der Methodenelemente können Redundanzen entstehen. Bspw. kann das aus einer Integration resultierende Metamodell zweier Organisationsmodellierungssprachen Elemente für Stellen, Positionen und Arbeitsplätze enthalten, die alle den selben Sachverhalt beschreiben. Ziel einer Methodenintegration sollte grundsätzlich die Vermeidung von Redundanzen im Zielmetamodell sein. Es werden die Ausprägungen "keine", "wenige" und "viele" unterschieden. Ausprägung
Merkmal
Methodenelement Modellierungs- Mechanismen technik & Algorithmen Patternkategorie
Vorgehensmodell
Methode
Übergreifend
Fragment
Integrationsansatz
vertikal
horizontal
hybrid
Integrationsdichte
schwach
mittel
stark
keine
wenige
viele
Redundanz
Abbildung 4: Klassifikationsschema für Integrations-Patterns
3.1.3
Zusammenhänge der Integrations-Patterns
Bei der Nutzung von Integrations-Patterns ist es hilfreich, Abhängigkeiten zwischen den Patterns zu kennen [Kühn+03]. Deshalb gibt Abb. 5 eine Übersicht der wesentlichen Beziehungen zwischen den Patterns. Auf eine Strukturierung der Patterns anhand ihrer Klassifikation wurde in Abb. 5 aufgrund besserer Übersichtlichkeit verzichtet. Eine detallierte Beschreibung aller Patterns findet sich in [Kühn04]. Dort wird eine Strukturierung der Integrations-Patterns in folgende Kategorien vorgeschlagen: x Modellierungstechnik-Patterns, x Mechanismen & Algorithmen-Patterns, x Vorgehensmodell-Patterns und x Übergreifende Patterns. Im Folgenden werden drei Integrations-Patterns näher erläutert, die anschließend im Anwendungsbeispiel eingesetzt werden.
1490
H. Kühn, D. Karagiannis Reference Pattern
couples loosely
Syntax-SemanticsNotation Pattern
describes dependencies
Delegation Pattern
couples loosely
connects concepts
Concept-Mapping Pattern
Cause-Effect Pattern
Transformation Pattern
Dependency Pattern
Observer Pattern
extends
describes dependencies
describes dependencies describes dependencies
describes dependencies
divide abstractions
connects concepts
CommonBaseclass Pattern
extends
Jump-Abstraction Pattern
Extension Pattern
divide abstractions
transforms divide abstractions
Layer Pattern
Merge Pattern
divide abstractions
classify concepts
Fragment Pattern
Single-Definition Pattern
Responsibility Pattern
Abbildung 5: Pattern-System von Integrations-Patterns
3.2
Das Fragment-Pattern
Kontext: Bei der Methodenintegration werden die Methodenelemente nicht ausschließlich "als Ganzes" integriert, sondern es können auch nur Teile der Methodenelemente verwendet werden, um diese in eine neue oder bestehende Methode zu integrieren. Problem: Bei der Integration unterschiedlicher Methodenelemente in eine neue oder bestehende Methode kann es Inkompatibilitäten zwischen den Methodenelementen bzw. den Bestandteilen der Methodenelemente kommen. Lösung: Ein Methodenelement besteht aus mindestens einem Methodenfragment, ein Methodenfragment kann in keinem, einem oder mehreren Methodenelementen genutzt werden. Ein Methodenelement wird durch ein oder mehrere Interfaces beschrieben, ein Interface ist jedoch nur für genau ein Methodenelement gültig. Modelling Technique
Mechanisms & Algorithms
Method Element
1..1
Procedure Model
1..*
1..* reused via makes available
1..*
represents
Method Fragment
1..*
1..* publishes
Interface 1..*
Package 1..1
Abbildung 6: Lösungsstruktur des Fragment-Pattern
Pattern-orientierter Integrationsansatz
1491
Die Funktionalität eines Methodenfragments wird durch ein oder mehrere Packages beschrieben. Der Zugang zu einem Package erfolgt über ein oder mehrere Interfaces, ein Interface stellt jedoch genau ein Package zur Verfügung. Hierdurch können die genannten Inkompatibilitäten umgangen werden, da ein Package, je nach Verwendungszweck, durch unterschiedliche Interfaces (vgl. Abschnitt 2.1) zugänglich gemacht werden kann (vgl. Abb. 6). Klassifikation: Abb. 7 zeigt die Merkmalsausprägungen des Fragment-Pattern. Merkmal Methodenelement Patternkategorie
Ausprägung Modellierungs- Mechanismen technik & Algorithmen
Vorgehensmodell
Methode
Übergreifend
Fragment
Integrationsansatz
vertikal
horizontal
hybrid
Integrationsdichte
schwach
mittel
stark
keine
wenige
viele
Redundanz
Abbildung 7: Klassifikation des Fragment-Pattern
Beispiel: Es steht ein Mechanismenfragment mit einem Generatormechanismus zur Verfügung, um Modelle einer Modellierungstechnik A in eine XML-Datei zu generieren. Um diesen Generator auch für eine andere Modellierungstechnik B zu nutzen, wird das Generator-Package des Mechanismenfragments mittels eines für Modellierungstechnik B kompatiblen Interfaces zugänglich gemacht.
3.3
Das Concept-Mapping-Pattern
Kontext: Ein Ursprungsmetamodell enthält Konzepte, die in einem Zielmetamodell ebenfalls sinnvoll wären, jedoch momentan im Zielmetamodell nicht vorhanden sind bzw. die beiden Metamodelle enthalten ähnliche, jedoch nicht identische Konzepte, die aufeinander abgestimmt werden müssen. Dabei können die Metamodelle sowohl komplementär als auch konzeptionell sehr ähnlich sein. Problem: (i) Ein Zielmetamodell soll um neue Konzepte erweitert werden. Diese Konzepte sind bereits in einem Ursprungsmetamodell enthalten. Um die Konzepte nicht vollständig neu definieren zu müssen, sollen die existierenden Konzepte aus dem Ursprungsmetamodell in das Zielmetamodell abgebildet werden. (ii) Das Ursprungs- und Zielmetamodell enthält jeweils ähnliche Konzepte. Diese müssen aufeinander abgebildet werden, um eine konsistente Modellierung zu ermöglichen. Lösung: Um die Konzepte wiederzuverwenden bzw. aufeinander abzubilden, wird eine Abbildungsvorschrift (Concept-Mapping) eingeführt. Das Concept-Mapping kann ein oder mehrere Ursprungskonzepte auf ein oder mehrere Zielkonzepte abbilden. Sowohl ein Ursprungskonzept als auch ein Zielkonzept kann über ein oder mehrere Concept-Mappings verbunden werden (vgl. Abb. 8).
1492
H. Kühn, D. Karagiannis Part of Source Metamodel
Part of Target Metamodel 1
1
uses
provides
1..*
1..*
Source Concept
maps source 1..*
maps target
Concept Mapping
1..*
1..*
1..*
Target Concept
Abbildung 8: Lösungsstruktur des Concept-Mapping-Pattern
Klassifikation: Abb. 9 zeigt die Merkmalsausprägungen des Concept-MappingPattern. Merkmal
Ausprägung
Methodenelement Modellierungs- Mechanismen technik & Algorithmen Patternkategorie
Vorgehensmodell
Methode
Übergreifend
Fragment
Integrationsansatz
vertikal
horizontal
hybrid
Integrationsdichte
schwach
mittel
stark
keine
wenige
viele
Redundanz
Abbildung 9: Klassifikation des Concept-Mapping-Pattern
Beispiel: In einem Metamodell für die Organisationsmodellierung stehen detaillierte Konzepte zur Organisationsbeschreibung wie "Stelle", "Rolle", "Bearbeiter", "Organisationseinheit" etc. zur Verfügung. Diese werden auf das Konzept des Akteurs im Geschäftsprozessmetamodell abgebildet.
3.4
Das Merge-Pattern
Kontext: Zwei oder mehrere Ursprungsmetamodelle werden gemeinsam verwendet. Diese können nahezu gleiche Modellierungssprachen oder auch orthogonale Modellierungssprachen repräsentieren. Um den Pflegeaufwand der Metamodelle zu reduzieren bzw. um die Ausdruckskraft in einer integrierten Modellierungssprache zu nutzen, sollen die relevanten Metamodellausschnitte in ein gemeinsames Metamodell vereinigt werden. Problem: Bei der Integration der relevanten Teile der Ursprungsmetamodelle in das Zielmetamodell darf die ursprüngliche Syntax, Semantik und Notation nicht verloren gehen bzw. fehlinterpretiert werden. Die Ursprungsmetamodelle dürfen nicht verändert werden. Lösung: Das Merge-Pattern ist eine Spezialisierung des Transformation-Pattern. Eine Vereinigungsregel (Merge-Rule) generiert genau einen Teil des Zielmetamodells von zwei oder mehreren Ursprungsmetamodellen. Die Vereinigungsregel besteht aus mindestens einer Vereinigungsaktion und keiner, einer oder mehreren Vereinigungsbeschränkungen. Eine Vereinigungsbeschränkung bestimmt das
Pattern-orientierter Integrationsansatz
1493
Verhalten der Vereinigungsaktion. Es werden drei Arten von Vereinigungsbeschränkungen unterschieden: syntaktische, semantische und notationelle Beschränkungen (vgl. Abb. 10).
determine
Merge Actions
*
*
input for 2..*
1
Merge Rule
*
Merge Constraints * consist of
1..* consist of 1
Part of Source Metamodel
Notational Constraints
Semantic Constraints
Syntactic Constraints
output of 1
0..*
Part of Target Metamodel
Abbildung 10: Lösungsstruktur des Merge-Pattern
Klassifikation: Abb. 11 zeigt die Merkmalsausprägungen des Merge-Pattern. Merkmal Methodenelement Patternkategorie
Ausprägung Modellierungs- Mechanismen technik & Algorithmen
Vorgehensmodell
Methode
Übergreifend
Fragment
Integrationsansatz
vertikal
horizontal
hybrid
Integrationsdichte
schwach
mittel
stark
keine
wenige
viele
Redundanz
Abbildung 11: Klassifikation des Merge-Pattern
Beispiel: Eine Datenmodellierungssprache und eine Geschäftsprozessmodellierungssprache sollen vereinigt werden, um Datenflussmodellierung zu ermöglichen. Die aus der Vereinigung resultierende Modellierungssprache soll weiterhin die Eigenschaften der Daten- und Geschäftsprozessmodellierung unterstützen.
4
Anwendungsbeispiel: Methodenintegration ITgestützter Management-Ansätze
Erfolgreiche Unternehmen zeichnen sich u.a. dadurch aus, dass die lang- und mittelfristige IT-Strategie klar an der Unternehmensstrategie ausgerichtet und gewinnbringend in operatives Handeln umgesetzt wird. Um daran beteiligten Personen entsprechende Hilfsmittel an die Hand zu geben, wurden unterschiedliche Managementansätze entwickelt, die in Form unterschiedlicher Methoden etabliert wurden, vgl. bspw. [Kara95, KaNo97, KrSe03]. Im vorliegenden Beitrag werden im Kontext des Architekturmanagements folgende Managementansätze als essentiell betrachtet:
1494
H. Kühn, D. Karagiannis
x das Strategiemanagement für die Langfristplanung, die IT-Strategiekommunikation und das Ziel- und Performance-Management, x das Prozessmanagement für eine effiziente Gestaltung der Geschäftsprozesse und der dort eingebundenen Ressourcen zur Umsetzung der Unternehmensund IT-Strategie und x das IT-Management im Sinne eines IT-Servicemanagements und IT-Architekturmanagements für die adäquate informationstechnische Unterstützung der Geschäftsprozesse und der darin arbeitenden Mitarbeiter. In den folgenden Abschnitten 4.1 bis 4.3 werden drei Methoden für die oben beschriebenen Managementansätze anhand ihres Methodenelements "Modellierungstechnik" skizziert. Dabei werden jeweils Anforderungen an die Modellierungstechnik und ein Metamodell für eine entsprechende Modellierungssprache vorgestellt. Auf die Methodenelemente "Mechanismen" und "Vorgehensmodell" wird im vorliegenden Beitrag nicht eingegangen. In Abschnitt 4.4 erfolgt die Integration der Modellierungstechniken der drei Methoden.
4.1
Methodendefinition für das Strategiemanagement
Wesentliche Anforderungen an eine Modellierungstechnik für das Strategiemanagement sind: x Abbildung der Unternehmens- und IT-Strategie und der hierfür wichtigen Erfolgsfaktoren, x Operationalisierung der Strategie durch Formulierung entsprechender Ziele, x Beschreibung der Umsetzung der Ziele durch Maßnahmen und Projekte, x Bewertung der Strategie, der Ziele und deren Umsetzung durch Kennzahlen und x Definition von Verantwortlichkeiten als Voraussetzung eines adäquaten Strategie-Controllings. Abb. 12 zeigt das Metamodell einer Modellierungssprache für das Strategiemanagement. Die Modellierungssprache berücksichtigt die oben gestellten Anforderungen.
Pattern-orientierter Integrationsansatz beeinflusst
Strategie
Erfolgsfaktor
1495 gliedert
Perspektive
gliedert gliedert
definiert umgesetzt durch
Ziel
Kennzahl
berechnet
Berechnungsvorschrift
liefert Input
Datenquelle
verantwortet
Strategisches Ziel
Operatives Ziel
Elementare Kennzahl
verantwortet
Organisationseinheit
arbeitet für
Person
Zusammengesetzte Kennzahl
umgesetzt durch
verantwortet
Umsetzung
hat Rolle
Rolle
Projekt
Maßnahme
Abbildung 12: Modellierungssprache für Strategiemanagement
Die Unternehmensstrategie wird durch von der Unternehmensleitung zu formulierende Erfolgsfaktoren beeinflusst. Hieraus können für das Zielmanagement strategische und operative Ziele abgeleitet werden. Die IT-Strategie wird aus der Unternehmensstrategie abgeleitet. Zur Zielerreichung werden ein oder mehrere Maßnahmen definiert. Die Maßnahmen können zu Projekten gebündelt werden. Für eine quantitative und qualitative Bewertung der Ziele und der damit verbundenen Umsetzungsaspekte werden Kennzahlen eingesetzt. Elementare Kennzahlen stellen atomare Bewertungen dar, zusammengesetzte Kennzahlen werden über Formeln aus elementaren Kennzahlen berechnet. Für beide Arten von Kennzahlen müssen Berechnungsvorschriften definiert werden. Das Datenmaterial für den Input der Berechungen wird über Datenquellen zugeliefert. Um eine Kontrolle und Steuerung im Strategiemanagement durchführen zu können, werden Verantwortlichkeiten für Ziele, deren Umsetzung und der Bewertung festgelegt. Dies erfolgt durch Zuordnung von Personen zu Zielen, Kennzahlen, Maßnahmen und Projekten.
4.2
Methodendefinition für das Prozessmanagement
Wesentliche Anforderungen an eine Modellierungstechnik für das Prozessmanagement sind: x Abbildung einer Übersicht der Management-, Kern- und Unterstützungsprozesse eines Unternehmens, x transparente Definition der Geschäftsprozesse anhand des Kontroll-, Informations- und ggf. Materialflusses, x Beschreibung der in einem Geschäftsprozess bearbeiteten Artefakte und der hierfür eingesetzten Ressourcen, x Hinterlegung von statistischen bzw. quantitativen Informationen für eine Modellnutzung im Rahmen quantitativer Auswertungen und
1496
H. Kühn, D. Karagiannis
x Definition von Verantwortlichkeiten als Voraussetzung eines adäquaten Prozess-Controllings. Abb. 13 zeigt das Metamodell einer Modellierungssprache für das Prozessmanagement. Die Modellierungssprache berücksichtigt die oben gestellten Anforderungen. Prozess
aufgerufener Prozess
Kontrollfluss
Zufallsgenerator
setzt Wert
Variable
löst aus
Prozessobjekt
stößt an
beeinflusst
Subprozessaufruf
Aktivität
Start
Ende
Bedingung
Parallelität
Vereinigung
Ereignis
generiert Informationsfluss
beeinflusst
Sammelereignis
verantwortliche Rolle verarbeitet führt aus
nutzt
Artefakt
wandelt um
nutzt
Ressource
Akteur
hat Rolle
Rolle
arbeitet für
Information
Material
Technische Ressource
hat ist zugewiesen zu
Organisationseinheit
Materialfluss
Abbildung 13: Modellierungssprache für Prozessmanagement
Durch den Aufbau von Prozesslandkarten und deren Dekomposition zu Geschäftsprozessmodellen können Übersichten der Prozesse und Prozesskategorien erstellt werden. Das zentrale Element eines Geschäftsprozessmodells bildet die Aktivität. Aktivitäten werden durch Nutzung von Steuerungsobjekten wie "Start", "Ende", "Bedingung", "Parallelität" und "Vereinigung" zu komplexeren Aktivitätsflüssen zusammengefasst. Jede Aktivität wird durch einen Akteur ausgeführt. Dieser nutzt bei der Durchführung von Aktivitäten entsprechende Ressourcen, um die in einem Prozess zu transformierenden Artefakte bearbeiten zu können. Die Akteure können bspw. nach ihren Rollen und zugeordneten Organisationseinheiten strukturiert werden. Die Definition von Zufallsgeneratoren, die zur Zufallszahlengenerierung von den unterschiedlichen in einem Prozess enthaltenen Ablaufobjekte ausgelöst werden können, und die Beschreibung weiterer quantitativer Informationen, liefern die Ausgangsbasis für die quantitative Prozessbewertung.
4.3
Methodendefinition für das IT-Management
Wesentliche Anforderungen an eine Modellierungstechnik für das IT-Management sind: x Abbildung der IT-Strategie und der damit verbundenen Ziele und Projekte, x Definition von IT-Servicekatalogen als Basis für die von der IT durchzuführenden Projekte und der zu erbringenden Dienstleistungen,
Pattern-orientierter Integrationsansatz
1497
x Beschreibung der in einem IT-Service gebündelten Elemente wie Serviceprozesse, Anwendungen, Rechner und Netzwerke, x Bewertung der IT-Services und ihrer Elemente durch Service Level Agreements (SLA) und entsprechender Kennzahlen und x Definition von Verantwortlichkeiten als Voraussetzung eines adäquaten ITControllings. Abb. 14 zeigt das Metamodell einer Modellierungssprache für das IT-Management. Die Modellierungssprache berücksichtigt die oben gestellten Anforderungen. Strategie definiert spezifiziert
Ziel
Projekt
ist verantwortlich für
wird realisiert in
Tätigkeit
hat
determiniert ist verantwortlich für
Person
Prozess
IT-Service
quantifiziert
besteht aus
hat Rolle ist verantwortlich für
Kennzahl
Anforderung
umgesetzt durch
misst
SLA besteht aus
besteht aus
besteht aus
Rolle Anwendung
führt aus
Infrastrukturelement
verbindet
Kommunikationselement
besteht aus verbindet
Geschäftsprozess
IT-Service Prozess
Komponente nutzt
verb. nutzt
Schnittstelle verbindet
Daten
Abbildung 14: Modellierungssprache für IT-Management
Die IT-Strategie bildet die Ausgangsbasis für die Formulierung entsprechender Ziele und der Ableitung notwendiger Projekte, um die Ziele zu erreichen. Weiterhin leiten sich aus den Zielen die Anforderungen an die von der IT zu erbringenden Dienstleistungen (IT-Services) ab. Die Beschreibung eines IT-Service erfolgt durch seine Elemente "Prozess", "Anwendung", "Infrastrukturelement" und "Kommunikationselement". Die Definition der Verantwortung für Projekte, ITServices und den in den IT-Services enthaltenen Elementen erfolgt durch Zuweisung von Personen. Ein IT-Service wird durch SLAs quantifiziert und diese durch Kennzahlen gemessen. Eine Anwendung besteht aus einer oder mehrerer Komponenten. Anwendungen und Komponenten kommunizieren über Schnittstellen.
4.4
Identifikation der Integrationsstellen
Beim Vergleich der Metamodelle können 6 Integrationsstellen gefunden werden (vgl. Abb. 15). Dabei werden die in Kapitel 3 vorgestellten Integrations-Patterns
1498
H. Kühn, D. Karagiannis
eingesetzt. Die folgende Nummerierung korrespondiert zur Nummerierung in Abb. 15. 1. Strategie-Ziel-Projekt: Diese Modellierungskonstrukte finden sich sowohl in den Metamodellen zum Strategie- als auch IT-Management wieder. Durch Nutzung des Fragment-Patterns (vgl. Abschnitt 3.2) werden die Konstrukte aus den Metamodellen extrahiert und in ein eigenes Methodenfragment abgebildet. Die Integration erfolgt dann durch die gemeinsame Nutzung dieses Methodenfragments (vgl. Abb. 16). 2. Aktivität-Tätigkeit: Im Metamodell zum Prozessmanagement bildet die Aktivität das zentrale Element. Im Metamodell zum IT-Management werden Prozesse durch ihre Tätigkeiten beschrieben. Die beiden korrespondierenden Konstrukte "Aktivität" und "Tätigkeit" werden durch das Concept-MappingPattern (vgl. Abschnitt 3.3) miteinander verbunden und aufeinander abgebildet (vgl. Abb. 16). 3. Prozess-Prozess: Sowohl im Metamodell zum Prozessmanagement als auch im Metamodell zum IT-Management steht das Modellierungskonzept "Prozess" zur Verfügung. Durch Nutzung des Common-Baseclass-Pattern (vgl. Abschnitt 3.1.3) können die beiden Modellierungsklassen von einer gemeinsamen Basisklasse abgeleitet und hierdurch eine Integration der Metamodelle erreicht werden. 4. Person-Rolle-Organisationseinheit: In allen drei Metamodellen finden sich Modellierungskonstrukte zur Organisationsbeschreibung, bspw. "Rolle", "Person", "Akteur" und "Organisationseinheit". Die Konstrukte zur Organisationsmodellierung werden unter Nutzung des Fragment-Pattern (vgl. Abschnitt 3.2) aus den Metamodellen extrahiert und in ein eigenes Methodenfragment abgebildet. Die Integration erfolgt dann durch die gemeinsame Nutzung des Methodenfragments. 5. Information-Daten-Datenquelle: In den drei Metamodellen stehen die äquivalenten Modellierungskonstrukte "Information", "Daten" und "Datenquelle" zur Verfügung. Diese werden mittels Concept-Mapping-Pattern (vgl. Abschnitt 3.3) einander zugeordnet. 6. Kennzahl-Kennzahl: Sowohl im Metamodell zum Strategiemanagement als auch im Metamodell zum IT-Management steht das Konstrukt "Kennzahl" zur Verfügung. Die Integration erfolgt durch Vereinigung dieses Konstrukts aus beiden Metamodellen (vgl. Abb. 16). Hierzu findet das Merge-Pattern (vgl. Abschnitt 3.4) Anwendung.
Pattern-orientierter Integrationsansatz
beeinflusst beeinflusst
Strategie Strategie
ErfolgsErfolgsfaktor faktor
gliedert gliedert
gliedert gliedert
Perspektive Perspektive gliedert gliedert
definiert definiert umgesetzt durch durch umgesetzt
Ziel Ziel
1
Strategisches Strategisches Ziel Ziel
6
verantwortet verantwortet
Operatives Operatives Ziel Ziel
arbeitet für für arbeitet
Person Person
berechnet berechnet
Kennzahl Kennzahl
Elementare Elementare Kennzahl Kennzahl
BerechnungsBerechnungsvorschrift vorschrift
liefert Input Input liefert
Datenquelle Datenquelle
5
Zusammengesetzte Zusammengesetzte Kennzahl Kennzahl
umgesetzt durch durch umgesetzt
verantwortet verantwortet
OrganisationsOrganisationseinheit einheit
1499
Umsetzung Umsetzung
verantwortet verantwortet
Prozess Prozess
aufgerufener Prozess Prozess aufgerufener
3 ProzessProzess-
hat Rolle Rolle hat
Rolle Rolle
1
Maßnahme Maßnahme
Projekt Projekt
ZufallsZufallsgenerator generator
setzt Wert Wert setzt
Variable Variable
löst aus aus löst
Kontrollfluss Kontrollfluss stößt an an stößt
objekt objekt
beeinflusst beeinflusst
SubprozessSubprozessaufruf aufruf
Aktivität Aktivität
2
Ende Ende
Start Start
Bedingung Bedingung
Parallelität Vereinigung Vereinigung Parallelität
Ereignis Ereignis
generiert generiert Informationsfluss Informationsfluss
nutzt nutzt
Artefakt Artefakt
1
5
wandelt wandelt um um
Material
Information
Strategie
Materialfluss Materialfluss
spezifiziert spezifiziert
wird realisiert realisiert in in wird
2
Tätigkeit
hat hat
3
Prozess
ist ist verantwortlich verantwortlich für für
determiniert determiniert ist verantwortlich verantwortlich ist für für
Person
ist verantwortlich verantwortlich ist für für
4
Geschäftsprozess
IT-Service Prozess
Anwendung
Komponente nutzt nutzt
Akteur Akteur
Rolle Rolle
arbeitet für für arbeitet
OrganisationsOrganisationseinheit einheit
4
SLA besteht aus aus besteht
besteht aus aus besteht
besteht aus aus besteht
ist zugezugeist wiesen zu zu wiesen
hat Rolle Rolle hat
misst misst
quantifiziert quantifiziert
IT-Service
besteht aus aus besteht
hat Rolle Rolle hat
Rolle
hat hat
führt aus aus führt
Kennzahl
Anforderung
umgesetzt durch durch umgesetzt
Projekt
Ressource Ressource
Technische Technische Ressource Ressource
nutzt nutzt
6
definiert definiert
Ziel
beeinflusst beeinflusst
verantwortliche Rolle Rolle verantwortliche
verarbeitet verarbeitet
Sammelereignis Sammelereignis
besteht aus aus besteht führt führt aus aus
Infrastrukturelement
verbindet verbindet
Kommunikationselement
verbindet verbindet verb. verb.
5
nutzt nutzt
Schnittstelle verbindet verbindet
Daten
Abbildung 15: Metamodellbasierte Identifikation der Integrationsstellen
4.5
Integration der Methoden
Basierend auf den in Abb. 15 identifizierten Integrationsstellen, wird die Integration der Metamodelle der Modellierungssprachen durchgeführt. Das Ergebnis der Integration zeigt Abb. 16. Aus Gründen der Übersichtlichkeit werden nur drei der sechs durchgeführten Integrationen gezeigt. Konkret sind dies: x Nr. 1 - Integration mittels Fragment-Pattern, x Nr. 2 - Integration mittels Concept-Mapping-Pattern und x Nr. 6 - Integration mittels Merge-Pattern.
1500
H. Kühn, D. Karagiannis Erfolgsfaktor
beeinflusst
gliedert
Perspektive
gliedert
gliedert
Kennzahl
berechnet
Berechnungsvorschrift
liefert Input
Datenquelle
verantwortet
Strategisches Ziel
Operatives Ziel
Elementare Kennzahl
Zusammengesetzte Kennzahl
umgesetzt durch
Organisationseinheit
arbeitet für
Person
verantwortet
Umsetzung
Prozess
aufgerufener Prozess
Kontrollfluss
hat Rolle
Rolle
Maßnahme
Zufallsgenerator
setzt Wert
Variable
löst aus
Prozessobjekt
stößt an
beeinflusst verantwortet
A1
Interface
A2
umgesetzt durch
Subprozessaufruf
Aktivität
Start
Ende
Bedingung
A3
Parallelität
Vereinigung
Ereignis
generiert Informationsfluss
beeinflusst
Package
Sammelereignis
verantwortliche Rolle verarbeitet
Strategie
definiert
Ziel
umgesetzt durch
führt aus
nutzt
Projekt
Artefakt
1
wandelt um
nutzt
Ressource
Akteur
hat Rolle
Rolle
arbeitet für
Fragment-Pattern
Information
Material
Technische Ressource
hat ist zugewiesen zu
Organisationseinheit
Materialfluss
2
Merge-Pattern
Concept-MappingPattern
wird realisiert in ist verantwortlich für
MAPS_TO
ist verantwortlich für
Prozess
ist verantwortlich für
quantifiziert
IT-Service
besteht aus
hat Rolle
hat
misst
6
determiniert
Person
Tätigkeit
Anforderung
spezifiziert
SLA besteht aus
besteht aus besteht aus
Rolle Anwendung
führt aus
Infrastrukturelement
verbindet
Kommunikationselement
besteht aus verbindet
Geschäftsprozess
IT-Service Prozess
Komponente nutzt
verb. nutzt
Schnittstelle verbindet
Daten
Abbildung 16: Integration der Metamodelle der Modellierungssprachen
5
Zusammenfassung und Ausblick
Dem vorliegenden Beitrag liegt die Überzeugung zugrunde, dass es nicht die Methode in der Unternehmensmodellierung gibt und auch nicht geben wird. Vielmehr wird ein unternehmensspezifisches Bündel von situations- und problemspezifischen Methoden und Methodenfragmenten benötigt, die durch Kombination und Integration die geforderte Hilfestellung für den Anwender liefern. Betrachtet man die gegenwärtige Situation und die in den Medien kommunizierten strategischen Akzente der "Global Player" in der Software- und IT-Beratungsbranche, so lässt sich feststellen, dass das Thema "Modellierung" und die Beherrschung modellund methodengestützter Ansätze mittlerweile als ein Wettbewerbsvorteil gesehen wird und nicht mehr nur als ein "Nice-to-Have". Alle "Großen" haben bereits oder haben zumindest angekündigt, modell-basierte Komponenten in ihre Umgebungen zur Entwicklung und Integration von Geschäftsanwendungen zu nutzen, bspw. IBM's WebSphere, Microsoft's BizTalk Server [BOC04] oder SAP's NetWeaver. Abschließend werden drei den Autoren zentral erscheinende Tendenzen im Kontext der Definition, Integration und Nutzung von Methoden skizziert.
Pattern-orientierter Integrationsansatz
1501
Enterprise Model Integration: Auf der Ausführungs- und Anwendungsebene haben sich Lösungsansätze im Rahmen des EAI etabliert [Joha+00]. Integrationsprojekte müssen aber auch auf einer fachlich-konzeptionellen Ebene begleitet werden. Ein sich abzeichnender Trend ist hier zum einen die verstärkte Standardisierung von Modellierungssprachen für bestimmte Einsatzbereiche [OMG01, BPMI04]. Zum anderen werden Ansätze für die Integration (der Metamodelle) proprietärer Modellierungssprachen benötigt, da bisher der Großteil der Hersteller von Business-Software eigene Modellierungssprachen einsetzt. Metamodellierung wird Basistechnologie: Im vorliegenden Beitrag wurde die Metamodellierung aufgrund der damit verbundenen Flexibilität als konzeptionelle Basis gewählt. Die Metamodellierung hält als Basistechnologie jedoch mittlerweile auch in verschiedenen anderen Bereichen Einzug, bspw. durch die Meta Object Facility [OMG02], in der Sprachdefinition der UML Version 2.0 oder im Software Engineering-Ansatz der Produktfamilien. Zukünftig wird eine verstärkte Nutzung von Metamodellierung in weiteren Anwendungsgebieten erwartet, bspw. im Workflow-Management [Kara95], im IT-Architekturmanagement und im Wissensmanagement [Kral+02]. Integration Business-orientierter und IT-orientierter Methoden: In Kapitel 4 wurde ein Fallbeispiel zur Integration der Managementansätze "Strategiemanagement", "Prozessmanagement" und "IT-Management" vorgestellt. In diesem Kontext wird direkt aus der Praxis kommender, ergänzender Forschungsbedarf gesehen. Ein vielversprechender Ansatz, der sich jedoch noch in einem relativ frühen Entwicklungsstadium befindet, ist die Model Driven Architecture (MDA). Die MDA erhebt den Anspruch, die Fachwelt mit der IT-Welt über Modelltransformationen adäquat zu verbinden. Hier wird Forschungsbedarf v.a. im Kontext verlustfreier Transformationen und der Behandlung und Integration unterschiedlicher Semantiken erwartet.
Literatur [AiSc04] Aier, S.; Schönherr, M. (Hrsg.): Enterprise Application Integration – Flexibilisierung komplexer Unternehmensarchitekturen. GITO-Verlag, 2004. [BOC04] BOC GmbH: ADONIS-BizTalk Server 2004-Integration, http://www.boceu.com/html/biztalk.html, Abruf am 2004-10-14 [Bole+04] Boles, C.; Friebe, J.; Luhmann, T.: Typische Integrationsszenarien und deren Unterstützung durch Web Services und andere Technologien. In: [HaRe04], S. 57-67. [BPMI04] BPMI.org: Spezifikationen der BPML und BPMN - jeweils Version 1.0. http://www.bpmi.org, Abruf am 2004-10-14. [ErPe00] Eriksson, H.-E.; Penker, M.: Business Modeling with UML - Business Patterns at Work. John Wiley & Sons, 2000.
1502
H. Kühn, D. Karagiannis
[Gamm+94] Gamma, E.; Helm, R.; Johnson, G.; Vlissides, J.: Design Patterns – Elements of Reusable Object-Oriented Software. Addison-Wesley, 1994. [HaRe04] Hasselbring, W.; Reichert, M. (Hrsg.): EAI 2004 – Enterprise Application Integration. Tagungsband des GI/GMDS-Workshops EAI'04, OFFIS, Oldenburg, Februar 2004. [Joha+00] Johannesson, P.; Wangler, B.; Jayaweera, P.: Application and Process Integration – Concepts, Issues, and Research Directions. In: Brinkkemper, S.; Lindencrona, E.; Solvberg, A. (Eds.): Information Systems Engineering Symposium CAiSE 2000, Springer-Verlag, 2000. [KaNo97] Kaplan, R. S.; Norton, D. P.: Die Balanced Scorecard: Strategien Erfolgreich Umsetzen. Verlag Schäffer-Poeschel, Handelsblatt-Reihe, Stuttgart, 1997. [Kara95] Karagiannis, D.: BPMS: Business Process Management Systems. In: ACM SIGOIS Bulletin, Vol. 16, Nr. 1, August 1995, S. 10-13. [Kral+02] Krallmann, H.; Schönherr, M.; Aier, S.; Dietrich, J.: Transformation einer industriell geprägten Unternehmensstruktur zu einer service- und wissensbasierten Organisation. 2002. [KrSe03] Krüger, S.; Seelmann-Eggelbert, J.: IT-Architektur-Engineering. Galileo Press GmbH, Bonn, 2003. [Kühn+03] Kühn, H.; Bayer, F.; Junginger, S.; Karagiannis, D.: Enterprise Model Integration. In: Bauknecht, K.; Tjoa, A M.; Quirchmayr, G. (Hrsg.): Proceedings of the 4th International Conference EC-Web 2003 - Dexa 2003, Prag, Tschechien, September 2003, LNCS 2738, Springer-Verlag, S. 379-392. [Kühn04] Kühn, H.: Methodenintegration im Business Engineering. Dissertation, Universität Wien, April 2004. [Kühn+04] Kühn, H.; Murzek, M.; Bayer, F.: Horizontal Business Process Model Interoperability using Model Transformation. In: Workshop on Interoperability of Enterprise Systems (INTEREST'2004) at ECOOP2004, Oslo, Norwegen, Juni 2004. [Lint00] Linthicum, D. S.: Enterprise Application Integration. Addison-Wesley, 2000. [OMG 01] Object Management Group: OMG Unified Modeling Language Specification, Version 1.4, September 2001. http://www.omg.org/cgi-bin/doc?formal/01-09-67.pdf, Abruf am 2004-10-14. [OMG02] Object Management Group: Meta Object Facility (MOF) Specification, Version 1.4, April 2002. http://www.omg.org/cgi-bin/doc?formal/02-04-03.pdf, Abruf am 200410-14. [OMG03] Object Management Group: MDA Guide, Version 1.0.1, 12. Juni 2003. http://www.omg.org/cgi-bin/apps/doc?omg/03-06-01.pdf, Abruf am 2004-10-14.
Realization of Service-Oriented Architecture (SOA) Using Enterprise Portal Platforms Taking the Example of Multi-Channel Sales in Banking Domains Rainer von Ammon Upper Austria University of Applied Sciences
Wolfgang Pausch Regensburg University of Applied Sciences
Markus Schimmer ibi research at the University of Regensburg
Abstract: Multi-channel sales make high demands on IT infrastructures. ServiceOriented Architectures (SOAs) are to enable reusable software-based services and flexible, adaptable business processes. To realize this, the use of enterprise portal platforms is planned. The state of the art has been tested in a relevant project that focused on typical use cases of automotive credit banks in retail banking applications. Initial findings indicate that these platforms are ideal for realizing an SOA. In addition to the technical implementation of an SOA, the planning of suitable services, their level of granularity and reusability is another challenge. Keywords: Service-Oriented Architecture, Enterprise Portal Platform, Multichannel sales
1
Multi-Channel Sales in Banks
In addition to the industrialization of banking operations, the main area of action currently being discussed is the reorganization of financial institutions as multichannel and all-finance sales and service providers [Bart+03, p. 14]. Multi-channel sales in this context means that customers can use different channels for their entire customer process (information or initiative, consultation, conclusion, and after sales) when they access financial service providers (FSP). While from a technical point of view the “channel” is primarily seen as being various terminals, in the financial sector it can be understood as an organizational unit from the vendor’s
1504
R. von Ammon, W. Pausch, M. Schimmer
standpoint or as a “customer touch point” from the customer’s. The most important channels are currently branches, automated teller machines (ATM), the Internet, call centers, and, most recently, consultants in the field. In setting up these channels, it must be possible for the vendor to monitor and support customer processes in all channels to prevent any breakdown in the flow of processes or information when the point of contact changes. After obtaining information on his own via the Internet, the customer should, for example, be able to conclude the transaction in the branch office and contact the call center for further dealings with the institution. Communication between the customer and the FSP must thus always take up where the current level of information from the previous channel left off. The strategic questions facing a bank include x which parts of the customer’s process x for what products and services x for which customers x on which channels are to be offered (cf. in detail [Gron03; GrVo03]). Another requirement in multi-channel sales is to realize interactions with the customer via all channels in the same way so that same activities lead to identical results. A budgetary accounting for a consumer credit must record the same data and be calculated in the same way via the Internet as during a personal meeting in the branch office or with the mobile consultant.
2
2.1
Multi-Channel Architectures for Multi-Channel Sales Requirements for Multi-Channel Architectures
An application architecture for multi-channel sales that meets the aforementioned requirements must have several “target properties” (with reference to [Felt03, p. 5; Lese+02, p. 6-15]). x As a rule, different channels and their specific terminals must be supported by the user interface. x The application architecture must guarantee consistency between the channels at the process, function and data levels.
Realization of Service-Oriented Architectures Using Enterprise Portal Platforms
1505
x Transparency between channels is mandatory; exchange of information must take place. The FSP needs to obtain an integral picture of the customer through which all activities on all channels are comprehensible. x The application systems (APS) need to provide real-time capabilities to handle business processes without back-office batching. Manual steps and media discontinuity must be minimized or, if possible, completely removed. x Finally, the flexibility and scalability of the application architecture must be guaranteed. Process modifications must be rapidly implementable and not obstructed by “hard-wired” IT components. New channels or external partners should be able to be added rapidly, with the IT environment continuing to function without error or losses in performance.
2.2
Obstacles to Implementation
For all practical purposes, the demands of an implementation are still frequently hindered by technical problems and mandatory infrastructures. Host systems are still very important to FSPs. On these mainframes monolithic and difficult to modify systems for accounts, securities, or payment transactions are implemented holding the entire legally relevant data stock [DeSc00]. The application architecture is oriented towards branches or accounts instead of business processes and customer needs [Moor99, p. 12]. This makes consistent workflows guided by the customer process, as defined above, impossible to achieve. Today’s multi-channel architectures often grew in an opportunistic way, with new channels added according to demand [Felt03, p. 4]. There are a variety of independent, sales-channel specific application blocks for branch offices, the Internet, call centers, etc. with redundant business logic [DeSc00]. Consequently, there is no standardized function or process view. Additionally, there is often no standardized data view since distributed and redundant data is stored in different branch or channel-specific databases [Moor99, p. 12]. Another obstacle is the complexity involved in the coupling of the application systems. FSPs have a very heterogeneous system environment employing numerous proprietary systems and interfaces [Bran+04, p. 138; ITVe04]. The point-to-point integration often used in the past is, however, too inflexible since many proprietary interfaces and protocols by different manufacturers have to be supported [LaWe03, p. 15].
2.3
New Approach Implementing Service-Oriented Architecture
FSPs’ current application architectures are frequently a collection of multi-layered applications with the main user interfaces usually being desktop applications or
1506
R. von Ammon, W. Pausch, M. Schimmer
web browsers [Mehl01, p. 55]. These application blocks are the fundamental problem since their user interfaces are still linked to these monoliths [Wood03, pp. 1724 ]. It is indeed possible to reuse parts of them by linking one monolith with another through portals and Application Programming Interfaces (API). However, this may be limited in that portals under certain circumstances may only be able to access a fraction of the monoliths or, if the interface is inappropriate, not at all. On the other hand, a connection via the API directly in the client’s coding is difficult and expensive. The problem may be solved ideally by further dividing up the program logic into components that are then linked with one another using a ServiceOriented Architecture (SOA) (cf. Figure 1).
Interface Method 1 ... Method n
Interface Method1 ... Method n
Interface Method 1 ... Method n
Object
Component
Interface Method 1 ... Method n
Service
Interface Method 1 ... Method n
Object
Component
Interface Method 1 ... Method n
Object
Figure 1: Aggregation of categories, components and services and their interfaces on different levels of abstraction and granularity
One of the most important tasks is to identify and develop components in order to create new and flexible services in the shape of a network of components [Mein04, p. 33]. During the first stage, it is important to internally break down the applications of an enterprise into components. For an effective breakdown, the FSP applications must be looked at from an overview perspective to identify shared functionalities which should later be made available as services. If functionality is redundant, e.g. contained in several applications or parts of applications, it indicates that these parts can be merged and combined in a single component. Once possible services have been identified, their correct granularity must be determined prior to breaking down the application system. A level of granularity that is too coarse limits reusability, if the components bundle too much functionality
Realization of Service-Oriented Architectures Using Enterprise Portal Platforms
1507
and are specialized for certain applications. By contrast, too fine a level of granularity may result, particularly in large systems, in an uncontrollable set of services that each contains too little functionality. If reusable components have been identified and the appropriate granularity has been determined, the architecture of the old application system is broken down. This makes it possible to model the central elements of an enterprise architecture based on service (cf. Figure 2). Portlet
Presentation
...
...
Processes
Applications
Portlet
API Method 1 ... Method n
APS
F R
Interface Method 1 ... Method n
Service
API Method1 ... Method n
APS FR
Data D R
D R
FR = Function Redundancy DR = Data Redundancy
Figure 2: Redundant functionality and data, their modeling in suitable general components, and their reuse in one or several services
An SOA is based on three basic roles: that of the “Service Provider” making services available, that of a “Service Consumer” taking advantage of the services, and that of a “Service Broker” acting as an intermediary between “provider” and “consumer” in the form of a public or corporate “registry” (Figure 3).
Figure 3: Interaction of the roles in an SOA (with reference to [KuWö02, p. 79])
1508
R. von Ammon, W. Pausch, M. Schimmer
As the means of communication, platform-independent service interfaces should be available over which the services can then be loosely coupled. One way of coupling service providers and service consumers is to use web service interfaces, such as the “Web Services Definition Language” (WSDL, [W3C04]). The service registry can be realized using “Universal Description, Discover and Integration” (UDDI, [OASI04a]). The data exchange format XML can be used for communication between the services. SOA is expressly not synonymous to web services and XML but can contain many other technologies and standards, such as the “J2EE-Connector Architecture” (J2EE-CA, [Sun04]), “Java Process Description” (JPD, [JCP04]), and similar competing standards for orchestration and workflows such as the “Business Process Execution Language for Web Services” (BPEL4WS, [OASI04b]). The services are either joined horizontally or vertically (cf. Figure 4). Horizontal in this context means that the components are loosely coupled to business processes (“workflows”) that are positioned horizontally on top of the application system’s old functional organization. Services in these business processes can be accessed serially (serial orchestration) as well as in parallel (parallel orchestration). Serial orchestration refers to a process which is used to access web services one after the other. This means that the subsequent service waits for the previous service to terminate and then starts after its predecessor terminates so that the required part of a “workflow” is run. By contrast, in parallel orchestration, services are launched simultaneously. Before the business process will continue at the point of synchronization, all services invoked in parallel must be terminated.
Service Consumer
Service Provider
Service Provider
Loan Consulting
Consultation System
Credit Investigation
Credit Reporting Agency
Loan Awarded
Costing System
Credit Processing
In an SOA, the process is controlled by the service consumer.
Value Date / Securities Payment Management
Accouting System
...
Reporting
Reporting
Service providers can implement processes and also call services.
Data is accessed via the service provider.
Figure 4: Horizontal and vertical coupling of services (with reference to [LaWe03, p. 12])
Realization of Service-Oriented Architectures Using Enterprise Portal Platforms
1509
In contrast to horizontal joins, vertical joins mean that a vertical cut runs through the old architecture. In a complete cut, for example, a (very course-grained) “credit consulting” service would be cut out of the old architecture starting at the presentation level in a portlet over the presentation logic level in a “Java Server Page” (JSP) and the business logic level for processing data to the database access level. This can produce reusable portlet galleries that may be flexibly installed in company portals.
3
SOA Using Enterprise Portal Platforms
This section is intended to show how an SOA can be realized using an enterprise portal platform. In the process, services with varying levels of granularity are either assigned to the portal level, the integration platform level, the application server level or several levels (Figure 5). Branch
ATM
F1 F2
Mul ti Chann Platfor el m
Internet (stationary/ mobile)
Call Center
Portal Back - office
M 1
Mn
F3
Integration Platform
F4
C 1
M2
F5 F n
Mobile Consultant
Application Server
C2
Cn
Payments Transactions
CR M
Risk Managment
Personnel
Custom Development
...
F = Fine-Grained Service M = Medium-Grained Service C = Coarse-Grained Service
Figure 5: Basic architecture of enterprise portal platforms and diagram of the levels of granularity in service: fine, medium, coarse
In addition to their granularity and allocation to functional levels, services can be classified as generic services made available by the enterprise portal platform (customer management, product catalogs, etc.; see the following description of the different platform levels for more details) or as domain-specific services (for the
1510
R. von Ammon, W. Pausch, M. Schimmer
application domains “Finance”, “Logistics”, “Healthcare”, etc.) which can increasingly be purchased from specialized manufacturers on the “componentware” market (e.g. services provided by abaXX, a vendor specializing in finance portals [abax04]). A further differentiation are application-specific services which are custom-developed by the users for specific business targets. The classification of services for banking applications with respect to SOAs is the subject of an ongoing study conducted by ibi research at the University of Regensburg.
3.1
The Portal Level
In today’s distributed application systems, different groups of users such as customers or employees access the information and applications relevant to their needs using different user interfaces (e.g. various web browser technologies, such as Perl, JSP, or PHP, or native desktop applications). This is referred to as “multiple single-point-of-access”. These solutions are incompatible and can only be combined and modified with great difficulty. Portals solve this problem. A single point-of-access guarantees precisely one point of entry for an FSP’s customers, business partners, and employees, as well as a standardized and personalized view of the data and applications integrated in the portal. A portal consists of several portlets. In the context at hand, this “view” refers to the view of an application or a service within the meaning of SOA, e.g. the querying of deposit holdings or the purchase of securities. The view of this kind of service is driven by a page flow logic that, depending on the progress within the business process, queries the deposit number or shows the content of the security deposit in the next process step. Different users or user groups in their various roles, e.g. as the employee of a specific sales channel, are allowed to see and execute only certain business processes. This is managed by a personalization component dependent on permissions and roles assigned to a particular user or a user group. In addition to personalized access to the business processes offered in the portal, the portal level takes care of the adaptation of content to different terminals. This is “multi-channeling” from a technical point of view and means that users can communicate with the portal via cell phones, PDAs, notebooks, and so on. The data basis for personalization and for further user-specific use of the corporate portal’s functionality are profiles generated from the user properties. These user properties are flexible and adaptable data structures in the enterprise portal platform which are used to identify and distinguish the user. Properties can be static values, such as the user’s date of birth, or include dynamic values such as the last bank product viewed. To obtain user properties, the enterprise portal platform offers the capture of dynamic data using “behavior tracking”, i.e. by recording user behavior in the portal. This makes it possible to analyze areas of interest, customer behavior, and the web site’s effectiveness.
Realization of Service-Oriented Architectures Using Enterprise Portal Platforms
1511
Additional services that are already provided for by portal platforms are those offered by so-called campaign management systems. These systems enable sales campaigns to be activated or deactivated depending on a certain time period, a business target, individual actions performed by the user on the site or depending on events in the customer’s situation (e.g. starting a job). A portal platform’s Content Management System (CMS) can also be considered a collection of services. These manage all kinds of content, e.g. product descriptions, images, forms, and their meta data, and offer functionality such as administration and authentification for the content’s capture, modification, and release for publication in the enterprise portal.
3.2
The Integration Platform Level
The integration platform level provides services for the consolidation of applications, business processes, and business partners as well as for the integration and transformation of data between the various applications. In this sense, an EAI adapter based on J2EE-CA can be considered a service which integrates the functionalities of a core banking system such as Kordoba. Using this kind of EAI adapter components it is possible to collect additional data for describing and classifying multi-channel sales customers by rapidly and flexibly integrating legacy systems as well as a wide variety of data sources. The integration platform level differentiates between services for connecting corporate systems and a collaborative integration of business partners (“business-tobusiness integration”). In the latter, services that are used or offered by the business partner are made available as business processes via web services and their orchestration to enable dynamic integration of business partners and flexible modification of the processes.
3.3
The Application Server Level
The application server - the basis of the enterprise portal platform - must meet strict requirements in terms of execution, monitoring and coordination of global transactions as well as reliability, availability and scalability. In this context, application server level services can also be considered services provided within SOA. To coordinate and monitor global transactions, application servers implement a transaction management service that coordinates the so-called “resource managers” such as relational databases, file systems, and other back-end services. Scalability is a middleware service to support constantly growing numbers of users. It ensures that performance, specifically response times, remains unchanged.
1512
R. von Ammon, W. Pausch, M. Schimmer
This is sometimes realized by running the application processes on a cluster solution, i.e. a number of interconnected computers that may be heterogeneous as well as geographically dispersed, with automatic load distribution services offered by the application server. Finally, an enterprise portal solution needs to guarantee a high level of reliability and availability. The failure of one or more server processes must not impact the infrastructure’s availability. Reliable functioning of the application and execution of orders even with large numbers of user queries and transactions running at the same time must be ensured. The necessary basic services are made available on the application server level.
4
Sample Implementation
To demonstrate the deployment of an enterprise portal platform in multi-channel sales, the following scenario describes an automotive credit bank for financing individuals (retail banking). The bank traditionally offers financial services revolving around the purchase or leasing of a vehicle and is typically associated with an automobile manufacturer. Over the past few years, several of these banks have evolved into full banks offering classical banking services and products for retail customers (cf. [Fran02, p. 710; MuFa03, pp. 8-19]).
4.1
Use Scenario: Automotive Credit Bank (Retail Banking)
Banks connected with car manufacturers usually do not have their own branch offices. Personal consultations take place at the dealerships with a salesman. Other typical channels are call centers, kiosk terminals, and the Internet. Corporate customers are often served by mobile consultants. In this scenario, the typical roles within an enterprise portal platform are, on the customer side, an anonymous prospective customer, an existing customer, and an FSP’s or car manufacturer’s employee (Figure 6). The bank side includes a call center agent, a car dealer, and a mobile consultant.
Realization of Service-Oriented Architectures Using Enterprise Portal Platforms
1513
Make Extensive Consulting Anonymous Prospective Customer
Collect Information Independently
Call Center Agent
Maintain Customer Profile
Existing Customer
Car Dealer
Use special offers Consultant Make Consultation Training
FSP Employee as potential customer
Mobile Consultant
Figure 6: Exemplary roles and use cases of an automotive credit bank
Some exemplary cases of the many tasks automotive credit banks are currently addressing (cf. [Mess04]) are: x Consulting: To increase the quality of advice given at the dealership, standardized consultation processes are prepared which (using different views) can also be employed for customers’ individual research or in call centers. Informational dialogs for existing customers can be personalized by accessing existing customer data, or the dialogs are adapted according to each customer’s level of knowledge or preferences. x Training: The portal platform can also be used for training purposes. Sales staff in the various channels can run through consultation processes, browse current product offerings, or obtain background information. x Active and event-driven customer contact: Another use case is connected with customer management. Existing customers can be addressed actively on the basis of certain events, e.g. their current life situation. This type of push concept is also conceivable for the FSP’s or car manufacturer’s staff who are made special offers regarding a private pension plan via the corporate intranet portal.
4.2
Implementation
As part of a project at ibi research at the University of Regensburg, an enterprise portal was to be created whose functionality was in line with the aforementioned scenario. The objective of the project was to study how enterprise portal platforms can be used in multi-channel sales in banks. The BEA-Weblogic Workshop 8.1 SP 2 development environment was used to implement the enterprise portal.
1514
R. von Ammon, W. Pausch, M. Schimmer
Chapter 3 describes which generic services are already offered by the platform and which levels they are used on. From the banking perspective, the domain-specific services must now be determined and defined to be as coarsely grained as possible or as finely grained as necessary with regard to their reusability and ability to be modified. In the use cases introduced above, it would seem logical to use reusable and suitably grained services, e.g. for consulting. These services can be used for selfconsulting sessions on the Internet, as a supplement for consultation provided in the branch office, in the call center, or by the mobile workforce, and for training sales staff; taking into account the different user groups on the one hand and the representatives’ common role as consultants on the other. To determine a suitable form of financing (drawing credit or consumer credit) this type of consultation service might consist of the following process steps with suitable finely-grained services coupled as necessary: x Orientation and information regarding forms of financing for retail customers x Selection of the form of financing (drawing credit or consumer credit) x Product configurator for consumer credit x Budget to determine the monthly balance available x Feasibility check for consumer credit x Interest and redemption x Self-disclosure x Application for consumer credit x Application for extension of drawing credit x Saving of session data x Consultant contact Services which are reusable in other applications include budgeting, selfdisclosure, data storage, and consultant contact. The budgeting service can be reused in consultation services for mortgaging or the financing of private pensions plans. When defining the “Save consultation session” service, however, the developer may discover that the service cannot be generalized since the data obtained during the consultation session are too specific to this type of consultation and would need to be mapped to highly different data structures. This example points out some of the problems that bear watching when properly customizing domainspecific services for an SOA, e.g. in regard to their granularity and reusability. While this task is a design problem independent of the implemented tools and enterprise portal platform, the quality of the development environment is measured
Realization of Service-Oriented Architectures Using Enterprise Portal Platforms
1515
against the fast and flexible implementation of an SOA and the banking processes. Figure 7 shows an excerpt of the implementation of the consultation process for finding a form of financing, initially as a “page flow” process.
Figure 7: Realization of a consultation process with page flows
The page flow technology provided by the enterprise portal platform is used to integrate the consultation process with a company portal. Page flows can be defined as a sequence of steps or states. Transitions take place either initiated by a user action or by an action’s return value. The correct flow can even be triggered by the results of an interaction with other systems that were integrated via EAI, e.g. the results of a credit rating query. From a technical standpoint, a page flow can currently be the graphical representation of a struts controller [Apac04]. JSPs are assigned to it, and java controls can be invoked. Java controls are used, among others, to call enterprise java beans, web services, databases, and much more to the page flow. During project realization a number of additional features of the development environment were used. They were only mentioned briefly in this paper to help illustrate the implementation of an SOA. Another example is the development of the “active event-driven initiation” process step and its implementation using the service functionality of the campaign management system. This system allows for the definition of events and rule-based activation of actions (campaigns) on a high level of abstraction. This is done flexibly by the appropriate department who do not need a broad knowledge of IT basics. Figure 8 shows an example: an absolute purchase date turns out to be an unsuitable event because every time a customer or service logs in, the campaign should automatically be called or e-mail contact initiated if the customer’s car is 3 or more years old.
1516
R. von Ammon, W. Pausch, M. Schimmer
Figure 8: Condition editor for push concepts
5
Outlook on the Future
Initial results of the project lead to the belief that a multi-channel platform for banks can be realized technically on the basis of an SOA using the enterprise portal platforms available today. The corresponding standards are still being improved and constantly expanded. For example, the restrictions of web services
Realization of Service-Oriented Architectures Using Enterprise Portal Platforms
1517
with regard to security and transactionality have just been solved and, as this document goes to press, are already available in platforms like the BEA Weblogic Workshop as Service Pack 3. The Java Specification Request (JSR) 207 which defines the JPD is being reviewed and modified to match the “Organization for the Advancement of Structured Information Standards” (OASIS)’s BPEL. The intention of a reference implementation at ibi research is to apply these new functionalities to specific application domains. An important basis for this project are the results of the aforementioned bank-specific SOA study that is to provide a suitable classification of the corresponding services. We want to thank Ben Gebauer und Daniel Jobst for support and constructive discussions.
Literature [abax04] abaXX Technology: abaXX Technology AG. http://www.abaxx.de, 2004, downloaded on 2004-05-01. [Apac04] Apache Software Foundation: The Apache Struts Web Application Framework. http://jakarta.apache.org/struts, 2004, downloaded on 2004-05-01. [Bran+04] Brandner, M. et al.: Web services-oriented architecture in production in the finance industry. Informatik Spektrum, Volume 27, No. 2, 2004: pp. 136-145. [Bart+03] Bartmann, D. et al.: Retail Banking - Status-quo und Entwicklungsperspektiven. HMD - Praxis der Wirtschaftsinformatik, Issue 233 (40), October 2003: pp. 7-20. [DeSc00] Dewal, S.; Schnichels, L.: Bank 2010: Eine fachliche und technische Vision. Softwaretechnik-Trends, No. 20, Issue 3, 2000. [Felt03] Felten, G.: Multikanalbanking bei der Postbank. Workshop der Forschergruppe Augsburg-Nürnberg in Kooperation mit der GI-Fachgruppe Informationssysteme in der Finanzwirtschaft, September 16, 2003, Dresden. [Fran02] Franke, D.: Autobanken: Weiter auf Kurs. Die Bank, No. 10, 2002: pp. 709-711. [GrVo03] Grimm, S.; Volk, L.: Multichannel-Management im Allfinanzvertrieb. BIT Banking and Information Technology, Volume 4, No. 4, 2003: pp. 23–36. [Gron03] Gronover, S. C.: Multi-Channel-Management. Dissertation, Universität St. Gallen, 2003. [ITVe04] IT Verlag: Integration & Migration Day 2004, Munich, February 19, 2004. http://www.it-verlag.de/veranstaltungen_neu/events.html?Integration, 2004, downloaded on 2004-05-01. [JCP04] JCP (Java Community Process): JSR 207 - Process Definition for Java. http://www.jcp.org/en/jsr/detail?id=207, 2004, downloaded on 2004-05-01.
1518
R. von Ammon, W. Pausch, M. Schimmer
[KuWö02] Kuschke, M.; Wölfel, L.: Web Services kompakt. Spektrum Akademischer Verlag: Berlin, 2002. [LaWe03] Laures G.; Wedekind K.: Serviceorientierte Architektur (SOA) – Wertstiftendes Architekturparadigma. Presentation held at the iX conference in Heidelberg, November 2003. [Lese+02] Leser, F. et al.: Informationssystemarchitektur für Multi-Channel-Lösungen. Work Report No. BE HSG/CC BN/ 8, Universität St. Gallen (HSG), Institut für Wirtschaftsinformatik, 2002. [Mehl01] Mehlau, J. I.: IT-Architekturen für Finanzdienstleister – Ein State of the Art Report. BIT - Banking and Information Technology, Volume 2, No. 3, 2001: pp. 41-58. [Mein04] Meinhold, G.: EAI und SOA: Die Komponenten fallen nicht vom Himmel. Objektspektrum, No. 2, 2004: pp. 33-36. [Mess04] Messner, W.: Kundenmanagement: Bricht das Wertschöpfungsnetzwerk der Autobanken auf?. Die Bank, No. 4, 2004: pp. 265-269. [Moor99] Moormann, J.: Umbruch in der Bankinformatik - Status quo und Perspektiven für eine Neugestaltung. In: Moormann, J.; Fischer, T. (Hrsg.). Handbuch Informationstechnologie in Banken. Gabler: Wiesbaden, 1999, pp. 3-20. [MuFa03] Mummert; F.A.Z.-Institut: Branchenkompass Mobilienfinanzierer. Mummert Consulting und F.A.Z.-Institut für Management-, Markt- und Medieninformationen: Hamburg, Frankfurt, 2003. [OASI04a] OASIS: Universal Description Discovery Integration (UDDI). http://www.uddi.org/, 2004, downloaded on 2004-05-01. [OASI04b] OASIS: Web Services Business Process Execution Language TC. http://www.oasis-open.org/committees/tc_home.php?wg_abbrev=wsbpel, 2004, downloaded on 2004-05-01. [Sun04] Sun Microsystems: J2EE Connector Architecture. http://java.sun.com/j2ee/connector/index.jsp, 2004, downloaded on 2004-05-01. [W3C04] W3C (World Wide Web Consortium): Web Services Description Language (WSDL). http://www.w3.org/TR/wsdl, 2004, downloaded on 2004-05-01. [Wood03] Woods, D.: Enterprise Services Architecture. O’Reilly: Gravenstein, 2003.
Nutzen-orientiertes Management einer Service-orientierten Unternehmensarchitektur Andreas Dietzsch, Thomas Goetz Schweizerische Mobiliar
Zusammenfassung: Im Jahr 2001 setzte die Schweizerische Mobiliar eine Unternehmensarchitektur um. Diese basiert auf dem Management von Geschäftsprozessen, Applikationen und der Technologie-Infrastruktur als wesentliche Elemente von Veränderungen. Nach einem zweijährigen Betreiben der Unternehmensarchitektur in dieser Form wurde das Potenzial der Service-Orientierung für den ganzheitlichen Ansatz einer Unternehmensarchitektur untersucht. Die Beschränkung auf einzelne Teilarchitekturen ermöglichte dabei jedoch stets nur eine teilweise Realisierung. Aus diesem Grund wurde ein ganzheitlicher Ansatz zum Management einer Service-orientierten Unternehmensarchitektur entwickelt. Ausgehend von deren spezifischen Artefakten wurden dabei die jeweiligen Stakeholder und deren Anforderungen analysiert. Auf dieser Grundlage wurden Stufen des Service-Entwurfs identifiziert, die mit einem bestimmten Nutzen des Einsatzes von Services korrelieren. Diese Stufen bildeten den Ausgangspunkt für das Formulieren von Heuristiken, die die Planung und Bewertung der Entwicklung von Services unterstützen. Dieser Beitrag stellt diesen Ansatz der Schweizerischen Mobiliar zum Management einer Service-orientierten Unternehmensarchitektur vor. Schlüsselworte: Service Management, Service-orientierter Entwurf, Service Analyse Techniken, Service-Entwurfsprinzipien
1
Hintergrund
Gegründet im Jahr 1826 ist die Schweizerische Mobiliar (Mobiliar) die erste private Versicherung der Schweiz. Sie bietet Produkte für Privatpersonen, Unternehmen und den öffentlichen Sektor an. Zum Ende des Jahres 2001 erfolgte eine Revision der IT-Strategie der Mobiliar, die u. a. zur Definition und Umsetzung eines Unternehmensarchitektur-Ansatzes führte. Damit sollte ein systematischer Umbau der Applikationslandschaft bei gleichzeitiger Ausrichtung an den aus der Unternehmensentwicklung resultierenden Anforderungen sichergestellt werden.
1520
A. Dietzsch, T. Goetz
Die Zusammenführung mehrerer bis dahin selbständiger Tochterunternehmen im Rahmen einer Reorganisation im Jahr 2003 führte zur Notwendigkeit der Integration von Geschäftsprozessen, Applikationslandschaften und Technologie-Infrastrukturen. Auf der Suche nach effizienten Wegen, diese Anforderungen zu erfüllen, rückten die Potenziale einer Service-Architektur ins Zentrum von Untersuchungen. In diesem Kontext war die Frage zu beantworten, um welche Elemente ein bestehendes Architekturrahmenwerk zu erweitern ist, um die Konzeption, Umsetzung und das Management einer Service-orientierten Unternehmensarchitektur zu unterstützen. Hierzu wurden zunächst für die Teilarchitekturen der Unternehmensarchitektur untersucht, welche Artefakte bei einem Service-orientierten Ansatz zu berücksichtigen sind. Davon ausgehend wurden die dadurch betroffenen Interessengruppen, deren jeweilige Blinkwinkel auf eine Service-orientierte Architektur und die daraus resultierenden Anforderungen bestimmt. Basierend auf diesen Analysen und auf ersten Erfahrungen bei der Umsetzung Service-orientierter Konzepte in Projekten erfolgte die Definition von Heuristiken für Planung und Umsetzung der Service-orientierten Architektur. Wie dieses Vorgehen in der Mobiliar umgesetzt wurde und der Rahmen der Unternehmensarchitektur um Service-orientierte Konzepte erweitert und um Hilfsmittel für das Architekturmanagement ergänzt wurde, stellt dieser Beitrag vor.
2
2.1
Service-orientierte Erweiterung einer Unternehmensarchitektur Der Unternehmensarchitektur-Rahmen
Grundlage der Unternehmensarchitektur der Mobiliar ist ein im Jahr 2001 entwickelter Unternehmensarchitektur-Rahmen. Dieser entstand auf Grundlage des Federal Enterprise Architecture Framework (vgl. [FEAF]). Die wesentliche Gliederung einer Unternehmensarchitektur wurde von diesem übernommen und entsprechend der Anforderungen der Mobiliar ausgestaltet.1 In der ursprünglich entwickelten Variante unterscheidet das Rahmenwerk zwei Perspektiven (Funktionen, Daten), die auf drei Abstraktionsstufen (konzeptionell, logisch und physisch) betrachtet werden. Aus dieser Gliederung leiten sich die fünf Teilarchitekturen (Business-Architektur, Applikations-Architektur, Techn-
1
Einen Überblick über bestehende Unternehmensarchitektur-Rahmen gibt Schekkerman in [Wood03].
Nutzen-orientiertes Management einer Service-Architektur
1521
ische Architektur, Daten-Architektur und Sicherheits-Architektur) ab (vgl. Abbildung 1). BusinessArchitektur
SicherheitsArchitektur
ApplikationsArchitektur
Daten-Architektur
Technische Architektur
Abbildung 1: Teilarchitekturen des Mobiliar-Architekturrahmens und deren Abhängigkeiten
Die Business-Architektur basiert auf Elementen, die im direkten fachlichen Bezug zum Versicherungsgeschäft stehen. Sie subsumiert Artefakte der funktionalen Sicht auf konzeptioneller Ebene, wie z. B. Produkte, Ziele, Geschäftsprozesse, fachliche Aktivitäten und Geschäftsobjekte. Die Informationssysteme, die die Geschäftsprozesse unterstützen, sind Gegenstand der Applikations-Architektur. Sie beschreibt u. a. die Beziehungen zwischen Komponenten und Applikationen als Bestandteile der Applikationslandschaft. Die Applikationsarchitektur sichert eine an den Geschäftsanforderungen ausgerichtete Unterstützung der Geschäftsprozesse durch die Systeme der Applikationslandschaft ab. Die Technische Architektur bildet auf der physischen Ebene die Fähigkeiten von Technologietypen auf die funktionalen Anforderungen der Applikationslandschaft ab. Sie definiert die Prinzipien, die bei der Realisierung der Applikationslandschaft zugrunde zu legen sind. Zu ihrem Betrachtungsbereich gehören Teile der Infrastruktur, wie z. B. Hardware und Betriebssysteme aber auch Entwicklungsumgebungen, Programmiersprachen und die technische Infrastruktur für die Applikationsintegration. Die Aufgabe der Daten-Architektur ist die Gewährleistung einer konsistenten und stabilen Abbildung der fachlichen Informationen von deren konzeptioneller Betrachtung als Geschäftsobjekte bis hin zur physischen Realisierung in einem Datenbanksystem. Sie besitzt damit Schnittstellen zu allen drei Teilarchitekturen mit funktionalem Fokus. Die Risikobeurteilung und Definition von IT-Schutzzielen auf allen Ebenen der Unternehmensarchitektur sowie die ebenenübergreifende Festlegung und Begleitung der Umsetzung von IT-Sicherheitsstandards ist Gegenstand der Sicherheits-
1522
A. Dietzsch, T. Goetz
Architektur. Damit beeinflusst auch die Sicherheits-Architektur alle Teilarchitekturen. Dieser Architekturrahmen bildete bis zum Jahr 2003 die Basis der Konzeption, Umsetzung und Veränderung der Unternehmensarchitektur. Da zum Zeitpunkt der Definition dieses Architekturrahmens im Jahre 2001 Elemente der ServiceOrientierung nicht berücksichtigt wurden war es erforderlich, den Architekturrahmen an die neue Zielsetzung des Aufbaus einer Service-orientierten Architektur anzupassen.
2.2
Service-orientierte Erweiterungen des Unternehmensarchitektur-Rahmens
Mit dem Ziel der Umsetzung einer Service-orientierten Architektur wurde es deshalb erforderlich, Konzepte wie z. B. Verträge, Services, Applikationsschnittstellen und Komponenten in den Architekturrahmen und damit in den Wirkungsbereich der Unternehmensarchitektur zu integrieren. Den Ausgangspunkt für diese Integration bildete die Positionierung von Services an der Schnittstelle zwischen Business-Architektur und Applikations-Architektur. Ein Service setzt dabei eine interaktive oder vollständig automatisierte Aktivität eines Geschäftsprozesses mit einem Vertrag2 über die Eigenschaften der Implementierung dieser Funktionalität in Bezug (vgl. Abbildung 2). Dies schliesst Vereinbarungen über zu realisierende Sicherheitsanforderungen und auszutauschende Geschäftsobjekte ein.
2
Meyer definiert einen Vertrag als formale Vereinbarung zwischen dem Anbieter und dem Nutzer eines Services über die zu erbringende Leistung. Diese umfasst Zusicherungen zu Vorbedingungen, Nachbedingungen, Invarianten und Ausnahmen. Vorbedingungen beschreiben unter welchen Voraussetzungen ein Service erbracht werden kann. Nachbedingungen geben an, welche Leistungen ein Service erbringt. Mit Invarianten werden Aussagen zu Eigenschaften von Geschäftsobjekten getroffen, die durch einen Service nicht verändert werden. Die Verletzung eines mit diesen Elementen definierten Vertrags signalisiert der Anbieter eines Services durch Ausnahmen. (vgl. [Meye97 , S. 331ff])
Nutzen-orientiertes Management einer Service-Architektur SicherheitsArchitektur
1523
Business-Architektur
Daten-Architektur
Geschäftsprozess
Risiko
Aktivität
Manuelle Aktivität
Interaktive Aktivität
Fachl. Sicherheitsanforderung
Produkt
Geschäftsobjekt
Automatisierte Aktivität
Service Vertrag
Vorbedingungen
Nachbedingungen
Operationen
Ausnahmen
Input-Typen OutputTypen
Invarianten
ApplikationsArchitektur
Techn. Sicherheitsanforderung
Nicht-funktionale Eigenschaft
Applikationsschnittstelle
Funktion
Datenobjekt
System
DBMS
Applikation
Technische Architektur Interface
Security Framework
Modul
Komponente
Abbildung 2: Service-orientierter Unternehmensarchitektur-Rahmen der Mobiliar
Die mit einem Service vereinbarten Operationen werden durch die Schnittstelle einer Applikation realisiert. Diese Applikationsschnittstelle kann entweder zur Realisierung der Kommunikation zwischen den Schichten einer Applikation oder zwischen zwei Applikationen genutzt werden. Dabei sind die mit den Datenobjekten der Datenarchitektur sowie den technischen Sicherheitsanforderungen zusätzlich gegebenen Rahmenbedingungen zu berücksichtigen. Auf der Ebene der technischen Architektur werden anschliessend die definierten Applikationsschnittstellen auf Interfaces von Modulen oder Komponenten abgebildet. Dabei wird u. a. entschieden, welcher Typ Middleware für die Realisierung der Kommunikation zwischen Applikationen genutzt wird. Mit den dargestellten Erweiterungen war es möglich, ausgehend vom bereits bestehenden Unternehmensarchitektur-Rahmen die Unternehmensarchitektur unter Beibehaltung der Kern-Architekturprozesse weiterzuentwickeln und zu betreiben. Nachfolgend wird beschrieben wie dabei die spezifischen Interessen der Stakeholder einer Service-orientierten Unternehmensarchitektur identifiziert und berücksichtigt wurden.
1524
3
A. Dietzsch, T. Goetz
Stakeholder einer Enterprise Service Architektur
Die Umsetzung des Service-orientierten Architekturrahmens erfolgte bisher in Projekten mit verschiedenen Zielrichtungen. Diese bestanden u. a. in einer Überarbeitung von Geschäftsprozessen einschliesslich Anpassungen an den unterstützenden Systemen, der Neuentwicklung einer Geschäftsapplikation sowie dem Aufbau einer Integrationsinfrastruktur. Im Verlauf dieser Projekte wurden die folgenden Typen von Stakeholdern erkannt: x Qualitätsmanager x Softwareentwickler x Unternehmensarchitekt x Anwender x Eigentümer einer Applikation x Prozessverantwortlicher Das generelle Ziel des Qualitätsmanagers ist die Absicherung einer Mindestqualität für Artefakte, die im Verlauf des Lebenszyklus’ einer Applikation erstellt und verändert werden. Er fokussiert deshalb auf das Formulieren formaler Vorgaben sowie die Überprüfung von deren Einhaltung. Ein Service wird deshalb primär als Konvention der Beschreibung einer Schnittstelle wahrgenommen. Die Art und Weise, in der die Funktionalität einer Applikation implementiert wird, steht im Zentrum des Interesses des Softwareentwicklers. Ein Service stellt deshalb im Wesentlichen eine Möglichkeit dar, auf eine bestehende Applikationsfunktion unabhängig von deren Lokalisierung zugreifen zu können. In der Verantwortung des Unternehmensarchitekten liegen die Planung der (Weiter-)Entwicklung von Elementen der Applikationslandschaft und die Unterstützung von deren Umsetzung. In diesem Kontext wird ein Service als Konzept betrachtet, das die Evolution der Applikationslandschaft ermöglicht, ohne Veränderungsbedarf bei den unterstützten Geschäftsprozessen auszulösen. Der Eigentümer einer Applikation ist für die Festlegung, Vereinbarung und Abrechnung der Service Levels für die Informatik-Dienstleistungen verantwortlich. Er fokussiert aus diesem Grund auf die Funktionalität, die eine Applikation zur Verfügung stellt, deren Verfügbarkeit und die verursachten Kosten. Aus dieser Perspektive wird ein Service deshalb primär als Möglichkeit zur Wiederverwendung und damit zur langfristigen Kostenreduktion betrachtet.3
3
Dies wird im Wesentlichen möglich durch die Reduktion von Entwicklungskosten durch die systematische Fokussierung auf die Entwicklung von Funktionalitäten für bisher nicht unterstützte Aktivitäten sowie die Senkung langfristiger Applikationskos-
Nutzen-orientiertes Management einer Service-Architektur
1525
Analog zu den Aufgaben des Applikationseigentümers verantwortet der Prozessverantwortliche den Entwurf, die Umsetzung, Führung und kontinuierliche Verbesserung eines Geschäftsprozesses. Services werden deshalb primär als Konzept verstanden, dass eine Flexibilisierung der Prozesse durch die Möglichkeit einer einfachen Neuordnung fachlicher Aktivitäten des Geschäftsprozesses ermöglicht. Die letzte Gruppe von Stakeholdern sind die Anwender der Applikationen. Diese führen Aufgaben innerhalb eines bzw. mehrerer Prozesse aus. Deshalb besteht ihr Interesse in einer einheitlichen Repräsentation von Geschäftsobjekten. Services werden deshalb als Elemente angesehen, die eine homogene Sicht auf Daten und Operationen eines Geschäftsobjektes ermöglichen. Die dargestellten Aspekte, unter denen die Elemente des Service-orientierten Architekturrahmens wahrgenommen werden, fasst Tabelle 1 zusammen. Rolle Qualitätsmanager Softwareentwickler Unternehmensarchitekt Anwender ApplikationsEigentümer Prozessverantwortlicher
Fokus Absicherung einer Mindestqualität von SchnittstellenBeschreibungen Reduktion des Entwicklungsaufwands durch die Applikationsübergreifende Nutzung existierender Funktionalität Risikoverminderung bei der Evolution der Elemente der Applikationslandschaft Durchgängige und effiziente Unterstützung fachlicher Aktivitäten durch IT-Systeme Langfristige Reduktion der Applikationskosten (Total Cost of Ownership) Vereinfachung von Veränderungen an den Geschäftsprozessen
Tabelle 1: Stakeholder der Service-orientierten Unternehmensarchitektur
Die identifizierten Typen von Stakeholdern verdeutlichen die unterschiedlichen Erwartungen und Anforderungen, die mit der Umsetzung einer Service-orientierten Unternehmensarchitektur verbunden sind. Die Erfüllung dieser Anforderungen führt zu Lösungen und Services mit unterschiedlicher Granularität und Komplexität [Keen04, S. 46ff]. Aus diesem Grund wurde ein Ansatz erforderlich, der die systematische Bestimmung der für einen Service notwendigen Eigenschaften ermöglicht. Dieser wurde in mit den nachfolgend beschriebenen Nutzenstufen entwickelt.
ten durch die Mehrfachverwendung existierender Implementierungen für fachliche Aktivitäten.
1526
4
A. Dietzsch, T. Goetz
Nutzenstufen des Serviceentwurfs
Um die dargestellten Anforderungen der Stakeholder bei der Architekturplanung berücksichtigen zu können, wurden sechs Stufen des Serviceentwurfs definiert. Grundlage für die Bildung der Stufen waren die spezifischen Anforderungen der Stakeholdertypen, die bei der Serviceentwicklung zu realisierenden Anforderungen sowie der Nutzen, der aus der Erfüllung dieser Anforderungen resultiert.4 Die Beschreibung jeder Stufe umfasst x Das Ziel, das mit einem Service auf der jeweiligen Stufe verfolgt wird, x Das Artefakt des Unternehmensarchitektur-Rahmens, das im Mittelpunkt der Aktivitäten auf dieser Stufe steht, x Den zusätzlichen Freiheitsgrad bei weiteren Entwicklungsaktivitäten, der aus der Implementierung eines Services auf dieser Stufe resultiert, x Die Anforderungen, die aus der Implementierung eines Services auf dieser Stufe entstehen, x Die Einschränkungen, die aus der Implementierung eines Services auf dieser Stufe resultieren, x Den Nutzen, der durch den entwickelten Service entsteht x Beispiele für Entwurfsmuster, die bei der Serviceentwicklung auf dieser Stufe relevant sind.
4.1
Stufe 1: Qualität
Ziel: Die Implementierung eines Services auf dieser Stufe erfolgt mit dem Ziel, eine einheitliche Mindestqualität von Schnittstellen-Spezifikationen zu erreichen. Damit werden die formalen Voraussetzungen für die Umsetzung einer Serviceorientierten Unternehmensarchitektur geschaffen. Artefakt: Aus diesem Grund ist die formale Vorgabe (Template) zur Spezifikation eines Services das primär betrachtete Artefakt.
4
Woods stellt in [Wood03] ein Stufenmodell vor, dass – inspiriert durch das Capability Maturity Model – Conformance Levels einer Service-orientierten Unternehmensarchitektur definiert. Diese beschreiben mögliche Ausprägungen der Qualität einer Architektur und Schritte, um diese zu erreichen. Im Gegensatz dazu beschreiben die hier vorgestellten Stufen primär Anforderungen und den jeweils korrespondierenden Nutzen eines Service-Entwurfs. Damit korrespondiert das von Wood vorgestellte Stufenmodell mit der initialen Nutzenstufe (Stufe 0).
Nutzen-orientiertes Management einer Service-Architektur
1527
Freiheitsgrad: Durch die Beschreibung von Vor- und Nachbedingungen, Invarianten sowie Ausnahmen bei der Ausführung eines Services, kann von einer bekannten Menge zu handhabender Zustände ausgegangen werden. Der Entwurf einer Systemarchitektur auf der Grundlage von Schnittstellen wird damit möglich. Anforderungen: Um diese Stufe zu erreichen, ist es erforderlich, formale Anforderungen an die Beschreibung einer Schnittstelle zu erfüllen. Dies bedeutet, dass mit der Schnittstellendefinition die Festlegung der ausführbaren Operationen, Input- und Outputtypen, Vor- und Nachbedingen, Invarianten sowie der Ausnahmen erfolgt. Voraussetzung für die Entwicklung von Services auf dieser Stufe ist das Etablieren von Entwicklungs- und Reviewprozessen, die sicherstellen, dass Artefakte konform zu den formalen Anforderungen entwickelt werden. Einschränkungen: Die zusätzlichen formalen Anforderungen dieser Stufe führen zu erhöhten Kosten bei der Entwicklung von Schnittstellen. Nutzen: Die Implementierung von Services auf dieser Stufe führt zu einer homogenen Mindestqualität von Schnittstellen-Beschreibungen. Durch die Entkopplung von Spezifikation und Implementierung wird es möglich, die Spezifikation durch Prüfung der Schnittstellen zu testen. Entwurfsmuster: Keine
4.2
Stufe 2: Integration
Ziel: Mit der Entwicklung von Services, die die Integration von Applikationen ermöglichen, wird das Ziel verfolgt, die für die Umsetzung von Geschäftsanforderungen in den IT-Systemen benötigte Zeit zu reduzieren. In diesem Kontext bilden Services die Grundlage für die Nutzung von Funktionalität, die durch andere Applikationen implementiert wird [StPi02, S. 426ff]. Artefakt: Um die Integration von Applikationen zu unterstützen, fokussiert der Serviceentwurf auf die Realisierung des entfernten Zugriffs auf Funktionen einer Applikation. Freiheitsgrad: Ein auf dieser Stufe implementierter Service reduziert die Abhängigkeit von Plattform- und Applikationsgrenzen bei der Entwicklung und dem Betrieb von Applikationen. Anforderungen: Um einen Service zu implementieren, der Integration ermöglicht ist es erforderlich, dass x Schnittstellenbeschreibungen den formalen Anforderungen genügen (Stufe 1) x die Funktionen einer Applikation durch Schnittstellen zur Verfügung gestellt werden, die den Anforderungen an einen Vertrag genügen (vgl. Abschnitt 2) x Services über Plattformgrenzen hinweg aufgerufen werden können
1528
A. Dietzsch, T. Goetz
x weitere technische Anforderungen, wie Fehlerbehandlung, Transaktionsbehandlung und Sicherheit, bei der Schnittstellen-Definition spezifiziert werden5 Einschränkungen: Um Applikationsfunktionen in einer verteilten Umgebung plattformübergreifend effizient nutzen zu können, sind an den Applikationsfunktionalitäten ausgerichtete Services erforderlich. Damit wird die Granularität eines Services durch die Art und Weise der Implementierung einer Funktion bestimmt. Durch die Ergänzung existierender Applikationen um Schnittstellen entstehen zusätzliche Aufwände bei der Entwicklung. Die erforderliche Integrations-Infrastruktur verursacht zusätzliche Kosten beim Betrieb der Applikationslandschaft. Durch die mehrfache Nutzung bestehender Funktionen entstehen Abhängigkeiten zwischen Applikationen. Veränderungen an der bestehenden Applikationslandschaft werden erschwert. Nutzen: Auf bestehende Funktionen kann unabhängig von Plattform- und Applikationsgrenzen zugegriffen werden. Damit kann der Entwicklungsaufwand auf die Bereitstellung neuer Funktionalität fokussiert und die Reaktionszeit auf Geschäftsanforderungen verkürzt werden. Eine durchgängige Unterstützung von Geschäftsprozessen durch die Kopplung von Applikationen wird ermöglicht. Entwurfsmuster: Beispiele für Entwurfsmuster, die im Zusammenhang mit dieser Stufe Relevanz besitzen, sind die Integration Styles [HoWo02, S. 39ff] und die Muster der Gruppen Message Routing [HoWo02, S. 225ff], Message Transformation [HoWo02, S. 327ff] sowie Message Endpoints [HoWo02, S. 463ff].
4.3
Stufe 3: Evolution
Ziel: Mit der Implementierung von Services auf Stufe 3 soll die schrittweise Veränderung der Applikationslandschaft bei einer gleichzeitig stabilen Systemunterstützung für die Geschäftsprozesse ermöglicht werden. Artefakt: Aus diesem Grund steht die Schnittstelle zu einer implementierten Funktion im Fokus der Entwicklungsaktivitäten. Freiheitsgrad: Die Entwicklung von Services auf dieser Stufe schafft eine stabile Menge von Funktionalitäten der Applikationslandschaft, die Veränderungen an der Implementierung einer Schnittstelle ohne Auswirkungen auf die bereitgestellten Leistungen ermöglicht. Damit wird die Entwicklung der Applikationslandschaft von der Entwicklung der Geschäftsprozesse entkoppelt. Anforderungen: Die Entwicklung von Services auf dieser Stufe erfordert es,
5
Anforderungen an die Implementierung verteilter Anwendungen beschreibt u. a. Kischel in [Kisc03, S. 37f].
Nutzen-orientiertes Management einer Service-Architektur
1529
x die Anforderungen an Services, die Integration ermöglichen, zu erfüllen (Stufe 2) x Applikationen in Schichten zu gliedern, die wesentliche Aspekte kapseln (z. B. Präsentation, Geschäftslogik und Persistenz) x Eine Menge von Services der Applikationslandschaft zu definieren, die bei entsprechenden Problemstellungen zwingend zu nutzen sind x Prozesse zum Management von Performance, Verfügbarkeit und Versionen von Services zu etablieren x die Spezifikation einer Schnittstelle um die zu nutzenden Testdaten zu ergänzen Einschränkungen: Veränderungen an fachlichen Aktivitäten und Geschäftsprozessen erschweren die Evolution der Applikationslandschaft. Deshalb wirkt sich die Entwicklung auf dieser Stufe nur positiv auf solche Geschäftsanforderungen aus, die expliziert, langfristig stabil und allgemein anerkannt sind. Dies bedeutet ebenfalls, dass die durch eine Applikation bereitgestellte Funktionalität primär durch die Menge existierender Services bestimmt wird. Nutzen: Die Kosten und Risiken der Transformation der Applikationslandschaft werden durch die Entkopplung von Schnittstelle und Implementierung reduziert. Die Konformität einer Implementierung (z. B. die Applikation eines Drittanbieters) zu einer Menge von Services stellt sicher, dass die mit diesen Services in Beziehung stehenden Geschäftsanforderungen erfüllt werden. Entwurfsmuster: Beispiele für Entwurfsmuster, die auf dieser Stufe Relevanz besitzen, sind Separated Interface [Fowl02, S. 388ff], Remote Facade [Fowl02, S. 476ff] und Bridge [Gam+95, S. 151ff].
4.4
Stufe 4: Standardisierung
Ziel: Das Ziel der Entwicklung standardisierender Services ist es, fachlich gleiche Aktivitäten stets in der gleichen Form zu repräsentieren. Zu diesem Zweck ist eine Menge von Services erforderlich, die die Daten und Operationen eines Geschäftsobjekts vollständig und einheitlich darstellen. Artefakt: Auf dieser Stufe stehen Geschäftsobjekte im Zentrum von Entwicklungsaktivitäten. Freiheitsgrad: Ein Geschäftsobjekt repräsentiert Operationen auf Informationen, die auf fachlicher Ebene in Beziehung zueinander stehen. Standardisierende Services führen damit zu einer Vereinheitlichung fachlicher Aktivitäten. Damit wird es möglich, die Komplexität einzelner Systeme (bzw. der gesamten Applikationslandschaft) zu reduzieren.
1530
A. Dietzsch, T. Goetz
Anforderungen: Für die Entwicklung von Services auf dieser Stufe bedarf es, x der Erfüllung der Anforderungen an Services, die Evolution ermöglichen (Stufe 3) x der vollständigen Definition der Operationen eines Geschäftsobjektes x langfristig stabiler Geschäftsanforderungen an ein Geschäftsobjekt x der Definition einer Sicht, mit der sich die Daten und Operationen des Geschäftsobjekts dem Anwender repräsentieren x der Definition von Views auf Ebene der konzeptionellen Datenstrukturen, die die durch ein Geschäftsobjekt gekapselten Informationen umfassen Einschränkungen: Die Anforderungen an ein Geschäftsobjekt müssen langfristig stabil sein. Eine einheitliche Sicht auf die Daten und Operationen eines Geschäftsobjektes führt zu einer engen Kopplung zwischen Prozess- und Datenarchitektur. Damit bestimmen die Grenzen einer fachlichen Aktivität wesentlich die Abgrenzung eines Geschäftsobjekts. Nutzen: Durch eine einheitliche Repräsentation von Geschäftsobjekten steigt die Benutzerfreundlichkeit und damit die Effizienz der Anwendung. Entwurfsmuster: Beispiele für Entwurfsmuster auf dieser Stufe sind ModelView-Controller, Facade und Observer [Gam+95, S. 293ff].
4.5
Stufe 5: Flexibilität
Ziel: Das Ziel der Implementierung von Services auf dieser Stufe ist die Reduktion solcher Abhängigkeiten zwischen den Aktivitäten eines Geschäftsprozesses, die aus durch die Applikationslandschaft gesetzten Rahmenbedingungen resultieren (vgl. [GaLu02, S. 276f]). Die Veränderung von Geschäftsprozessen durch die flexible Orchestrierung fachlicher Aktivitäten und der sie unterstützenden Systeme wird damit erleichtert. Artefakt: Aus diesem Grund werden Services auf dieser Stufe primär auf Basis der Analyse und des Entwurfs von Geschäftsprozessen entwickelt. Freiheitsgrad: Die Implementierung von Services auf dieser Stufe erhöht die Möglichkeiten der Kombination fachlicher Aktivitäten. Anforderungen: Um Services auf dieser Stufe entwickeln zu können, müssen x die Anforderungen an standardisierende Services erfüllt sein (Stufe 4) x sequentielle Abhängigkeiten zwischen fachlichen Aktivitäten reduziert werden x Geschäftsobjekte klar gegeneinander abgegrenzt sein
Nutzen-orientiertes Management einer Service-Architektur
1531
x die Geschäftsregeln identifiziert werden, die innerhalb eines Prozesses gelten6 x der Kontext bestimmt werden, in dem eine fachliche Aktivität realisiert wird Einschränkungen: Die Anpassbarkeit, die die Systemunterstützung sich häufig ändernder Geschäftsprozesse erfordert, führt zu komplexen Applikationen. Gleichzeitig kann die Umsetzung eines Geschäftsprozess-Entwurfs nicht mehr über dessen Implementierung durch eine Applikation erzwungen werden. Damit wird der Erfolg der Umsetzung der Unternehmensarchitektur durch die Fähigkeiten des Prozessmanagements bestimmt. Nutzen: Durch die Entkopplung des Geschäftsprozess-Entwurfs vom Entwurf der unterstützenden Systeme kann die Reaktionszeit auf Marktveränderungen reduziert werden. Die Flexibilität der Applikationslandschaft ermöglicht damit flexible Prozessarchitekturen. Entwurfsmuster: Muster, die die Entwicklung von Services auf dieser Stufe unterstützen sind Interpreter [Gam+95, S. 243ff], Chain of Responsibility [Gam+95, S. 223ff] und Serial Process Application, [Endr04, S. 55f].
4.6
Stufe 6: Wiederverwendbarkeit
Ziel: Die Schaffung der Voraussetzungen für die Wiederverwendung von Lösungen ist das Ziel der Implementierung von Services auf dieser Stufe. Damit wird die mehrfache Verwendung fachlicher Lösungen, einschliesslich deren informationstechnischer Unterstützung möglich. Artefakt: Aus diesem Grund werden bei Aktivitäten auf dieser Stufe fachliche Aktivitäten, Schnittstellen, deren Implementierung sowie die zum Betreiben erforderliche technische Infrastruktur betrachtet. Freiheitsgrad: Durch Services, die Wiederverwendung ermöglichen, kann eine systematische Fokussierung auf die Komposition existierender Elemente erfolgen. Das Schwergewicht von Entwicklungsaktivitäten kann damit auf Innovationen gelegt werden. Anforderungen: Voraussetzung der Serviceentwicklung auf dieser Stufe ist x die Fähigkeit Services zu implementieren, die eine flexible Kombination von Aktivitäten in einem Geschäftsprozess erlauben (Stufe 5) x das Etablieren der Prozesse des wiederverwendungs-orientierten Entwurfs und der Entwicklung mit Wiederverwendung
6
Business Rules sind in diesem Kontext „… conditions that govern a business event so that it occurs in such a way that is acceptable to the business." [vonH01, S. 28]
1532
A. Dietzsch, T. Goetz
x die Umsetzung einer Kosten-/Nutzenkalkulation, die die Effekte von Wiederverwendung berücksichtigt (vgl. [Lim98, S. 351ff]) x die Unterstützung des Managements für das Ziel „Wiederverwendung“ Einschränkungen: Das systematische Fokussieren auf Wiederverwendung bei Entwurf und Entwicklung führen zu einem erhöhten initialen Entwicklungsaufwand (vgl. [Lim98, S. 118ff]). Durch die Nutzung existierender Komponenten nehmen die im Entwicklungsprozess zu berücksichtigenden Abhängigkeiten zu. Nutzen: Die Bereitstellung wiederverwendbarer Komponenten schafft das Potenzial zur Reduktion von Entwicklungszeiten und –kosten sowie zur Steigerung der Qualität bei Veränderungen an Prozessen und Applikationen.7 Entwurfsmuster: Bei der Implementierung von Services, die Wiederverwendung ermöglichen, sind Muster wie z. B. Service Layer [Fowl02, S. 133ff] und Robust Artifact zu berücksichtigen [Ambl00]. Wie die vorgestellten Nutzenstufen als Unterstützung für die Aktivitäten des Architekturmanagements genutzt werden, beschreibt der folgende Abschnitt.
5
Heuristiken für den Entwurf von Services
Aufgrund der Erfahrungen, die in den in Abschnitt 3 genannten Projekten gesammelt werden konnten, wurden Heuristiken formuliert, die die Anwendung der definierten Nutzenstufen für die Entscheidungsfindung bei der Architekturplanung vereinfachen. Mit Bezug zum angestrebten Nutzen werden Heuristiken zur Steigerung der Effizienz der Geschäftsprozesse, zur Verbesserung der Flexibilität der Applikationslandschaft sowie zur Handhabung abhängiger Applikationen unterschieden. Eine Voraussetzung für die Anwendung dieser Heuristiken ist die Dokumentation von Ist- und Ziel-Architektur. In der Mobiliar werden dazu auf einer hoch aggregierten Stufe Versicherungsprodukte, Geschäftsprozesse, Applikationen sowie die Plattformen abgebildet, auf denen diese betrieben werden (vgl. Abbildung 3).
7
Eine umfassende Betrachtung von Kosten und Nutzen von Wiederverwendung führt Lim in (vgl. [Lim98, S. 101ff]).
Nutzen-orientiertes Management einer Service-Architektur
1533
Produkte Mobi Casa
MobiPro
MobiCar
Beratung
Key Accounts
MobiSana
Privat Rechtschutz
Fonds
Beratungssystem
Verkauf
Verkaufssystem Nicht-Leben D
Individualentwicklung Verkaufssystem
E
Verkaufssyste m Nicht-Leben Fondssystem
Vertragsführung F
Prozesse
Provisionierung
Prov Sach
Proc Car
Accounting
FaktuSys
In/Exkasso
SAP FS-CD
Prov
PROFI
AIA
Fondssystem
Kundendatenverwaltung Partner Management PROFI
Schadenpartner
Schadenaufnahme Schadenbearbeitung
AIA AccPo
Kundenauskunft
Customer Relationship Management
Policenverwaltung
Schadensystem Leben
SATool SchadenSach
SIS
SchadenSach
PROFI
Plattformen
Abbildung 3: Exemplarische Abbildung der Ist-Architektur der Mobiliar
Die Analyse der Elemente dieser Architekturdokumentation sowie deren Entwicklung ist der Ausgangspunkt bei der Nutzung der folgenden Heuristiken.
5.1
Effizienz der Geschäftsprozesse steigern
Für die Produkte im Breitengeschäft sind die Prozesse der Produktentwicklung sowie der Bestandesverwaltung in der Mobiliar standardisiert und automatisiert. Im Gegensatz dazu führt ein Schadenfall mit seinen individuellen Merkmalen zu spezifischen Abläufen der Bearbeitung. Während dabei die Phasen des Schadenmanagement-Prozesses noch definiert werden können, ist dies für die Reihenfolge der Abarbeitung einzelner fachlicher Aktivitäten nicht allgemeingültig möglich. Bei der Analyse potenzieller Anwendungsgebiete Service-orientierter Lösungen wurde deutlich, dass die Unterstützung standardisierter Prozesse nur teilweise das Potenzial einer Service-orientierten Unternehmensarchitektur realisiert (vgl. auch [Pic+03, S. 293f]). Die Standardisierung von Reihenfolgebeziehungen zwischen fachlichen Aktivitäten führt zur Entwicklung von Applikationen, die nur vorhersehbare und repetitive Prozesse unterstützen [JoJa00, S. 220]. Damit bleibt die Möglichkeit der flexiblen Kombination fachlicher Aktivitäten ungenutzt. Die Erfahrung, dass nicht oder nur teilweise standardisierbare Prozesse ein hohes Nutzenpotenzial für die Verwendung von Services bieten, fasst Heuristik 1 zusammen.8
8
Im Zusammenhang mit der Entwicklung von Services für nicht standardisierbare Prozesse sind die Aussagen von Heuristik 4 zu berücksichtigen.
1534
A. Dietzsch, T. Goetz
H1 Wenn Dann
Nicht-standardisierbarer Prozess es nicht möglich ist, einen Prozess zu definieren, der 80% der Geschäftsvorfälle abdeckt, sollten Services entwickelt werden, die die flexible Orchestrierung fachlicher Aktivitäten ermöglichen, ohne die Notwendigkeit zur Anpassung von Applikationen auszulösen (Stufe 5).
Die Kernprozesse nutzen die Leistungen mehrerer unterstützender Prozesse, wie z. B. des Dokumenten-Managements, der Archivierung, des Partner- und Customer Relationship Managements. In der evolutionär entstandenen Applikationslandschaft der Mobiliar werden diese Prozesse z. T. nur partiell bzw. durch mehrere redundante Applikationen mit unterschiedlichen Formen der Repräsentation unterstützt. Aus Sicht des Benutzers wird dadurch die Ergonomie der Applikationen reduziert. Um in diesem Kontext zu einer einheitlichen Sicht auf ein Geschäftsobjekt zu gelangen, wurde Heuristik 2 formuliert. H2 Wenn Dann
Verschiedene Applikationen für einen Unterstützungsprozess ein Unterstützungsprozess durch mehr als eine Applikation unterstützt wird sind Services zu entwickeln, die eine standardisierte Sicht auf ein Geschäftsobjekt realisieren (Stufe 4).
In der Mobiliar wurden Services für die standardisierte Repräsentation von Geschäftsobjekten für die Applikationen zur Unterstützung des Partner- und Customer Relationship Management Prozesse implementiert (vgl. Abbildung 3).
5.2
Flexibilität der Applikationslandschaft steigern
Die zweite Gruppe umfasst Heuristiken, bei denen das Ziel im Vordergrund steht, bei der Transformation der Applikationslandschaft Veränderungen lokal zu begrenzen und damit das mit diesem Umbau verbundene Risiko zu reduzieren. Veränderungen an Produkten und/oder Geschäftsprozessen führen zu Anforderungen an die Anpassung unterstützender Applikationen. Die Produkterneuerungs-Strategie der Mobiliar geht von einem zwei bis -vierjährigen Rhythmus bei der Weiterentwicklung eines einzelnen Versicherungsprodukts aus. Dies hat zur Folge, dass innerhalb des strategischen Planungshorizonts von 5 Jahren bis zu drei neue Produkte entwickelt werden, wobei Änderungen an bestehenden Produkten dabei nicht berücksichtigt sind. Aus diesem Grund wurde entschieden Applikationen zu implementieren, die den Computer-unterstützten Entwurf von Versicherungsprodukten sowie produktunabhängige Verkaufs- und Bestandesverwaltungs-Prozesse unterstützen. Durch die Standardisierung der Bausteintypen eines Versicherungsprodukts und der darauf operierenden Prozesse wurde der Entwurf von Services möglich, die Wiederverwendung unterstützen. Es hat sich jedoch gezeigt, dass dieser Grad an
Nutzen-orientiertes Management einer Service-Architektur
1535
Standardisierung den Einsatz interpretierender Systeme ermöglicht, die eine Service-orientierte Implementierung aus fachlicher Sicht überflüssig werden lassen. Diese Erfahrungen fast Heuristik 3 zusammen. H3 Wenn Dann
Häufige Änderungen eines Produktes zwei oder mehr Änderungen eines Produkts im Verlauf der nächsten fünf Jahre geplant sind sollten Services entwickelt werden, die Wiederverwendung ermöglichen (Stufe 5). Werden das Produkt und die Prozesse auf einem generischen System umgesetzt, das zur Laufzeit entsprechende Definitionen interpretiert, so ist die Implementierung von Services nicht erforderlich.
Heuristik 1 gibt auf der Ebene der Business Architektur Empfehlungen für das Vorgehen bei nicht-standardisierbaren Prozessen. Der Bedarf nach der Unterstützung einer flexiblen Orchestrierung fachlicher Aktivitäten resultiert in der Anforderung nach Services, die Wiederverwendung ermöglichen. Im Kontext von Geschäftsprozessen, bei denen in einer strategischen Perspektive keine Veränderungen vorgesehen sind, besteht eine solche Anforderung nicht. Ein Beispiel hierfür sind die Systeme, die die in Abschnitt 5.1 genannten Prozesse der Produktentwicklung sowie der Bestandesverwaltung unterstützen. Im Fall solch stabiler Prozesse liegt der Schwerpunkt des Serviceentwurfs auf dem Ermöglichen von Technologieerneuerungen bei einer gleichzeitig stabilen Systemunterstützung der Geschäftsprozesse, wie dies Heuristik 4 beschreibt. H4 Wenn Dann
Langfristig stabile Geschäftsprozesse innerhalb der nächsten fünf Jahre keine Veränderungen an einem Geschäftsprozess vorgesehen sind sollten Services implementiert werden, die die Evolution der Applikationslandschaft bei gleichzeitig stabiler Unterstützung des Prozesses ermöglichen (Stufe 3).
Wie bereits dargestellt, führen die verschiedenen Lebenszyklen der Elemente der Unternehmensarchitektur zu einem kontinuierlichen Veränderungsprozess. Dabei sind die Lebenszyklen der Produkte und Prozesse mehrheitlich kürzer als die der unterstützenden Applikationen. Da auch die Phasen dieser Veränderungen nicht synchron sind, entsteht der Bedarf zur Erneuerung von Produkten, Prozessen, Applikationen oder Plattformen gewöhnlich zu verschiedenen Zeiten. Um die Abhängigkeiten zwischen diesen Elementen trotzdem handhaben zu können, sind Veränderungen lokal zu begrenzen. Als Folge davon muss beim Entwurf von Services eine Konzentration auf stabile Elemente der Unternehmensarchitektur erfolgen, wie dies in Heuristik 5 beschrieben wird.
1536
A. Dietzsch, T. Goetz
H5 Wenn
Dann
5.3
Stabile Applikationen innerhalb von Veränderungen Applikationen bzw. Komponenten existieren, die unabhängig von Produkten und den Kerngeschäftsprozessen sind UND Änderungen an mehreren in Bezug stehenden Applikationen geplant sind Ist die stabile Applikation bzw. Komponente durch Services zu kapseln, die Wiederverwendung ermöglichen (Stufe 6).
Abhängige Applikationen handhaben
Die aktuelle Applikationslandschaft der Mobiliar ist im Verlauf der vergangenen 20 Jahre gewachsen. In diesem Zeitraum wurden die Organisationsstruktur und die Geschäftsprozesse mehrfach geändert. Die wesentliche Änderung war dabei die Umsetzung einer prozessorientierten Matrixorganisation im Jahr 1999. Vor diesem Hintergrund wird deutlich, dass der typische Lebenszyklus einer Geschäftsapplikation, der zwischen 5 und 15 Jahren beträgt, die optimale Ausrichtung auf spezifische organisatorische Strukturen oder Prozesse behindert. Dies wird durch die zunehmende und tiefere Integration von Geschäftspartnern verstärkt. Die Ausführung solcher integrierter Prozesse erfordert Services, die den Zugriff auf Funktionalitäten unabhängig von Applikations- und Plattformgrenzen ermöglichen. Wie in Heuristik 6 beschrieben bedeutet dies, dass Services zu implementieren sind, die eine externe Schnittstelle zu den Funktionalitäten einer Applikation bilden. H6 Wenn Dann
Ein Prozess, mehrere Applikationen ein produktunabhängiger Prozess existiert, der Applikationen ordnet, die verschiedene Phasen des Prozesses unterstützen sind Services zu entwickeln, die die Integration von Applikationen unterstützen (Stufe 2).
Neben der historisch gewachsenen Applikationslandschaft ist die Unterstützung individueller Produkte ein weiterer Grund für die Notwendigkeit, mehrere Applikationen zur Prozessunterstützung zu orchestrieren. In der Mobiliar ist die Unterstützung der Produkte für das Grosskunden- und Spezialgeschäft hierfür ein Beispiel. Aufgrund spezifischer Anforderungen, die aus der Individualisierung der Produkte resultieren, können die Produktentwicklungs- und Bestandsführungssysteme der Produkte des Breitengeschäfts nicht genutzt werden. Deshalb wurden die Geschäftsprozesse und mit ihnen die unterstützenden Applikationen um die Individualprodukte gruppiert.
Nutzen-orientiertes Management einer Service-Architektur
1537
Um in diesem Umfeld eine durchgängige Unterstützung der Geschäftsprozesse über alle Applikationen hinweg zu realisieren, sind Services zu entwickeln, die die Integration ermöglichen. Heuristik 7 fasst dies zusammen. H7 Wenn Dann
6
Mehrere Applikationen für ein Individualprodukt die Prozesse, die auf einem Produkt operieren, durch mehrere Applikationen unterstützt werden sind Services zu entwickeln, die Integration von Applikationen unterstützen (Stufe 2).
Zusammenfassung
Die Entwicklung des Unternehmensarchitektur-Rahmens der Mobiliar zeigt, dass die Erweiterung eines etablierten Architekturrahmens um Service-orientierte Konzepte möglich und sinnvoll ist. Um unter wirtschaftlichen Kriterien den Aufwand des Aufbaus und Betreibens einer solchen Architektur zu rechtfertigen, ist jedoch eine differenzierte Betrachtung der Anforderungen und des Nutzens eines Serviceentwurfs erforderlich. Gemeinsam mit den vorgestellten Heuristiken und einer adäquaten Form der Dokumentation der Prozess- und Applikationslandschaft bilden die eingeführten Stufen des Serviceentwurfs ein wirkungsvolles, technologieunabhängiges Instrument zur Planung von Veränderungen an der Unternehmensarchitektur. Dabei werden bekannte Muster vor dem Hintergrund einer Service-orientierten Betrachtung neu organisiert. Weitere Arbeiten in der Mobiliar fokussieren auf die Evaluation und Verbesserung des vorgestellten Ansatzes als Instrument des Architekturmanagements. Dabei wird insbesondere die Untersuchung von Trade-offs zwischen den mit verschiedenen Heuristiken vorgeschlagenen Lösungen, wie z. B. Prozessstandardisierung im Gegensatz zu flexiblen Applikationen, im Zentrum stehen.
Literatur [Ambl00] Ambler, S.: Reuse patterns and antipatterns. http://www.umlchina.com/CBD/ reuse.htm, 2000, Abruf am 2003-11-28. [Endr04] Endrei, M: Service-Oriented Architecture and Web Services. http://www. redbooks.ibm.com/redbooks/pdfs/sg246303.pdf, 2004, Abruf am 2004-06-08. [FEAF] o. V.: Overview of the Federal Enterprise Architecture http://www.feapmo.gov/ resources/ FEAOverview.pdf, 2001, Abruf am 2001-11-12.
1538
A. Dietzsch, T. Goetz
[Fowl02] Fowler, M: Patterns of Enterprise Application Architecture. Addison-Wesley: Boston et al., 2002. [GaLu02] Ganesarajah, D.; Lupu, E.: Workflow-based composition of web-services: a business model or programming paradigm. In: 6th International Enterprise Distributed Object Computing Conference (EDOC 2002), 17-20 September 2002, Lausanne, Switzerland, Proceedings. IEEE Computer Society Press: New York et al., 2002, S. 273284. + [Gam 95] Gamma, E.; Helm, R.; Johnson, R.; Vlissides, J.: Design Patterns - Elements of Reusable Object-Oriented Software. Addison-Wesley: Reading, 1995.
[HoWo02] Hohpe, G.; Woolf, B.: Enterprise Integration Patterns. Addison-Wesley: Boston et al., 2002. [JoJa00] Johannesson, P.; Wangler, B.; Jayaweera, P.: Application and Process Integration - Concepts, Issues, and Research Directions. In: Wangler, B; Bergman, L. (Hrsg.): Advanced Information Systems Engineering, 12th International Conference CAiSE 2000. Proceedings. Springer: Heidelberg et al., 2000, S. 212-231. [Keen04] Keen, M.: Patterns: Implementing an SOA using an Enterprise Service Bus, http://www.redbooks.ibm.com/redpieces/pdfs/sg246346.pdf, 2004, Abruf am 2004-0608. [Kisc03] Kischel, S.: Der „Enterprise Service Bus“: Implementierung einer Serviceorientierten Architektur. In: ObjektSpektrum, 2/2003, S. 36-39. [Lim98] Lim, W. C.: Managing Software Reuse. Prentice Hall: Upper Saddle River, 1998. [Meye97] Meyer, B.: Object-oriented Software Construction. 2. Auflage, Prentice Hall: Upper Saddle River, 1997. [Pic+03] Piccinelli, G.; Finkelstein, A.; Williams, S. L.: Service-oriented workflows: the dysco framework. In: Chroust, G. (Hrsg.) Proceedings of the 29th Euromicro Conference. IEEE Computer Society Press: New York et al., 2003, S. 291- 297. [Sche04] Schekkerman, J.: How to survive in the jungle of Enterprise Architecture Frameworks. Trafford: Victoria, 2004. [StPi02] Stearns, M.; Piccinelli,C.: Managing Interaction Concerns in Web Service Systems. In: 22nd International Conference on Distributed Computing Systems, Workshops (ICDCSW '02) July 2-5, 2002, Vienna, Austria, Proceedings. IEEE Computer Society Press: New York et al., 2002, S. 424-429. [vonH01] von Halle, B.: Business Rules Applied: Building Better Systems Using the Business Rule Approach. John Wiley & Sons: New York et al., 2002. [Wood03] Woods. D.: Enterprise Services Architecture. O'Reilly: Sebastopol, 2003.
WS-Specification: Ein Spezifikationsrahmen zur Beschreibung von Web-Services auf Basis des UDDI-Standards Sven Overhage Universität Augsburg
Peter Thomas Technische Universität Darmstadt
Zusammenfassung: In diesem Beitrag wird ein Spezifikationsrahmen für die Beschreibung von Web-Services entwickelt. Dieser stellt eine wichtige Voraussetzung zur Unterstützung der Auswahl und Kopplung von Web-Services dar. Die Entwicklung des Spezifikationsrahmens, der den Namen WS-Specification trägt, wird durch eine Analyse des UDDI-Standards motiviert, die eine Reihe von zu behebenden Schwächen offenbart. Der hierzu neu entwickelte Spezifikationsrahmen basiert auf dem Konzept des Software-Vertrags und wahrt Kompatibilität zum UDDI-Standard. Mit ihm lassen sich Informationen über folgende Merkmale eines Web-Service bereitstellen: Allgemeine und kommerzielle Informationen (White Pages), Klassifikationen (Yellow Pages), fachliche Funktionalität (Blue Pages), logische Architektur (Green Pages) und physische Qualität (Grey Pages). Schlüsselworte: Web-Service, Spezifikation, UDDI, WS-Specification, SoftwareVertrag
1
Einleitung
Mit ihrem vergleichsweise einfach anmutendem Entwicklungsparadigma, nach dem Anwendungen durch Auswahl eines geeigneten Bündels von Diensten aus einem Katalog und deren anschließende Kopplung zu entwickeln bzw. (im Falle einer Anwendungsintegration) miteinander zu verbinden sind, verheißt die WebService-Technologie einen wichtigen Fortschritt auf dem Weg zur komponentenorientierten Anwendungsentwicklung [Bett01, S. 302; KoLe04, S. 117] bzw. Anwendungsintegration [Minz+02, S. 7; Beute02, S. 27f.], die maßgeblich zur Bewältigung der bis heute fortbestehenden Software-Krise beitragen sollen [McIl68]. Um diese Vision Wirklichkeit werden zu lassen, ist es von einem softwaretechnischen Standpunkt aus betrachtet notwendig, den mit dem neuen Entwicklungspa-
1540
S. Overhage, P. Thomas
radigma eingeführten Kompositionsprozess, d.h. die Auswahl und Kopplung von Web-Services methodisch zu unterstützen [Minz+02, S. 11]. Hierbei gilt es, eine Vielzahl neuer Herausforderungen zu lösen und vor allem Methoden bzw. Werkzeuge für die Suche, die Durchführung von Kompatibilitätstests, die Adaptergenerierung, die Kopplung von Web-Services sowie für die Vorhersage der (funktionalen und qualitativen) Eigenschaften von Anwendungen, die durch die Kopplung von Web-Services entstehen, bereitzustellen [Minz+02, S. 11; Crnk02, S. 132f.]. Zum kritischen Erfolgsfaktor für die Entwicklung und Anwendung der vorgenannten Methoden wird dabei die Bereitstellung geeigneter Spezifikationen, die die von einem Web-Service angebotenen Dienste und die bei ihrer Inanspruchnahme jeweils zu erfüllenden Bedingungen in angemessener Weise beschreiben [HoJu02, S. 34]. Ohne die Verfügbarkeit solcher Informationen könnte die Komposition von Web-Services erst im Anschluss an eine Analyse ihrer jeweiligen Eigenschaften erfolgen. Diese wird jedoch dadurch erschwert, dass Web-Services ihre Implementierung verbergen. Die somit zur Analyse einzusetzenden Methoden des Testens und des Reverse Engineering verursachen einen hohen Aufwand und sind meist nicht in der Lage, die benötigten Informationen in akkurater Form zu liefern. Damit würden durch ihren Einsatz die in Aussicht gestellten Vorteile der WebServices beeinträchtigt bzw. zunichte gemacht [Weyu01, S. 503; Garl+95, S. 25]. Bei der Entwicklung der Web-Service-Technologie [Boot+03; Aust+04] wurde diesem Umstand mit der Einführung entsprechender Standards bereits von Beginn an Rechnung getragen. So wird durch die Basis-Technologie (den sog. BasisStack [KoLe04, S. 120]) nicht nur das Protokoll zur Durchführung von Prozedurfernaufrufen, das sog. Simple Object Access Protocol (SOAP [Mitr03]), definiert, sondern auch die Beschreibung von Web-Service-Schnittstellen sowie die Katalogisierung von Web-Services standardisiert. Hierzu wurden mit der Web Services Description Language (WSDL [Chin+04]) und dem Universal Description, Discovery, and Integration Standard (UDDI [UDDI02]) entsprechende Vorgaben geschaffen, die bei der Entwicklung von Web-Services zur Anwendung kommen. Für die Auswahl und Kopplung von Web-Services kommt vor allem dem UDDIStandard, dessen Aufgabe die Bereitstellung von adäquaten Informationen über die einzelnen Web-Services ist [Caul+01, S. 181f.], eine besondere Bedeutung zu. Um diese Aufgabe zu erfüllen, definiert der UDDI-Standard neben einer standardisierten Schnittstelle für den Zugriff auf Informationen vor allem einen Spezifikationsrahmen, der die bereitzustellenden Informationen über Web-Services sowie die zur Beschreibung einzusetzenden Notationen vorgibt. Dieser Spezifikationsrahmen befindet sich derzeit in der Version 3.0 und gilt als weitgehend stabil, da nach seiner Einführung in der ersten Version bislang nur jeweils geringfügige Änderungen vorgenommen wurden [Cera02, S. 158]. Im Rahmen dieses Beitrags wird die Eignung des UDDI-Standards zur Spezifikation von Web-Services im Detail untersucht. Dabei wird eine Reihe von Schwächen identifiziert, zu deren Beseitigung ein zu UDDI kompatibler Spezifikationsrahmen mit dem Namen WSSpecification entwickelt wird.
WS-Specification: Ein Spezifikationsrahmen zur Beschreibung von Web-Services
1541
Der entwickelte Spezifikationsrahmen basiert auf dem zentralen Konzept des Software-Vertrags (Design by Contract [Meye92]) und baut auf Vorarbeiten zur Standardisierung der Spezifikation von Komponenten [Acke+02; Over04] auf, die zum Teil in Zusammenarbeit mit dem Arbeitskreis WI-KobAS der Gesellschaft für Informatik durchgeführt wurden. Für die Untersuchung des UDDI-Standards werden in Kap. 2 zunächst grundlegende Anforderungen betrachtet, die an einen Spezifikationsrahmen zur Beschreibung von Web-Services zu stellen sind. Daran anschließend erfolgt in Kap. 3 eine detaillierte Analyse des im UDDI-Standard enthaltenen Spezifikationsrahmens, wodurch die Entwicklung von WS-Specification in Kap. 4 motiviert wird. Mit einer Abgrenzung verwandter Arbeiten aus dem wissenschaftlichen Umfeld sowie einem Ausblick auf die Einbindung des erarbeiteten Ansatzes in die bestehende Web-Service-Technologie wird der Beitrag schließlich abgeschlossen.
2
Grundlegende Anforderungen
Spezifikationen bilden die methodische Basis zur Unterstützung der Auswahl- und Kopplung von Web-Services [HoJu02, S. 34]. Obwohl der Spezifikation damit eine zentrale Bedeutung für die Entwicklung mit Web-Services (bzw. generell für die komponentenorientierte Entwicklung) zukommt [Spee+01, S. 689], gibt es bislang kaum wissenschaftliche Vorarbeiten, die als Maßstab zur Bewertung des im UDDI-Standard enthaltenen Spezifikationsrahmens herangezogen werden können [Appe+01, S. 768f.]. Dennoch lassen sich anhand der Aufgaben, die mit den bereitgestellten Informationen im Rahmen des Kompositionsprozesses zu unterstützen sind (vgl. Kap. 1), einige Anforderungen ableiten. So sollte ein Spezifikationsrahmen, der zur Beschreibung von Web-Services eingesetzt wird, zumindest folgende grundlegende Eigenschaften aufweisen: x Der Spezifikationsrahmen muss die für die Auswahl und Komposition relevanten Eigenschaften von Web-Services vollständig beschreiben. Insbesondere muss es möglich sein, die bei der Auswahl und Kopplung zu bewältigenden Aufgaben nur mit den zur Verfügung gestellten Spezifikationen auszuführen. x Die Vorgaben des Spezifikationsrahmens sind normativ, d.h. er schreibt sowohl den Inhalt (was zu spezifizieren ist) als auch die einzusetzenden Notationen (womit zu spezifizieren ist) verbindlich vor. Damit gewährleistet er die Einheitlichkeit und Vergleichbarkeit von Spezifikationen, die Voraussetzungen für deren Verwendbarkeit (etwa durch Entwicklungswerkzeuge) sind. x Die gemäß den Vorgaben des Rahmens erstellten Spezifikationen sind sowohl von Entwicklern als auch von Werkzeugen auswertbar. Für die Werkzeugunterstützung sowie die Automatisierung der Auswahl und Kopplung von WebServices ist die Bereitstellung formaler Beschreibungen unerlässlich. Dennoch
1542
S. Overhage, P. Thomas
müssen diese für Entwickler verständlich bleiben, da eine Werkzeugunterstützung (derzeit) nicht für alle Aufgaben des Entwicklungsprozesses gegeben ist. x Der Spezifikationsrahmen besitzt eine modulare Struktur, so dass neue Spezifikationen abwärtskompatibel hinzugefügt werden können. Dadurch bleibt gewährleistet, dass ältere Werkzeuge mit neueren Versionen des Spezifikationsrahmens umgehen und weiter verwendet werden können. x Zur Spezifikation werden etablierte und industriefähige Notationen verwendet. Obwohl damit ggf. auf den Einsatz formaler Notationen verzichtet und gegenüber dem Stand der Wissenschaft ein suboptimales Ergebnis erzielt wird, sichert gerade dies die Akzeptanz in der Anwendungsentwicklung der Praxis.
3
Der UDDI-Standard
Ausgehend von den zuvor aufgestellten grundlegenden Anforderungen wird der Spezifikationsrahmen des UDDI-Standards im Folgenden näher untersucht. Hierzu wird vorab ein einführender Überblick gegeben und anschließend auf die Erfüllung der in Kap. 2 aufgestellten grundlegenden Anforderungen eingegangen. Die dabei aufgedeckten Schwächen des Spezifikationsrahmens werden bei der Entwicklung von WS-Specification in Kap. 4 erneut aufgegriffen. Mit dem UDDI-Standard [UDDI02] werden zwei verschiedene, jedoch nicht präzise voneinander abgegrenzte Spezifikationsrahmen eingeführt, die bei der Analyse voneinander getrennt zu betrachten sind [Caul+01, S. 188, 190]: ein Spezifikationsrahmen für die Beschreibung von Unternehmen, der die Basis für die Entwicklung von Unternehmensverzeichnissen bildet, sowie ein Spezifikationsrahmen für die Beschreibung von Web-Services, der zum Aufbau von Web-Service-Katalogen verwendet wird. Web-Services werden gemäß dem UDDI-Standard üblicherweise von einem Unternehmen angeboten. Wegen der Möglichkeit, zusätzlich auch auf Web-Services, die von Fremdunternehmen angeboten werden, zu verweisen, stehen beide Spezifikationsrahmen jedoch in einem m:n Verhältnis zueinander. Somit kann ein Unternehmen mehrere Web-Services anbieten und von mehreren Unternehmen auf einen im Katalog publizierten Web-Service verwiesen werden. Der Spezifikationsrahmen zur Beschreibung von Unternehmen findet sich im Datenmodell des UDDI-Standards, das im XML-Format vorliegt, unter dem konzeptionellen Bezeichner [Caul+01, S. 188-190; Cera02, S. 162-165]. Mit ihm lassen sich Merkmale von Unternehmen beschreiben, wobei zwischen den Aspekten „Allgemeine Informationen“ und „Klassifikationen“ unterschieden wird (vgl. Abb. 1). Zu den allgemeinen Informationen, die im UDDIJargon als „White Pages“ bezeichnet werden, gehört der Name des Unternehmens, die Kontaktdaten (Ansprechpartner, Adresse, Kommunikationsdaten etc.), eine Beschreibung, eindeutige Kennzeichner wie etwa die Umsatzsteuernummer (die
WS-Specification: Ein Spezifikationsrahmen zur Beschreibung von Web-Services
1543
sich unter dem Bezeichner angeben lassen [Caul+01, S. 189]) sowie eine global eindeutige Kennzeichnung (Unique ID). Oversoft Software Oversoft Software is specialized in enabling XML Web services and component-based application development. Oversoft GeneralLedger Manage your general ledger over the Internet. GeneralLedger WebService Binding http://www.generalledger.oversoft.biz/generalledger.asmx ... General Ledger Interface http://www.generalledger.oversoft.biz/generalledger.asmx?WSDL
Abbildung 1: Beispielspezifikation mit Unternehmen, Web-Service und WSDL-Verweis
Demgegenüber beinhalten die sog. „Yellow Pages“ eine Menge von Klassifikationen, mit denen sich Unternehmen näher einordnen (kategorisieren) lassen. Hierzu werden verschiedene standardisierte Taxonomien zur Verfügung gestellt, mit denen der Geschäftsbereich (UN/SPSC bzw. NAICS) oder der Sitz bzw. Handelsraum (ISO 3166) eines Unternehmens spezifiziert werden kann [Cera02, S. 164]. Die einzelnen Klassifikationen finden sich im Datenmodell des UDDI-Standards unter dem konzeptionellen Bezeichner [Caul+01, S. 189]. Schließlich erlaubt der zur Beschreibung von Unternehmen vorgesehene Spezifi-
1544
S. Overhage, P. Thomas
kationsrahmen auch die Angabe eines bzw. mehrerer angebotener Web-Services, deren technische Merkmale in den sog. „Green Pages“ zu spezifizieren sind. Diese Spezifikationen sind im UDDI-Datenmodell unter dem konzeptionellen Bezeichner (vgl. Abb. 1) zusammengefasst [Caul+01, S. 190f.; Cera02, S. 165f.]. Sie sind gemäß einem Spezifikationsrahmen zur Beschreibung von Web-Services anzufertigen, der mit dem Ziel entwickelt wurde, die automatisierte Auswahl und Kopplung von Web-Services durch die Bereitstellung adäquater Informationen zu unterstützen [Caul+01, S. 181f.]. Wie der Spezifikationsrahmen zur Beschreibung von Unternehmen unterscheidet auch dieser zwischen verschiedenen Aspekten. So sind zunächst einige allgemeine Informationen über den jeweils angebotenen Web-Service bereitzustellen, die korrekterweise als „White Pages“ des Web-Service zu bezeichnen wären. Zu diesen gehört seine Bezeichnung, eine informelle Beschreibung sowie eine global eindeutige Kennzeichnung (Unique ID) [Caul+01, S. 190f.]. Ferner unterstützt der Spezifikationsrahmen die Klassifikation des Anwendungsbereichs, zu dem der jeweils angebotene Web-Service gehört. Hierzu können unter dem konzeptionellen Bezeichner entsprechende Eintragungen vorgenommen werden, die de facto die „Yellow Pages“ eines Web-Service darstellen [Caul+01, S. 190f.]. Neben den beiden vorgenannten Aspekten wird vor allem die Angabe technischer Informationen unterstützt, die für Entwickler bzw. deren Werkzeuge von Interesse sind und die Kopplung von Web-Services unterstützen sollen. Diese Spezifikationen werden in Übereinstimmung mit dem UDDI-Standard als „Green Pages“ bezeichnet und sind im UDDI-Datenmodell unter dem konzeptionellen Bezeichner zu finden [Caul+01, S. 191f.; Cera02, S. 166]. Sie liefern Details über die Web-Service-Schnittstellen wie bspw. deren Ort und Syntax. Zur Spezifikation der Schnittstellensyntax wird dabei üblicherweise ein Verweis auf ein WSDL-Dokument angegeben, der vom UDDI-Standard jedoch nicht zwingend vorgeschrieben wird [Cera02, S. 167]. Für den Verweis auf ein WSDLDokument ist vielmehr ein spezieller Zusatz, ein sog. , zu spezifizieren (vgl. Abb. 1) [Cera02, S. 167]. Damit ergibt sich für den Spezifikationsrahmen zur Beschreibung von Web-Services die in Abb. 2 dargestellte Struktur, die sich aus dem UDDI-Standard mit einiger Interpretation ableiten lässt. Analysiert man den Spezifikationsrahmen zur Beschreibung von Web-Services im Hinblick auf die in Kap. 2 aufgestellten grundlegenden Anforderungen, so offenbart sich eine Reihe von Schwächen. Zwar erfüllt er zwei der Anforderungen, da er einerseits die Erstellung von Spezifikationen begünstigt, die sowohl vom Entwickler als auch von Werkzeugen auswertbar sind, und andererseits zur Spezifikation von Web-Services solche Notationen einsetzt, die in der industriellen Anwendungsentwicklung breite Unterstützung erfahren. Dies gilt insbesondere für die Spezifikation der Web-Service-Schnittstellen, die unter Verwendung des WSDL Standards erfolgen kann. Jedoch ist der Web-Service-Spezifikationsrahmen des UDDI-Standards nicht als normativ einzustufen, da er zur Spezifikation der Schnittstellen von Web-Services weder die Verwendung von WSDL noch irgend-
WS-Specification: Ein Spezifikationsrahmen zur Beschreibung von Web-Services
1545
white pages
business service
yellow pages
category bag
green pages
Web Service
einer anderen Methode vorschreibt [Cera02, S. 167]. Somit bleibt dem Anbieter eines Web-Service die Entscheidung überlassen, welche Notation er zur Beschreibung der Schnittstellen einsetzt (falls er sie überhaupt beschreibt). Um die Homogenität der Spezifikationen in einem Web-Service-Katalog zu garantieren, sollte daher zumindest die Verwendung von WSDL verbindlich vorgeschrieben werden.
binding template
Allgemeine Informationen
Klassifikationen
Ort und Spezifikation der Schnittstelle (ggf. in WSDL)
Abbildung 2: Struktur des UDDI-Spezifikationsrahmens für Web-Services
Auch im Hinblick auf die geforderte Vollständigkeit weist der Spezifikationsrahmen Mängel auf, so dass es fraglich scheint, ob sich die Auswahl und Kopplung von Web-Services durch die Bereitstellung von Informationen gemäß dem UDDIStandard hinreichend unterstützen lässt. Dies wird durch die Erarbeitung zusätzlicher Standards im Rahmen der Weiterentwicklung der Web-Service-Technologie bestätigt, mit denen z.B. Informationen zur Sicherheit (WS-Security [Atki+02]) sowie über Transaktionen (WS-Transaction [Cabr+02]) spezifiziert werden können. Dies lässt vermuten, dass die durch den UDDI-Standard vorgesehene Beschreibung der Schnittstellensyntax alleine nicht ausreicht. Zudem fehlen dem Spezifikationsrahmen Vorgaben zur Beschreibung der Nutzungsbedingungen, der Funktionalität sowie der Qualität der angebotenen Web-Services, die für deren Auswahl und Kopplung wesentliche Informationen darstellen [Vith+03, S. 652f.]. Schließlich wird auch das Kriterium der Modularität durch den UDDI-Standard nicht optimal erfüllt. Hierzu trägt zum einen die Vermischung der beiden Spezifikationsrahmen zur Beschreibung von Unternehmen und Web-Services bei. So beziehen sich die Informationen, die im Standard als „White Pages“ und „Yellow Pages“ bezeichnet werden, auf die Unternehmen, während sich lediglich die Angaben, die unter der Bezeichnung „Green Pages“ zusammengefasst werden, auf den Web-Service beziehen [Caul+01, S. 187; KoLe04, S. 122]. Völlig unberücksichtigt bleibt jedoch, dass auch zur Beschreibung von Web-Services Informationen zu spezifizieren sind, die sich unter den Begriffen „White Pages“ und „Yellow Pages“ subsumieren lassen [Cera02, S. 18]. Zum anderen ist die getrennte Betrachtung der verschiedenen Aspekte nicht bis in das für die Spezifikation ausschlaggebende Datenmodell durchgehalten worden (vgl. Abb. 1). Dort werden die einzelnen Aspekte nicht als eigenständige Informationseinheiten sichtbar und bleiben zudem meist hinter kryptischen Bezeichnern verborgen.
1546
4
S. Overhage, P. Thomas
WS-Specification
Aufgrund der identifizierten Schwächen ist der UDDI-Standard in seiner aktuellen Version nicht geeignet, die Auswahl und Kopplung von Web-Services in der beabsichtigten Weise zu unterstützen. Im Folgenden wird daher ein Spezifikationsrahmen für die Beschreibung von Web-Services entwickelt, der den eingangs aufgestellten grundlegenden Anforderungen genügt und die benötigte Unterstützung gewährleisten soll. Er trägt den Namen WS-Specification (Web Services Specification) und basiert auf dem zuvor analysierten Spezifikationsrahmen des UDDIStandards, zu dem er (abwärts-) kompatibel bleibt. Hierdurch wird es möglich, die in einem auf dem UDDI-Standard basierenden Verzeichnis unter dem Bezeichner abgelegten Spezifikationen transparent durch solche zu ersetzen, die gemäß den Vorgaben von WS-Specification erstellt wurden. Der in WS-Specification enthaltene Spezifikationsrahmen basiert auf den Konzepten des Dienst- und Kompositionsvertrags, die aus dem etablierten Prinzip des Software-Vertrags (Design by Contract) [Meye92] abgeleitet wurden. Dieses Prinzip findet derzeit vor allem in der objektorientierten Programmierung Anwendung, wo es zur Spezifikation sog. Dienstverträge verwendet wird. Ein Dienstvertrag beschreibt die Vorbedingungen, die von einem Dienstnehmer zur Laufzeit erfüllt werden müssen, damit dieser einen Software-Dienst in Anspruch nehmen kann., sowie die Nachbedingungen, die vom Dienstgeber unter der Voraussetzung garantiert werden, dass der Dienst mit erfüllten Vorbedingungen in Anspruch genommen wurde [Meye92, S. 42]. Das Prinzip des Software-Vertrags findet auch in der komponentenorientierten Anwendungsentwicklung Verwendung, wo es zur Spezifikation sog Kompositionsverträge genutzt wird. Mit diesen lassen sich die Dienste, die eine Komponente an ihren Schnittstellen für einen Aufruf anbietet, sowie die zur Entwicklungszeit (also bei der Kopplung) zu berücksichtigenden Bedingungen spezifizieren [ChDa01, S. 17f.; Over04, S. 7]. Ein solcher Kompositionsvertrag lässt sich auf verschiedenen Vertragsebenen spezifizieren, wobei die Schnittstellten (bzw. die dort angebotenen Dienste) aus jeweils unterschiedlichen Perspektiven beschrieben werden [Beug+99, S. 39; Acke+02, S. 4; Over04, S. 9]. Der in WS-Specification enthaltene Spezifikationsrahmen greift das Konzept des Kompositionsvertrags auf und verwendet es für die Beschreibung von WebServices. Gleichzeitig wird versucht, eine möglichst vollständige Beschreibung zu erreichen, indem verschiedene Vertragsebenen berücksichtigt werden, die teilweise von einem Standardisierungsprojekt des GI-Arbeitskreises WI-KobAS identifiziert wurden [Acke+02, S. 4]. Diese Vertragsebenen lassen sich aus einem Klassifikationsschema ableiten (vgl. Abb. 3), das zur vollständigen Beschreibung eines Web-Service in der Horizontalen die während des Entwicklungsprozesses auftretenden verschiedenen Abstraktionsebenen und in der Vertikalen die zur vollständigen Beschreibung in zahlreichen Methodiken [Olle+91, S. 12f.; CoDa94, S. 21; Schi97, S. 51f.; Sche98, S. 37; DSWi99, S. 43] verwendeten Modellierungs- bzw. Spezifikationsperspektiven unterscheidet. Dabei ist zu beachten, dass sich einem
WS-Specification: Ein Spezifikationsrahmen zur Beschreibung von Web-Services
1547
Kompositionsvertrag gemäß dem Klassifikationsschema auch Dienstverträge als spezielle Ebene zuordnen lassen. Jede der unterschiedenen Abstraktionsebenen fügt einem Kompositionsvertrag Spezifikationen mit unterschiedlichem Inhalt hinzu: durch die fachliche Abstraktionsebene wird die Funktionalität eines Web-Service beschrieben. Diese lässt sich mit domänenspezifischen (Fach-) Begriffen spezifizieren, die bspw. als Lexikon [DSWi99, S. 571] oder konzeptuelles Modell dargestellt werden können [DSWi99, S. 558]. Auf der logischen Abstraktionsebene wird die systemtechnische Architektur der Schnittstellen des Web-Service beschrieben. Dies geschieht durch die Angabe von Signaturlisten, Dienstverträgen und Interaktionsprotokollen. Durch die physische Abstraktionsebene wird schließlich die Qualität beschrieben, mit der die angebotenen Dienste durch einen Web-Service realisiert werden. Diese lässt sich mit Qualitätsattributen spezifizieren, die aus dem Qualitätsmodell des ISO 9126 Standards [ISO01; ISO03] abgeleitet werden können. Funktionalität / Terminologie (fachlich)
Architektur / Schnittstellenform (logisch)
Implementierung / Qualität (physisch)
Statische Sicht (Struktur)
Inf ormat ionsobjekt e (Dinge)
Typdeklarat ionen, Eigenschaf t en (At t ribut e)
Verw endbarkeit , Wart barkeit , Port abilit ät
Operationale Sicht (W irkungen)
Funkt ionen (Geschehnisse)
Met hoden, Ausnahmen, Ereignisse, Zusicherungen
Funkt ionalit ät
Dynamische Sicht (Interaktionen)
Prozesse (Abläuf e)
Int erakt ionsprot okolle
Zuverlässigkeit , Ef f izienz
Abbildung 3: Klassifikationsschema zur Ableitung von Vertragsebenen
Durch die orthogonal dazu unterschiedenen Spezifikationsperspektiven wird jede Abstraktionsebene weiter differenziert. Dabei fokussiert die statische Perspektive (Datensicht) auf die Struktur eines Softwareartefakts. Die operationale Perspektive (Funktionssicht) beschreibt die Wirkungen der Operationen, die auf einem Softwareartefakt ausgeführt werden können. Die dynamische Perspektive (Prozesssicht) spezifiziert schließlich den Ablauf, also die Interaktionen, an denen ein Softwareartefakt mitwirken kann. Die mithilfe dieser Einteilung ermittelten neun Vertragsebenen bilden den Kern des Spezifikationsrahmens von WS-Specification. Er wird durch zwei weitere Vertragsebenen vervollständigt, die die Angabe allgemeiner und kommerzieller Informationen sowie die Klassifikation von Web-Services ermöglichen (vgl. Abb. 4). Dabei wird die Struktur des im UDDI-Standard enthaltenen Spezifikationsrahmens um „Blue Pages“ zur Spezifikation der Funktionalität sowie um „Grey Pages“ zur Beschreibung der Qualität eines Web-Service erweitert. Auf den elf Ebenen werden durch WS-Specification darüber hinaus verschiedene, jeweils auf die Web-Service-Technologie angepasste Notationen zur Spezifikation vorgeschrieben. Diese werden im Folgenden anhand eines Spezifikationsbeispiels näher vorgestellt.
white
Klassifikationen
blue
Allgemeines
yellow
S. Overhage, P. Thomas
green
Allgemeine und kommerzielle Informationen Aufzählende und aspektorientierte Klassifikationen
Informationsobjekte
Informationsobjekte (Dinge)
Funktionen
Funktionen (Geschehnisse)
Prozesse
grey
Web Service
1548
Prozesse (Abläufe)
Signaturen
Signaturlisten (Definitionen)
Zusicherungen
Vor- und Nachbedingungen, Invarianten
Interaktionsprotokolle
Erlaubte Aufrufreihenfolgen
Komponentenqualität
Verw endbarkeit, Wartbarkeit und Portabilität
Dienstqualität Performanz
Funktionalität Zuverlässigkeit und Effizienz
Abbildung 4: Struktur des mit WS-Specification eingeführten Spezifikationsrahmens
4.1
White Pages: Allgemeine und kommerzielle Informationen
Wie bereits erwähnt wurde, unterstützt der UDDI-Standard die Angabe allgemeiner Informationen über Web-Services. WS-Specification gestattet darüber hinaus auch die Spezifikation der Nutzungsbedingungen, die für die Auswahl und Kopplung eine wichtige Rolle spielen. So wird einerseits die Angabe verschiedener Preismodelle ermöglicht, wobei jedes Preismodell aus einem Preis, den akzeptierten Bezahlverfahren und dem dafür geleisteten Lieferumfang (d.h. einer Liste der Artefakte, auf die zugegriffen werden kann) besteht. Andererseits wird die Angabe der bei der Nutzung geltenden rechtlichen Vereinbarungen (Lizenzvereinbarungen, Garantiebestimmungen etc.) unterstützt. Die dabei zu machenden Angaben sind vorwiegend beschreibender Natur und werden somit größtenteils umgangssprachlich erfasst. Um die Auswertbarkeit dieser Informationen durch Werkzeuge zu gewährleisten, gibt WS-Specification jedoch eine Reihe von Taxonomien mit vorgefertigten Alternativen vor, mit denen entweder direkt zu spezifizieren ist bzw. Informationen zu klassifizieren sind (vgl. Abb. 5).
4.2
Yellow Pages: Klassifikationen
Wie der Spezifikationsrahmen des UDDI-Standards unterstützt auch WSSpecification die Angabe von Klassifikationen, mit denen der Anwendungsbereich eines Web-Service beschrieben werden kann. Jedoch stellt WS-Specification hier-
WS-Specification: Ein Spezifikationsrahmen zur Beschreibung von Web-Services
1549
für eine spezialisierte Taxonomie (das sog. Standard Application Domain Classification System) zur Verfügung, die eine Systematik anwendungsspezifischer (vertikaler) und generischer (horizontaler) Domänen enthält. Somit muss zur Spezifikation des Anwendungsbereichs nicht auf die Taxonomien zurückgegriffen werden, die zur Klassifikation von Geschäftsfeldern bestimmt sind (wie dies beim UDDI-Standard der Fall ist). Darüber hinaus unterstützt WS-Specification die Klassifikation der Web-Service-Technologie, mit der der zu spezifizierende WebService realisiert wurde. Dies ist grundsätzlich notwendig, da die der WebService-Technologie zugrunde liegenden Standards ständig weiter entwickelt werden und deren Kompatibilität dabei nicht zwangsläufig sichergestellt ist. ... unlimited use (flat rate) monthly payment 9.90 ... Oversoft GL .NET Client, Oversoft GL SDK ... ... Oversoft End User License Agreement ... ... ...
Abbildung 5: Beispielspezifikation gemäß der White Pages von WS-Specification
4.3
Blue Pages: Spezifikation der fachlichen Funktionalität
Die Möglichkeit, die fachliche Funktionalität von Web-Services mittels eines Begriffssystems zu beschreiben, das in Form einer Ontologie [Hess02, S. 477] spezifiziert werden kann, stellt eine Erweiterung des UDDI-Standards dar. Hierfür bietet WS-Specification im Rahmen der „Blue Pages“ die Möglichkeit, die fachliche Semantik, die der Implementierung des Web-Service zugrunde liegt, in Form von Fachbegriffen zunächst zu definieren und diese anschließend miteinander in Beziehung zu setzen. Die so erreichte Spezifikation der Funktionalität eines WebService ist insbesondere zur Unterstützung der Auswahl von Web-Services von Bedeutung [Vith+03, S. 652f.]. Dabei unterscheidet WS-Specification grundsätzlich zwischen drei verschiedenen Begriffsklassen, die in Anlehnung an die Refe-
1550
S. Overhage, P. Thomas
renzmodellierung als Informationsobjekte, Funktionen und Prozesse bezeichnet werden. Informationsobjekte beschreiben fachliche Informationen, die mit einem Web-Service ausgetauscht werden. Funktionen beschreiben die Funktionalität der bereitgestellten Dienste. Prozesse beschreiben das fachliche Protokoll, gemäß dem die Dienste eines Web-Service zu einem komplexen Ablauf verbunden werden können. Daneben stellt WS-Specification vordefinierte Beziehungsarten zur Verfügung, mit denen die Begriffe einer Klasse jeweils zueinander in Beziehung gesetzt werden können: Abstraktionen (Identität, Spezialisierung etc.) drücken dabei ein gewisses Maß an Gleichheit zwischen verschiedenen Begriffen aus, während Kompositionen (Teil-Ganze-Beziehungen, Reihenfolgen etc.) verwendet werden, um Begriffe zu zusammengesetzten Strukturen zu verbinden. ... InformationObject Balance A BALANCE yields a comparison of ASSETS and LIABILITIES of a company at a special date (CUTOFF DATE) based on a LEGAL REGULATION. Function Create Balance ... ... Function Create Annual Account ... Create Balance, Create Profit and Loss Account, Close Accounts Process Annual Accounting ... Close Accounts, Create Profit and Loss Account, Create Balance ... ...
Abbildung 6: Beispielspezifikation gemäß der Blue Pages von WS-Specification
Durch die Vorgabe der Begriffsklassen sowie der möglichen Beziehungsarten zwischen diesen wird sichergestellt, dass bei der Spezifikation der Funktionalität eines Web-Services jeweils eine einfache Ontologie mit gleichartigen Bestandteilen entsteht, die mit den Methoden des Semantic Web (insbesondere dem Resource
WS-Specification: Ein Spezifikationsrahmen zur Beschreibung von Web-Services
1551
Description Framework [LaSw99; BrGu03]) gespeichert und ausgewertet werden kann. Dadurch wird es möglich, die spezifizierte Funktionalität eines Web-Service auch einer Auswertung in semantischen Suchverfahren und automatisierten Kompatibilitätstests zugänglich zu machen. Bei der Entwicklung von WS-Specification wurden hierzu die oben genannten Begriffsklassen und Beziehungsarten als RDF Schema [BrGu03] modelliert, so dass sie zur Spezifikation der Begriffsysteme mit RDF verwendet werden können. Die Spezifikation der Funktionalität besteht somit aus zusammengehörigen RDF-Ausdrücken, die direkt in das Datenmodell übernommen und in entsprechenden, auf dem Spezifikationsrahmen von WSSpecification basierenden Verzeichnissen abgelegt werden (vgl. Abb. 6). Die Spezifikation der fachlichen Funktionalität dient jedoch nicht nur den bereits genannten Zwecken. Sie kann auch zur näheren Beschreibung der systemtechnischen Architektur der Schnittstellen eines Web-Service verwendet werden. Unter Verwendung der spezifizierten Fachbegriffe lässt sich festhalten, welches Element der Web-Service-Schnittstelle eine bestimmte Funktionalität implementiert: Informationsobjekte können insbesondere den Typdeklarationen, Attributen sowie Parametern und Rückgabewerten zugeordnet werden. Funktionen lassen sich den Diensten bzw. Ereignissen zuordnen, und Prozesse korrespondieren mit systemtechnischen Aufrufreihenfolgen. Damit kann die Spezifikation der Funktionalität auch zur Erkennung syntaktischer Heterogenitäten beitragen, bspw. wenn Schnittstellenelemente zu finden sind, die die gleiche Funktionalität aufweisen aber unterschiedliche Signaturen (z.B. Namen, Parameterreihenfolgen etc.) besitzen [ZaWi95]. Deshalb wird die Angabe von (Implementierungs-) Beziehungen zwischen Fachbegriffen und Schnittstellenelementen explizit unterstützt.
4.4
Green Pages: Spezifikation der logischen Architektur
Durch die „Green Pages“ wird die logische Architektur der Web-ServiceSchnittstellen beschrieben, wobei wiederum zwischen statischen, operationalen und dynamischen Bestandteilen unterschieden wird. Die hier abgelegten Informationen sind für den korrekten Aufruf eines Web-Service von Bedeutung und unterstützen somit vor allem den Kopplungsprozess. Zur Spezifikation des statischen sowie eines Teils der operationalen Architektur, der Methoden und Ereignisse, wird auf die Web Service Description Language (WSDL [Chin+04]) zurückgegriffen, mit der sich die Schnittstelle eines Web-Service in Form von Signaturlisten spezifizieren lässt (vgl. Abb. 7). Hierdurch lassen sich die von einem Web-Service vorgenommenen Typ- bzw. Konstantendeklarationen, Attribute, Dienste (Methoden), Ausnahmen und Ereignisse spezifizieren. Im Gegensatz zum UDDI-Standard schreibt WS-Specification jedoch die Verwendung von WSDL verbindlich vor und erfasst die entsprechenden Spezifikationen direkt im Datenmodell. Da die Spezifikation von Signaturlisten für den korrekten Aufruf eines WebService zwar notwendig, jedoch im Allgemeinen nicht hinreichend ist, unterstützt
1552
S. Overhage, P. Thomas
WS-Specification die Angabe zusätzlicher Informationen über die Architektur der Schnittstellen. Hierzu gehören die beim Aufruf einer Methode jeweils zu erfüllenden Vor- sowie die nach dem Aufruf zugesicherten Nachbedingungen, d.h. die Dienstverträge der an der Schnittstelle angebotenen Methoden [Meye92]. Diese werden gegenwärtig unter Verwendung der OCL [OMG97] als formale Notation spezifiziert (vgl. Abb. 7), da spezielle, auf die Web-Service-Technologie zugeschnittene Notationen (z.B. WSMF [FeBu02]) noch in der Entwicklung sind. ... context IGeneralLedger::Login() pre: self.LoginCredentials.length > 0 The login credentials must not be empty. ... ... ... ...
Abbildung 7: Beispielspezifikation gemäß der Green Pages von WS-Specification
Darüber hinaus unterstützt WS-Specification die Spezifikation der Interaktionsprotokolle, d.h. der erlaubten Reihenfolgen, gemäß denen die an den Schnittstellen angebotenen Dienste aufgerufen werden können. Dienste können im Allgemeinen nicht in beliebigen, sondern nur in wohlgeordneten Abfolgen aufgerufen werden, die auf der Basis spezifizierter Signaturlisten jedoch nur schwer zu bestimmen sind. Somit stellt die Spezifikation der erlaubten Aufrufreihenfolgen eine wesentliche Voraussetzung für den effizienten Einsatz von Kopplungsmethoden (wie BPEL [Andr+03] oder WSCL [Kava+04]) dar. Prinzipiell lassen sich Aufrufreihenfolgen durch die Angabe der zwischen den einzelnen Diensten existierenden Abhängigkeiten sowie durch eine Aufzählung sämtlicher erlaubter Aufrufsequenzen spezifizieren [Tolk03, S. 131]. Dabei zeichnet sich der erstgenannte Ansatz vor allem durch seine Effizienz aus, birgt jedoch gleichzeitig erhebliche Risiken, da durch nicht spezifizierte Abhängigkeiten unzulässige Aufrufreihenfolgen zugelassen werden. Hingegen führt das (versehentliche) Auslassen einer erlaubten Aufrufsequenz prinzipiell nicht zu entsprechenden Nachteilen, weswegen diese Methode im Rahmen von WS-Specification Anwendung findet.
WS-Specification: Ein Spezifikationsrahmen zur Beschreibung von Web-Services
1553
Hierzu wird eine formale (XML) Notation verwendet, mit der sich „Regular Types“ spezifizieren lassen [Nier95, S. 108-110]. Diese basieren auf endlichen regulären Automaten und besitzen den Vorteil einer effizienten Auswertbarkeit (z.B. für Kompatibilitätstests). Sie weisen jedoch auch eine Reihe von Nachteilen auf, da sowohl ihre Aussagekraft als auch die mit ihnen erzielbare Präzision eingeschränkt ist: so beschreiben Regular Types prinzipiell nur eine Obermenge der erlaubten Aufrufsequenzen und enthalten dabei ggf. auch unerlaubte Aufrufreihenfolgen [Nier95, S. 109]. Daher wird z. Zt. an der Integration anderer Formalismen gearbeitet, die diese Mängel beheben (z.B. Petri-Netze oder temporale Logiken).
4.5
Grey Pages: Spezifikation der physischen Qualität
Neben den „Blue Pages“ zur Spezifikation der Funktionalität wird dem UDDIStandard durch WS-Specification mit den „Grey Pages“ ein weiterer Aspekt hinzugefügt, der die Spezifikation der Qualität ermöglicht, mit der ein Web-Service seine Dienste erbringt. Diese Informationen sind sowohl für die Auswahl als auch die Kopplung von Web-Services von Bedeutung. Basierend auf dem standardisierten ISO 9126 Qualitätsmodell [ISO01] unterscheidet WS-Specification dabei zwischen statischen, operationalen und dynamischen Qualitätsmerkmalen: zu den statischen Qualitätsmerkmalen zählen die Anwendbarkeit und Wartbarkeit, zu den operationalen Qualitätsmerkmalen gehört die Funktionalität und zu den dynamischen Qualitätsmerkmalen zählen die Zuverlässigkeit sowie die Effizienz. Für jedes der Qualitätsmerkmale wurden bei der Entwicklung von WSSpecification verschiedene messbare Kennzahlen, die aus der ISO 9126 Norm [ISO03] übernommen wurden, als charakteristische Attribute in Form einer Bibliothek vorgegeben. So lässt sich die Anwendbarkeit bspw. durch die mittlere Einarbeitungszeit (Time-to-Use) und die Wartbarkeit durch den mitgelieferten Dokumentationsumfang quantifizieren. Die Funktionalität lässt sich anhand verschiedener Merkmale beurteilen, wobei besonders die Sicherheit sowie die Transaktionalität im Mittelpunkt stehen, da diese durch Rückgriff auf entsprechende Standards der Web-Service-Technologie (WS-Security [Atki+02] und WS-Transaction [Cabr+02]) spezifiziert werden können. Weitere Aspekte (wie z.B. Persistenz) lassen sich der Forschung zur aspektorientierten Programmierung entnehmen. Von herausragender Bedeutung ist jedoch die Spezifikation der dynamischen Qualität, die auch als Quality-of-Service bezeichnet wird und in Form sog. ServiceLevel Agreements (SLAs [KnEg03, S. 29f.]) angegeben wird. Durch ServiceLevel wird die Spezifikation verschiedener Qualitätsniveaus unterstützt, so dass diese bspw. als jeweils voneinander unabhängige Vertriebsformen (vgl. Kap. 4.1) zu unterschiedlichen Preisen angeboten werden können. Für deren Spezifikation stellt WS-Specification dabei wiederum verschiedene Qualitätsattribute (Verfügbarkeit, Durchsatz, Antwortzeit etc.) zur Verfügung, die aus der ISO 9126 Norm [ISO03] abgeleitet wurden (vgl. Abb. 8).
1554
S. Overhage, P. Thomas
... LyLsF0Pi4wPU... ... 364.9 ... 360 ... 20 1.5 ... 50 0.5 ... ...
Abbildung 8: Beispielspezifikation gemäß der Grey Pages von WS-Specification
Wie Fachbegriffe lassen sich auch Qualitätsattribute zur näheren Charakterisierung von Elementen der systemtechnischen Architektur (speziell der an den Schnittstellen angebotenen Dienste) verwenden. Mit ihnen lässt sich beschreiben, welches systemtechnische Element (welcher Dienst) gewisse Qualitätsmerkmale aufweist. Die Angabe solcher Beziehungen zwischen Qualitätsattributen und Architekturelementen wird von WS-Specification unterstützt, so dass diese ebenfalls den entsprechenden Schnittstellenelementen zugeordnet werden können.
5
Verwandte Arbeiten
Für die Entwicklung von WS-Specification wurden Vorarbeiten aus der Komponentenorientierung genutzt, wobei vor allem diejenigen zu Software-Verträgen und Vertragsebenen [Beug+99; ChDa01; Acke+02; Over04] zu nennen sind. Somit werden bewährte Erkenntnisse auf die Beschreibung von Web-Services übertra-
WS-Specification: Ein Spezifikationsrahmen zur Beschreibung von Web-Services
1555
gen, wodurch eine Parallelentwicklung vermieden wird. Zwar lassen sich einige der hier vorgeschlagenen Spezifikationen prinzipiell auch mit Policies beschreiben, die die Elemente einer Web-Service-Schnittstelle mit Zusicherungen (sog. Assertions) annotieren [KoLe04, S. 122f.]. Jedoch sind Policies schon wegen ihrer einfachen Struktur nicht in der Lage, die vorgeschlagenen Spezifikationsmechanismen (Ontologien, SLAs) zu ersetzen. Gleichzeitig umfassen die in diesem Beitrag dargelegten Konzepte eine Reihe von Ansätzen, die sich der Lösung spezieller Fragestellungen widmen, etwa der Spezifikation von fachlicher Semantik [MoAb03], Dienstverträgen [FeBu02] oder der Abhängigkeiten zwischen Diensten [Tolk03]. Mit ihrem Anspruch, einen Ersatz für den UDDI-Standard zu entwickeln, steht die Arbeit dabei in Zusammenhang zu anderen Ansätzen wie DAMLS (DARPA Agent Markup Language for Web Services [Anko+01]). Im Gegensatz zu diesen Ansätzen wahrt WS-Specification jedoch die Kompatibilität zum UDDIStandard und positioniert sich damit als Weiterentwicklung.
6
Schlussbetrachtung
Im Rahmen dieses Beitrags wurden UDDI-Erweiterungen vorgeschlagen und mit WS-Specification zu einem eigenständigen Ansatz zusammengefasst. Ein besonderes Augenmerk wurde dabei auf die Erfüllung der eingangs genannten grundlegenden Anforderungen gelegt, so dass eine möglichst gute Unterstützung für die Auswahl und Kopplung von Web-Services gegeben ist. Durch das aus der Komponentenorientierung übernommene Konzept der Dienst- und Kompositionsverträge sowie die systematische Herleitung der einzelnen Vertragsebenen wurde einerseits versucht, das Kriterium der Vollständigkeit zu erfüllen. Andererseits verfügt WS-Specification dank dieser Vorgehensweise auch über einen modularen Aufbau, so dass weitere Spezifikationen mit geringem Aufwand in den Spezifikationsrahmen eingefügt werden können. Zu erwähnen bleibt jedoch, dass der modulare Aufbau wegen der angestrebten Kompatibilität zu UDDI nicht bis in das Datenmodell durchgehalten werden konnte. Zudem sind die inhaltlichen und notationstechnischen Vorgaben von WS-Specification verbindlich, so dass der Spezifikationsrahmen als normativ zu bezeichnen ist. Durch die Möglichkeit der Kommentierung und den Einsatz von Notationen, die im Rahmen der Web-ServiceTechnologie Verwendung finden, erfüllt WS-Specification auch die Kriterien der Industriefähigkeit sowie der Verständlichkeit für Entwickler und Werkzeuge. Derzeit wird an einer Implementierung gearbeitet, die die Umsetzbarkeit demonstrieren soll. Während sich die Anwendung einzelner Spezifikationsteile bei der Auswahl und Kopplung von Web-Services aus den zitierten Arbeiten der Komponentenorientierung ergibt, ist die Einbringung von WS-Specification in die WebService-Technologie noch ungeklärt. Es wird jedoch angestrebt, den entwickelten Spezifikationsrahmen dem zuständigen Standardisierungsgremium vorzuschlagen.
1556
S. Overhage, P. Thomas
Literatur [Acke+02] Ackermann, J.; Brinkop, F.; Conrad, S.; Fettke, P.; Frick, A.; Glistau, E.; Jaekel, H.; Kotlar, O.; Loos, P.; Mrech, H.; Ortner, E.; Overhage, S.; Raape, U.; Sahm, S.; Schmietendorf, A.; Teschke, T.; Turowski, K.: Standardized Specification of Business Components, German Society of Computer Science, 2002. [Andr+03] Andrews, T.; Curbera, F.; Dholakia, H.; Goland, Y.; Klein, J.; Leymann, F.; Liu, K.; Roller, D.; Smith, D.; Thatte, S.; Trickovic, I.; Weerawarana, S.: Business Process Execution Language for Web Services Version 1.1. Specification, IBM Corporation, 2003. [Anko+01] Ankolekar, A.; Burstein, M.; Hobbs, J.; Lassila, O.; Martin, D.; McIlraith, S.; Narayanan, S.; Paolucci, M.; Payne, T.; Sycara, K.; Zeng, H.: DAML-S: Semantic Markup for Web Services. International Semantic Web Working Symposium (SWWS), 2001. [Appe+01] Apperly, H.; Booch, G.; Councill, W. T.; Griss, M.; Heineman, G. T.; Jacobson, I.; Latchem, S.; McGibbon, B.; Norris, D.; Poulin, J.: The Near-Term Future of Component-Based Software Engineering. In: Councill, W. T.; Heineman, G. T. (Hrsg.): Component-Based Software Engineering: Putting the Pieces Together. AddisonWesley: Upper Saddle River, NJ, 2001, S. 753-774. [Atki+02] Atkinson, B.; Della-Libera, G.; Hada, S.; Hondo, M.; Hallam-Baker, P.; Klein, J.; LaMacchia, B.; Leach, P.; Manferdelli, J.; Maruyama, H.; Nadalin, A.; Nagaratnam, N.; Prafullchandra, H.; Shewchuk, J.; Simon, D.: Web Services Security (WS-Security) Version 1.0. Specification, 2002. [Aust+04] Austin, D.; Barbir, A.; Ferris, C.; Garg, S.: Web Service Architecture Requirements. W3C Working Draft, World Wide Web Consortium, 2004. [Bett01] Bettag, U.: Web-Services. Informatik Spektrum 24 (5), 2001: S. 302-304. [Beug+99] Beugnard, A.; Jézéquel, J.-M.; Plouzeau, N.; Watkins, D.: Making Components Contract Aware. IEEE Computer 32 (7), 1999: S. 38-45. [Beute02] Beutenmüller, U.: Web Services: Top oder Flop? Information Management & Consulting 17 (3), 2002: S. 26-30. [Boot+03] Booth, D.; Haas, H.; McCabe, F.; Newcomer, E.; Champion, M.; Ferris, C.; Orchard, D.: Web Services Architecture. W3C Working Draft, World Wide Web Consortium, 2003. [BrGu03] Brickley, D.; Guha, R. V.: RDF Vocabulary Description Language 1.0: RDF Schema. W3C Working Draft, World Wide Web Consortium, 2003. [Cabr+02] Cabrera, F.; Copeland, G.; Cox, B.; Freund, T.; Klein, J.; Storey, T.; Thatte, S.: Web Services Transaction (WS-Transaction) Version 1.0, Specification, 2002. [Caul+01] Cauldwell, P.; Chawla, R.; Chopra, V.; Damschen, G.; Dix, C.; Hong, T.; Norton, F.; Ogbuji, U.; Olander, G.; Richman, M. A.; Saunders, K.; Zaev, Z.: Professional XML Web Services. Wrox Press: Birmingham, 2001. [Cera02] Cerami, E.: Web Services Essentials. O'Reilly: Sebastopol, CA, 2002.
WS-Specification: Ein Spezifikationsrahmen zur Beschreibung von Web-Services
1557
[ChDa01] Cheesman, J.; Daniels, J.: UML Components: A Simple Process for Specifying Component-Based Software. Addison-Wesley: Upper Saddle River, NJ, 2001. [Chin+04] Chinnici, R.; Gudgin, M.; Moreau, J. J.; Weerawarana, S.: Web Services Description Language (WSDL) Version 2.0 Part 1: Core Language. W3C Working Draft, World Wide Web Consortium, 2004. [CoDa94] Cook, S.; Daniels, J.: Designing Object Systems: Object-Oriented Modelling with Syntropy. Prentice Hall: Englewood Cliffs, NJ, 1994. [Crnk02] Crnkovic, I.: Component-Based Software Engineering - New Challenges in Software Development. Software Focus 2 (4), 2002: S. 127-133. [DSWi99] D'Souza, D. F.; Wills, A. C.: Objects, Components, and Frameworks with UML: The Catalysis Approach. Addison-Wesley: Upper Saddle River, NJ, 1999. [FeBu02] Fensel, D.; Bussler, C.: The Web Service Modeling Framework WSMF. Technical Report, Vrije Universiteit Amsterdam, 2002. [Garl+95] Garlan, D.; Allen, R.; Ockerbloom, J.: Architectural Mismatch: Why Reuse is So Hard. IEEE Software 12 (6), 1995: S. 17-26. [Hess02] Hesse, W.: Ontologie(n). Informatik Spektrum 26 (6), 2002: S. 477-480. [HoJu02] Hoidn, H.-P.; Jungclaus, R.: Web Services aus Sicht der UnternehmensArchitektur. Information Management & Consulting 17 (3), 2002: S. 31-35. [ISO01] ISO/IEC: Software Engineering - Product Quality - Quality Model. Nr. ISO/IEC Standard 9126-1, International Organization for Standardization, 2001. [ISO03] ISO/IEC: Software Engineering - Product Quality - External Metrics. Nr. ISO/IEC Standard 9126-2, International Organization for Standardization, 2003. [Kava+04] Kavantzas, N.; Burdett, D.; Ritzinger, G.: Web Services Choreography Description Language Version 1.0. W3C Working Draft, World Wide Web Consortium, 2004. [KnEg03] Knoblauch, S.; Egardt, V.: Service Level Management als Grundlage erfolgreicher IT-Outsourcing-Kundenbeziehungen. Information Management & Consulting 18 (SH), 2003: S. 28-31. [KoLe04] Kossmann, D.; Leymann, F.: Web Services. Informatik Spektrum 26 (2), 2004: S. 117-128. [LaSw99] Lassila, O.; Swick, R. R.: Resource Description Framework (RDF) Model and Syntax Specification. W3C Recommendation, World Wide Web Consortium, 1999. [McIl68] McIlroy, M. D.: Mass Produced Software Components. In: Naur, P.; Randell, B. (Hrsg.): Software Engineering: Report on a Conference by the NATO Science Committee, Brussels, 1968. S. 138-150. [Meye92] Meyer, B.: Applying "Design by Contract". IEEE Computer 25 (10), 1992: S. 40-51. [Minz+02] Minz, R.; Datel, A.; Wenzky, H.: Web Services - nur eine Schimäre? Information Management & Consulting 17 (3), 2002: S. 6-12.
1558
S. Overhage, P. Thomas
[Mitr03] Mitra, N.: SOAP Version 1.2 Part 0: Primer. W3C Recommendation, World Wide Web Consortium, 2003. [MoAb03] Montebello, M.; Abela, C.: DAML Enabled Web Services and Agents in the Semantic Web. In: Chaudri, A. B.; Jeckle, M.; Rahm, E.; Unland, R. (Hrsg.): Web, Web-Services, and Database Systems. Springer, Berlin, Heidelberg: Lecture Notes in Computer Science Vol. 2593, 2003, S. 46-58. [Nier95] Nierstrasz, O.: Regular Types for Active Objects. In: Nierstrasz, O.; Tsichritzis, D. (Hrsg.): Object-Oriented Software Composition. Prentice Hall: Upper Saddle River, NJ, 1995, S. 99-121. [Olle+91] Olle, T. W.; Hagelstein, J.; MacDonald, I. G.; Rolland, C.: Information Systems Methodologies: A Framework for Understanding. Addison-Wesley: Wokingham, 1991. [OMG97] OMG: Object Constraint Language, Version 1.1. Specification, Object Management Group, 1997. [Over04] Overhage, S.: Zur Spezifikation von Komponenten der Informationssystementwicklung mit Softwareverträgen. In: Rebstock, M. (Hrsg.): Modellierung betrieblicher Informationssyteme - MobIS 2004, Proceedings zur Tagung, 10. März 2004, Essen, Germany, 2004. Köllen: Lecture Notes in Informatics Vol. P-41, S. 3-20. [Sche98] Scheer, A.-W.: ARIS: Vom Geschäftsprozess zum Anwendungssystem. 3. Ed., Springer: Berlin, Heidelberg, 1998. [Schi97] Schienmann, B.: Objektorientierter Fachentwurf: Ein terminologiebasierter Ansatz für die Konstruktion von Anwendungssystemen. Teubner: Stuttgart, Leipzig, 1997. [Spee+01] Speed, J.; Councill, W. T.; Heineman, G. T.: Component-Based Software Engineering as a Unique Engineering Discipline. In: Councill, W. T.; Heineman, G. T. (Hrsg.): Component-Based Software Engineering: Putting the Pieces Together. Addison-Wesley: Upper Saddle River, NJ, 2001, S. 673-691. [Tolk03] Tolksdorf, R.: A Dependency Markup Language for Web Services. In: Chaudri, A. B.; Jeckle, M.; Rahm, E.; Unland, R. (Hrsg.): Web, Web-Services, and Database Systems. Springer, Berlin, Heidelberg: Lecture Notes in Computer Science Vol. 2593, 2003, S. 129-140. [UDDI02] UDDI Organization: UDDI Open Draft Specification. Public Draft, Universal Description, Discovery, and Integration Standards Organization, 2002. [Vith+03] Vitharana, P.; Zahedi, F.; Jain, H.: Knowledge-Based Repository Scheme for Storing and Retrieving Business Components: A Theoretical Design and an Empirical Analysis. IEEE Transactions on Software Engineering 29 (7), 2003: S. 649-664. [Weyu01] Weyuker, E. J.: The Trouble with Testing Components. In: Councill, W. T.; Heineman, G. T. (Hrsg.): Component-Based Software Engineering: Putting the Pieces Together. Addison-Wesley: Upper Saddle River, NJ, 2001, S. 499-512. [ZaWi95] Zaremski, A. M.; Wing, J. M.: Signature Matching: A Tool for Using Software Libraries. ACM Transactions on Software Engineering and Methodology 4 (2), 1995: S. 146-170.
Einführung in den Track Mobilität und Mobile Systeme Franz Lehner Universität Passau
Klaus Turowski Universität Augsburg
Christoph Schaffer Fachhochschule Hagenberg
Jens-Thomas Pietralla Siemens AG Europa nimmt auf dem Gebiet der Mobilkommunikation eine internationale Spitzenposition ein, der Markt für mobile Anwendungen blieb jedoch bisher hinter den Erwartungen deutlich zurück. Bei den potenziellen Anwendern gibt es viele Bedenken mit Blick auf die Investitionssicherheit und mögliche Geschäftsmodelle, die voraussichtlichen Kosten für den Betreiber, sowie mögliche Sicherheitsprobleme. Die Bedeutung des Faktors Mobilität als gesellschaftliches und ökonomisches Phänomen ist dennoch unübersehbar. Dies hat zu einer zwiespältigen Situation geführt, welche insbesondere für die Forschung der Wirtschaftsinformatik viele neue Fragestellungen aufwirft und deren Lösung eine große Herausforderung darstellen. Die Überbrückung räumlicher Distanzen und die Integration zusammengehörender Geschäftsvorgänge reichen vom ortsunabhängigen Zugriff auf Informationen bis zur Nachfrage ortsabhängiger Serviceleistungen (location based services). Die dynamische Entwicklung auf dem Gebiet mobiler und ubiquitärer Technologien und ihre zunehmende Integration in das Internet haben ein vielfältiges und neues Anwendungsfeld entstehen lassen, das von hoher praktischer Relevanz ist, wo aber der Durchbruch auf dem Markt nur in Ausnahmefällen gelungen ist. Für die Wirtschaftsinformatik eröffnet sich hier ein weites Betätigungsfeld. Beginnend beim Geschäftsmodell und dem Markt für M-Commerce - mit Blick auf UMTS sucht seit einiger Zeit eine ganze Branche intensiv nach sogenannten Killerapplikationen - reicht das Spektrum über mobile Geschäftsprozesse bis zur Technologiebewertung und der Infrastruktur für mobile Informationssysteme sowie Methoden und Vorgehensmodelle für die Entwicklung mobiler Anwendungs-
1560
Mobilität und Mobile Systeme
systeme. Ziel des Tracks ist die Auseinandersetzung mit aktuellen Themen aus dem gesamten Umfeld mobiler Systeme, wobei der Fokus neben theoretischen und technischen Aspekten auch auf der Anwendungsseite und auf Marktaspekten liegt.
Track-Programmkomitee Prof. Dr. Franz Lehner, Universität Passau (Chair) Prof. Dr. Klaus Turowski, Universität Augsburg (Chair) Prof. Dr. Christoph Schaffer, Fachhochschule Hagenberg (Chair) Jens-Thomas Pietralla, Siemens AG (Chair) Prof. Dr. Michael Amberg, Universität Erlangen-Nürnberg Prof. Dr. Volker Gruhn, Universität Leipzig Prof. Dr. Rony Flatscher, Wirtschaftsuniversität Wien Prof. Dr. Stefan Hinterholzer, Fachhochschule Hagenberg Dr. Birgitta König-Ries, Universität Jena Prof. Dr. Helmut Krcmar, Technische Universität München Prof. Dr. Joachim Posegga, SAP AG Key Pousttchi, Universität Augsburg Prof. Dr. Kai Rannenberg, Universität Frankfurt a.M. Dr. Ingo Schneider, T-Mobile International Prof. Dr. Petra Schubert, Fachhochschule beider Basel Prof. Dr. G. Schwabe, Universität Zürich Prof. Dr. Volker Wulf, Universität Siegen
Approaches for Device-Independent Content Delivery to Mobile Devices BoĪena Jankowska European University Viadrina
Abstract: The Web and enterprise information systems are gradually increasing their reach to a wide range of mobile devices. These devices, however, support different formats and possess device-specific features. This raises the problem of creating separate presentations for each device type or, at least, for each class of devices. Instead of designing many pages, content authors may use a deviceindependent technique which will help them to render suitable content automatically. This paper introduces the principles of device-independent content delivery and outlines various mechanisms and technologies for generation of deviceindependent applications. It also describes a developed Mobile Interfaces Tag Library (MITL) – a solution that automatically produces appropriate content depending on the detected device characteristics. Keywords: device independence, mobile delivery context, mobile computing, adaptability of mobile content
1
Introduction
With the increasing popularity and falling prices for various types of wireless devices such as PDAs, SIMpads, Palmtops or mobile phones, the needs and expectations of consumers regarding access, availability and consumption of information are continuously evolving. More and more users take advantage of the enticing promise of mobile computing - to obtain data through different access mechanisms from any location and at any time. According to the Trend Research [Lehn02, pp. 8-9] mobile users are mainly interested in reading messages such as e-mails or SMS (81%), accessing ERP functionality (72%), viewing Intranet information from their own company (68%), checking typical Web information such as news, stock prices, travel or weather services (57%) and communicating with different databases (44%)1. Established vendors of information systems such as SAP [SAP01] or Baan [Forr03] recog-
1
In this survey multiple answers were possible.
1562
B. Jankowska
nized the possibility of added business value through mobile access to desktop- or Web-based applications and developed mobile front-ends to their systems. Worldwide, most of the online newspapers, information services, market trading services and travel agencies also offer slimmed, mobile versions of their Web sites.2 It is estimated that in 2004 at least half of the Fortune2000 companies will support wireless systems [Dula03]. However, from the German top 500 enterprises listed under http://www.top500.de, in 2003 only 10% had WAP-sites [CeKuNo04, p. 59]. Enterprises without wireless presence probably do not expect to gain additional customers by presenting their business offer in a way that will enable mobile users to access it or the development and maintenance costs for mobile pages are higher than possible benefits from such sites. Gartner Group predicts that in 2004 nearly 800 million people will use mobile devices and IDC estimates that mobile subscribers will grow from 395 million to 1 billion in 2005 [Dula03]. Despite this rapid growth in the number of mobile users and increasing use of wireless devices in private and professional life, the acceptance of mobile Web sites is still low [Hueb+03, p. 43; Reck01]. The missing approval can be partially attributed to relatively high transmission costs, large download times due to low bandwidths and small screen sizes, but the crucial reason remains the lack of well-designed, high-quality mobile applications. A recent study on 77,506 WML pages showed for example that 19% of them were faulty. 31% of incorrect sites referred to dead links or links that could not be displayed in mobile browsers. 27% could not be shown because they exceeded the allowed deck-size of 1,400 octets. 32% of the sites were not displayed due to various violations of WML-DTD specification [CeKuNo04, pp. 61-62]. In the study, navigation and pagination issues were not analyzed, but they are also considered as typical problems of tailoring Web sites to mobile appliances. Nowadays, more and more enterprises decide to reach customers equipped with wireless appliances. Consequently, their programmers are forced to develop content that is targeted for various devices and takes into account their characteristics. The efforts and expenses involved in manual adaptation of the content (e.g. by developing many different views of the same data and applying them according to the device-specific presentation features) are unreasonably high. They encompass rewriting applications for various browsers, markup languages and device types, maintaining large code bases and continuous market research on characteristics of novel devices. Ideal solution would therefore consist in creating of only one version of the content for all appliances. Special adaptation software should then take care of a respective presentation which would match the device's capabilities. Although this vision may be very tempting, there are some core questions that have to be addressed by approaches for automatic generation of device-independent content. They encompass the following issues: 2
See the directories of WAP-sites under: http://wapjag.com, http://mobile.yahoo.com, http://www.2thumbswap.com, http://www.mopilot.com.
Approaches for Device-Independent Content Delivery to Mobile Devices
a)
1563
How to express an application independently of the targeted devices?
b) How to adapt device-independent applications to suit device-specific characteristics? c)
How to give authors the possibility to retain some control over the final presentation of their content?
Current Web technologies such as Cascading Style Sheets [W3C04] or XForms [W3C04e] can answer the questions only partially. Therefore developers and researchers worldwide work on new solutions that would enable device-independent content delivery to different devices. The focus of the research is on matching the content with the needs, capabilities and limitations of the delivery environment. A further goal is to maximize the number of devices to which the content can be delivered by proposing authoring techniques that do not apply only to limited set of appliances. Solutions for device-independent content delivery usually fall into one of three broad adaptation categories: client-side, intermediate or server-side adaptation. This paper describes the existing approaches and introduces a server-side adaptation method called Mobile Interfaces Tag Library (MITL) that automatically adapts the content to the features of mobile appliances. It detects devices characteristics using information included in CC/PP profiles or, alternatively, HTTP headers [W3C03] and delivers data in HTML [W3C99], WML [WAP02] and XHTML [W3C03b], taking into account also the supported graphical formats. The paper is organized as follows: Section two describes the principles for deviceindependent content delivery. Subsequent section provides an overview of existing methods for the delivery of contextual information with regard to different devices. In section four common technologies and specific approaches for deviceindependent content delivery are described. Next section introduces the developed Mobile Interfaces Tag Library, provides a detailed description of its functionality and presents an exemplary application. It gives also an overview of the Integrated Development Environment (IDE) for MITL that facilitates the development of MITL-based documents and presents an evaluation of MITL. In last section issues for further research are discussed and some concluding remarks are provided.
2
Principles for Device-Independent Content Delivery
To enhance user experience with the content delivered to variety of devices, W3C consortium specified principles for device independence [W3C03]. These principles should not be regarded as strict set of requirements. They should rather serve as guidelines for the design of applications based on existing markup languages, during the development of adaptation tools, in the process of extending existing markup languages or for the evolution of new markups. According to these princi-
1564
B. Jankowska
ples, content adaptation aspects can be considered from three different perspectives: the user’s perspective, the author’s perspective and the delivery perspective. Generally speaking, the user would like to interact with the Web using various devices and via many kinds of access mechanisms. From the user’s perspective two most important aspects of content adaptation are the device-independent access to the same functional presentation and device-independent Web page identifiers. Device independent access means that the user is able to obtain equivalent functionality of an application regardless of the device. Obviously, the presentation will not be the same on every device and its quality may vary. The intended function of a page should be associated with only one Web page identifier, and should apply to all presentations obtained from the Web page identifier, no matter what the access mechanism is. For example, a user who enters one URL for a weather service in a browser on his PDA and in a browser on WAP-enabled mobile phone should see the forecasts for a chosen city in form of texts and/or images. On a screen of the mobile phone the temperatures and WBMP images symbolizing the weather conditions will be displayed. On the PDA the user will get colored JPEG pictures and more detailed information about weather due to the larger screen. Navigation structures and pagination will vary but the user will be able to see the weather forecast for the same cities. User experience in form of messages “cannot display image” or “deck’s size too large” are considered as delivering a nonequivalent functionality. From the author’s perspective it should be possible to provide a functional presentation, in response to a request associated with a specific Web page identifier, in any given delivery context that has an adequate access mechanism. This principle is simply a restatement from the author’s perspective of the principles mentioned above. The adaptation process should provide a presentation that allows a user to successfully access a Web page to get the information or complete the interaction intended. If a functional presentation of an application cannot be delivered due to inherent limitations in the access mechanism, an appropriate error message should be shown to the user. Additionally, it should be possible to provide a customized and harmonized presentation depending on the device capabilities. The author should be able to control the presentation on different devices. It is unrealistic to expect from an author to create different presentation data for every delivery context. Whenever possible, authored source content should be reused across multiple delivery contexts. Delivery-related adaptation principles encompass the characterization of delivery context and delivery preferences. The term delivery context refers to the set of attributes that are given for particular delivery environment. The adaptation software should be able to associate the characteristics of the delivery context with a request of a particular Web page identifier. Unless the characteristics of the delivery context can be made available to the adaptation process, it will not be possible to know whether a specific presentation of content can be delivered in that context, or how to generate a suitable presentation. It should be possible for a user to provide or update any presentation preferences as part of the delivery context
Approaches for Device-Independent Content Delivery to Mobile Devices
1565
(context-aware applications). If the user provides presentation preferences, they may be used by the adaptation process to offer a more suitable presentation, after taking into account the constraints of the network and device. The process may allow the user to obtain the most appropriate presentation for their abilities and circumstances.
3
Delivery Context
Content adaptation has to be based on information about the delivery context. This can include the relevant features of devices such as supported markup languages or graphical formats, recognized browser types, screen sizes, maximally allowable deck size, etc. Additionally, delivery context may provide data about network’s characteristics, user preferences or application-specific parameters such as user’s location. Currently, there are six commonly-known standards that help to obtain the delivery context and some further specifications are in progress. The popular approaches include the HTTP headers, the W3C Composite Capabilities/Preference Profiles (CC/PP), the WAP User Agent Profile (UAProf), the SyncML Device Information standard (DevInf), the Media Queries and the Universal Plug and Play Standard (UPnP) [see W3C02 for more details]. Delivery context is usually extracted from the HTTP standard Accept headers [W3C02]. These headers contain information about the character sets, supported media types, languages and content encoding. Additionally, the User-Agent header comprises data about the device manufacturer, the version number, the device hardware and the browser used. Crucial contextual information included in the User-Agent header is not standardized and depends on the good will of device manufacturers. The Composite Capability/Preferences Profile (CC/PP) [W3C04a] recommended by the W3C consortium delivers contextual information related to device specifications and user preferences. The standard is based on the Resource Description Framework (RDF) [W3C04c] serialized to Extensible Markup Language (XML) [W3C04b]. CC/PP is vocabulary independent and allows using vocabularies which may be optionally described by RDF Schema [W3C04d]. It is composable/decomposable and enables the dynamic creation of context profiles from fragments of capabilities information that are distributed among multiple repositories on the web. A CC/PP profile can describe a number of components (e.g. a mobile browser) by specifying their attributes (e.g. type, version and name of the browser, supported MIME types, its screen size, etc.). The WAP Forum has defined User Agent Profiles (UAProf ) as part of its WAP specification. [WAP02] UAProf is an implementation of CC/PP for WAP-enabled mobile terminals and is transported with the help of CC/PP headers over HTTP. It
1566
B. Jankowska
has a two level hierarchy composed of components and attributes with specified vocabulary and can be written in RDF serialized to XML. Profiles using the UAProf vocabulary consist of six components: HardwarePlatform, SoftwarePlatform, NetworkCharacteristics, BrowserUA, WapCharacteristics and PushCharacteristics. UAProf proposes specific transfer syntax for profile and profile differences, as well as resolution rules for default values of properties and difference values. First commercial implementations of UAProf are already available for WAP proxies as well as browsers and the Mobile execution Environment group within the European Telecommunications Standards Institute (ETSI) has agreed to adopt UAProf for asserting device capabilities in future wireless appliances [SaHj01, p. 42]. The SyncML initiative (http://www.syncml.org) strives to develop a common synchronization protocol for data exchange between servers and devices such as mobile phones, PDAs and desktop PCs. Before the synchronization can take place, the devices have to exchange information about their capabilities. For this purpose SyncML Device Information standard (DevInf), implemented in XML, is used. The DevInf description delivers data about the device, its data storage and supported extensions as well as accepted content types. Universal Plug and Play (http://www.upnp.org) is a standard supported by Microsoft. It is targeted at device independent interconnection and uses XML to describe device capabilities. UPnP assumes that the devices will use XML together with XSL [W3C03c] to manipulate the device description and display for example only certain information about its capabilities. Media Queries [W3C02a] are a standard that is usually processed directly on a client using local delivery context. Media Queries are based on the media types defined in CSS2 specification [W3C04]. In CSS, specific styles can be applied according to a number of named categories of devices, e.g. aural, embossed, handheld, print, tv, etc. The style used to present an element of HTML, XHTML or XML depends therefore on the attributes of the delivery device. With help of the CSS “display” property, it is possible to include or exclude certain elements from the presentation. For the delivery of mobile context, HTTP headers and CC/PP are the most commonly used approaches [W3C02, SpGo02]. Interestingly, CC/PP standard enjoys increasing popularity among developers, but device vendors are still reluctant to implement it.
Approaches for Device-Independent Content Delivery to Mobile Devices
4 4.1
1567
Approaches for Device Independence Methods for Content Adaptation
Four categories of methods are used for fitting the same content to different categories of devices: scaling, manual authoring, transducing and transforming [cf. Schi+02, pp. 38-40]. Scaling is a relatively old approach that allows scaling down the content in a viewer using some kind of a “fit-to-screen” feature or alternating the portion of page displayed at any given time (e.g. by using zooming functionality). Scaling can be applied for high-resolution color displays (e.g. Pocket PC) equipped with browsers with vertical and horizontal scrolling capability. It reduces the readability of a site and makes the interaction and navigation more difficult. Zooming was applied for viewing information at multiple scales in different devices by Pad++ already in 1994 [BeHo94]. Manual authoring is a very work-intensive method consisting in creation of separate content that fits particular devices. This approach leads to well-designed pages with good layout and navigation possibilities but is only feasible if the amount of pages is small and enterprises can afford high development and maintenance costs. Since manual authoring is not a cost-effective solution, techniques that allow automatic device-independent authoring become more and more popular. Transducing is one of such approaches. It translates HTML and images into supported formats (e.g. WML, XHTML) using a proxy. This method falls into the intermediate adaptation category, where an intermediary controls the adaptation process. A mobile device requests a Web site through a proxy such as Mobile Google (http://mobile.google.com) or Wingman [Fox+98]. The proxy retrieves the content associated with a particular URL, transduces it into appropriate formats and compresses or converts images to supported types. In this approach, adaptation abilities are limited because intermediaries usually lack specific information about the pages. Proxies cannot guarantee that the transcoded content will be usable on the device which required it. For example, compressed WAP pages cannot exceed the size of 1.4 KByte and the transcoding proxy has to split up the HTML pages so that they fulfill this requirement. This may lead to unusable navigation structures or damaged layouts. Transforming is a method that gained increased recognition in last years. In this approach content is changed to the appropriate format and the transcoding proxy modifies the content structure (e.g. replacing tables with lists or altering navigation elements) and the way of interacting with the content. Transcoding proxies use different techniques to render a Web page on a small-screen device. Existing approaches apply various transcoding heuristics [HwSeKi03], semantic annota-
1568
B. Jankowska
tions [HoAbOn03] or text summarization techniques [BuMoPa01]. For example the m-Links system completely changes the Web page layout [Schi+01]. It splits one page into multiple small sub-pages and displays it as a collection of links, which lead to appropriate textual descriptions.
4.2
Exemplary Adaptation Approaches
Recently, the number of approaches for tailoring data to various devices increased rapidly, proving the growing interest in device-independent content delivery. The proposed methods belong to three categories: intermediate, client-side and serverside adaptation. Some examples of intermediate adaptation that requires an additional middle layer called proxy were described in the previous section. Client-side adaptation is not a commonly used method because the adaptation code needs an access to device’s capabilities. As an example of client-side adaptation Cascading Style Sheets (CSS) are usually named. CSS allow styling of HTML, XHTML, XML and Scalable Vector Graphics [W3C03a]. Authors can use appropriate style sheets to define different presentation rules for various media types or to omit certain fragments of pages, for example on mobile devices. Server-side adaptation, in which a server is in charge of content delivery, gained the widest acceptance of authors. The server can respond to a user’s request and deliver radically different content, depending on the obtained delivery context. The differences relate to the amount of information, presentation style, navigation and layout. A common server-side adaptation method consists of retrieving data from an information system in XML format and converting them on the server-side to the appropriate markup language with eXtensible Style Sheet Language Transformations and an XSLT processor. In this technique content is separated from presentation and the same data can be presented in different ways, depending on a style sheet. However, if the view changes, every style sheet has to be updated separately. Cocoon [MoAs02] is another server-side adaptation approach. It is a publishing framework written in Java language to provide content in multiple markup languages such as HTML, XHTML, WML, etc. It is based on the concept of complete division between three layers: document content, style and logic. Content, logic and style are separated out into different XML files, XSL transformation capabilities are then used to merge them. The Cocoon model allows sites to be highly structured and well-designed, reduces duplication and site management costs. It permits different presentations of the same data depending on the requesting client. The main disadvantage of this framework is slow transformation of
Approaches for Device-Independent Content Delivery to Mobile Devices
1569
XML files into desired markup language and separate Web identifiers for each markup language. Another approach for delivering information to different devices in a deviceindependent way is the User Interface Markup Language (UIML) [Abra+99]. UIML permits a declarative description of a user interface and separates the interface from the application logic and device type. UIML document can be mapped to any type of user interface (e.g. Java AWT, WML, HTML). The developed language is not an open-source project and the technology for generating specific output cannot be evaluated. To address the needs of web developers who build applications for a variety of devices, the W3C has invented XForms [W3C04e]. XForms is characterized by the separation of content, presentation, and logic, similarly to Cocoon. The content is the fundamental data model, the presentation describes the appearance on different platforms, and the logic defines dependencies between form elements and additional functionality. XForms enables the validation of user input at the client within the browser. This reduces client-server interactions and server load. Furthermore, XForms provides means to calculate values from user input at the client. Most mobile devices, however, do not currently support special browsers for viewing XForms. Mobile Application Markup Language [ScKo03] is a language based on XHTML syntax. It defines main elements of the document, which are then written in XML and converted to the end format using XSLT. The architecture of MAML is based on Java servlets with chains of filters. Filters are responsible for identifying the required content type and for transforming the XML documents with help of XSLT. The main drawback of the MAML approach is scarce device context and missing fragmentation method for creating user-friendly mobile interfaces. Renderer Independent Markup Language (RIML) is part of a Consensus project, and it aims at the development of highly-usable mobile applications [Gras+02]. The documents are written in RIML, which is based on the XForms standard and then transformed by an adaptation engine to a specific device at runtime. The adaptation of large data-sets and navigation structures to devices with limited interaction capabilities are also taken into account by this approach. This method is relatively new and is still under development. Further adaptation approaches include new languages such as Dialog Description Language [SpGo02], specific architectures such as MVC [John+02] or Struts (http://jakarta.apache.org/struts) or extensions to existing languages such as JavaServer Faces [Sun03].
1570
5 5.1
B. Jankowska
Mobile Interfaces Tag Library Approach Description of the Mobile Interfaces Tag Library (MITL)
The developed library for device-independent content delivery to mobile devices is a server-side approach, especially useful for designing pages with medium complexity. It takes care of the pagination and creation of appropriate navigation elements and avoids the high complication level of languages such as UIML or RIML. It is based on JavaServer Pages feature called JSP tag libraries [ShChaRy01]. Tags are Java classes which are interpreted on the server side. They encapsulate functionality that can be used from a JSP page. Examples might be conditional logic, database access, internationalization, etc. The Mobile Interfaces Tag Library (MITL) generates appropriate markup elements in WML, XHTML and HTML depending on device context. The library was developed taking into account the requirements for device-independent content delivery specified by the W3C Consortium. MITL is easy to use and enables rapid prototyping of applications designed for different devices. Authors have to include only one tag for displaying a particular element in three different formats. Applying this tag library divides the work of developing multiple views of the same data between JSP programmers responsible for the functionalities encapsulated in tag libraries (presentation logic) and developers of pages who are in charge of the layout and maintenance of Web sites. External CC/PP repository
WML CC/PP profiles
XHTML Tag Library HTML
MITL document
Web Server Figure 1: Document processing with MITL
Client
Approaches for Device-Independent Content Delivery to Mobile Devices
1571
Figure 1 illustrates the overall structure of request processing with help of MITL. A client sends a request for a JSP page and delivers information about device capabilities in form of HTTP headers or CC/PP profiles. A Web server (e.g. Apache Tomcat) looks for a document which was requested and processes it on the server side. The MITL tag library retrieves information about the device context (supported formats, screen size, etc.) using the data from HTTP headers or extracting relevant information from a local or external repository of CC/PP profiles. Then it converts each tag in the document to the appropriate element in a particular format. For example the ““ tag is converted into “ Welcome [...] “ for browsers supporting HTML. The information about the Java classes responsible for the conversion is stored in XML format in the tag library descriptor files (TLD). The output is sent back as a response to the client and displayed in the appropriate browser. The MITL library contains the following tags: x DocTag – depending on the detected browser type generates the root elements for HTML, WML or XHTML, the title of a page and specifies the link to an appropriate CSS stylesheet in XHTML and HTML. Alternatively, it is able to generate CSS stylesheets automatically, basing on the retrieved device characteristics. Since the applications are served by the server, the tag also sets a correct MIME type for each device (e.g. text/html for html, text/xml+xhtml for XHTML, etc.). Information about the devices’ features is retrieved in a DocTag which is always the first tag used in a page. The tags are able to communicate with other tags on the same page. Therefore, the DocTag detects the browser type as well as its capabilities and all other tags use this information for content adaptation. This decreases the number of data exchanged between the client and server and enables faster processing of requests. The DocTag determines the form of presentation depending on the relevant features of a device. It uses the CC/PP profiles to obtain the delivery context, or, if no CC/PP are provided, the HTTP headers. For processing of CC/PP profiles, DELI is used [Butl02]. x WmlYes/WmlNoTag - WmlYesTag indicates that elements enclosed in the WmlYes tags should be included in the output for browsers supporting WML. WmlNoTag enables the elements enclosed by these tags to be excluded in the output for browsers supporting WML and presented only in browsers with XHTML or HTML support. x DeckTag - produces a WML card or a deck of many cards. For each card a card title and card name is generated. It also offers the possibility to specify the tasks (such as „forward”, „back”, „accept”,etc.) or the amount of time after which the user is redirected to a new page.
1572
B. Jankowska
x FragmntOn, Title, Desc, Details – these tags identify that automatic fragmentation of text according to the screen size should be performed and categorize basic elements of the text such as its title, general description and details. x PaginationTag – is in charge of pagination of large data sets and emulates different pagination and indexing styles (e.g. “previous item-next item”- style). x TableTag – draws a table with such optional attributes as background color, border size as well as values for cellpading and cellspacing elements. For WML it also gives the number of columns. x RowTag – draws a row in a table. The developer can specify a color for a row, its height and width. x CellTag – draws cells in a row with specified height, width and background color. x HyperlinkTag – produces link elements in HTML, WML and XHTML. x ImageTag – creates appropriate images depending on device features. By default an image is converted to the first format supported by a browser (e.g. WBMP, JPG, PNG). The conversion takes into account the information about device’s displaying capabilities such as the size of the screen, the supported color depth, etc. The developer can also explicitly specify to which format the image should be converted for a particular device as well as specify exactly the characteristics of the image such as its resolution and size. If no graphical format is supported, textual description is rendered. For image conversion a class library called JIMI (http://java.sun.com/developer/products/jimi) is applied. This is the Sun development kit for reading and writing several formats including GIF, JPEG, TIFF, PNG, BMP and ICO. x FormTag and FieldTag – generate a form with different field tags such as input text boxes, text areas, buttons, etc. x ListTag, ListElement Tag – generate lists and their elements. x LConvTag – converts lists into tables and tables into lists. x TConvTag – converts one table into another with different characteristics such as different number of columns and rows. The defined tags offer a web application developer the possibility to control how data is processed in back-end Java components without including any Java code in the JSP page. The tags allow furthermore for generation of completely different presentation layers. Content transformed by the MITL can be in form of regular text or XML data. In the second case the XML source has to be transformed with the help of XSLT in order to extract specific data or modify them. MITL tags can be combined with any Java code or markup-specific tags.
Approaches for Device-Independent Content Delivery to Mobile Devices
5.2
1573
Integrated Development Environment for MITL
The Integrated Development Environment (IDE) for MITL was developed in order to facilitate the programming of MITL applications (cf. figure 2). It was programmed with help of Oracle JDeveloper 10g [Orac04] using Java AWT and Swing components. It can be therefore used on a wide variety of computing platforms, working the same way no matter where it runs. The IDE enables inexperienced programmers to write an application without knowing the MITL structure in detail and validates the syntax, decreasing the possibility of application’s errors. For all tags the attributes are displayed explicitly in form of panels with text boxes, which reduces significantly the time needed for writing a MITL document, because tag elements do not have to be learned by heart. For some of the tags a set of the allowed attributes is provided in a drop-down list (cf. figure 2). Additionally, obligatory attributes are marked with red color and an asterisk - the application will prompt user to complete the tag if these are left empty.
Figure 2: Integrated Development Environment for MITL
1574
B. Jankowska
The IDE is integrated with some mobile simulators, Internet Explorer and Netscape and provides the possibility to view the resulting output on a specified device. The environment is highly configurable – the user can choose the server on which the libraries should run as well as the simulators. It also possesses the standard functionalities such as cut/copy/paste, text formatting, windows manipulation or operations on files. The icons representing available tags are grouped regarding their functionality on one taskbar (e.g. the TableTag, RowTag, CellTag are placed together and distinctly separated from other tags so that it is easy for a user to locate and apply them), all other icons (e.g. responsible for starting the web server, viewing the file in various browsers, saving it, etc.) can be found on another taskbar. All preprogrammed tags and features of the developed IDE can also be accessed by using the drop-down menus. Extensive help with introduction on how to use the environment, examples of simple and sophisticated documents written using the MITL, and answers to typical problems are provided, so that even a new user can quickly write an own MITL page.
5.3
Example of MITL Application
Figure 3 demonstrates a simple Web page of a weather forecasting service generated with the MITL library and rendered differently in various browsers. The content of one big HTML page was split into many pages for devices supporting XHTML and WML with regard to the screen size. Appropriate navigation elements were generated on each page in order to obtain detailed characteristics of the displayed item. Depending on supported image formats, the images were converted to appropriate types such as GIF or WBMP. The data was retrieved from a database with help of DBTags library [Apac04]. This library can be applied to build a connection with the database and to retrieve appropriate data relying on the JDBC mechanism. Instead of writing Java code embedded in a JavaServer Page, author can make use of specific tags for building a connection to database, sending queries or retrieving results. The pagination was performed with the PaginationTag, whereas the number of displayed elements (cities) depends on the screen size of a device and calculated number of visible lines. Two different styles were applied for pagination: the “previous item – next item”-style for mobile devices and alphabetical division of items (e.g. cities starting with letters from A to F were grouped together). The HTML page is split into subpages on mobile devices due to the use of the DeckTags. They are ignored in the case of Web browsers and allow to split one page into a chosen number of smaller pages (so-called cards). Content may be also included or excluded in certain browsers with the WMLYes/WMLNoTags. Images were converted to appropriate formats (WBMP and GIF) and scaled using
Approaches for Device-Independent Content Delivery to Mobile Devices
1575
JIMI features implemented in ImageTags. Although this example is very simple, it shows some of the possibilities of the MITL library.
a)
b)
1576
B. Jankowska
c) Figure 3: The same page presented in different browsers on different devices. a) Internet browser supporting HTML b) Nokia Mobile Browser Simulator 4.0 with a browser supporting XHTML c) Nokia 5100 with a browser supporting WML and WBMP
5.4
Evaluation of MITL
The Mobile Interfaces Tag Library was designed for creating simple and intermediately complex mobile applications from scratch. Alternatively, it can be used to convert existing HTML pages into wireless sites by extracting data from Web pages using wrappers [KuTr02] but the entire control over the conversion process is left to authors. MITL enables communication with different databases (with DBTag library) and provides support for structural tasks such as iteration and conditionals, text inclusion or internationalization (JSTL library). The most important advantage of MITL is, however, the fact that the language can be used by non-professional programmers and occasional users because the syntax is similar to other, commonly-known markup languages. The user does not have to know the elements of MITL since the pages can be generated using the IDE. Compared with other languages, e.g. UIML or RIML, the user is able to develop device-independent applications after a short introductory course, because of limited number of elements implemented and transparent structure of the language. As the history of SGML and HTML showed, these are very important features for the wide acceptance of new solutions. Most mobile pages possess a relatively simple structure. Content authors do not use for example tables as layout elements and do not squeeze many different elements in one row. They rather place them in a sequential manner and the user has to scroll down to see more content [SAP00; Jone+99]. Therefore creating one page for various devices in different markup languages does not require complicated transcoding heuristics or automatic summarization techniques [BuMoPa01;
Approaches for Device-Independent Content Delivery to Mobile Devices
1577
HwSeKi03]. Problems arise if existing Web sites should be converted to mobile pages because their navigational structures, amount of content per screen and layout strongly diverge. It is much easier to assemble a Web page from mobile cards then convert existing HTML pages to wireless sites because of insufficient separation between logic, data and presentation. MITL is not applicable for automatic conversion of Web pages because it lacks mechanisms for recognizing document structure, generating summaries or extracting keywords from large fragments of text. Another drawback of MITL results from insufficient support of delivery context by device manufacturers. MITL does not use its own database with profiles of devices; instead of this it relies on the information about device characteristics delivered automatically by the mobile appliance. Since many producers do not offer such support but usually deliver data about the phone type, it would be reasonable to create own database with device profiles or to use available collections of profiles such as Wireless Universal Resource (WURFL)3. Still, the quality of such databases strongly depends on the amount of information collected.
6
Summary and Further Work
The MITL library described in this paper should facilitate the development of mobile applications for different mobile devices. It provides an extensible framework for automated, device-independent content delivery. Since MITL is based on Java and is an open-source approach, it can be further enhanced by experienced tag programmers and easily extended with new tags. The author has already started to develop tags for converting the content to J2ME (Java 2 Mobile Edition) code [Topl02]. According to the survey conducted amongst students from the European University Viadrina (inexperienced in programming for mobile devices) and some developers from different programming firms, the approach is easy to learn and use, extensible and faster than manual authoring. It does not, however, support features such as inheritance of properties, templates reusing or automatic user’s input validation. These shortcomings will be eliminated in the second, more sophisticated approach – the Mobile Content Adaptation Language (MCAL) built upon XForms concept. It will provide separation of content, presentation and logic. The content will be in form of XML, the presentation elements will describe the appearance on different devices and the logic will define dependencies between form elements. The adaptation from the language to specific end-formats will be performed by Java servlets with chain of filters. It will be possible to convert the information to
3
See http://wurfl.sourceforge.net/index.php for more details.
1578
B. Jankowska
the same formats as in the first approach but this method will be intended for rather experienced developers. For authors who would like to develop deviceindependent content for mobile devices without spending a lot of time on framework configuration and learning a completely new language, MITL is highly recommended.
References [Abra+99] Abrams M. et al.: UIML: An Appliance-Independent XML User Interface Language. In: Proceedings of the 8th International World Wide Web Conference, Toronto, 1999, pp. 1695-1708. [Apac04] Apache Software Foundation: DBTags Library. http://jakarta.apache.org/ taglibs/doc/dbtags-doc/index.html, 2004. Download 2004-06-28. [BeHo94] Bederson, B.; Hollan, J.: Pad++: A Zooming Graphical Interface for Exploring Alternate Interface Physics. In: Proceedings of the 7th Annual Symposium on User Interface Software and Technology, Marina del Rey, California, 1994, pp. 17 – 26. [BuMoPa01] Buyukkokten, O.; Garcia-Molina, H.; Paepcke, A.: Seeing the Whole in Parts: Text Summarization for Web Browsing on Handheld Devices. In: Proceedings of the 10th International World Wide Web Conference, Hong Kong, 2001, pp. 652-662. [Butl02] Butler, M.H.: DELI: A Delivery Context Library for CC/PP and UAProf, External Technical Report HPL-2001-260. http://www-uk.hpl.hp.com/people/marbut/DeliUser GuideWEB.htm, 2002, Download 2004-06-23. [CeKuNo04] Ceska, T.; Kuhlins, S.; Nösekabel, H.: Programmgestützte Analyse von WAP-Sites. In: Proceedings of the Multikonferenz Wirtschaftsinformatik (MKWI) 2004, Essen, 2004, Band 3, pp. 54-64. [Dula03] Dulaney, K.: Predicts 2004: Mobile and Wireless. http://www4.gartner.com/ DisplayDocument?doc_cd=118831, 2003, Download 2004-07-01. [Forr03] Forrester Research: Choosing The Right Mobile Enterprise Application. http://www.forrester.com/go?docid=16663, 2003, Download 2004-07-03. + [Fox 98] Fox, A. et al.: Experience with Top Gun Wingman, a Proxy-Based Graphical Web Browser for the 3Com PalmPilot. In: Proceedings of the IFIP International Conference on Distributed Systems Platforms and Open Distributed Processing, The Lake District, 1998, pp. 407-424. +
[Gras 02] Grassel, G. et al.: Definition and Prototyping of a Renderer-Independent Markup Language for Enterprise Applications, W3C DIAT Workshop, St. Leon-Rot, 2002. [HoAbOn03] Hori, M., Abe, M., Ono, K.: Extensible Framework of Authoring Tools for Web Document Annotation. In: Proceedings of the International Workshop on Semantic Web Foundations and Application Technologies, Nara, 2003. http://wwwkasm.nii.ac.jp/ SWFAT/PAPERS/SWFAT20R.PDF. Download 2004-09-23.
Approaches for Device-Independent Content Delivery to Mobile Devices
1579
[Hueb+03] Hübsch, G.; Springer, T.; Schill, A.; Spriesterbach, A.; Ziegert, T.: Systemlösungen für die Entwicklung adaptiver Anwendungen für mobile und ubiquitäre Infrastrukturen. In: HMD, Praxis der Wirtschaftsinformatik, Heft 229, 2003, pp. 42-55. [HwSeKi03] Hwang, Y.; Seo, E.; Kim, J.: Structure-Aware Web Transcoding for Mobile Devices. In: IEEE Internet Computing, 7 (5), 2003, pp. 14-21. [John+02] Johnson, M. et al.: Designing Enterprise Applications with the J2EE Platform, Addison-Wesley Publishing Company, Boston, 2002. +
[Jone 99] Jones, M., Marsden, G., Mohd-Nasir, N., Boone, K., Buchanan, G.: Improving Web Interaction on Small Displays. In: Proceedings of the 8th World Wide Web Conference, Toronto, 1999, pp. 51-59. [KuTr02] Kuhlins, S.; Tredwell, R.: Toolkits for Generating Wrappers - A Survey of Software Toolkits for Automated Data Extraction from Websites. In: Proceedings of the NetObjectDays Conference, Erfurt, 2002, pp. 184-198. [Lehn02] Lehner, F.: Mobile Business, Mobile Services, Forschungsbericht der Universität Regensburg, Nr. 49. http://www.uni-regensburg.de, 2002, Download 2004-06-30. [MoAs02] Moczar, L.; Aston, J.: Cocoon Developer's Handbook, SAMS Publishing, Indianapolis, 2002. [Orac04] Oracle: JDeveloper 10g, http://otn.oracle.com/products/jdev/index.html, 2004, Download 2004-06-20. [Reck01] Recklier, O.: M-Commerce: The Next Hype. http://www.themanager.org /resources/M-Commerce.htm#_ToC510089434, 2001, Download 2004-07-01. [SaHj01] Saryanarayana, L.; Hjelm, J.: CC/PP for Context Negotiation and Contextualization. In: Proceedings of the 2nd International Conference on Mobile Data Management (MDM), Hong Kong, pp. 239-245. [SAP00] SAP: SAP Interaction Design Guide for WAP Applications. http://www.sapdesignguild.org/resources/wap_guidelines/wap_guidelines.pdf, Download 2004-10-12.
2000.
[SAP04] SAP: SAP Mobile Engine. http://www.sap.co.kr/solutions/mobilebusiness/pdf/ 50057072s.pdf. Download 2004-09-20. + [Schi 01] Schilit, B., N.; Trevor, J.; Hilbert, D.; Koh, T.: m-Links: An Infrastructure for Very Small Internet Devices, in: Proceedings of the 7th Annual International Conference on Mobile Computing and Networking, 2001, Rome, pp. 122 – 131. + [Schi 02] Schilit, B., N.; Trevor, J.; Hilbert, D.; Koh, T.: Web Interaction Using Very Small Internet Devices. In: Computer, Vol. 35, Issue 10, 2002, pp. 37 – 45.
[ScKo03] Scharf, D.; Koch, A.: A New Technology-Driven Approach for Extended Mobile Applications: MAML - Mobile Application Markup Language. In: Proceedings of the 8th International Workshop on Mobile Multimedia Communications (MoMuC), Munich, 2003, pp. 23-27. [ShChaRy01] Shachor, G.; Chace, A.; Rydin, M.: JSP Tag Libraries, Manning Publications, Greenwich, 2001.
1580
B. Jankowska
[SpGo02] Springer, T.; Göbel, S.: A Modular Adaptation Framework for Single Source Publishing. In: Proceedings of the IADIS International Conference WWW/Internet 2002, Lisabon. Portugal, pp. 11-19. [Sun03] Sun Microsystems: JavaServer Faces Technology. http://java.sun.com/j2ee/ javaserverfaces, 2003, Download 2004-06-29. [Topl02] Topley, K.: J2ME in a Nutshell, O'Reilly & Associates, Sebastopol, 2002. [W3C02] W3C: Delivery Context Overview for Device Independence. http://www.w3c.org/2001/di/public/dco, 2002, Download 2004-06-17. [W3C02a] W3C: Media Queries W3C Candidate Recommendation. http://www.w3.org/TR/css3-mediaqueries/, 2002, Download 2004-07-10. [W3C03] W3C: Device Independence Principles, W3C Working Group Note. http://www.w3.org/TR/di-princ, 2003. Download 2004-07-10. [W3C03a] W3C: Scalable Vector Graphics (SVG) 1.1 Specification. http://www.w3.org /TR /SVG11, 2003, Download 2004-07-03. [W3C03b] W3C: XHTML 2.0 The Extensible HyperText Markup Language Specification. http://www.w3.org/TR/xhtml2/, 2003, Download 2004-06-25. [W3C03c] W3C: XSL Transformations (XSLT) Version 2.0. http://www.w3.org/TR/ xslt20, 2003, Download 2004-06-23. [W3C03d] W3C: Voice Extensible Markup Language (VoiceXML) Version 2.0. http://www.w3.org/TR/voicexml20/, 2003, Download: 2004-06-20. [W3C04] Cascading Style Sheets Level 2 (CSS 2.1). http://www.w3.org/TR/CSS21, 2004, Download 2004-07-12. [W3C04a] W3C: Composite Capabilities/Preference Profiles Structure and Vocabularies 1.0. http://www.w3.org/TR/CCPP-struct-vocab, 2004, Download 2004-07-12. [W3C04b] W3C: Extensible Markup Language (XML) 1.0 (Third Edition). http://www.w3.org/TR/REC-xml, 2004, Download 2004-06-23. [W3C04c] W3C: RDF Primer. http://www.w3.org/TR/rdf-primer, 2004. Download 200406-27. [W3C04d] W3C: RDF Schema Specification 1.0. http://www.w3.org/TR/rdf-schema, Download 2004-07-03. [W3C04e] W3C: XForms 1.1. http://www.w3.org/TR/xforms-11-req, 2004, Download 2004-07-06. [W3C99] W3C: HTML 4.01 Specification. http://www.w3.org/TR/html4/,1999, Download 2004-06-26. [WAP02] WAP Forum: Wireless Application Protocol WAP 2.0, Technical White Paper. http://www.wapforum.org/what/WAPWhite_Paper1.pdf, 2002, Download 2004-06-28.
Individualising M-Commerce Services by Semantic User Situation Modelling Stefan Figge, Andreas Albers Johann Wolfgang Goethe-Universität Frankfurt a. M.
Abstract: The following paper aims at providing a new implementation approach for the individualisation of M-Commerce services. Current market situation as well as academic discussion about intermediaries in the Internet economy will provide the plot for an infrastructure proposal that enables the semantic description of the mobile user’s situation to finally unleash the full potential of the mobile usage context. To proof technical feasibility, concepts offered by current ITstandards such as the Semantic Web, Web Services, J2EE and .NET will be assembled to an implementation scenario to demonstrate how individualisation can take place in the fragmented value network of M-Commerce. Keywords: M-Commerce, Intermediaries, Semantic Web, Individualisation
1
Introduction
With high-bandwidth mobile networks and powerful mobile devices the technical prerequisites for the provisioning of advanced mobile services are provided. In the application domain of private consumption and commerce this now allows comprehensive support for the satisfaction of consumer needs [Reic+02]. The unexpected slow adoption of these so called M-Commerce services combined with high investments that have been made in respective infrastructures were resulting in economic problems within the mobile telecommunications industry [Schw+02]. Research on the topic of individualising mobile services is therefore an important facet of finding remedy for this economic problem by improving acceptance and adoption of mobile services. The open question is, why, even though the positive influence of individualisation on user acceptance is commonly accepted and well-known, its implementation in M-Commerce services has hardly taken place yet. Looking at current mobile portals and services (e. g. Vodafone live!, t-zones or Orange World) only minimal individualisation features, such as approximate positioning or rendering according to the used mobile device, are provided. Comprehensive personal and user specific information, for instance personal preferences, interests or the personal attitude towards the current spatial context, is not taken into account.
1582
S. Figge, A. Albers
One reason might be that individualisation relies on sophisticated customer and service modelling. To individualise mobile services, the implications of mobile user characteristics on a service’s behaviour have to be defined. Additionally, the modelling of the user and the service has to take place within the same semantics and meta-model to become automatically processable. The semantic integration between the customer and service model in the field of M-Commerce is a problem, as the customer model is normally provided by the Mobile Network Operator (MNO) (which “owns” the mobile customer) and the product model by the Service Provider (which provides the product, i. e. the service). The problem of semantic gaps and disintegration is also an issue in the area of the fixed Internet. It is addressed by the W3C Consortium with its Semantic Web activity [W3C01]. It provides tools and concepts to share semantics across distributed resources and market players. This paper applies these concepts on the mentioned problem of modelling mobile users and their usage situations in order to provide individualised M-Commerce services. The paper is structured as follows: The next section is discussing mobile services as offerings within economic value chains. Section 3 covers the individualisation aspect and presents how the Semantic Web could contribute. Section 4 is looking at implementation and integration aspects of mobile service offerings by looking at available IT-frameworks. Section 5 is incorporating the introduced concepts within an implementation scenario while section 6 is concluding the paper and provides an outlook on future research.
2
Mobile Service Offerings in M-Commerce
It has only recently happened that MNOs opened their mobile data infrastructure to third parties, referred to as Service Providers, for the sake of decentralised and specialised M-Commerce service offerings (e. g. mobile transaction or information services). Now mobile service portals are offered to Service Providers as gates to the huge market shaped by mobile users. For instance, with its currently more than one billion roaming GSM subscribers [GSMA04], MNOs are able to provide access and contact to the majority of the population in the developed countries. Mobile service portals in that context constitute a semi-open market place controlled by MNOs in which a provider of a mobile service is legally bound to the MNO by contracts regulating the circumstances under which mobile service provisioning can take place. Within these walled gardens, the MNO’s customers are navigated to reliable mobile service offerings, which quality is assured by the MNO.
Individualising M-Commerce Services by Semantic User Situation Modelling
1583
The offered M-Commerce services come along in two different shapes, depending on the role they play in the value chain of the Service Provider: Either they relate to the primary creation of value, in which case the mobile service itself is a billable mobile information product or mobile information service (e. g. ring-tones or news-services, cf. Figure 1, arrow A). Or they support an economic transaction (e. g. mobile marketing or customer care services, cf. Figure 1, arrow B) in the information, contract, deliver or after-sales phase [Pico+01, p. 50]. In any case the mobile service relates to an economic transaction in a commerce scenario, which is the reason to refer to these services as M-Commerce service offerings in the following. Information Searching offering Specifying offering B
Contract
Deliver
Payment
Other Product
Distribution
Mobile Information Product
B
A
Pricing and Conditions
B
After-Sales
After-Sales Service
B
M-Commerce Services
Figure 1: M-Commerce services supporting and fulfilling economic transactions (cf. [Pico+01, p. 50]).
2.1
MNOs as Intermediaries for Mobile Service Offerings
By offering mobile service portals, MNOs are responsible for the interface between the Service Provider and the mobile customer. They act as intermediaries in the M-Commerce service domain. In the following it is explained that this mediation simplifies and supports economic transactions through the mobile channel and hence reduces transaction costs for the participating players. For the MNO to take this effort is reasonable to eventually increase traffic and revenues related to the mobile data infrastructure it owns. Operatively the mediation for the MNO means to aggregate mobile services as well as to operate and to market the mobile service portal [ReMe02]. Aggregating mobile services entails that the MNO is selecting and compositing the kind and number of mobile service offerings that are placed within the walled garden of the mobile service portal. The aggregation task is thereby immediately related to selection, which means that the MNO is evaluating and choosing mobile service offerings according to its set quality requirements.
1584
S. Figge, A. Albers
Operating the portal requires efficient navigation concepts within the portal. Commonly appropriate portal categories are applied to allow the customer to easily identify service offerings applicable to current needs and problems. It is the individualisation of these portal categories that contributes to a better usability for the user. By reducing mental transaction costs originating from the effort necessary to find a service, the portal appears as a suitable gate to the mobile service market. Finally, the marketing of the portal is expressed by attracting mobile customers to the provided services by appropriate pricing and access concepts. The application of indirect revenue models for the portal (e. g. by incorporating advertising) as well as easy to use pull- (e. g. a dedicated starting button on the mobile device) and push-access (e. g. by actively informing the user in case of certain events) to the portal are related topics. Mobile Service Portal Aggregation
Service Provider
Selection and Composition of Service Offerings
Operation
Enabling Navigation and Searching
Marketing
Communication, Pricing and Mobile Access
Mobile Customer
Mobile Network Operator
Figure 2: MNO as intermediary between mobile customers and Service Providers
With the mobile service portal, the MNO is continuously resolving an asymmetric distribution of information between Service Providers and mobile customers. The information about identity and position available in mobile networks is aiding the MNO to do so. Individualisation as it is explained in following chapters is applying that ability and enables Service Providers to access semantically described mobile customer relationships through the mobile service portal.
3
Individualising Mobile Services
Individualisation means the task necessary to aligning an offering according to the individual preference structure of a user [ReSc02]. Individualisation in the context of this paper can be grasped as the endeavour to adapt a mobile service according to the current individual situation of the user, subsuming his or her personal preferences. From a technical point of view individualisation aims at designing the
Individualising M-Commerce Services by Semantic User Situation Modelling
1585
user interface and business logic in such a way that information demands are satisfied with a minimal amount of actions necessary. That contributes to the acceptance and the adoption of the service, as according to IT-acceptance research individualising mobile services is supposed to improve the perceived usability and usefulness [Ambe+03].
3.1
Implementation Approaches for Individualisation
There are several alternative concepts to technically implement individualisation. Rule-based, content-based and collaborative filtering are some of the most discussed approaches [KaHa03]. While collaborative filtering relies on the analysis of mass data about past user behaviour, rule-based filtering applies explicitly defined rules and facts that determine the personalised output related to a specific input. These rules and facts partly relate to personal information about the specific users. They can be collected either implicitly by observing the user’s behaviour and inferring respective knowledge (e. g. by analysing her or his browsing behaviour) or explicitly by asking the user to disclose the needed information. The implicit approach is related to the problem, that inferred knowledge may be wrong and has to be reconfirmed by the user. Additionally, it is not always transparent for the user on which data the individualisation relies. For these reasons rule based individualisation relying on information explicitly revealed by the customer is applied in the following instead of collaborative or content-based filtering. From a logic theory perspective rule-based individualisation is based on sets of axioms and inference rules that as clause sets constitute knowledge bases. In the following these clause sets in the sense of description logic will allow to prove theorems about the domain represented as a logical theory [Daco+03]. By proving or negating certain theorems, the individualised behaviour of the service is determined.
3.2
Semantic Customer and Service Modelling
In order to individualise products and services, information about the customer is necessary. Data available for that purpose constitutes a customer model (e. g. her or his current location, zip-code of the location, attitude towards that location etc.). On the other hand a product or service model, respectively, defines the service behaviour according to different possible customer properties (e. g. the nearest shopping-site for a certain location or special offers for certain customer segments). By matching both models an individual service experience is provided [ScLi02]. A limitation for the individualisation of an M-Commerce service offering is its distributed provisioning which results in disintegrated knowledge and semantics. While the MNO on the one hand has up-to-date information from its network and possibly additional generic and service independent properties obtained from the
1586
S. Figge, A. Albers
customer (e. g. interests or demographic data), the Service Provider on the other hand may store and manage information specific to its business (e. g. former buying or service specific preferences of the customer). In order to align and integrate these knowledge bases, a common semantics is necessary. Normally that common semantics is inherently defined by the human actors involved in the individualisation process. By exchanging documents and having implicit notions about concepts, such as location, zip-code or service semantic integration is established manually and coded implicitly within the implementation of the M-Commerce service. By doing so, service offerings are becoming inflexible concerning new features depending on new semantic aspects. Additionally, semantically more complex concepts bear the risk of ambiguity and misunderstandings between the involved parties. Service Provider Customer Self Admin. (CSCSA)
Customer Relationship Mgmt. (CSCRM)
Product Manager
ID,POS (CSNET) Generic Customer Model (CSCUST_MOD)
Specific Customer Model (CSCUST_MOD+)
Service Model (CSSERV_MOD)
Indivualised M-Commerce Service Offering (CSSERV_BEHAV)
Mobile Network Operator
Common Semantic Layer (CSONT)
Figure 3: Semantic based individualisation of distributed M-Commerce service offerings
Defining a customer and service model based on an explicit and formally defined common semantics solves these problems as it handles semantics and related knowledge as specific and important design aspects. The ontology concept as it is currently discussed in the area of the Semantic Web (cf. section 4) provides a standardised and well suitable framework for that purpose. First applications can be found in the domain of ubiquitous computing [Chen+03]. Because ontologies as formal semantics definition are applied in the following as the foundation for the customer and service model, these models are subsequently referred to as semantic customer and service models. 3.2.1
Semantic Customer Model
The automatic generation of the semantic customer model is enabled by metainformation relating to the mobile communication channel and available in most public mobile cellular networks. As such meta-information, the MNO possesses information about the user’s identity and current position (clause set CSNET in Fig-
Individualising M-Commerce Services by Semantic User Situation Modelling
1587
ure 3). Additionally, the customer may have explicitly disclosed her or his properties and preferences by using customer self-administration applications (clause set CSCSA in Figure 3) that most MNOs are nowadays already operating. The MNO is thereby enabled by logic reasoning to generate a service independent generic customer model (clause set CSCUST_MOD in Figure 3) describing the current usage situation of the customer by applying individual preferences defined for that situation [Figg+03] (e. g. the user’s age, gender, interests or his temporal or geographical context). The information from the mobile network, the customer settings and the common ontology provided by the MNO (clause set CSONT in Figure 3) can therefore entail the situation description as the generic customer model (clause set CSCUST_MOD in Figure 3) offered by the MNO to third parties. CSNET CSCSA CSONT ş CSCUST_MOD
(1)
In order to be compliant with current data protection acts [EC02] and to allow the provisioning of the situation description to the Service Provider, it is necessary that the affected user has immediate access and control about her or his personal information (clause set CSNET and CSCSA in Figure 3). A personal privacy management platform as it is targeted by the European project PRIME [PRIM04] is a necessity to ensure that provisioning of personal information like the situation description is accepted by the user. It could be implemented through the already mentioned customer self-administration applications and should enhance those by adding respective privacy management features. The Service Provider, provided an already existing relationship with the customer, stores business specific customer information coming from its own customer relationship management databases (clause set CSCRM in Figure 3). By incorporating knowledge contained in the generic customer model and the ontology, it is enabled to generate an up-to-date service specific customer model (clause set CSCUST_MOD+ in Figure 3) describing the customer’s current usage situation in the light relevant for the used mobile service. CSCUST_MOD CSCRM CSONT ş CSCUST_MOD+ 3.2.2
(2)
Semantic Service Model
Based on the structure of the specific customer model and the applied common ontology, the Product Manager of the service can design a service model (clause set CSSERV_MOD in Figure 3) which states the behaviour and the individualised presentation of the service. By processing the knowledge contained in the customer model, the service model and the agreed ontology, the service behaviour is determined. CSCUST_MOD+ CSSERV_MOD CSONT ş CSSERV_BEHAV
(3)
1588
S. Figge, A. Albers
The resulting clause set is applied within the service implementation in order to present the service to the customer in a way most appropriate for her or his current usage situation.
4
Integrative Technologies for Developing Mobile Services
In order to think about an implementation of the formerly described individualisation approach the following description of IT-concepts shall present the technical toolbox currently available and relevant for that purpose.
4.1
Remote Procedure Calls and Web Services
Increasing market dynamics at the end of the last century caused a higher demand for flexibility of organisations from an intra- and inter-organisational perspective. This entailed the need for integration technology that flexibly glued together organisational building blocks for specific businesses purposes. Some of the first technologies serving that objective were remote procedure calls (RPC), objectoriented remote procedure calls (ORPC e. g. DCOM, CORBA or Java RMI) and messaging technologies (MSMQ, MQSeries). The Web Services technology can be grasped as the next generation of RPC [Skon02]. In contrast to former RPC approaches it is based on open, widely adopted standards and focuses on interoperability with the goal to provide a new platform for ubiquitous application integration by using the Internet as its underlying communication platform. Its foundation is XML based messaging over standard web protocols like HTTP or SMTP. The lightweight communication architecture allows any programming language or platform to participate in building distributed applications [Daco+03]. The development and deployment of a Web Service can be described as follows: A Web Service provider develops and deploys a Web Service using the programming language and platform of his choice. Then a Web Services Description Language (WSDL) document is created. This document describes the Web Service interface for potential Web Service consumers. The Web Service is finally registered and published in Universal Description, Discovery, and Integration (UDDI) registries. These directories enable Web Service consumers to search for offered services by either querying for technical or business-orientated functionality. If a potential Web Service consumer wants to use a service found in a UDDI registry, its application binds to the Web Service and invokes its methods using Simple Object Access Protocol (SOAP). SOAP defines a XML message format for exchanging data between Web Services and its clients mainly using HTTP as transport protocol [Daco+03].
Individualising M-Commerce Services by Semantic User Situation Modelling
4.1.1
1589
J2EE and .NET
Java 2 Platform Enterprise Edition (J2EE) from Sun and the Microsoft.NET platform are currently the two major IT-frameworks providing support for the Web Service technology and therefore enable distributed applications involving several heterogeneous sub-applications. The important difference between J2EE and .NET is that J2EE is a standard specification supported by many different manufactures, while .NET itself is a product supplied by Microsoft as the exclusive manufacturer. J2EE as a standard only specifies an agreement between applications and containers in which these applications run [Sun04]. As long as an application follows the J2EE specification it is able to run in various container environments on different platforms. The foundation for J2EE is the Java programming language. Applications written in this language are transformed into Java Bytecode, which can be deployed to any platform featuring the Java Runtime Environment (JRE). In contrast to the J2EE standard the .NET platform encompasses a product framework provided by Microsoft. As one of its most important features the .NET technology offers language-independence and -interoperability. For instance a component written in C#.NET can be integrated and used into an application written in VB.NET. This is archived by translating the source code into the neutral Microsoft Intermediate Language (MIL). This MIL code, comparable to Java Bytecode, is then executed by the Common Language Runtime (CLR), the equivalent of the JRE [ThLa03].
4.2
Semantic Web
While the Web Service technology focuses on integrating distributed business logic in order to constitute an applications, the Semantic Web approach dedicates its efforts in providing “a common framework that allows data to be shared and reused across application, enterprise, and community boundaries“ [W3C01]. As an extension to the current Web, it gives information a formally well-defined meaning and makes it machine-discoverable and processable. Figure 4 shows the layers of the Semantic Web architecture. The lowest Semantic Web layer provides the ability to build resources based on international character sets (Unicode) and to uniquely identify those resources using the Uniform Resource Identifier (URI) standard. On top of that layer, the XML technology including its corresponding XML schema concept is used to create self-descriptive and machine-processable documents. Built upon XML, the Resource Description Framework (RDF) defines a language to add metadata relating to a specific resource in order to describe its contents in a semantic way. Based on this, the ontology vocabulary models the universe of discourse by defining concepts and their relation. It allows defining taxonomies (e. g. class PDA is a
1590
S. Figge, A. Albers
subclass of class Mobile Device), equivalence relationships (e. g. Cellular Phone equals Mobile Phone) and inference rules to deduct conclusions (e. g. taken three persons A,B,C; A is a relative of B and B is a relative of C, hence, A must also be a relative of C) [KoMi04]. The top levels of the Semantic Web architecture consist of the three layers logic, proof and trust. Although these layers are still subject to research their basic purpose is set. The logic and proof layer are supposed to extend the ability to reason and infer knowledge on the foundation of the logic concepts defined by the ontology. Finally, the trust layer is supposed to proof that a certain person or system actually created a document or statement by using digital signatures [KoMi04].
Figure 4: The Semantic Web architectural layers [KoMi04]
As a current field of development the Semantic Web Service approach is building the bridge between the use of distributed business logic (Web Services) and sharing/processing data across domain boundaries (Semantic Web). It is supposed to give applications the ability to automatically discover and integrate services from different providers.
5
Implementation Scenario for an Individualised M-Commerce Service
In order to illustrate how Semantic Web, Web Services, J2EE and .NET play together in order to shape individualised M-Commerce services, an implementation scenario is presented in the following. It describes a business context and sketches a developed prototype. It encompasses a mobile service portal implemented in J2EE and an example M-Commerce service implemented in .NET. They are both integrated using Web Services and Semantic Web concepts.
Individualising M-Commerce Services by Semantic User Situation Modelling
5.1
1591
The Scenario
A fictitious MNO offers its customers mobile data services based on a browser application installed on the customers’ mobile phones. A portal presents the set of available mobile service offerings through the browser application to the customer. The offerings are structured by using portal categories that aid the task of finding appropriate offerings for a certain demand. One of the many fictitious Service Providers that offers services through the MNO’s portal is an airport maintainer (AM) company. It provides services to run an airport infrastructure and its facilities (e. g. airport management, ground handling, flight- and terminal operation, etc.). The AM has two customers or business partners, respectively. On the one hand there are airlines that use the maintained airport as departure and destination for their flights. On the other hand there are passengers that use the airport infrastructure to access flight connections. Due to increasing competition between different airports the AM seeks for new services that support passengers in order to gain a competitive advantage compared to other airports. At the same time the AM does not have comprehensive information about the passengers as those are primarily the customers of the airlines. In order to aid passengers to reach a certain flight connection, the AM in cooperation with the airlines provides a mobile service called Mobile Airport Travel Support (MATS). It provides features such as detailed maps about the terminals, information about airport facilities etc. A specific feature that is described in the following supports frequent flyers on their way to the airport by continuously evaluating their situation shortly before their flight is leaving. So, for example if they running the risk of missing their flight (e. g. due to heavy traffic) they are receiving suggestions what to do best in order to still reach the flight with minimum effort and risk. A prerequisite to use that MATS service feature is that the customer has formerly subscribed at the AM’s stationary website and entered necessary information. Shortly before the travel to the airport the customer initiates the MATS service through the service link placed in the portal category travel assistance at the mobile service portal and indicates that the travel to the airport has started by activating a respective option.
5.2
Mobile Service Portal
The mobile service portal is the entry point for the customer to use any MCommerce service offering. The customer starts the portal by pressing a dedicated button on her or his mobile phone. It automatically generates an HTTP request with the URI associated with the portal and sends it through the GSM mobile network. When receiving the HTTP request the Portal Maintainer (PM) Servlet (cf. Figure 5) requests from the Situation Maintainer (SM) Servlet (cf. Figure 5) the generation of a situation description for the current mobile user. The SM is calling
1592
S. Figge, A. Albers
subsequently the Situation Determination (SD) Servlet (cf. Figure 5) to retrieve the necessary data from the mobile network through a dedicated interface. As response, the SD is provided with the customer’s position, identity and the local time (cf. CSNET in Figure 3). With that information available two different knowledge bases are consulted by the Situation Computer (SC) Servlet in order to retrieve a comprehensive picture about the customer’s usage situation. The personal knowledge base is constituted by personal preferences and properties that have been formerly disclosed and managed by the customer (cf. CSCSA in Figure 3). The general knowledge base is constituted by general (i. e. independent from the specific customer) rules and definitions. The domain ontology as described in chapter 3.2 as well as a geographic information system (GIS), which in the case of the prototype is a MapInfo software, are part of this knowledge base. The response of the SC is a generic customer model in the shape of a situation description (cf. CSCUST_MOD in Figure 3). 2: o ssi
1: o p
enP
e e(s rvic
ort
al()
e rtS sta
Portal Maintainer (PM)
n)
Mobile Customer
Mobile Service (MS)
) ess ion
etCS serv_
2.1: getS itDe s(s
1.2: g
() mod
s() itDe getS
_ Sserv getC
mod() ;
2.2:
1.1:
Situation Maintainer (SM)
Portal Knowledge Base
Service Knowledge Base 1.1 ge
Tim eI D ()
.2:
1.1
. 1:
) eID Tim os (P es
ge tPo s
tD tSi ;
()
sT im eID ) 1.1 .2. 1: ge tCS csa (Po
) eID sTim (Po
os Tim eID
ont CS
ge tP
get
Personal Knowledge Base
.2 :
Mobile Network Interface
Situation Computer (SC) .2 1.1
Situation Determinator (SD)
General Knowledge Base
Figure 5: UML collaboration diagram presenting components and sequence of actions
Individualising M-Commerce Services by Semantic User Situation Modelling
1593
With the situation description available the PM consults the Portal Knowledge Base which stores the semantic service model (cf. section 3.2.2.). The reason that not only a mobile service but also the portal is associated with a service model is that also the portal can be grasped as a service that can be individualised. In the specific context of the portal that individualisation is expressed by portal categories and service links that are either appearing or not depending on certain values of the situation description. The appearing or hiding of a specific portal object is determined by performing logic reasoning using knowledge bases coded in Prolog. A Java-to-Prolog interface allows the portal to perform queries by using the situation description as a parameter. The result of a specific query finally determines the appearance of a portal category or service link. By that the PM presents an individualised mobile service portal to the customer who then chooses the mobile service appropriate to her or his current demands. By selecting the MATS service from the portal category travel assistance, the mobile device opens an HTTP requests with the URI related to the MATS service and thereby redirects the browser to the Web-Application constituting the mobile service of the AM. The session ID of current session of the customer is added as a parameter to the HTTP request to allow the MATS service to access the formerly generated situation description for the customer.
5.3
Portal Interface
After the MATS service implemented in .NET has received the HTTP request, the service subsequently requests the situation description from the MNO. It is doing so by calling a function that is revealed by the MNO as a Web Service and that demands the provided session ID and the Service Provider ID of the AM. The first is needed to achieve the reference with the customer’s session; the second identifies the Service Provider which influences the information that it is going to be included in the situation description that it receives. This selective provisioning of information is controlled by the customer, who with the help of the customer self-administration functionality can define which information is allowed to be transferred to which Service Provider. The need for such identity management features becomes obvious when talking about the inclusion of attributes which reveal the identity of the customer to the Service Provider. For instance assuming that the airline British Airways is a Service Provider in the MNO’s portal and the customer participates in the airline’s customer loyalty program, she or he would have been provided with a respective customer loyalty ID. In order to experience a single-sign-on functionality in the mobile context, the customer might want to provide British Airways with this already assigned customer loyalty ID. This would enable British Airways to generate a service specific customer model as it allows mapping the mobile usage situation to own service specific data such as past flights or the current number the bonus miles acquired.
1594
S. Figge, A. Albers
In terms of anonymity, pseudonymity and identity [HaPf03] the provisioned customer loyalty ID as a pseudonym provides the Service Provider with the missing link to resolve the formerly anonymous customer relationship. It identifies the customer within the anonymity set of the airline’s customers. For that reason, the customer would insist on that any identifying attribute is only revealed to Service Providers which she or he has previously authorised. It is the task of the portal interface together with the customer self-administration to ensure this identity management functionality in order to be compliant with current privacy and security legislation.
Figure 6: A sample RDF situation description as generic customer model (visualised using the IsaViz tool to be downloaded from www.w3.org/2001/11/IsaViz/)
Figure 6 illustrates a potential situation description that as a generic customer model the MNO is providing as a document coded in RDF to the AM. In terms of the Semantic Web, the situation description relates to the RDF-tier in the Semantic Web stack (cf. Figure 4) and provides knowledge about the current customer and also allows a mapping to existing service specific information. Based on the service specific customer information, the service model and the defined ontology (relating to the ontology-tier in the Semantic Web stack, cf. Figure 4), the Service Provider can define rules (relating to the rules-tier in the Semantic Web stack, cf. Figure 4) that define the individualisation.
Individualising M-Commerce Services by Semantic User Situation Modelling
1595
The situation description in Figure 6 shows the information related to the current usage situation which is referenced using a session ID. The situation description is consituted by three branches which describe personal, geographical and temporal aspects. For example, the personal branch states that associated alias or pseudonym, respectivly, is “limi012a” and it also reveals the age and the gender of the current user. The geographical branch states the current country, city and zip-code as well as the personal attitude of the customer towards that position. In this case it is stated that the customer is currently located at her or his working site and not at home and that she or he is familiar with the current location. In the temporal branch it is stated that the customer is currently not in a private temporal context but working. Additionally, it is stated that he or she is currently supposed to be travelling. All branches are related to a certain ontology namespace (fsont) that would formally explain the semantics of each of the used concepts such as age, atWork or isPrivate.
5.4
Mobile Service
After the customer has selected the MATS service from the portal, the HTTP request had triggered the Microsoft Internet Information Service (MIIS) at the AM and called the portal interface implemented by the MNO as a Web Service (cf. section 5.3). Now, having obtained the situation description as the generic customer model by using the session ID, the MATS displays an ASP.NET based welcome screen. This welcome screen could already present individualised features based solely on that generic customer model. For instance, the service could offer detailed maps about the airport if the customer is in a travelling related temporal context, already very close to the airport and not familiar with the current surroundings. It could also offer travel instructions for public transport if the customer is already quite near to the airport or it could present navigation instructions for arriving by car if the customer is further away. For a more specific individualisation it is supposed that the customer had primarily entered relevant information such as a flight number, the planned way of travelling to the airport (e. g. by car, train, plane, etc.) and the type of luggage (e. g. hand luggage) at the AM’s stationary website. The customer had therefore been provided with a respective alias (the alias “limi012a”) that allows the AM to store service specific information about the customer and provides the link to generate a service specific customer model based on the situation description in the mobile usage context. In this scenario, the customer tries to catch a flight with a certain flight number, travels by car and carries only hand luggage. Once the customer starts travelling to the airport, she or he activates the flight arrival features of the MATS service via the mobile service portal and explicitly approves the tracking of her or his position. By obtaining the alias as the pseudonym under which the preferences have
1596
S. Figge, A. Albers
been stored, the MATS service resolves the departure time by analysing the flight number and starts to continuously request the customer’s situation description from the MNO. This is done by invoking the Web Service from the MNO’s portal interface. During the travel to the airport, the customer’s position is extracted from the RDF situation description. By using a GIS system, in the case of the prototype it is provided by a routing service from MapInfo, the estimated time of arrival at the airport can be calculated. Assumed that after a short time of driving the customer runs into heavy traffic causing a significant delay, the MATS service recognises that the customer might be late for the flight and reacts accordingly. As in the scenario the customer is female, travelling by car with only hand luggage, the MATS automatically suggests several services to ensure the arrival of the flight. For instance it offers the reservation of a dedicated female parking space or it could provide a pre-check-in. It could also request an airport shuttle for the transfer from the parking space to the flight gate. The related information informing about the actions that might be taken is displayed through the mobile device to the customer in the car who then has to reconfirm them. Subsequently, the chosen services are booked and the necessary actions are taken. Up to certain degree of delay, these actions might help the customer to still reach the booked flight. It also provides a unique service experience enabled by information distributed information that is semantically integrated by a respective customer and service model.
6
Conclusion and Outlook
The presented ideas demonstrate how the Semantic Web together with current ITstandards could be combined in the context of the M-Commerce domain in order to individualise mobile service offerings. By semantically and technically integrating knowledge about the mobile customer, the Service Provider is able to gain a comprehensive picture about the customer’s current situation allowing to provide an improved service experience. Subject of further research in particular are the following topics: x Analysing the right properties to be included into the situation description to provide a comprehensive picture with a minimal number of properties. x Evaluating existing standards to be incorporated into the common ontology (e. g. standardised time or space ontologies). x Applying additional Semantic Web concepts as they are standardised. Candidates are the web ontology language OWL, the rule markup language RuleML and software allowing reasoning based on ontologies.
Individualising M-Commerce Services by Semantic User Situation Modelling
1597
x Creating a Semantic Web Service framework to allow MNOs to automatically discover and integrate mobile services into their portal. Finally, one of the most important research goals is to apply semantic user situation modelling not only to individualise mobile service offerings. The objective is also to redirect value streams in the mobile market. By marketing the attention that mobile customers are paying to their mobile device when they use the mobile service portal, a new business model in the M-Commerce domain is enabled. In times where customer attention is a limited resource, semantically described and attentive contacts to mobile customers are a valuable item. As a consequence, new business opportunities for the MNOs as well as any other mobile data provider appear that represent potential revenue sources necessary to cope with the high investments in data infrastructures made in recent years.
Acknowledgements This work is supported by grants from the German Federal Ministry for Education and Research as well as T-Mobile International. The implementation scenario is supported by MapInfo and its data providers TeleAtlas und DDS. The authors gratefully acknowledge this support.
References [Ambe+03] Amberg, M.; Wehrmann, J.; Hirschmeier, M.: Ein Modell zur Akzeptanzanalyse für die Entwicklung situationsabhängiger mobiler Dienste im Compass Ansatz. In: Pousttchi, K.; Turowski, K. (Edt.) Mobile Commerce - Anwendungen und Perspektiven, 3rd Workshop on Mobile Commerce (MC3). Köllen: Bonn, 2003, pp. 73-87. [Chen+03] Chen, H., Finin, T., and Joshi, A.: An Ontology for Context-Aware Pervasive Computing Environments. Presented at the 18th International Joint Conference on Artificial Intelligence, Acapulco, Mexico. http://ebiquity.umbc.edu/v2.1/_file_directory_/papers/63.pdf, Download 2004-06-01. [Daco+03] Daconta, M. C.; Obrst, L. J.; Smith, K. T.: The semantic Web: a guide to the future of XML, Web services, and knowledge management. Wiley: Indianapolis, 2003. [EC02] European Commission: Draft Directive on data protection and privacy. http://europa.eu.int/information_society/topics/telecoms/regulatory/new_rf/index_en.ht m#dp, 2002, Download 2004-06-01. [Figg+03] Figge, S.; Schrott, G.; Muntermann, J.; Rannenberg, K.: EARNING M-ONEY A Situation based Approach for Mobile Business Models. In: Proceedings of the 11th European Conference on Information Systems (ECIS). Naples, 2003.
1598
S. Figge, A. Albers
[HaPf03] Hansen, M.; Pfitzmann, A.: Anonymity, Unobservability, and Pseudonymity – A Proposal for Terminology. http://www.freehaven.net/anonbib/papers/ Anon_Terminology_v0.14.pdf, 2003, Download 2004-06-01. [GSMA04] GSM Association: GSM Subscriber Statistics. http://www.gsmworld.com/news/statistics/substMATS.shtml, 2004, Download 200406-01. [KaHa03] Kaspar, C.; Hagenhoff, S.: Individualität und Produktindividualisierung - Kundenprofile für die Personalisierung von digitalen Produkten. Work Report of the Department Wirtschaftsinformatik II, No. 17. Göttingen University: Göttingen, 2003. [KoMi04] Koivunen, M; Miller, E.: Semantic Web Activity. http://www.w3.org/2001/12/semweb-fin/w3csw, Download 2004-06-07. [Pico+01] Picot, A.; Reichwald, R.; Wigand, R. T.: Die grenzenlose Unternehmung. Gabler: Wiesbaden, 2001. [PRIM04] PRIME: Privacy and Identity Management for Europe, Project Leaflet. http://www.prime-project.eu.org/leaflet-pdf, Download 2004-06-01. [Reic+02] Reichwald, R.; Meier, R.; Fremuth, N.: Die mobile Ökonomie – Definition und Spezifika. In: Reichwald, R. (Edt.) Mobile Kommunikation. Gabler: Wiesbaden, 2002, pp. 3-16. [ReMe02] Reichwald, R.; Meier, R.: Wertschöpfungsmodelle und Wirtschaftsgüter in der mobilen Ökonomie. In: Reichwald, R. (Edt.) Mobile Kommunikation. Gabler: Wiesbaden, 2002, pp. 19-36. [ReSc02] Reichwald, R.; Schaller, C.: M-Loyalty – Kundenbindung durch personalisierte mobile Dienste. In: Reichwald, R. (Edt.) Mobile Kommunikation. Gabler: Wiesbaden, 2002, pp. 263-286. [Schw+02] Schweizer, L.; Meinhardt, Y.; Krys, C.; Fuest, K.: Auswirkungen der UMTSLizenzvergabe auf den Unternehmenswert und Implikationen für die Geschäftsmodelle von Mobilfunkunternehmen. In: Reichwald, R. (Edt.) Mobile Kommunikation. Gabler: Wiesbaden, 2002, pp. 85-98. [ScLi02] Schackmann, J.; Link, H.: Intermediaries for the Provision of Mass Customized Digital Goods in Electronic Commerce. In: Rautenstrauch, C.; Seelmann-Eggebert, R.; Turowski, K. (Edt.) Moving into Mass Customization. Springer: Berlin, 2002, pp. 153172. [Skon02] Skonnard, A.: The Birth of Web Services. http://msdn.microsoft.com/msdnmag/issues/02/10/XMLFiles/default.aspx, Download 2004-06-07.
2002,
[Sun04] Sun: Java 2 Platform, Enterprise Edition (J2EE) Overview. http://java.sun.com/j2ee/overview.html, Download 2004-06-07. [ThLa03] Thai, T.; Lam, H.: .Net Framework Essentials. O’Reilly & Associates: New York, 2003. [W3C01] W3C Consortium: Semantic Web. http://www.w3.org/2001/sw, Download 200406-07.
The Emerging WLAN-Infrastructure: Complement or Substitute? Kilian Plank Johann Wolfgang Goethe University, Frankfurt am Main
Abstract: For several years a steady accelerating convergence of telecommunications, IT, media, and entertainment (TIME) industries is to be observed. This evolution is more than evident in mobile communications, where, among others, technologies, services, and contents of all four areas are integrated on a mobile device. Besides integration several technologies with different evolutionary roots and original purposes converge regarding their usage scenarios leading to frequently contrasting reciprocal diffusion impacts. This paper analyzes modes of interaction between GSM/UMTS/PSTN and WLAN ranging from substitution to completion. An informal framework will be developed aiming at laying a foundation for further analyses of complex interaction scenarios. Keywords: WLAN, WiFi, GSM, UMTS, Substitute, Complement, Product, Technology, Interaction, Diffusion
1
Introduction
For several years an increasingly accelerating convergence of telecommunications, IT, media, and entertainment industries is to be observed. This evolution is more than evident in mobile communications, where technologies, services and contents of all these four areas are integrated on a mobile device. For example, many currently available gadgets are a bundle of mobile telephone, personal computer with internet access, television, radio, video and audio player and recorder, respectively, photo and video camera, game console and finally mobile wallet (including, among others, payment and identification services as well as document archives). Besides integration of different complementary technologies convergence also entails encounter of different technologies addressing similar customer needs. These technologies have partly different roots and original purposes. For instance, some have been intentionally designed and developed for mobile communications, such as GSM (Global System for Mobile Communications) or UMTS (Universal Mobile Telecommunications System), others were driven evolutionary to a new application scenario and had their roots in IT, such as IEEE 802.11b WLAN (Wire-
1600
K. Plank
less Local Area Network). WLAN1 was originally designed as a means of getting around costly and inflexible LAN (Local Area Network) wired infrastructure installations. However, in the course of time, WLAN evolved in its use cases2 and is frequently considered as a substitute to current and growing mobile telecommunication networks like GSM and UMTS. Indeed, there are a lot of yet realized or at least planned urban “WLAN networks”, i. e. completely WLAN covered urban areas. In conjunction with VoIP (Voice over Internet Protocol) it shall be possible to use these “WLAN networks” as wireless telephone networks. But many industry experts doubt that these new business models could deliver on their success promises. The recent bankruptcies of several young start-up companies seem to prove them right. Furthermore, it is frequently questioned that a large scale WLAN installation could be a realistic substitute to pure mobile access networks since not being designed for such use cases. Consequently, mobile operators regard WLAN just as a complement to their GSM/UMTS networks at specific public places. This contrasting discussion leads to the question whether WLAN actually is a complement or a substitute. Literature from several scientific areas has addressed the topic of complement and substitute. There are contributions from marketing which extend the original Bass diffusion model [Bass69] with multiproduct interaction3, intergenerational effects (e. g. [KuKu92]) and marketing decision variables (e. g. [Bayu92]). Other marketing and economics works focus on brand-switching behavior among costumers (e. g. [Buck+98]), bundling (in terms of optimal bundling, pricing strategies (e. g. [VeKa03]), and consumer behavior (e. g. [Yada94])), customer/market identification (e. g. [DaNe94]) and oligopolistic competition (e. g. [Bulo+85; Klem87]). Strategy and innovation and technology management literature addresses the subject in terms of competitive opportunities and threats (e. g. [Port80; NaBr96]) as well as from the perspective of success and failure, obsolescence as well as attack and defense (e. g. [Chri97; PiUt97; Dann04, p. 254]). All these approaches and findings just focus partial aspects. Still missing is a comprehensive concept setting terms, factors, relations and dimensions in one common context [Shoc+04, p. 30]. The paper at hand tries to clarify and structure the domain of technology and product interaction. This includes the definition of key terms, the description of relevant dimensions, factors and relations integrated into a generic framework. The interaction between WLAN and UMTS is to serve as a reference case owing to its particularities. First, the technological outcome of this strategically relevant development is not decided yet. Second, it is the first
1 2 3
subsequently short for IEEE (Institute of Electrical and Electronics Engineers) 802.11b The term “use case” is to be construed here as any kind of (usage) purpose of a product and does not match the popular definition in UML (Unified Modeling Language). Interaction is a generic term for product interrelationships like complementarity or substitution. A precise definition follows later.
The Emerging WLAN-Infrastructure: Complement or Substitute?
1601
case of widespread distributed private wireless network infrastructures. Third, it is a technology related case which reveals a plethora of phenomena. Fourth, the actual technology does not matter when it comes to building a generic framework. It just matters when it comes to modeling a specific scenario. In that case technological specificities have to be accounted for4. The rest of the paper is organized as follows. First, the GSM, UMTS and WLAN technologies are delineated and compared. In this context, the respective existing and emerging business models will be sketched. In chapter three a selection of competitive relationships among mobile access technologies is presented. By means of a study of the WLAN versus PSTN/GSM/UMTS case the seemingly contradictory nature of technology interaction is demonstrated. Following, the fundamentals for a general framework of technology and product interaction is presented addressing individual, marketing and financial dimensions. Such a framework can serve several purposes. First, it can be used as a means of structuring complex interaction situations by offering dimensions of consideration, factors as well as relations. Second, it can serve as a starting point for product diffusion models and simulation models incorporating product relationships.
2
Technologies and Business Models
Following, 2G, 3G and WLAN technologies together with the respective actual and prospective business models are delineated.
2.1
2G and 3G Networks
2G characterizes second generation mobile telecommunications systems differing, among others, in their digital signal transmission from analogue first generation systems. In Europe, all member states agreed on a joint 2G standard which is called GSM. Apart from digitization, other important novelties were international roaming, messaging and data services. Outside Europe, especially in USA and Japan, further competing standards have evolved. The most important service categories (from a consumer’s perspective5) available with GSM and its successors are voice communication, messaging (e. g. SMS, MMS)6, internet access, content, and services. Especially the last three service categories require high and still growing bandwidth (e. g. for mobile television,
4 5 6
Section 3 mentions several other future technologies and corresponding interactions. GSM itself discerns technical service categories [TuPo04, p. 12]. SMS: Short Message Service, MMS: Multimedia Message Service
1602
K. Plank
video download or mobile video telephony, etc.). However, GSM only provides insufficiently low data rates of 9.6 kbit/s [TuPo04, p. 32]. In view of this deficiency and because of international standards heterogeneity (e. g. hampering roaming), a new worldwide broadband mobile telecommunications standard framework (called IMT-2000) for third generation mobile telecommunications (3G) was developed [TuPo04, p. 12]. The European Union member states again agreed on a specific standard within this framework called UMTS. Since UMTS implies high investments in terms of both license fees and infrastructure upgrades and because of general economic considerations most mobile network operators decided for a gradual transition to 3G. Such gradual transition stages are GPRS and EDGE, two standards increasing data transmission rates from 9.6 kbit/s to 56 kbit/s and 384 kbit/s, respectively [Schi03, p. 161 & p. 177; TuPo04, p. 12, 40]. Since GSM and UMTS show a top-down, centralized deployment and service provision approach [LeMc03, p. 18] and imply high investments and regulatory obligations [LeMc03, p. 359] there are few opportunities for new entrants into the operator business. However, besides network operating there are other promising and yet successful business models, such as application, content and service development, aggregation and operation, equipment and device production and contract reselling [TuPo04, pp. 130].
2.2
WLAN 802.11b/WiFi7
IEEE 802.11b WLAN was originally designed to get around costly and inflexible wired LAN infrastructures. WiFi works in non-licensed spectrum and allows data rates of up to 11 mbit/s. Since its advent, WLAN access points and routers have become popular home network commodities. This may, among others, be due to both large price declines and bundle offers of broadband internet access providers linking WLAN equipment with service contracts. Apart from the growing diffusion of private “hot spots” WiFi was also recognized as a business opportunity, especially at public places like stations, hotels, restaurants, etc. WLAN is to provide internet access there for people lacking high-bandwidth connections outside the office or home. Furthermore, new concepts try to deploy WLAN as a substitute for incumbent mobile communications networks. In these scenarios, large areas, like cities, are completely covered with WLAN. With WiFi-enabled handsets in conjunction with higher-level protocols like VoIP even telephone calls could be made from everywhere in this ‘WLAN-network’8. Indeed, many major handset manufacturers announced to offer WLAN-enabled gadgets soon with some al-
7 8
WiFi stands for “Wireless Fidelity” and is an industry consortium’s label for IEEE 802.11b. Notice that “WLAN-network” means a network of networks.
The Emerging WLAN-Infrastructure: Complement or Substitute?
1603
ready delivering first models. The major benefits of WLAN are a high maximum data rate as well as low seeming deployment costs in relation to GSM or UMTS installations. Figure 1 summarizes the main business opportunities for WLAN infrastructures currently under discussion.
Figure 1: WLAN employment in a business context 9
Generally, there are three categories of business scenarios for WLAN. First, WLAN is used as a part of the overall marketing-mix, such as yet another channel for customer communication and distribution. Furthermore, it can be employed as a means of customer relationship and customer retention, respectively. For example, WLAN can be provided as a free add-on for the customer at the point of purchase. A more sophisticated example would be bundling primary products (e. g. meals, coffee) with WLAN so that WLAN-usage is bonded to the purchase of other products. If the customer attaches a higher value to the combination of both products, he will either buy more or pay more. The second class of business models embodies the above mentioned WLAN operator scenario. Here, the operator charges fees for network access. The operator does not have to have any special skills regarding telecommunications or IT. He only needs a high-bandwidth internet connection and the necessary WLAN equipment. Of course, this kind of model does not allow for mobility and possibly imposes separate registration and billing procedures with each hot spot operator on the user. This implies negative indirect network effects for the customer. Therefore, unification of registration and login would be beneficial. This is the role of the aggregator in the network. The aggregator operates a central database with static and dynamic user information and thus provides for registration, identification, and billing. The aggregator could also act as a central point for handover and roaming among hot spots and therefore occupies the role of a clearing house [TuPo04, p. 51]. Thus, a major drawback compared with GSM/UMTS networks
9
Focusing on business models for the operator of the WLAN and disregarding other value net roles like content and application developers or equipment manufacturers because of their being largely independent of the access network.
1604
K. Plank
would be resolved10. The aggregator compensates for the problems of a decentralized, bottom up and heterogeneously owned infrastructure. The third class of business models employs WLAN as an alternative access technology. A first example is GSM operators trying to integrate WLAN into their set of other access technologies. Their strategy expects the customer to use the most appropriate technology according to their context. Another example is PSTN (Public Switched Telephone Network11) operators trying to redirect mobile communications traffic into their networks. This is achieved by handsets that automatically connect to a local access point rather than to the cellular network when the user is at home.
2.3
2G/3G – WLAN Comparison
A couple of differences between WLAN and GSM/UMTS have already been mentioned, such as different network architecture and ownership, different original purposes, the difference between mobility and wireless and finally spectrum regulation. Especially the last aspect has a number of implications. Firstly, as opposed to GSM/UMTS spectrum WLAN works in the freely available ISM (Industrial, Scientific and Medical) band. GSM/UMTS operators often are charged enormous fees for a license from regulatory oversight. But having an exclusive frequency band protects largely from interference leading to higher service quality. On the other hand, holding a license in many countries implies particular duties regarding operating, infrastructure, building schedules, and offered services. Operating in the free ISM band does not impose any of these obligations. Altogether, building traditional mobile infrastructures implies extraordinary high upfront costs12 making market entries very difficult. Despite its apparently relatively low upfront investments a comparison between WLAN and GSM/UMTS in terms of overall costs is very difficult. Additionally to the drawbacks of a shared medium and the lack of mobility WLANs only have a maximum range of 300 meters whereas GSM/UMTS cells can span a maximum of 30 kilometers [TuPo04, p. 15, 49]. However, all these values depend on environmental factors, e. g. user density, buildings, natural factors, and therefore are difficult to compare. As stated earlier, another major difference between both models is the decentralized approach of WLAN compared to the centralized approach of GSM/UMTS. In order to realize a scenario in which customers share their private hot spots with others and customers trust such decentralized networks for their private communi10 11 12
As suggested earlier, WLAN was designed for wireless use cases instead of mobility. PSTN operators own and operate a landline network including the local loop to the end customer. There were particularly large differences among countries regarding license fees.
The Emerging WLAN-Infrastructure: Complement or Substitute?
1605
cations requires an attractive incentive system as well as elaborate security and privacy mechanisms. Given all the differences a uniform concluding assessment is not possible. Still, in view of so many new wireless standards emerging from the IT industry (e. g. 802.11g, 802.11a, WiMax13) the evolution of decentralized technologies appears more dynamic and perhaps more flexible and adaptable as to upcoming problems.
3 3.1
Technology Interactions Competitive Interactions in the Telecommunications Industry
At first sight, the operator model discussed in section 2 shows WLAN as a clear substitute for GSM as well as UMTS, since both compete for customers in the same use cases. However, remembering the aforementioned integration strategy of incumbent mobile operators renders a contrasting picture. There, WLAN is a complementary technology besides GSM and UMTS. Therefore, the question arises what the real nature of this technology interaction is, i. e. whether it is a substitute or a complement. The relevance of this question is grounded in the significant influence of technology and product interactions on a technology’s or product’s diffusion and overall success, respectively. This is all the more essential for the telecommunications industry which faces extremely high innovation rates and short product lifetimes. As suggested earlier, convergence towards a common TIME industry and high innovation rates in wireless IT standards, among others, foster the evolution of many seemingly competing and complementary technologies. Figure 2 gives a survey of current and possible future substitution relationships among various existing and new technologies. The illustration differentiates between the degree of novelty14 as well as the origin15 of the competing technologies.
13 14 15
WiMax is an industry consortium aiming at supporting the development and adoption of IEEE 802.16 standards for metropolitan area network technologies. New and prospective technologies versus established technologies Telecommunications in contrast to non-telecommunications roots
1606
K. Plank
Figure 2: Substitution interactions in telecommunications and converging TIME industries16
Without considering the various interaction relations in detail their multitude is evident. However, neither does figure 2 state anything about the degree of competition nor does it describe the nature of the influence between two technologies. Moreover, considering each technology-pair in more detail also reveals complementary aspects. Following, this phenomenon will be studied in more detail by the case of PSTN/GSM/UMTS versus WLAN.
3.2
Interactions between PSTN/GSM/UMTS and WLAN
In this section, the analysis is restricted to four technologies owing to their high industry relevance. Figure 3 summarizes substitution as well as complementary aspects of WLAN deployment towards PSTN, GSM and UMTS.
16
This illustration does not claim comprehensiveness; furthermore, a clear definition of “existing” and “new” is missing.
The Emerging WLAN-Infrastructure: Complement or Substitute?
1607
Figure 3: WLAN as complement and substitute to PSTN, GSM, and UMTS
Broadly speaking, when WLAN serves as an alternative access technology to the operator’s own core network, that is, when the data traffic flows over his own networks, WLAN has a supplementary character. Especially at places at which high data rates are necessary and little GSM or UMTS coverage is available WLAN is a good supplement for GSM and UMTS networks. With PSTN operators WLAN can serve as an alternative to wired telephone devices and DECT (Digital Enhanced Cordless Telecommunications System) systems. This has nearly no effect on the operator’s revenues. Furthermore, it can be exploited as a means to redirect mobile communications traffic into PSTN networks17. For this purpose, dual handsets are necessary which can operate in both GSM/UMTS and WLAN networks. Of course, in this case, WLAN is a substitute for GSM and UMTS operators since revenues flow to another operator. Generally, whenever WLAN is connected to a different backbone network WLAN revenues are not appropriable for the focal firm, i. e. revenues flow to a different operator. But there is even a case in which despite appropriation revenues can be reduced by WLAN. This happens when WLAN is only a carrier technology, that is, an enabler for a substitute technology. An example for that is VoIP, an IP based voice communications technology strongly linked to WLAN. VoIP packs up digitized voice into data (IP) packages. Hence, even though the IP traffic is routed over the operator’s own core network the difference between charges for voice transmissions and data transmissions causes a decline in revenues since the former are usually higher than the latter. The analysis up to now has offered some insight into the complex nature of technology interactions. In order to structure these findings more precisely, following, a more general analysis shall be given which is to serve as a basis for a later overall framework for technology interactions.
17
British Telecom (BT) and Korean Telecom (TK) recently announced their intention to offer such converged mobile – fixed-line service.
1608
4
K. Plank
Interaction Framework
Figure 4 depicts the building blocks of the framework which will be presented subsequently, however, owing to interdependencies among the blocks partly in a different order.
Figure 4: Building blocks of the interaction framework
4.1
Basic Modes and Patterns of Interaction
Figure 5 gives a survey of four archetypes of product relations following [MaPe85, pp. 39]. A contingent product strongly depends on another product, and thus, is generally adopted in conjunction with the other one. Independent products, on the other hand, do not influence each other, at least within a certain problem scope (cf. section 4.2). However, there is always at least the common constraint of consumer budget which represents the widest possible scope.
Figure 5: Basic modes of technology interactions
If both products influence each other positively18 in terms of adoption, they are called ‘complements’. On the other hand, if both products influence each other negatively, they are called ‘substitutes’ [Shoc+04, p. 29]. Besides, there are cases in between these extremes in which one product fosters the other and the other hampers the first or in which there is just unilateral influence. There may be even the case of positive influence by a technological substitute when the emergence of a new technology triggers improvements in the mature technology. All this sug18
A possible measure is the growth rate change [PiUt97, p. 71].
The Emerging WLAN-Infrastructure: Complement or Substitute?
1609
gests that modes of technological interaction and initial superiority need not reflect on the later market one-to-one, since reactions of the “other product” cannot be ruled out. This difference between the technology and its later appearance on the market, as a product, will be discussed later in this section. [Bayu+00, p. 155] developed a conceptual framework for multiproduct19 interaction showing the various possible positive, negative, and neutral mutual effects of existing and new products and arranging them in different categories. [Shoc+04] extend the conventional static model with dynamic aspects allowing for order of entry, such as intergenerational effects. More precisely, the nature of an interaction between two technologies or products is likely not static but may change in the course of time [Shoc+04, pp. 33]. For example, several years ago, mobile telephony was an additional service to the former fixed line communication. But in the course of time, driven by price decline, domestication, technological improvements, and diffusion effects a growing part of fixed line calls has been being replaced by mobile calls. Former complements ultimately became substitutes20 [Shoc+04, pp. 35]. As will be illustrated in section 4.4.1 there is also the case that the consumer himself develops or fosters new usage scenarios which have been disregarded by marketing thus far. A case in point is SMS which has not been considered as a relevant product at the beginning. But with its unexpected rapid diffusion, a wealth of new SMS based services emerged. The dynamic character becomes particularly obvious with respect to feedback processes, caused, for instance, by standardization and network effects. Apart from consumer induced changes, the competitor’s reactions as well as environmental shifts may also account for interaction dynamics. However, although the aforementioned “pattern” frameworks are suitable for product diffusion models they disregard a lot of aspects, such as technology, strategy, or financials. The following sections will address these issues, among others.
4.2
Different Levels and Scope
Because of their undifferentiated use in this paper up to now the terms “product” and “technology” are to be specified. Literature construes technology as applied scientific knowledge for the resolution of specific problems [Pohl96, p. 19]. On the other hand, a product is a material and/or immaterial aggregate of perceived qualities linked with utility expectations (cf. e. g. [Kotl91, pp. 429]). Therefore, users generally do not perceive technologies in the first place but rather products. Of course, technologies do influence a product’s qualities. Moreover, one technol-
19 20
Interactions among more than two products simultaneously are to be examined pairwise and consequently are not treated separately [Shoc+04, p. 28]. [Shoc+04, pp. 35] calls this phenomenon ‘reincarnation’.
1610
K. Plank
ogy can realize various products and in one product several technologies can be employed. Furthermore, interaction also depends on the regarded scope. In order for a specific need to be satisfied many product categories may be appropriate and within these categories there may be several subcategories or brands which possibly act as substitutes [Kotl91, p. 133]. For instance, the need for communication may be satisfied by mail, meeting, telecommunications, etc. Telecommunications, in turn, offers voice telephony or messaging. Messaging, in turn, comprises substitutes like e-mail, SMS, or MMS which in turn are offered by different suppliers (implying different brands). The notion of a “product hierarchy” expresses the issue of product dependencies at various scope levels [Kotl91, p. 431].
4.3
Demand Side
What do these specifications mean in the context of consumer perception? (1) Suppliers focus on technologies as well as on products while consumers just perceive products. (2) If a consumer perceives two products as mainly identical, he is indifferent in terms of the underlying technologies. This is a consequence of the above definitions. So, if two technologies’ different qualities do not reach the consumer’s perception, competition emerges at the product and marketing level, respectively, otherwise, competition also takes place at the technology level. If WLAN, for example, offered the same service quality (coverage, roaming, handover, voice quality, security) as GSM/UMTS, people will most probably base their purchase and usage decisions on marketing traits like price. Otherwise, they will look at technological product qualities, i. e. product qualities mediated by the underlying technology. Of course, apart from technology and product qualities, individual characteristics as well as the purpose of a purchase or a usage are key further determinants of whether a product is considered as complement or substitute [Shoc+04, p. 30, 31]. As an example for purpose take SMS and MMS. While in normal life SMS and MMS may be considered substitutes (even if most people currently still prefer SMS), MMS could become a complement when travel photos shall be communicated immediately. In one case both products are substitutes since they serve the same purpose (i. e. use case), in the other case they serve different purposes and therefore do not compete but rather supplement one another. This suggests that interaction has to be defined in terms of purposes or use cases since one product can be appropriate for several purposes [Ratn+99, pp. 193; Kotl91, p. 133]. Below, this point will be elaborated. [Pohl96] examined the adoption decision of technological innovations and determined a deviation from the usual decision process. Owing to difficulties in assessing the new technology, its utility and future and also because of highly dynamic markets the consumer suffers high purchase uncertainty. This may lead to cancel-
The Emerging WLAN-Infrastructure: Complement or Substitute?
1611
lation or postponement of the purchase process. TIME markets show that kind of dynamics. Because of uncertainty and announcements of promising substitutes consumers could skip the current generation and only adopt the next one21. This leads to so called intergenerational interaction effects. In this case, the existing generation is negatively influenced by the future generation.
4.4
Supply Side
With disintegrating value chains relationships between value network actors become increasingly complex and each party may be affected in a different way by interaction. For example, the competition character in the relationship of WLAN and UMTS may affect equipment manufacturers as well as operators but does not affect content providers at all. Thus, in the following, the relevant interaction aspects for a generic supply side actor are presented. They have to be applied to each actor in a real setting separately. 4.4.1 4.4.1.1
Marketing Relationship between Marketing, Technology and User Needs
As suggested above, users perceive products and products again are created by marketing22. In Figure 6 this point is made clear. Needs and problems are drivers of consumption. Technology has been defined as scientific knowledge aiming at the resolution of certain problems (cf. section 4.2). Therefore, technology determines the set of theoretically possible use cases23. However, many of these use cases are irrelevant, ineffective or inefficient, or even not (yet) identified and therefore are never (not yet) offered.
Figure 6: Context of technology, marketing, and use cases
21 22 23
This behaviour is called ”leapfrogging“ [Pohl96]. This logic follows from the definition in section 4.2. In their framework [Ratn+99] denote this “purposes“.
1612
K. Plank
It is one of the tasks of marketing to select suitable and appropriate24 use cases from the set of possible use cases and transform them into products. Marketing has to position a product on a market. A product market can be defined as a set of products considered (among consumers) appropriate for serving a particular purpose or resolving a particular problem, respectively. Thus, substitutability among products, serving the same purpose (i. e. use case), constitutes a market [Ratn+99, p. 201]. This holds irrespective of whether interaction occurs at the technology or at the product level. Figure 6 also includes the possibility of evolution. It is sometimes the case that consumers invent new use cases into the set of theoretical use cases, which have not been identified from marketing yet. This “freedom” seems rather confined with proprietary, top-down structured and standardized mobile operator networks. However, taking the success of SMS, which has initially been ignored of being a reasonable use case, shows an example of user driven use case determination. Another example is WLAN which has not been considered for what it is currently being used. Figure 7 illustrates the case of technology interaction. There are two technologies which have common theoretical use cases (i. e. their theoretical use case sets overlap). Some of the addressed use cases of the alternative technology 2 intersect the set of addressed use cases of technology 1 (i. e. use cases which are chosen by marketing)25. In this purple colored area, interaction actually takes places.
Figure 7: Intersection of theoretical use case sets of two technologies
Figure 7 can be applied to the case of WLAN and GSM/UMTS. In the beginning, WLAN and GSM had completely different theoretical use cases. WLAN aimed at wireless access to a data network whereas GSM aimed at mobile telephony. Both theoretical use case sets had hardly any intersects. In the course of time, GSM de24 25
i. e. appropriate according to the supplier’s targets [Kim+00, pp. 496; Shoc+04, p. 28] call this “intercategory” interaction.
The Emerging WLAN-Infrastructure: Complement or Substitute?
1613
veloped higher data rates and WLAN evolved as an alternative to DECT. Both have approached each other and, thus, the intersection has expanded. Now that UMTS is emerging the intersection is comparatively large. UMTS addresses high data rates and WLAN gradually offers first approaches of mobility (by growing coverage and handover mechanisms). Currently, most European mobile network operators try to integrate WLAN by assigning it to specific use cases, e. g. public locations with high data rate requirements, in which UMTS is not the best fit (for this use case) anyhow. Doing this means reducing the (addressed) use case set within technology 1 (GSM/UMTS) and opening a new set of (addressed) use cases within technology 2 (WLAN). 4.4.1.2
Strategic Marketing
The question of whether to integrate an interacting technology or not is part of the product policy. Integrating substitute technologies holds the danger of cannibalization. Not integrating a substitute technology holds the danger of customer churn. Integrating a complementary technology may lead to higher profits but does not exclude overall losses. Finally, not integrating a complement includes the risk of customer churn, especially if product bundles are highly demanded. Later in the next section this discussion will be picked up again. Besides integration a company can chose among several other strategic moves when facing a substitution threat [Shoc+04, p. 34]. Firstly, the firm can develop new products or improve existing ones in order to offset or exceed the ‘competitor’s’ utility. This requires careful coordination of marketing and research and development activities (R&D). Apart from the development of new products improvement in manufacture processes could lead to lower costs which in turn could be passed to the customer. Irrespective of the achievement of lower costs price cuts are always a general means of marketing of influencing ‘net utility’. Of course, other marketing instruments, such as advertising, branding, distribution, or service, can also change the consumer’s perception. Finally, according to the above concept of use case selection product repositioning offers a possibility of avoiding competition. However, this could imply a loss of profits. 4.4.2
Effect Dimensions of Interaction
Generally, interaction may precipitate in a company’s economic results (see figure 8) in two ways: revenues and costs (and consequently profits).
Figure 8: Tangible market implications of interaction
1614
K. Plank
The interaction of two products can either increase or decrease the diffusion rate (i. e. the number of new adopters at a point in time) of one or both of the products. It can further influence the actual usage of one or both of the products and also the market potential (e. g. since the complement expands the primary product’s possible use cases). Finally, interaction may affect costs directly or indirectly (e. g. less production costs, economies of scale). However, owing to complexity there are no general rules or categorizations for the extent and sign of all these effects. For example, in case an integrated technology substitute draws a lot of demand from the primary product (which is based on a different technology) it depends on the margins of the substitute whether overall profits rise or fall. This negative effect of own products on own products is called “cannibalization” and often may result from unsuccessful product positioning. On the other hand, non-integration of technology substitutes can lead to customer churn and dropping revenues and profits. A growing penetration of the substitute in turn could imply feedback effects26 reinforcing the substitute’s diffusion and further losses in sales and profits for the focal company. Even the integration of a technology complement can affect profits negatively. For example, if an integrated complementary technology indeed fosters the demand for the primary product but itself generates losses. However, integrating a complement offers chances for higher revenues and profits. For instance, mobile handsets with built-in camera are considered as a complement from mobile network operators (as fostering usage of data transmission products) as well as from handset manufacturers (as fostering handset sales owing to the bundle’s higher utility to many consumers) since both expect higher profits from this combination. The handset manufacturer builds a bundle between handset and camera whereas the operator just utilizes the complementary relationship.
4.5
Factors
Figure 4 in this section also includes the building block “factors”. Factors are causes which affect the strength of interaction. Concerning the demand side the most important factor for substitutability seems to be the degree of perceived problem-solving (or need-satisfaction) congruence of products, i. e. the higher the congruence perceived the higher substitutability. Moreover, if the consumer is already invested, the substitute power of another product depends on his switching costs, like network effects, depreciations, uncertainties, etc. The supply side may influence the degree of substitutability by means of their market positioning decision. Whether a substitute relation really emerges at all depends on a company’s
26
e. g. economies of scale, network effects
The Emerging WLAN-Infrastructure: Complement or Substitute?
1615
competitors27. Hence, it is a matter of raising or lowering market entry barriers or more generally “market structure rigidities”. Market structure rigidities are to be construed as factors which keep the market structure from changing. The major categories are: demand side rigidities (e. g. consumer switching costs), resource based rigidities (e. g. scarce resources like spectrum, capital) as well as production cost rigidities (e. g. economies of scale, learning effects). Resource based rigidities offer an example of an environmental factor (cf. figure 4). For instance, regulatory policy often limits the amount of spectrum licenses and thus, the amount of substitutes. Complementary relations, on the other hand, are characterized by net utility gains28 from joint purchase, consumption or usage of different products. Product bundles, for instance, are marketing based complementarities and need not necessarily be technological complements either. Here, price, positioning, channel, and other marketing measures are decisive factors. Technology based complementarity is characterized by compatibility. The relation’s strength relies on the attractiveness of the complementary product. The more attractive the complement the higher the attractiveness of the primary product. Hence, in addition, the larger the amount of complementary products for a focal product the larger the potential usage scenarios and, thus in turn, the higher the attractiveness of the focal product29. This is often referred to as network effects or increasing returns from variety of complementary products. This way, a firm may influence interaction by its compatibility decision as well as by fostering complementary products. The treatise on factors has to be finished here. More elaboration requires a separate article.
5
Conclusion
This paper tried a first step toward clarifying the difference between technology and product interaction. Irrespective of the kind of interaction at the technology level the mode at the product or market level may be completely different owing to consumers’ perceptions, competitors’ reactions as well as environmental conditions. The empirical object was the mobile telecommunications industry owing to its high innovation rates, its short product lifetimes, its system good character as well as the convergence phenomena. By means of the case WLAN versus GSM/UMTS the diverse and contrasting reciprocal influences were sketched.
27 28 29
It is assumed that a firm does not offer substitutes within their own product line. Product differentiation does not fall into the substitute category. I. e. utility exceeds price. These are logically deduced propositions.
1616
K. Plank
However, as figure 2 shows, there are a lot of other existing or future interaction cases. The difficulty of giving a clear answer to the question of whether WLAN be a substitute or a complement leads to the development of a rough framework embodying the most relevant dimensions. First, the different modes of interaction and the contrast between technology and product were delineated. Then, based on this, the demand side and the supply side were examined separately. The key aspects of consumer’s assessment of interaction are the consumer’s perception of products (instead of technologies) as well as the consumers’ heterogeneity. This led to the conclusion that when two technologies address the same customer needs or problems the customer is indifferent in terms of technologies. An aspect which may be reflecting in the current attempt of mobile network operators to rename UMTS (a rather technical term) in terms more stressing need fulfillment. On the part of the suppliers, the framework distinguished marketing, including marketing strategy, and profit implication. Marketing, in connection with research and product development, is responsible for controlling interactions (e. g. by means of price, channel, use case, and positioning). One of the most important decisions is how to react to an emerging interaction, whether to integrate or not. This strategy may have high impact on the firm’s economic figures. The multitude of possible outcomes of different interaction scenarios is analyzed in a section on economic impact. Finally, a short section on factors sketches the relevant aspects of interaction strength. Considering the topic of technology interaction, it goes without saying that this paper was just a first approach, a first attempt to structure this multidimensional domain. Still, it is to lay the conceptual building blocks for models of such complex settings. Future research may go in different directions. First, more empirical evidence is necessary to assess the actual extent of specific interactions, to find indicators, and to test the propositions’ validity. These findings are necessary for the selection and adjustment of parameters in simulation, growth and forecasting models, respectively. There are already several contributions from marketing literature regarding diffusion models allowing for multiproduct or intergenerational interaction [Shoc+04; Bayu+00; PeMa78]30. However, these kinds of models often do not cope with the high complexity of system goods and thus give just partial accounts [Bayu+00, p. 160]). Simulation approaches (based e. g. on System Dynamics or on agent models) seem very promising here31 owing to their mapping of causal relations. Further research in this direction requires the elaboration of factors (cf. section 4.5) like strategic moves and market structure at the supply side (e. g. product policy, positioning, vertical integration and price) or consumer behavior and switching costs at the demand side.
30 31
See for example [Bayu+00, pp. 144] for a good survey. See for example [BeBe+03] and [Loeb96].
The Emerging WLAN-Infrastructure: Complement or Substitute?
1617
Acknowledgement The author thankfully acknowledges the financial support from Deutsche Telekom Stiftung which is funding this Ph.D. research project.
References [Bass69] Bass, F.M.: A new product growth model for consumer durables. In: Management Science, 1969, 15, pp. 215-227. [Bayu92] Bayus, B.L.: The Dynamic Pricing of Next Generation Consumer Durables. In: Management Science, 1992, 11, pp. 251-265. [Bayu+00] Bayus, B.L.; Kim, N.; Shocker, A.D.: Growth Models for Multiproduct Interactions: Current Status and New Directions. In: Mahajan, V.; Muller, E.; Wind, Y. ed., New-Product Diffusion Models. Kluwer Academic Publishers: Norwell, 2000, pp. 141163. [BeBe+03] Beck, R.; Beimborn, D.; Weitzel, T.: The German Mobile Standards Battle. In: Proceedings of the Hawaii International Conference on System Sciences, January 2003. [Buck+98] Bucklin, R.E.; Russel, G.J.; Srinivasan, V.: A Relationship Between Price Elasticities and Brand-Switching Probabilities. In: Journal of Marketing Research, 1998, 35, pp. 99-113. [Bulo+85] Bulow, J.I.; Geanakoplos, J.D.; Klemperer, P.D.: Multimarket Oligopoly: Strategic Substitutes and Complements. In: Journal of Political Economy, 1985, Vol. 93, no. 3, pp. 488-511. [Chri97] Christensen, C.M.: The Innovator’s Dilemma: When Technologies Cause Great Firms to Fail. Havard Business School Press: Boston, 1997. [DaNe94] Day, G.S.; Nedungadi, P.: Managerial Representations of Competitive Advantage. In: Journal of Marketing, 1994, Vol. 58, pp. 31-44. [Dann04] Danneels, E.: Disruptive Technology Revisited – A Critique and Research Agenda. In: The Journal of Product Innovation Management, 2004, Vol. 21, pp. 246258. [Klem87] Klemperer, P.: The competitiveness of markets with switching costs. In: Rand Journal of Economics, 1987, Vol. 18, no. 1, pp. 138-150. [Kotl91] Kotler, P.: Marketing Management. Prentice-Hall: Englewood Cliffs, 1991. [KuKu92] Kumar, U.; Kumar, V.: Technological Innovation Diffusion: The Proliferation of Substitution models and Easing the User’s Dilemma. In: IEEE Transactions on Engineering Management, 39, 1992, pp. 158-168. [LeMc03] Lehr, W.; McKnight, L.W.: Wireless Internet Access: 3G vs. WiFi? In: Telecommunications Policy, 2003, 27, pp. 351-370.
1618
K. Plank
[Lind+04] Lindner, T.; Fritsch, L.; Plank K.; Rannenberg, K.: Exploitation of Public and Private WiFi Coverage for New Business Models. Forthcoming in: Proceedings of IFIP 2004 - I3E Conference, Toulouse, 2004. [Loeb96] Loebbecke, C.: Evolution innovativer IT-Infrastrukturen: Dynamische Simulation des deutschen Mobilfunkmarktes. Metzler Poeschel Publishing, Stuttgart, 1996. [MaPe85] Mahajan, V.; Peterson, R.A.: Models for Innovation Diffusion. Sage Publications, London, 1985. [NaBr96] Nalebuff, B.J.; Brandenburger, A.M.: Coopetition. Doubleday Books, New York, 1996. [PeMa78] Peterson, R.A.; Mahajan, V.: Multiproduct Growth Models. In: Sheth, J., ed., Research in Marketing, 1978, Vol. 1, pp. 201-231. [PiUt97] Pistorius, C.W.I.; Utterback, J.M.: Multi-mode interaction among technologies. In : Research Policy, 1997, Vol. 26, pp. 67-84. [Pohl96] Pohl, A.: Leapfrogging bei technologischen Innovationen. Gabler: Wiesbaden, 1996. [Port80] Porter, M.: Competitive Strategy. Free Press: New York, 1980. [Ratn+99] Ratneshwar, S.; Shocker, A.D.; Cotte, J.: Product, person, and purpose: putting the consumer back into theories of dynamic market behavior. In: Journal of Strategic Marketing, 1999, Vol. 7, pp. 191-208. [Schi03] Schiller, J.: Mobile Kommunikation. Pearson Studium: Munich, 2003. [Shoc+04] Shocker, A.D.; Bayus, B.L.; Kim, N.: Product Complements and Substitutes in the Real World: The Relevance of “Other Products”. In: Journal of Marketing, January 2004, Vol. 68, pp. 28-40. [TuPo04] Turowski, K.; Pousttchi, K.: Mobile Commerce – Grundlagen und Techniken. Springer: Heidelberg, 2004. [VeKa03] Venkatesh, R.; Kamakura, W.: Optimal Bundling and Pricing under Monopoly: Contrasting Complements and Substitutes from Independently Valued Products. In: Journal of Business, 2003, Vol. 76, No. 2, pp. 211-231. [Yada94] Yadav, M.: How Buyers Evaluate Product Bundles: A Model of Anchoring and Adjustment. In: Journal of Consumer Research, 1994, Vol. 21, pp. 342-353.
Einführung in den Track Softwareagenten und Multiagentensysteme Stefan Kirn Universität Hohenheim
Bernhard Bauer Universität Augsburg
Jörg Müller Siemens AG Softwareagenten und Multiagentensysteme beschreiben ein Entwurfsparadigma für verteilte Systeme, das sich konsequent an lokalen Aufgabenstellungen, lokalem Problemverständnis, lokalen Situationen und Strukturen sowie lokaler Dynamik orientiert. Daraus ergeben sich einerseits neue Möglichkeiten für die Entwicklung betrieblicher Anwendungssysteme, andererseits entstehen daraus aber auch neue Herausforderungen an die Gestaltung soziotechnischer Informations- und Kommunikationssysteme. Im Mittelpunkt des Tracks stehen damit die Beschreibung und Analyse betrieblicher Anwendungen der Agententechnologie, das Engineering agentenbasierter Applikationen vom (Early) Requirements Engineering bis hin zu Test und Qualitätssicherung, das Integrations- und Konfigurationsmanagement sowie die Wartungsproblematik. Nicht zuletzt werden aktuelle Projekt- und Erfahrungsberichte aus der betrieblichen Praxis diskutiert. Im Beitrag "Drivers and Impediments of Consumer Online Information Search: Self-controlled versus Agent-assisted Search" behandeln Spiekermann, Strobel, Temme (HU Berlin) die informationstechnische Unterstützung von Konsumenten bei der Suche nach Informationen zur Auswahl von Produkten im Internet. Im Vordergrund steht die Frage, inwiefern Konsumenten bereit sind ihre Produktentscheidung auf Basis von Empfehlungen von Agenten zu fällen, oder eher manuelle Methoden der Informationsrecherche bevorzugen. Zur Untersuchung dieser Frage wird ein Modell vorgestellt und angewendet, das eine vergleichende Gegenüberstellung der durch Agenten unterstützten mit der manuellen Informationssuche ermöglicht. Dabei werden verschiedene Treiber und Hindernisse der Informationsrecherche im Internet betrachtet. Im Beitrag "Standardisierte Mikrosimulation eines Kapitalmarktes mit scale-free Netzwerken und Informationsansteckung" thematisieren Hein & Schwind (Uni
1620
Softwareagenten und Multiagentensysteme
Frankfurt) den Frankfurt Artificial Stock Market (FASM) als eine standardisierte, auf Basis der FIPA konformen Middleware JADE implementierte Plattform zur Realisierung von Mikrosimulationen des Kapitalmarkts. Durch die Verwendung von Agenten und die Fokussierung auf Inter-Agenten-Kommunikation ermöglicht diese Plattform explizit die Untersuchung von Topologie und Dynamik kapitalmarktrelevanter Kommunikationsnetze. Damit bietet FASM die Möglichkeit der Untersuchung dynamischer Preisbildungsprozesse auf Kapitalmärkten unter Berücksichtigung relevanter Netzwerkstrukturen und Informationsdiffusionsprozessen. Im dritten Beitrag "Multiagentensystem zur Wissenskommunikation in der Produktentstehung – Rapid Product Development" untersuchen Dalakakis, Diederich, Roller, Warschat (FhG IAO Stuttgart) eine Multiagenten basierte Middleware zur Unterstützung der Zusammenarbeit zwischen einzelnen Domänen des Rapid Product Development (RPD) im Rahmen der evolutionären Produktentwicklung. Kernleistung dieser Middleware ist die semantische Verknüpfung und Bereitstellung der durch die verschiedenen an dem RPD-Prozess beteiligten Arbeitsbereiche erzeugten Informationen in einem Aktiven Semantischen Netz (ASN). Zu dieem Zweck enthält Middleware Softwareagenten, die unter anderem Funktionen zum Auffinden von Informationen, zur kontextspezifischen Zusammenfassung und zum koordinierten Austausch von Informationen zur Verfügung stellen.
Track-Programmkomitee Prof. Dr. Stefan Kirn, Universität Hohenheim (Chair) Prof. Dr. Bernhard Bauer, Universität Augsburg (Chair) Dr. Jörg Müller, Siemens AG (Chair) Prof. Dr. Torsten Eymann, Universität Bayreuth Prof. Dr. Armin Heinzl, Universität Mannheim Prof. Dr. Otthein Herzog, Universität Bremen Prof. Dr. Peter C. Lockemann, Universität Karlsruhe Prof. Dr. Otto Spaniol, RWTH Aachen
Multiagentensystem zur Wissenskommunikation in der Produktentstehung Rapid Product Development Stavros Dalakakis Universität Stuttgart
Michael Diederich Fraunhofer Institut für Arbeitswirtschaft und Organisation (IAO)
Dieter Roller Universität Stuttgart
Joachim Warschat Fraunhofer Institut für Arbeitswirtschaft und Organisation (IAO)
Zusammenfassung: Der Sonderforschungsbereich (Sfb) 374 „Entwicklung und Erprobung innovativer Produkte – Rapid Prototyping“ an der Universität Stuttgart thematisert den Entwicklungsprozess von der Idee bis zum Prototyp. Im Rahmen eines multidisziplinären Ansatzes wird untersucht, inwieweit frühzeitig unterschiedliche Einflüsse auf das zu entwickelnde Produkt angewandt werden können. Durch die Nutzung schneller Iterationszyklen und der situationsgerechten Verwendung von Prototypen kann der Ansatz einer evolutionären Produktentwicklung erreicht werden. Dabei werden die Informationen der am RPD-Prozess beteiligten Arbeitsbereiche wie Kostenrechnung, Projektplanung, Konstruktion, Prototypenbau, etc. semantisch verknüpft und in einem dafür konstruierten Aktiven Semantischen Netz (ASN) abgelegt. Bei der direkten Zusammenarbeit der einzelnen RPDDomänen entstehen zum Beispiel Abstimmungsprobleme, die Mechanismen erfordern, die nicht direkt durch die einzelnen RPD-Anwendungen oder das ASN gelöst werden können. Dafür wurde eine Multiagenten-basierte Middleware entwickelt, die Gegenstand dieses Artikels ist. Schlüsselworte: Multiagentensysteme, Agententechnologie, Information Retrieval, Assoziative Abfrage, Aggregierende Anfrage, Koordination, Monitoring, Multicastkommunikation.
1622
1 1.1
S. Dalakakis, M. K. Diederich, D. Roller, J. Warschat
Einleitung Randbedingungen des Rapid Product Development
Die Ausgangssituation zeichnet sich dadurch aus, dass die Rapid Product Development (RPD)-Anwendungen aus den unterschiedlichsten Bereichen wie Prototypenbau, Visualisierung, Simulation, Kostenberechnung und Organisation ihre Informationen untereinander zur Verfügung stellen und austauschen müssen. Zu diesem Zweck wurde das Aktive Semantische Netz (ASN) entwickelt, das es ermöglicht, auf einer sehr abstrakten Ebene Wissen zu formulieren, semantisch zu verknüpfen und damit den anderen Domänen zur Verfügung zu stellen. Neben der reinen Wissensablage und der rudimentären Manipulation von Wissenselementen wurde ein intuitiver, flexibler Zugriff auf das ASN benötigt, der zusätzlich Basis-Funktionalitäten zur Manipulation des Wissens anbietet. Diese Funktionalitäten sind, das Auffinden von Informationen aus dem ASN ohne dessen Struktur im Detail kennen zu müssen, das situationsgerechte Aufbereiten der gefundenen Informationen zur weiteren Verarbeitung innerhalb der RPDAnwendung oder als Grundlage für weitere Suchanfragen an das ASN, das aktive Überwachen des ASNs zur Realisierung einfacher Synchronisationsmechanismen zwischen den RPD-Anwendungen, sowie Mechanismen zur flexiblen Koordination von RPD-Anwendungen entlang des RPD-Prozesses. Zur Erbringung dieser Dienste wurden vier auf das RPD abgestimmte Agententypen realisiert und prototypisch implementiert, die in Kapitel 3 näher beschrieben werden. Nach einer kurzen Einführung in das ASN (siehe 1.2) und der Betrachtung der bereits existierenden Middlewaretechniken im Stand der Forschung und Technik (siehe 2) wird die im Rahmen des Sfb entwickelte Multiagenten-basierte Middleware detailliert vorgestellt (siehe 3) und in einem kurzen Anwendungsbeispiel veranschaulicht (siehe 4).
1.2
Grundlagen des Aktiven Semantischen Netzes
Das ASN besteht aus zwei Abstraktionsebenen. Die erste Abstraktionsebene, die Strukturebene umfaßt die Funktionalität, d.h. die Programmlogik des ASNs, sowie die Struktur der Datenablage, das Metamodell. Die zweite Abstraktionsebene ist die Instanzebene, die die eigentlichen Informationen beinhaltet (siehe Abbildung 1). Das ASN ist auf der Strukturebene hierarchisch aufgebaut. Es besteht aus semantischen Netzen, die wiederum aus einer Vielzahl von Konzepten bestehen, die sich durch ihre Attribute auszeichnen und über Relationen semantisch verknüpft sind. Jedes Strukturelement des ASNs (Netz, Konzept, Attribut, Relation) besitzt einen in seinem Kontext eindeutigen Namen, um die eindeutige Identifizerung des Informationselements zu ermöglichen. Konzepte sind typisiert, so dass Konzepte
Multiagentensystem zur Wissenskommunikation in der Produktentstehung – RPD
1623
gleichen Typs gleiche Attribute besitzen. Durch die Flexibiltät des ASNs ist es möglich, Konzepte jederzeit um weitere Attribute zu erweitern.
Abbildung 1: Struktur des ASNs auf Instanzebene
Auf der Instanzebene werden die Konzepte und Attribute mit Inhalten gefüllt und zwischen Konzepten die semantischen Verknüpfungen über Relationen hergestellt. So gehört ein instanziiertes Attribut genau einem Konzept an und dieses genau einem Netz. Die Angaben Netz, Konzept, Attribut sind notwendig um den Wert eines Attributs auszulesen. Zum Beispiel beinhaltet auf Strukturebene das Netz für die Entwicklung der Luftdüse ein Konzept vom Typ Person, das neben anderen Attributen auch die Attribute Vor- und Nachname besitzt. Diese Personen gehören dann einem Team an, das ebenfalls durch ein Konzept repräsentiert wird und mindestens das Attribut Name mit dem Teamnamen besitzt. Auf der Instanzebene kann dies zum Beispiel eine Instanz Netz mit dem Namen „Luftdüse“, eine Instanz Konzept mit dem Namen „Person1“ und den Attributen Vorname „Karl“ und Nachname „Mayer“ sowie eine Instanz Konzept Team mit dem Namen „Entwicklung“ sein. Des Weiteren wird eine Relation zwischen dem Team und der Person hergestellt (siehe Abbildung 1). In einer ähnlichen Vorgehensweise versucht man verteilte Daten im Internet wie eine globale Wissensbasis zu behandeln. Diese Form der abstrakten Wissensrepräsentation nennt man Semantic Web [Sema04]. Dabei stützt sich das Semantic Web auf Resource Description Framework (RDF) Standards[Rdf04]. RDF und ASN sind parallele Entwicklungen. Das ASN stützt sich am eigenentwickeltem Metamodell wobei die RDF-Standards sich, in einer Form, auf der BeschreibungsLogik sich stützen. So gesehen ist das Semantic Web eine für den Zweck des Internet bereitgestellte Lösung des Semantischen Netzes.
1624
2 2.1
S. Dalakakis, M. K. Diederich, D. Roller, J. Warschat
Stand der Forschung und Technik Agentenarchitekturen und -modelle
Die Kommunikation ist das wesentliche Merkmal innerhalb eines Multiagentensystems und per Definition ein Mindestkriterium, das erfüllt werden muss [GeKe94]. Das setzt eine gemeinsame Kommunikationssprache innerhalb des Multiagentensystems, eine so genannte "Agent Communication Language" (ACL), voraus. Die FIPA (Foundation of Intelligent Physical Agents) stellt Spezifikationen für die gesamte Breite der Agententechnologie bereit [FIPA02a] und hat bereits als ACL für die Kommunikation eine "message structure" standardisiert [FIPA02b]. Auch die FIPA-ACL Semantik ist durch die FIPA-"Communicative Act Library" (CAL) spezifiziert worden [FIPA02c]. Den Mittelpunkt der gesamten FIPA-Aktivitäten bilden die Beziehungen zwischen den Agenten, mit dem Ziel, die Interoperabilität in komplexen Systemen zu erhöhen. Durch die Standardisierungen von FIPA ist eine weit verbreitete sowie allgemein akzeptierte Agenten-Architektur geschaffen worden. So stimmen wichtige Projekte, wie ABLE [Able03] [Bigu+02] und JADE [Jade03] (siehe 2.3), mit den Spezifikationen der FIPA überein. In [Matu95] wird ein Verfahren für einen Koordinationsmechanismus vorgestellt, dabei wird die Verhandlung durch den Einsatz einer zentralen vermittelnden Instanz gesteuert. Der Einsatz einer zentralen Koordinationsinstanz, z.B. durch einen Mediator, ist in der gewählten Architektur nicht praktikabel, da sich die Anforderungen an die Koordination laufend ändern und damit vorausgesetzt wird, dass das Koordinationsprotokoll frei definierbar ist.
2.2
Agenten-Kommunikationsprotokolle
Im Bereich der Interaktionsprotokolle hat sich das sichere Protokoll „Light-weight Reliable Multicast Protocol“ (LRMP) durchgesetzt [Liao00]. Die MulticastTechnologie hat gegenüber der Broadcast-Technologie den Vorteil, dass nur die Instanzen mit Informationen versorgt werden, die diese auch benötigen. Des Weiteren berücksichtigt das LRMP die Unterstützung einer Fehler überwachten (Reliable) Verbindung ähnlich dem TCP. Damit werden die Schwächen des StandardMulticast-Protokolls ausgeglichen. LRMP ist für heterogene Netzwerke aufgebaut mit Unterstützung mehrerer Sender. Bei der Koordination von RPD-Aufgaben, beispielsweise bei der Verhandlung von Ressourcenkonflikten, wie sie in der teamorientierten Projektplanung (TOPP) entstehen, findet eine Kommunikation, vermittelt durch den Koordinationsagenten, zwischen mehreren TOPP-Instanzen statt. Das setzt eine zuverlässige Kommunikationsplattform voraus. LRMP gewährleistet diese Zuverlässigkeit und bietet mit Hilfe des Multicast-Protokolls die Möglichkeit über verteilte Standorte Informationen auszutauschen. Im Allgemeinen wird das LRMP für die Implementierung von „Java Message Service“, dies ist
Multiagentensystem zur Wissenskommunikation in der Produktentstehung – RPD
1625
eine wichtige Komponente für Verteilte Systeme, eingesetzt [Java00] [Swif01]. Auch für Realisierungen von Diensten der Peer-to-Peer-Spezifikation JXTA wurde LRMP benutzt [Sun03].
2.3
Multiagentensystem in der Forschung
Ein richtungsweisendes Projekt ist das "Agent Building and Learning Environment" (ABLE) von IBM. Dies ist eine prototypische Entwicklung von Agenten mit starkem Einfluss aus dem Bereich der Computational Intelligence [Able03] [Bigu+02]. ABLE besteht aus einem Java-Framework, einer KomponentenLibrary und aus einem Werkzeugsatz, der durch die Nutzung von Techniken aus dem Maschinellen Lernen und Reasoning das Bauen und Benutzen von hybriden intelligenten Agenten ermöglicht und berücksichtigt die FIPA-Spezifikation. Es werden neben Lernmethoden auch Optimierungs-Algorithmen eingesetzt, die ähnlich aufgebaut sind wie JavaBeans, die AbleBeans genannt werden, wodurch eine sehr flexible Agenten-Plattform angeboten wird. Auch das Projekt „Java Agent Development Framework“ (JADE) baut auf die von FIPA entwickelten Spezifikationen auf [Jade03]. Die gesamte Plattform bietet runtime Systemservices für Agenten. Komponenten, wie das „Agent Management System“ und der „Agent Communication Channel“ regeln den Transport von ACL-Nachrichten. Die internen Interaktionen finden durch „light-weight“ Kommunikation auf der Ebene der Java Objekte statt. Analog zu einem Applikationsserver, der den Container von Objekten verwaltet, ist der Agenten-Container innerhalb der Agenten-Plattform organisiert. Dabei wird von einem Server-Objekt der gesamte Lebenszyklus über das Entstehen bis zum Entfernen aller Agenten koordiniert. Das Autonomie-Merkmal der Agenten wird über ein Modell dargestellt, das sich auf eine Verhaltensabstraktion für alle möglichen Agentenzustände stützt. Im Normalfall werden verschiedene, vorbereitete Verhaltensmuster, abhängig von dem Agentenbefehl, abgearbeitet. FIPA-OS ist ein mit den FIPA Spezifikationen übereinstimmendes „Open Source“ Projekt [FIPA03]. Durch das komponentenorientierte Agentenwerkzeug werden die zwingend erforderlichen FIPA-gerechten Komponenten bereit gestellt. Der Entwurf eines Multiagentensystems startet mit der Spezifikation der Architektur und der Komponenten sowie mit der Serviceschnittstelle und der Implementierung. Später werden die Transport Verschlüsselung und Content Sprache festgelegt.
3
RPD-Multiagentensystem
Wie bereits in 1.1 angerissen, ist eine flexible zentrale Datenhaltung für den RPDProzess nicht ausreichend, die funktionale Lücke wird durch eine Multiagenten-
1626
S. Dalakakis, M. K. Diederich, D. Roller, J. Warschat
basierte Middleware geschlossen. Das Multiagentensystem des RPDs ordnet sich als Middleware zwischen den RPD-Anwendungen und der zentralen Datenhaltung, dem ASN ein (siehe Abbildung 2). Die Middleware besteht zum einen aus Agentenframework, d. h. dem Umfeld, in dem sich die einzelnen Agenten befinden und den Agenten selbst.
Abbildung 2: Architektur des Rapid Product Development
3.1
Agentenframework
Das Agentenframework hat die funktionalen Anforderungen und die strukturellen Anforderungen der RPD-Anwendungen zu berücksichtigen. Die funktionalen Anforderungen umfassen die Aufgaben, die die Agenten der Middleware zu übernehmen haben: x Informationsbeschaffung auf einem höheren und abstrakteren Niveau als mit einer einfachen Programmierschnittstelle zum Abfragen von Informationen, wie es derzeit mit dem ASN möglich ist (siehe 3.2 Retrieval-Agent). x Aufbereitung des abgefragten und gefundenen Wissens durch die von der RPD-Anwendung vorgegebenen Richtlinien. Damit soll ein und dasselbe Wissen jeweils im Kontext der RPD-Anwendung aufbereitet werden (siehe 3.3 Aggregations-Agent).
Multiagentensystem zur Wissenskommunikation in der Produktentstehung – RPD
1627
x Aktives Überwachen des ASNs mit dem Ziel, auf strukturelle und inhaltliche Veränderungen schnellstmöglich reagieren zu können ohne dabei innerhalb der RPD-Anwendung aufwendige Polling-Mechanismen implementieren zu müssen (siehe 3.4 Monitor-Agent). x Koordination von Informationsflüssen zwischen RPD-Anwendungen, um interdisziplinäre Kommunikation zu strukturieren und zu vereinfachen (siehe 3.5 Koordinations-Agent). Die strukturellen Anforderungen berücksichtigen die Gegebenheiten, in denen sich die RPD-Anwendungen und das ASN befinden und müssen vom Agentensystem berücksichtigt werden. Diese Anforderungen sind: x Die netzwerkweite Verfügbarkeit der Dienstleistungen aufgrund der Verteiltheit der RPD-Anwendungen. x Einfache, standardisierte, programmiersprachenunabhängige Schnittstellen zwischen RPD-Anwendung und Middleware, um den verschiedensten programmiertechnischen Anforderungen der RPD-Anwendungen, wie z.B. einfache Anwendungen, webbasierte Anwendungen, Maschinensteuerungen, gerecht zu werden. x Eine leicht verständliche, intuitive Schnittstelle zum Agentensystem, mit dem Ziel, ohne große Kenntnisse der inneren Struktur der Middleware, optimale Ergebnisse zu erreichen. x Eine sichere und fehlertolerante Kommunikation zwischen RPD-Anwendung und Middleware, damit im Fehlerfalle die RPD-Anwendung in der Lage ist, Gegenmaßnahmen ergreifen bzw. Meldungen an den Benutzer aussenden zu können. 3.1.1
Schnittstelle RPD-Anwendung / Middleware ASN
Um dem Ziel einer möglichst einfachen und programmiersprachenunabhängigen Schnittstelle gerecht zu werden, wurde auf eine nachrichtenbasierte Schnittstelle zurückgegriffen. Als Nachrichtenformat wird XML benutzt. Die RPDAnwendungen müssen zur Kommunikation mit der Middleware lediglich XMLNachrichten erzeugen und empfangene Nachrichten auswerten, unabhängig von ihrer internen Struktur und ihrer Implementierungssprache. Für die Middleware hat es den Vorteil, dass ein einheitliches Empfangs- und Aufbereitungsmodul für die Agenten entwickelt werden konnte. Die möglichen Nachrichten und ihr exaktes Format hängen stark von der Funktionalität der einzelnen Agententypen ab. Um den Zugriff auf die Middleware für die RPD-Anwendungen einfach zu halten, repräsentiert sich die Middleware mit einer einheitlichen Multicast-Adresse, die die Nachrichten empfängt (siehe 3.1.2). Die Schnittstelle zwischen Middleware und ASN ist geprägt durch die Vorgaben des ASNs. Das ASN baut hierbei auf einer Applikationsserverlösung auf, die in
1628
S. Dalakakis, M. K. Diederich, D. Roller, J. Warschat
der Programmiersprache JAVA implementiert ist. Für eine einfache und effiziente Anbindung der Middleware an das ASN wurde für die Middleware auf JAVA zurückgegriffen. 3.1.2
Multicast-Umgebung
Bei der Kommunikation zwischen RPD-Anwendung und Middleware entsteht folgendes Problem. Die RPD-Anwendung hat ein Problem zu lösen und benötigt dabei die Unterstützung der Middleware. Eine mögliche Problemlösung ist die Überprüfung der Agenten durch die anfragende RPD-Anwendung auf deren Fähigkeit, die entsprechende Aufgabe zu lösen. Das hat aber den Nachteil, dass allen RPD-Anwendungen die Adressdaten aller Agenten bekannt sein müssen und zum anderen dauert das sequentielle Abfragen der Agenten, ob sie in der Lage sind, die Aufgabe zu übernehmen, sehr lange. Eine weitere Möglichkeit dieses Problem zu lösen, ist das Implementieren einer zentralen Serverinstanz, die alle Anfragen entgegen nimmt und an den Agenten weiterreicht. Ist die Serverinstanz im Fehlerfall nicht verfügbar, bedeutet dies den Zusammenbruch des Systems. Des Weiteren muss die Serverinstanz zyklisch alle Agenten auf Verfügbarkeit und Fehlerfreiheit sequentiell überprüfen. Auf Grund dieses Problems wurde eine Mischung aus beiden Ansätzen gewählt, nämlich eine Multicast-Umgebung (Abbildung 3). Mit Hilfe der MulticastUmgebung müssen die RPD-Anwendungen nur eine Adresse, die MulticastAdresse des Agentensystems, kennen. Dies löst das Problem des Wissens der Adressdaten aller Agenten. Das Problem des Auffindens eines verfügbaren Agenten wird auf das Multiagentensystem verlagert. Innerhalb des Multiagentensystems wird eine zentrale Instanz implementiert, der so genannte Master-Agent [DiLe01], [Wars+02]. Dieser Agent übernimmt die Aufgabe, die anderen Agenten auf ihre Verfügbarkeit hin zu überwachen und zu überprüfen. Zusätzlich beendet der Master-Agent alle Agenten, die durch nicht korrekt abgeschlossene Aufträge, verursacht durch die RPD-Anwendungen, verwaist sind.
Abbildung 3: Multicast-Umgebung der Middleware
Multiagentensystem zur Wissenskommunikation in der Produktentstehung – RPD
1629
Dem „Single-Point-of-Failure“-Problem, bedingt durch die Verfügbarkeit des Master-Agenten, wird dadurch begegnet, dass der Master-Agent nicht als einzelner, besonderer Agent realisiert ist, sondern als Bestandteil aller Agenten. Dadurch ist es möglich, dass alle Agenten Master-Agent werden können. Um den Master-Agent zu bestimmen, bedient man sich dem Netzwerkprotokoll Tokenring [IEEE802.5].
3.2
Retrieval-Agent
Das Ziel des Retrieval-Agenten ist es, ein effektives Wissens-Retrieval zu realisieren. Dabei werden Methoden erstellt, die den semantischen Gehalt der Relationen so nutzen, dass das bereits konzeptualisierte Wissen zusätzlich durch das relationsbasierte Wissen bereichert wird. Der Lebenszyklus einer Anfrage ist in Abbildung 4 als Aktivitätsdiagramm zu sehen. Dabei ist für den RPD-Anwender nicht relevant, ob die gestellte Anfrage durch ein scharfes oder ein unscharfes Retrieval realisiert wird. Interessant ist nur die Findung des relevanten Wissens aus dem ASN. Nach der Anfrageformulierung wird erst mit scharfen Methoden gesucht und wenn keine zufriedenstellenden Ergebnisse geliefert werden, werden unscharfe Methoden angewendet.
Abbildung 4: Zustände der Anfrage
3.2.1
Anfragesprache
Die für die Anfragesprache gestellten Anforderungen sind einerseits Anforderungen, die an das darunterliegende Repräsentationsmodell gestellt werden, aber auch
1630
S. Dalakakis, M. K. Diederich, D. Roller, J. Warschat
spezielle Anforderungen, die aus dem RPD-Prozess entstehen. Die bereits festgelegte Repräsentation des Wissens als ASN bildet das Repräsentationsmodell, auf das sich die zu entwickelnde Anfragesprache stützt. Die Navigation durch Pfadausdrücke, Operationen auf Relationen und die Möglichkeit zu unscharfem Retrieval sind Anforderungen aus dem RPD-Umfeld. Die Active Semantic Network Query Language (ASN-QL) ist eine Anfragesprache, die ausschließlich für den Zugriff auf das Aktive Semantische Netz entworfen worden ist [Dala+04]. Typische Fragewörter, die im Ingenieurbereich vorkommen sind z.B. „Wieviel“, „Wer“ oder „Wie oft“. Dabei wird bereits durch die Anfrageformulierung die Form der Ergebnisse beschrieben. ASN-QL ermöglicht zusätzlich ein rekursives Verhalten der Anfrage sowie Navigation in dem Ergebnisraum. 3.2.2
Scharfes Retrieval
Beim scharfen Retrieval werden die Konzepte hinreichend beschrieben, z.B. durch eine ID, sodass genügend Informationen für eine erfolgreiche Suche vorliegen. Die Methoden sind: x get-concept: diese Funktion nimmt Eigenschaften von Konzepten entgegen und liefert ein oder mehrere im ASN existierende Konzepte zurück. x is-associated-with: diese Funktion verwendet eine oder zwei Konzeptbeschreibungen für das Start- und Zielkonzept und liefert alle ausschließlich assoziierten Konzepte zurück, die im Umkreis der Range liegen. x is-aggregated-of: diese Funktion gibt eine Liste der Konzepte, die ausschließlich in einer Aggregations-Beziehung zu dem angegebenen Konzept stehen, zurück. Man kann die Aggregationsbeziehung auch für ein Aggregat-Konzept und sein Teil-Konzept erfragen, insbesondere wenn die Konzept-Id’s bekannt sind. x is-composed-of: diese Funktion gibt eine Liste der Konzepte, die Bestandteil einer Kompositionsbeziehung sind zurück. Werden zwei Konzepte im Umkreis der Range vermutet, das Start- sowie das Zielkonzept, dann wird die Kompositionsbeziehung aller zwischenliegender Konzepte ermittelt. x is-generalization-of: diese Funktion verwendet eine Konzeptbeschreibung oder zwei Konzeptbeschreibungen für das Start- und Zielkonzept, und gibt alle generalisierten Konzepte zurück, die im Umkreis der Range liegen. 3.2.3
Unscharfes Retrieval
Nicht vollständige oder nicht exakte Abfragen liefern durch unscharfe Methoden Ergebnisse. Eine teilweise Überprüfung ist ausreichend, um Ergebnisse zu liefern. Es können auch Konzepte berücksichtigt werden, die nur eine Teilmenge der gesuchten Attribute aufweisen. Führt das unscharfe Retrieval zu keinen Ergebnissen,
Multiagentensystem zur Wissenskommunikation in der Produktentstehung – RPD
1631
dann wird durch das Keyword eine Menge von Suchbegriffen eingegeben, die sich sowohl auf ein Attribut als auch auf ein Konzept beziehen können. Die Methoden sind: x get-concept-unsharp: nimmt Teilinformationen über die Konzepte auf und liefert eine Anzahl von Konzepten. x is-related-with: nimmt Teilinformationen über die Konzepte und bewertet Pfade mit dem gegebenen Range, wobei die verschiedenen Relationen nach der Non-Terminal-semantic gewichtet sind, um eine semantische Nähe ermittelt, die für die Liste der zurückgegebenen Konzepte ausschlaggebend ist. x consists-of: diese Funktion erlaubt den semantischen Unterschied zwischen den Relationsformen Aggregation und Komposition zu abstrahieren. Bei der unscharfen Suche nach vermuteter Aggregation wird auch die Komposition gesucht, um eine eventuelle Unschärfe der Abfrage zu ermöglichen. x is-similar-to: findet zu einem übergebenen Konzept ähnliche Konzepte. Eine Grobauswahl findet anhand der semantischen Beziehungen von Konzepten statt. Anschließend werden die ausgewählten Konzepte und das zu vergleichende Konzept in einem Vektorraum mit der Dimension der Anzahl der Attribute eingetragen. Die Gewichtung der Attribute ergibt sich aus ihrem Wert, falls dieser quantifizierbar ist. Mit dem Cosinus-Maß wird die Ähnlichkeit für alle Konzepte bestimmt. 3.2.4
Beispiel
In Abbildung 5 ist eine Beispielanfrage zu sehen, formuliert als Befehl an den Retrieval-Agenten. Dabei wird folgende Frage gestellt: „Wie viele Motoren mit dem Namen „MotorA“ stehen in Beziehung zu dem Konzept namens „Auto“?“. Die Suche soll auf fünf Konzepte beschränkt werden. Die Aufbereitung der Ergebnisse wird durch das Terminal „wieviele“ generiert. wieviele hat-Beziehung-zu( CONCEPT NAME MotorA, CONCEPT NAME Auto, 5) Abbildung 5: Beispiel eines Befehls für den Retrieval-Agenten
3.3
Aggregations-Agent
Aggregation als Repräsentationsform, die die Beziehung zwischen zwei Konzepten beschreibt, wird durch das Aggregat und seine Bestandteile definiert. Analog dazu können komplexe Problemstellungen als Problemteile P1, P2, ... Px erfasst werden. Die vorliegenden Aggregationsteile werden nach einer Abarbeitung in Teilergebnisse E1, E2, ... Ex transformiert und anschließend als Ergebnis inner-
1632
S. Dalakakis, M. K. Diederich, D. Roller, J. Warschat
halb des Aggregations-Agenten zusammengeführt. Die aus dem RPD-Prozess gestellten Anforderungen an den Aggregations-Agenten sind zum einen die Umformung von komplexen Anfragen, so dass diese von dem nachgelagerten Agenten in einer adäquaten Form weiterverarbeitet werden können, und zum anderen die Auswahl einer anwendungsspezifischen Sicht bzw. der userspezifischen Sicht. Zusätzliche Anforderungen betreffen das Performance-Problem, das im Zusammenhang mit der gesamten Systemperformance steht, z.B. die schnelle Abwicklung der Anfragen. 3.3.1
Anfragesprache
Die von dem Aggregations-Agenten ausgehende Anfrage wird an den RetrievalAgenten weitergeleitet (siehe Abbildung 6) und nach dem Abwickeln der Anfrage wird das Ergebnis an den Aggregations-Agenten geliefert, der die entsprechende Aufbereitung des Aggregationsergebnisses übernimmt.
Abbildung 6: Kooperationsablauf zwischen dem Aggregations- und dem Retrieval-Agenten
Die zusätzliche Intelligenz des Aggregations-Agenten wird nicht nur über die Interpretation der gewünschten Sicht des Retrieval-Agenten-Ergebnisses widergespiegelt, sondern durch die Möglichkeit der expliziten Formulierung einer Anfrage und das daraus entstehende Wissen. Das neue Wissen entsteht aus der aggregierenden Kombination von verschiedenen Konzepten und Attributen. 3.3.2
Beispiel
In der Abbildung 7 ist ein Beispiel für das Finden einer Spezifikation eines Leiters für eine bereits bekannte Arbeitsgruppe. Dabei gilt es den Altersmittelwert aller Gruppenmitglieder und die maximale Anzahl an durchgeführten Projekten zu vereinen.
Multiagentensystem zur Wissenskommunikation in der Produktentstehung – RPD
1633
Abbildung 7: Beispiel einer Aggregationsanfrage
Das Ergebnis (siehe Abbildung 8) ist die Zusammensetzung der gewünschten Eigenschaften der geeigneten Person und nicht die durch Filtersuche passende Person. Es werden keine Suchkriterien definiert, sondern es wird neues Wissen aus bereits vorhandenem Wissen aggregiert. 28 5 Abbildung 8: Das Aggregationsergebnis des Beispiels
3.4
Monitor-Agent
Der Monitor-Agent hat zum Ziel, das ASN auf bestimmte Veränderungen zu überwachen und diese der RPD-Anwendung zu melden. Der Schwerpunkt wurde hierbei auf die Entwicklung einer Überwachungsmethode gelegt, die es erlaubt, nicht nur einzelne Attribute im ASN auf Veränderungen zu überwachen, sondern die auch komplexe Strukturen und Abhängigkeiten im ASN berücksichtigt, bis hin zu einfachen Funktionen zur Aufbereitung der ASN-Inhalte, aber auch der ASNZugriffe.
1634
3.4.1
S. Dalakakis, M. K. Diederich, D. Roller, J. Warschat
Anfragesprache
Um dieses Ziel zu erreichen wurde eine einfache Anfragesprache entwickelt, die den folgenden, durch die RPD-Anwendungen gestellten Anforderungen, genügt. 1. Vergleich von konkreten Attributen des ASNs mit anderen Attributen oder Fixwerten. 2. Aufbau von komplexen Vergleichen, die mehrere Vergleiche berücksichtigen. 3. Aufbau von Funktionen zur Überwachung einfacher Vorgänge im ASN. Die Anfragesprache orientiert sich an den in der Programmierung üblichen Bedingungsanweisungen (IF-Statements). Die erste Bedingung, nämlich der Vergleich von konkreten Inhalten, wird in der Anfragesprache durch einfache logische Vergleiche wie =, , =, erreicht. Die zweite Bedingung, der Aufbau von komplexen Vergleichen, wird dadurch erfüllt, dass die einfachen logischen Vergleiche um aussagenlogische Operatoren wie AND, OR, NAND, NOR, XOR sowie die Negation NOT erweitert wurden. Bei der dritten Bedingung, der Überwachung einfacher Abläufe im ASN, werden drei Gruppen von Funktionen unterschieden. Die erste Gruppe, die Gruppe der Strukturfunktionen, bietet Funktionen zur Überwachung von Struktur und Inhaltsänderungen des ASNs an. Die zweite Gruppe überwacht den Zugriff auf das ASN (Zugriffsfunktionen). Bei der dritten Gruppe von Funktionen handelt es sich um mathematische Funktionen zur Berechnung einfacher Werte. Die Berechnungsergebnisse der Funktionen sind dann Bestandteil der Vergleichsoperationen. Die Strukturfunktionen sind: x ChangeVersion: Test auf Veränderung der Version eines Konzepts, eines Attributs oder einer Relation. x ChangeAttributeValue: Test auf Veränderung eines Attributwerts. x DeleteAttribute / DeleteKonzept / DeleteNet / DeleteRelation: Test, ob ein Attribut / Konzept / Netz / Relation gelöscht wurde. x IncludeConcept: Test, ob eine Relation ein bestimmtes Konzept enthält. Die Strukturfunktionen liefern als Berechnungsergebnisse aussagenlogische Werte, die in komplexen Vergleichen zum Einsatz kommen. Die Zugriffsfunktionen sind: x CountRead / CountWrite: Es werden die Lese-Zugriffe / Schreib-Zugriffe auf ein Attribut gezählt. x Version: Es wird die Versionsnummer eines Attributs bestimmt. Die mathematischen Funktionen sind:
Multiagentensystem zur Wissenskommunikation in der Produktentstehung – RPD
1635
x Add / Sub / Mul / Div: Addition / Subtraktion / Multiplikation / Division zweier Werte. Als Parameter für die mathematischen Funktionen können zum einen Attributwerte aus dem ASN und zum anderen Ergebnisse der Zugriffsfunktionen und mathematische Funktionen verwendet werden. 3.4.2
Beispiel
Im Beispiel Abbildung 9 ist die Anfrage dargestellt, die überprüft, ob ein Mitarbeiter „Person1“ Mitglied des Teams „Entwicklung“ und dessen Status „anwesend“ ist, wobei die Konzepte „Person1“ und „Entwicklung“ dem Netz „Luftdüse“ angehören, das Attribut mit dem Namen „Status“ den Status des Mitarbeiters widerspiegelt und die Relation zwischen Team und Mitarbeiter den Namen „Teamzugehörigkeit“ hat. (IncludeConcept (Luftdüse, Entwicklung, Teamzugehörigkeit) (Luftdüse, Person1)) AND ((Luftdüse, Person1, Status) = String (anwesend)) Abbildung 9: Beispiel einer Monitoranfrage
3.5
Koordinations-Agent
Die Zielsetzung des Koordinations-Agenten ist es, Abläufe innerhalb einer Anwendung zwischen Instanzen einer RPD-Anwendung, aber auch zwischen mehreren verschiedenen RPD-Anwendungen zu koordinieren. Da es sich hierbei um Anwendungen unterschiedlicher Domänen handelt und die Koordinationsaufgaben sich ständig ändern, ist ein starr vorgegebenes Koordinationsprotokoll nicht sinnvoll. Daraus folgt, dass der Koordinations-Agent in der Lage sein muss, jedes beliebige Koordinationsprotokoll abarbeiten zu können. Als flexible Beschreibungsform eines Koordinationsprotokolls wurde das Zustandsübergangsdiagramm gewählt. Die Zustände repräsentieren Situationen im Koordinationsprotokoll, die Übergänge werden mit Hilfe von bestimmten durch die RPD-Anwendung vorgegebenen Nachrichten initiiert und es werden an die RPD-Anwendungen bestimmte, vordefinierte Ausgabenachrichten gegeben. Die Ein- und Ausgabenachrichten bestehen aus einem Textbaustein und im Falle der Eingabenachricht des Senders bzw. Empfängers im Falle der Ausgabenachricht. Dadurch ist es möglich, den Zustandsübergang abhängig vom Sender zu vollziehen und nur bestimmte Koordinationspartner (RPD-Anwendungen) über den Zustandswechsel zu informieren. Natürlich ist es möglich, die Ausgabenachrichten an alle Koordinationspartner zu schicken und die Eingabenachrichten von allen Koordinationspartnern zu akzeptieren. Das Zustandübergangsdiagramm wird im Koordinations-Agenten durch einen endlichen Automaten realisiert. Bei der Instanziierung des Koordinationsprotokolls entstehen zwei Probleme. Zum einen müssen alle beteiligten RPD-Anwendungen Kenntnis über das Zustands-
1636
S. Dalakakis, M. K. Diederich, D. Roller, J. Warschat
übergangsdiagramm und damit über das Koordinationsprotokoll haben und zum anderen muss der benutzte Koordinations-Agent allen Koordinationspartnern und umgekehrt bekannt sein. Das erste Problem lässt sich nur auf Seiten der RPD-Anwendung lösen. So muss allen an der Koordination beteiligten RPD-Anwendungen das Koordinationsprotokoll und damit das Zustandsübergangsdiagramm und damit die möglichen Einund Ausgabenachrichten bekannt sein. Dieses Problem ist angesichts der Tatsache, dass das Koordinationsziel von den RPD-Anwendungen vorgegeben wurde, als gering zu betrachten. Das zweite Problem, nämlich den richtigen Koordinations-Agenten aufzufinden, wird dadurch gelöst, dass das Koordinationsprotokoll mit einem eindeutigen, allen Koordinationspartnern bekannten Namen versehen wird. Durch Senden einer Anmeldenachricht an das Agentensystem, die den Namen des Koordinationsprotokolls beinhaltet, wird der korrekte Koordinations-Agent gefunden. 3.5.1
Automatendefinition
Das Koordinationsprotokoll wird im Koordinations-Agenten durch einen Endlichen Automaten realisiert. Das dafür benötigte Zustandsübergangsdiagramm wird durch die RPD-Anwendung in Form einer Sprache definiert. Dabei werden zum einen die Zustände mit Namen angegeben und zum anderen alle möglichen Zustandsübergänge mit deren Ein- und Ausgabenachrichten. Es muss genau ein Startzustand und mindestens ein Endzustand vorhanden sein und es müssen alle Zustände vom Startzustand aus erreichbar sein. Des Weiteren muss der Startzustand ungleich dem Endzustand sein, da sonst keine Koordination stattfinden würde. Diese Automatensprache wird benutzt, um den Agenten das Koordinationsprotokoll zu übermitteln. 3.5.2
Ausgetauschte Nachrichten
Neben der Automatendefinition werden zum Betrieb folgende Nachrichten zwischen RPD-Anwendung und Koordinations-Agent ausgetauscht. x Input / Output: Diese Nachricht erzwingt einen Zustandsübergang und verschickt als Ausgabe die „Output“-Nachricht inklusive des neuen Zustandsnamens. x Input-Ack: Diese Nachricht wird an den Sender einer Eingabenachricht als Empfangsbestätigung verschickt. Das ist wichtig, da der Sender nicht zwingend in der Liste der zu empfangenden Ausgabenachrichten enthalten ist. x Wrong-Input: Diese Nachricht wird verschickt, wenn die Eingabe im aktuellen Zustand unzulässig ist.
Multiagentensystem zur Wissenskommunikation in der Produktentstehung – RPD
1637
x Request-State / Current-State: Mit dieser Nachricht kann die RPD-Anwendung den aktuellen Zustand beim Koordinations-Agenten abfragen und erhält diesen mit der Nachricht „Current-State“. x FSM-Definition / FSM-Definition-Ack: Mit dieser Nachricht wird der Automat durch die RPD-Anwendung definiert und der Emfpang durch den Agenten mit „FSM-Definition-Ack“ bestätigt. x Request-FSM /FSM: Diese Nachricht dient zur Abfrage des Automaten. Die Anwort ist das Zustandsübergangsdiagramm in der „FSM“-Nachricht. x Request-Coordination-Agent / Reqeust-Coordination-Agent-Ack: Diese Nachricht wird von den RPD-Anwendungen an das Multiagentensystem geschickt, die an der Koordination beteiligt sind, aber nicht das Koordinationsprotokoll festgelegt haben und erhalten vom Agenten die „Request-Coordination-AgentAck“-Nachricht als Bestätigung. x Initial-Coordination-Agent / Initial-Coordination-Agent-Ack: Mit dieser Nachricht wird ein neuer Koordinations-Agent erzeugt und mit Initial-CoordinationAgent-Ack quittiert. 3.5.3
Beispiel
Das Beispiel zeigt den Abstimmungsprozess (Abbildung 10), wie er bei der Problemlösung zwischen zwei Partnern auftritt.
Abbildung 10: Beispiel Koordinationsprotokoll als Zustandsübergangsdiagramm
Vom Startzustand „Problem“ kann einer der beiden Verhandlungspartner (VP) einen Vorschlag machen. Der Eingang des Vorschlags wird beiden Verhandlungspartnern durch die Ausgabenachricht „neuer Vorschlag“ angezeigt und in den Zustand „Vorschlag“ gewechselt. In diesem Zustand können beliebig viele Gegenvorschläge durch einen der beiden Verhandlungspartner vorgenommen werden. Entschließt sich ein Verhandlungspartner, den aktuellen Vorschlag bzw. Gegenvorschlag anzunehmen, wird der Abstimmungsprozess angestoßen. Hierzu wird je
1638
S. Dalakakis, M. K. Diederich, D. Roller, J. Warschat
nach Verhandlungspartner in die Zustände „Annahme1“ oder „Annahme2“ verzweigt und dem jeweils anderen Verhandlungspartner die Annahme des Vorschlags (AV) durch eine entsprechende Ausgabenachricht angezeigt. Die Zustände „Annahme1“ und „Annahme2“ können nur noch in Richtung Endzustand, durch die Annahme des Vorschlags durch den jeweils anderen Verhandlungspartner, verlassen werden. Dadurch werden beide Verhandlungspartner zur Akzeptanz des Vorschlags gezwungen bzw. beide Verhandlungspartner haben sich auf diesem Wege abgestimmt.
4
Anwendungsbeispiel
Anhand eines Anwendungsbeispiels soll ein kurzer Überblick über den Einsatz des Agentensystems gegeben werden. Hierzu wird die Arbeitsweise des Projektplaners an einem beliebigen Arbeitstag verdeutlicht. Der erste Schritt des Projektplaners ist das Einloggen am RPD-Portal, dabei wird die Teaminformation und die Stati seiner Kollegen mit Hilfe des Retrieval- und Aggregations-Agenten in einem Schritt aus dem ASN beschafft, anstatt wie bisher viele Anfragen an eine Datenbank zu stellen. Der Projektplaner hat in diesem Beispiel die Aufgabe übernommen zu überwachen, ob der Projektplan für die Erstellung des realen Prototyps für eine Fahrzeug-Luftdüse eingehalten wird. Ist dies nicht der Fall wird eine Koordination der beteiligten RPD-Nutzer notwendig. Ohne den Einsatz der RPDMiddleware wird der aktuelle Projektplan aus dem ASN beschafft. Der Status der Aktivität Simulation_Prototyp_Luftdüse wird dann zyklisch überwacht. Ist die Fertigstellung der Simulation termingerecht erfolgt, so wird die Überwachung beendet. Dieses zyklische Überwachen wird durch den Einsatz des Monitor-Agenten vermieden, wodurch die Performance der RPD-Anwendung gesteigert wird. Ist der Termin überschritten wird eine Abstimmung aller beteiligten notwendig, die durch die Koordinations-Agenten informationstechnisch unterstützt wird.
5
Zusammenfassung
Die Middleware wurde als Agentensystem konzipiert und mit dem Ziel realisiert, dass jederzeit durch weitere Agententypen neu auftretende RPD-Problemstellungen angegangen werden können. Des Weiteren wurde bei den Arbeiten darauf geachtet, dass der Zugang zu der Middleware über standardisierte Schnittstellen erfolgt. Durch den Einsatz der Agenten als Werkzeuge wird die Zusammenarbeit entlang des RPD-Prozesses unterstützt und vereinfacht. So realisiert der Koordinations-Agent strukturierte Abstimmungsverfahren zwischen RPD-Nutzern, ohne dass diese sich treffen bzw. sich gleichzeitig über ein beliebiges Medium austauschen müssen. Mit Hilfe des Monitor-Agenten ist eine flexible und proaktive Re-
Multiagentensystem zur Wissenskommunikation in der Produktentstehung – RPD
1639
aktion auf vollzogene Tätigkeiten anderer RPD-Nutzer möglich. Durch den Einsatz des Retrieval- und Aggregations-Agenten ist die RPD-Anwendung in die Lage versetzt worden, neben den eigenen Informationen, Informationen anderer aufzufinden und aufzubereiten ohne dabei detaillierte Kenntnisse über die Struktur der Informationen besitzen zu müssen. Darüber hinaus ist es nicht nur möglich einzelne Informationen aus dem ASN zu beschaffen, sondern weiterführende Informationen zu einer gesuchten Information zu erhalten. Die kontextabhängige Aufbereitung von Wissen erwies sich als schwierig, da bei der Vielzahl und den großen Unterschieden der RPD-Domänen die Darstellungsformen stark variieren. Durch die Gruppierung und Zuordnung von Ergebnissen zu ihren Suchanfragen wurde ein erster Schritt in Richtung Wissensaufbereitung vollzogen. Die Nutzung der RPD-Middleware stellt einen entscheidenden Mehrwert dar, so müssen nicht mehr die Informationen über eine Vielzahl von Interaktionsschritten aus dem ASN beschafft werden. Ebenso ist ein zyklisches Abfragen des ASNs auf Veränderungen genauso überflüssig geworden, wie das Aushandeln und Setzen von Parametern im ASN um eine einfache Synchronisationskoordination zu erreichen.
Literatur [Able03] Agent Building and Learning Environment, : URL: http://www.alphaWorks.ibm.com/tech/able, Abruf am 2004-06-29. [Dala+04] Dalakakis, S., Stoyanov, E., Roller, D.: A Retrieval Agent Architecture for Rapid Product Development, in: Perspectives from Europe and Asia on Engineering Design and Manufacture, EASED 2004, X.-T. Yan, Ch-Y. Jiang, N. P. Juster, (eds.), Kluwer Academic Publishers, 2004, S. 41-58. [DiLe01] Diederich, M. K.; Leyh, J.: Agent Based Middleware to Coordinate Distributed Development Teams in the Rapid Product Development. In: Proceedings for the Conference on Product Development, 1st Automotive and Transportation Technology Congress and Exhibition (1st ATTCE), 2001, Barcelona, Spain. [FIPA02a] FIPA Abstract Architecture Specification : Foundation for Intelligent Physical Agents, 2002. URL: http://www.fipa.org/specs/fipa00001, Abruf am 2004-09-29. [FIPA02b] FIPA ACL Message Structure Specification : Foundation for Intelligent Physical Agents, 2002. URL: http://www.fipa.org/specs/fipa00061, Abruf am 2004-09-29. [FIPA02c] FIPA Communicative Act Library Specification : Foundation for Intelligent Physical Agents, 2002. URL: http://www.fipa.org/specs/fipa00037, Abruf am 2004-0929. [FIPA03] FIPA-OS : Foundation for Intelligent Physical Agents Open Source from Nortel Networks. URL: http://fipa-os.sourceforge.net/summary.htm, Abruf am 2004-09-29. [GeKe94] Genesereth, M. R.; Ketchpel, S. P. : Software Agents. In: Communications of the ACM, (1994), Vol. 37 (7), S. 48-53.
1640
S. Dalakakis, M. K. Diederich, D. Roller, J. Warschat
[Bigu+02] Bigus, J. P., Schlosnagle, D.A., Pilgrim, J.R., Mills, W.N., Diao, Y. : IBM Systems Journal, (2002), Vol. 41, No. 3. [IEEE802.5] IEEE 802.5: Tokenring. [Jade03] JADE - Das Java Agent Development Framework : Telecom Italia Lab. URL: http://sharon.cselt.it/projects/jade/, Abruf am 2004-06-29. [Java00] Java Shared Data Toolkit : Sun Microsystems Inc. URL: http://java.sun.com/products/java-media/jsdt/, Abruf am 2004-06-29. [Liao00] Liao, T.: Light-weight reliable Multicast Protocol. INRIA, Rocquencourt, BP 105 / 8153 Le Chesnay Cedex, France URL: http://webcanal.inria.fr/lrmp/, Abruf am 200406-29. [Matu95] Maturana, F. P.; Norrie, D. H.: A Multi-Agent Coordination Architecture for Distributed Organizational Systems. In: The Mediator Research Program. 1995. [Rdf04] RDF Primer,W3C Recommendation 10 February 2004 : URL: http://www.w3.org/TR/rdf-primer/, Abruf am 2004-09-29. [Sema04] Semantic Web, : URL: http://www.w3.org/2001/sw/, Abruf am 2004-09-29. [Sun03] JXTA:Sun Microsystems Inc.: URL: http://services.jxta.org/servlets/ProjectHome, Abruf am 2004-06-29. [Swif01] SwiftMQ : URL: http://www.swiftmq.com/products/index.html, Abruf am 2004-06-29. [Wars+02] Warschat, J.; Cebulla, T.; Dangelmaier, M.; Diederich, M.; Aslanidis, S.; Tippmann, V.:Systemumgebung einer multidisziplinär wissensbasierten Produktentwicklung. In: Nagl, M.; Westfechtel, B. (Hrsg.) Modelle, Werkzeuge und Infrastrukturen zur Unterstützung von Entwicklungsprozessen, 20.-22. März 2002 in Aachen. Aachen, Wiley-VCH, S. 293-307.
Standardisierte Mikrosimulation eines Kapitalmarktes mit scale-free Netzwerken und Informationsansteckung Oliver Hein, Michael Schwind Johann Wolfgang Goethe-Universität Frankfurt
Zusammenfassung: Die Mikrosimulation von Finanzmärkten hat in den letzten Jahren große Fortschritte erzielt. Die wichtigsten stilisierten Fakten der Finanzmärkte konnten bereits mit Hilfe von Multi-Agenten-Modellen nachvollzogen werden. Die Implementationen der verwendeten Modelle sind allerdings immer noch sehr heterogen und zumeist kaum nachvollziehbar. Eine gemeinsame Plattform zur Entwicklung und zum Vergleich von Marktmodellen wäre wünschenswert. Der FASM (Frankfurt Artificial Stock Market) stellt eine solche Plattform dar. Der FASM wurde unter Java auf Basis der FIPA konformen Middleware Jade entwickelt und erfüllt damit einen wichtigen Industriestandard. Der FASM verfügt darüber hinaus über die Möglichkeit Preisbildungsprozesse mit Hilfe von Netzwerkstrukturen wie scale-free-Netzwerken und Informationsdiffusionsprozessen erforschbar zu machen. Schlüsselworte: Mikrosimulation, Multi-Agenten-Modelle, Finanzmärkte, Jade, scale-free
1
Einführung
In die Prognose von Finanz- und Warenmärkten werden jedes Jahr weltweit große Summen investiert, die Erfolge sind bisher zumeist eher mäßig bis ungenügend [Spi02; Spi03; Spi04]. Fehlprognosen verursachen hohe Schäden bei Banken und Versicherungen und stellen ein großes Problem für die Altersversorgung dar. Woran liegt der mangelnde Erfolg der Analysten? Die Effizienzhypothese der Kapitalmärkte stellt Anforderungen an die Märkte, die vor allem in Phasen erhöhter Unsicherheit oft nicht haltbar sind. Was verursacht die Abweichungen? Die endgültigen Antworten auf diese Fragen sind in nächster Zeit nicht zu erwarten, dennoch gibt es neuere Forschungsansätze, die bisher vernachlässigte Aspekte des wirtschaftlichen Handelns genauer untersuchen. Preisbildungsprozesse scheinen über endogene Eigenschaften zu verfügen, die unter bestimmten Voraussetzungen zu erheblichen Abweichungen von klassischen Bewertungsmaßstäben bei-
1642
O. Hein, M. Schwind
tragen. Die dynamische Interaktion zwischen Marktteilnehmern, wie das Herdenverhalten, in Verbindung mit steigendem Einfluss von trendorientierten Investoren wie z.B. Charttechnikern und Momentumtradern, scheint ein Grund für immer wieder auftretende Kapitalmarktanomalien - wie z.B. Booms und Crashes - zu sein. Modelle zur Mikrosimulation von Finanzmärkten können zur Untersuchung dieser Phänomene beitragen. Ob diese Modelle auch zur Prognose oder vielleicht zu einer erfolgreichen Asset-Allocation beitragen können, ist heute noch nicht absehbar [Far01]. Die vorliegende Arbeit beschreibt einen neuen Modellansatz, der sich einerseits durch seinen standardisierten Aufbau als Plattform für Experimente mit Kapitalmarktsimulationen auszeichnet und andererseits einen Schwerpunkt innerhalb der Inter-Agenten-Kommunikation setzt, der bei Vorgängermodellen nur implizit vertreten ist. Es besteht somit erstmals die Möglichkeit die Topologie eines Kommunikationsnetzes und die Dynamik von Ansteckungsprozessen in ihrem Verhältnis zur Preisbildung an Kapitalmärkten zu untersuchen.
2
Mikrosimulation von Kapitalmärkten
Zur Erörterung des Forschungsgebietes „Mikrosimulation von Kapitalmärkten“ werden im folgenden typische Simulationsmodelle vorgestellt. Die Validierung der Modelle erfolgt in der Regel durch Nachweis der empirisch feststellbaren universellen stilisierten Fakten von Finanzmärkten.
2.1
Simulationsmodelle für Kapitalmärkte
Die Erforschung der komplexen Dynamik von Finanzzeitreihen, wie Aktien- und Wechselkursen, erfährt in jüngster Zeit ein steigendes interdisziplinäres Interesse. Multi-Agenten-Systemen (MAS) kommt in diesem Zusammenhang eine wichtige Rolle zu. Sie eignen sich in besonderer Weise für die Untersuchung des Preisbildungsprozesses an Kapitalmärkten. Das Zusammenspiel einer Vielzahl heterogener, autonom interagierender Agenten spiegelt das tägliche Geschehen an den internationalen Börsenplätzen wider. Das Auftreten von Anomalien wie Boom- und Crashphasen wird als widersprüchlich zur Effizienzhypothese angesehen, die vom hyperrationalen, nutzenmaximierenden Homo Oekonomicus ausgeht und eine Übereinstimmung vom Preis eines Wertpapiers mit seinen fundamentalen Daten postuliert. Spätestens seit dem Aufkommen des Behavioural Finance hat sich das Bild der Wirtschaftssubjekte geändert [Sim97]. Man geht mittlerweile nur noch von einem begrenzt rationalen Handeln menschlicher Akteure aus. Diese Annahme gibt Raum für neue Verhaltens-
Standardisierte Mikrosimulation eines Kapitalmarktes
1643
muster von Investoren aufgrund von Erkenntnissen der experimentellen Ökonomie [KaTv82]. Erst die Mikrosimulation von Finanzmärkten hat einen ersten Einblick in die Interdependenzen eines kollektiven Preisfindungsprozesses ermöglicht. Phänomene wie „self-organizational criticality“ können so besser auf ihre Auswirkung auf die Preisbildung hin untersucht werden. Typisches Anlegerverhalten wie das Herdenverhalten sind modellierbar geworden. Erste Versuche mit künstlichen Aktienmärkten gehen auf Anfang der neunziger Jahre zurück. Der Artificial Stock Market (ASM) des Santa Fe Institutes hat mit Hilfe von MAS erste Einblicke in die Dynamik von möglichen Preisbildungsprozessen ermöglicht [LeB+94]. Der ASM lässt seine Investoren ihre Anlagestrategie mit Hilfe von genetischen Algorithmen optimieren. Der ASM wurde mit Hilfe von Swarm1, einer Multi-Agenten-Plattform, und der Programmiersprache ObjectiveC implementiert. Es gibt in diesem Modell keine direkte Agentenkommunikation, allenfalls eine indirekte Kommunikation über die Preisveränderungen. Es folgten eine ganze Reihe von Modellen, wie das von Levy, Levy, Salomon [Lev+00], oder das Modell von Cont, Bouchaud [CoBo00]. Der Genoa Artificial Stock Market (GASM) ist eines der ersten Modelle, das als eine experimentelle Plattform für Kapitalmarktsimulationen dienen soll [Rab+01]. Es wurde in der Programmiersprache Smalltalk entwickelt und orientiert sich inhaltlich an Cont, Bouchaud. Das Modell von Lux, Marchesi zeigt bereits alle wichtigen stilisierten Fakten, die zur Validierung des Modells dienen [Lux00; LuMa99]. Das Modell von Lux wurde in der Programmiersprache Gauss implementiert.
2.2
Stilisierte Fakten der Kapitalmärkte
Die Mikrosimulation von Kapitalmärkten erhält nur dann einen Sinn, wenn sie die Verhältnisse realer Kapitalmärkte angemessen widerspiegelt. Kapitalmärkte verfügen über statistische Eigenschaften, die in verschiedenen Märkten wie Aktien-, Renten-, Devisen-, oder Rohstoffmärkten zu finden sind und als universelle stilisierte Fakten bezeichnet werden [Cont01]. Anhand dieser Eigenschaften können MAS Modelle hinsichtlich ihres Realitätsgehaltes überprüft werden. Die mit den MAS generierten Zeitreihen müssen die universellen stilisierten Fakten ebenso aufweisen wie reale Finanzmarktzeitreihen. Nachfolgend werden die wichtigsten universellen stilisierten Fakten vorgestellt. 2.2.1
Stationarität und Einheitswurzeln
Finanzmarktzeitreihen weisen in aller Regel die statistische Eigenschaft der NichtStationarität auf. Ob diese Eigenschaft vorliegt, kann mit Hilfe des Augmented 1
www.swarm.org
1644
O. Hein, M. Schwind
Dickey-Fuller-Tests (ADF-Test), auch als Einheitswurzel-Test bekannt, überprüft werden. Diesem Test liegt die Vorstellung zugrunde, dass die Veränderungen von Beobachtung zu Beobachtung in der Zeitreihe grundsätzlich wie folgt beschrieben werden kann: p
'X t
c (D 1) X t 1
¦ D 'X i
t i
Ht
(1)
i 1
Für D 1 (das entspricht b 0 mit b D 1 ) gilt, dass ein Random Walk vorliegt, der seinerseits stets als nicht-stationär gilt. Der ADF-Test überprüft nun die Nullhypothese H0: b = 0 („Random Walk“). Kann die Nullhypothese verworfen werden, wird davon ausgegangen, dass die Hypothese (H1: b < 0) gilt, was unter den Annahmen des ADF-Tests auf Stationarität der Zeitreihe schließen lässt [Pod99]. 2.2.2
Fat Tails
Es hat sich gezeigt, dass die Verteilung logarithmischer Renditen rt ln p t ln p t 1 von Finanzzeitreihen leptokurtisch (Abbildung 1) ist bzw. „fat tails“ aufweist und einem Potenzgesetz folgt:
F rt ! x | c x P
(2)
Dies bedeutet, dass die äußeren Bereiche der Wahrscheinlichkeitsverteilungsfunktion ausgeprägter sind als im Falle der Normalverteilung. Der Exponent P fällt gewöhnlicher Weise in das Intervall [2,5]. Der vierte statistische Moment, die Kurtosis, ist bei Finanzzeitreihen >3 und zeigt damit eine Abweichung von der Normalverteilung an, die von der Effizienzhypothese gefordert wird.
Standardisierte Mikrosimulation eines Kapitalmarktes
1645
1E+00
1E+00
NASDAQ
PDF(x)
1E-01
Normal Distribution
1E-01
1E-02
1E-02
1E-03
1E-03
1E-04 1E-03
1E-02
x
1E-01
1E-04 1E+00
Abbildung 1: Log-Log-Plot der absoluten Wahrscheinlichkeitsverteilungsfunktion PDF(x) des NASDAQ Index auf Tagesbasis vom 13.11.1984 bis 18.05.2004 im Vergleich zur Normalverteilung mit gleichem Durchschnitt und gleicher Standardabweichung.
2.2.3
Volatility Clustering
Finanzzeitreihen verfügen nachweisbar über keine lineare Autokorrelation, was als Unterstützung der Effizienzmarkthypothese angesehen wird [Con99]. Würde es eine signifikante Autokorrelation geben, könnte man Arbitragegewinne erzielen. Es hat sich allerdings gezeigt, dass die Abwesenheit von Autokorrelation nicht für die Volatilität von Wertpapierkursen gilt. Abbildung 2 zeigt eine erhöhte Autokorrelation bei den beiden Volatilitätsmassen absolute und quadratische Returns im Vergleich zu einfachen Returns an. Hohe (niedrige) Volatilität in der Gegenwart ist daher ein guter Indikator für hohe (niedrige) Volatilität in der näheren Zukunft. Es besteht außerdem noch eine Korrelation mit dem erzielten Volumen an Transaktionen. An volatilen Handelstagen werden in der Regel auch höhere Umsätze erzielt [Con01].
AC
1646
O. Hein, M. Schwind
0 ,5
0 ,5
0 ,4
0 ,4
0 ,3
0 ,3
0 ,2
0 ,2
0 ,1
0 ,1
0 ,0
0 ,0
- 0 ,1
- 0 ,1
AC
1
11
21
31 41 51 A b s o lute R e turns , L a gs
61
71
0 ,5
0 ,5
0 ,4
0 ,4
0 ,3
0 ,3
0 ,2
0 ,2
0 ,1
0 ,1
0 ,0
0 ,0
- 0 ,1
- 0 ,1
AC
1
11
21
31 41 51 Q uad ratische Returns, Lags
61
71
0,5
0,5
0,4
0,4
0,3
0,3
0,2
0,2
0,1
0,1
0,0
0,0
- 0,1
- 0,1 1
11
21
31 41 51 Einfache Returns, Lags
61
71
Abbildung 2: Autokorrelation AC für die Volatilitätsmasse absolute Returns und quadratische Returns im Vergleich zu einfachen Returns des NASDAQ Index vom 13.11.1984 bis 18.05.2004 bei verschiedenen Lags.
3
FASM – Frankfurt Artificial Stock Market
Die Entwicklung eines weiteren Simulationsmodells für Kapitalmärkte ist aus der Notwendigkeit der besseren Nachvollziehbarkeit von erzielten Ergebnissen in einer standardisierten Umgebung einerseits und der besseren Erforschung der zugrunde liegenden Organisationsstruktur und Entwicklungsdynamik von Agentenpools andererseits entstanden. Frankfurt als Sitz der Johann-Wolfgang-vonGoethe-Universität mit Forschungsschwerpunkt Wirtschaftsinformatik und Finanzen innerhalb des Fachbereichs Wirtschaftswissenschaften, hat sich für das Modell als Namensgeber angeboten. Der FASM soll durch seinen modularen Aufbau als Entwicklungsplattform für experimentelle Märkte dienen und durch seine Stan-
Standardisierte Mikrosimulation eines Kapitalmarktes
1647
dardisierung durch Verwendung von Jade2 3.2 den Austausch mit anderen Forschungsgruppen ermöglichen. Im Folgenden werden die wesentlichen Komponenten dieses neuen experimentellen Marktes beschrieben.
3.1
Die Agenten
Der Agentenpool teilt sich in zwei grundlegende Typen: Fundamentalinvestoren (FI) und Trendinvestoren (TI) [FaSh02]. FI orientieren sich am inneren Wert eines Wertpapiers. Der innere Wert v t ist exogen vorgegeben und folgt einem random walk: v t 1
(3)
v t Kt 1
mit Kt als normalem IID (independently and identically distributed) Zufallsprozess mit Standardabweichung GK und Durchschnitt PK . Eine einfache Fundamentalstrategie für den inneren Wert v t und die Position an Wertpapieren x t hat die Form: x t 1
x vt , pt
V vt pt
(4)
mit V ansteigend und V(0) = 0. Abhängig von der Fehlbewertung m t p t v t werden Käufe bei Unterbewertung und Verkäufe bei Überbewertung ausgelöst. TI beobachten den Preisverlauf und versuchen einem Trend zu folgen, die Strategie der TI stellt sich folgendermaßen dar: für eine Zeitskala T heißt eine Tradingstrategie trendorientiert, wenn die Position an Wertpapieren x t eine positive Korrelation U mit vergangenem Preis p t hat: U x t 1 , p t p t T ! 0 .
(5)
Beide Gruppen starten mit einem vorgegebenen Startvermögen an Liquidität und Wertpapieren. Ein Agent kann seine Handelsstrategie wechseln, wenn die eigene Strategie im Vergleich zu anderen Agenten in seinem Netzwerk weniger erfolgreich ist. Dazu ist es notwendig Schwellenwerte zu definieren, die zwischen den Agenten variieren können und eine Kommunikationsstruktur, die einen Wechsel der Handelsstrategie aufgrund eines Herdenverhaltens bewirken.
2
www.jade.cselt.it
1648
3.2
O. Hein, M. Schwind
Die Topologie des Agentennetzwerks
Durch Watts, Strogatz [WaSt98] wurde 1998 die „small world“-Eigenschaft für Netzwerke eingeführt und ihre Ähnlichkeit mit in der Natur auftretenden Netzwerken gezeigt. Barabasi, Alberts weiterführende Arbeit von 1999 zeigte die Eigenschaften von scale-free Netzwerken und Übereinstimmungen mit natürlichen Netzwerken auf [BaAl99]. Für eine möglichst realistische Topologie der Agentenkommunikation sollen innerhalb des Models Kommunikationsstrukturen verwendet werden, die auch innerhalb sozialer Netze anzutreffen sind. Im Folgenden werden die wesentlichen Charaktere von scale-free-Netzwerken erläutert. Netzwerke können durch die folgenden drei Parameter gekennzeichnet werden [WaCh03]: 1. Durchschnittliche Pfadlänge: Wenn die Distanz d ij die minimale Anzahl von Kanten zwischen Knoten i und j ist, dann ist die durchschnittliche Pfadlänge der Durchschnitt der minimalen Distanzen zwischen allen Knoten. 2. Clustering Koeffizient: Angenommen Knoten i hat k i Kanten und ist damit mit k i Knoten verbunden. Zwischen diesen Knoten kann es maximal k i k i 1 / 2 Kanten geben, wenn alle Knoten miteinander verbunden sind. Der Clustering Koeffizient Ci des Knoten i ist dann definiert als der Quotient der existierenden Kanten E i zu den maximal möglichen Kanten: Ci
2Ei / k i k i 1
(6)
Der Clustering Koeffizient des Netzwerkes ist der Durchschnitt über alle Ci . 3. Gradverteilung: Der Grad eines Knoten ist definiert als die Anzahl seiner Kanten. Die Verteilung der Grade der Knoten eines Netzwerkes kann durch eine Verteilungsfunktion P(k) charakterisiert werden, die angibt wie hoch die Wahrscheinlichkeit ist, dass ein Knoten den Grad k hat. Innerhalb regulärer Netzwerke besitzen alle Knoten den gleichen Grad k, P(k) hat dadurch lediglich eine Spitze bei k. Bei zufälligen Netzwerken wird die Form von P(k) um den Maximalwert der Funktion herum verbreitert und folgt einer Poisson-Verteilung. Die PoissonVerteilung fällt exponentiell vom Maximalwert ab. Es konnte empirisch festgestellt werden [WaCh03], dass P(k) von realen komplexen Netzwerken, wie Fluglinien-Netzen, Sprache, Internet domains, Autoren-Datenbanken, u.a., nicht zu den Poisson-Verteilungen gehört, sondern nur einen Abfall vom Maximalwert zeigt der einem Potenzgesetz folgt:
Standardisierte Mikrosimulation eines Kapitalmarktes
1649
P k k J
(7)
Scale-free-Netzwerke haben ihren Namen ihrer Eigenschaft zu verdanken, dass Potenzgesetze frei von charakteristischen Skalen sind. Durch den langsameren Abfall vom Maximalwert existieren Knoten mit einem höheren Grad als der Durchschnitt der Knoten, so genannte Superknoten. Beim Blick auf ein Flugliniennetz fallen diese Superknoten als die Hauptumsteigepunkte, wie der Frankfurter Flughafen, sofort auf. Abbildung 3 zeigt ein scale-free-Netzwerk mit 25 Knoten, einer durchschnittlichen Pfadlänge von 2,14 und einem Clustering Koeffizient von 0,328. v16
v14 v13 v19
v17 v7 v23 v22
v21
v1 v5 v6
v11 v9
v8
v25
v15
v10
v3
v4 v12 v2 v18
v20
v24
Abbildung 3: Beispiel für ein scale-free Agenten Netzwerk
Die Generierung eines scale-free-Netzwerkes ist durch Barabasi/Albert folgendermaßen definiert worden [BaBo03]: 1. Wachstum: Starte mit einer kleinen Anzahl m0 von Knoten. Füge in jedem Schritt einen neuen Knoten ein und verbinden ihn mit m d m 0 bereits existierenden Knoten.
1650
O. Hein, M. Schwind
2. Bevorzugtes Verbinden: Die Wahrscheinlichkeit 3 i , dass ein neuer Knoten mit Knoten i verbunden wird, hängt vom Grad des Knoten i folgendermaßen ab: 3i
ki /
¦k
j
(8)
j
Übertragen auf die Organisationsstruktur von Wertpapierinvestoren, können von Medien (Börsen-TV, Zeitungen, Aktienbriefe), Kapitalsammelstellen und Vermögensberatern (Banken, Versicherungen, Fonds) und einflussreiche Individuen (George Soros) als Superknoten modelliert werden. Sie bestimmen aufgrund ihres höheren Einflusses einen wesentlichen Teil der Marktmeinung. Die Topologie eines Netzwerkes hat wesentlichen Einfluss auf die dynamischen Prozesse, die sich in ihm abspielen. Der Mechanismus der Diffusion von Informationen, die einen großen Einfluss auf die Entscheidungsfindung eines Investors ausübt, muss als nächstes definiert werden.
3.3
Informationsansteckung
Die epidemische Ansteckung in komplexen Netzwerken hat viele Beispiele in realen Netzen. Die Erforschung der Ausbreitung von Krankheiten wie AIDS und Ebola, von Computerviren im Internet, von kaskadenartigen Ausfällen in Energienetzen, oder Moden in sozialen Netzen, haben gemeinsame Wurzeln und können mit Hilfe von Netzwerken untersucht werden. Das Standard SIS-Model (susceptible-infected-susceptible) wird zur Modellierung des Ansteckungsprozesses verwendet [PaVe01]. Knoten repräsentieren Agenten, die entweder im Zustand „empfänglich“ oder „infiziert“ sein können und über Kanten mit anderen Agenten verbunden sind. Ein infizierter Agent kann einen verbundenen Agenten mit Wahrscheinlichkeit X anstecken, gleichzeitig kann ein infizierter Agent mit Wahrscheinlichkeit V vom Zustand „infiziert“ in den Zustand „empfänglich“ zurück wechseln. Die effektive Verbreitung O ergibt sich durch: O
X/G
(9)
Für homogene Netzwerke, wie small-world-Netzwerke und Zufallsnetze, gilt die Existenz einer Ausbreitungsrate O c ! 0 . Ist O t O c bleibt die Infektion im Netzwerk erhalten, bei O O c verschwindet die Infektion. Für scale-free-Netzwerke dagegen liegt O c nahe Null, eine Infektion breitet sich schnell und über weite Bereiche des Netzwerkes aus und behält hohe Beständigkeit. Übertragen auf die Modellbeschreibung eines künstlichen Aktienmarktes kann eine schnelle und weitreichende Diffusion von Information in Form von Gerüchten in Kombination mit begrenzt rationalem Handeln der Marktteilnehmer eine Ab-
Standardisierte Mikrosimulation eines Kapitalmarktes
1651
weichung des Marktpreises vom Fundamentalwert bewirken. Im Modell wird dieser Mechanismus zur Implementierung der Strategiewechsel zwischen fundamentaler und trendorientierter Handelsstrategien der Agenten benutzt.
3.4
Der Auktionsmechanismus
Viele der bisher präsentierten Simulationsmodelle für Aktienmärkte verwenden einfache Doppelauktionsmechanismen zur Darstellung des Handelsprozesses an den Börsen. In der Realität wird jedoch meist neben dem unmittelbaren Doppelauktionsmechanismus das Limitorderbuch eingesetzt. Das Limitorderbuch ist die Darstellung aller limitierter Kauf- und Verkaufsorder in Preis und Volumen jeweils in Form einer Warteschlange. Die Orders werden dabei in der aufsteigenden Reihenfolge ihrer Limitpreise geführt. Alle Kauforders liegen unterhalb der „bestens“ ausgeführten Kauforder und unterhalb der niedrigsten limitierten Verkaufsorder des Orderbuchs. Eine Transaktion findet statt, wenn neu eintreffende Limitoder Marktorder jeweils über dem Niveau der letzten Verkaufsorder bzw. unter der letzen Kauforder im Limitorderbuch liegen. Bei Limitorders mit dem gleichen Limitpreis werden die zuerst eingetroffenen Orders bevorzugt. Beim Matching wird dabei die temporäre Teilerfüllung von Aufträgen in Kauf genommen, bis die Order ganz erfüllt ist [Rab+03]. Die Bedeutung der Einführung des Limitorderbuchs für unser Modell hängt mit seinem nachgewiesenen Einfluss auf den Preisbildungsprozess zusammen [Smi+03]. Der Einsatz des Limitorderbuchs führt zur verstärkten Beobachtung von „stylized facts“ [Rab+03]. So analysieren Biais et al. [Bia+95] den Zusammenhang zwischen dem Orderfluss und dem Orderbuch an der Pariser Börse und kommen zu dem Ergebnis, dass ein hoher Auftragsdurchlauf bei kursnahen Geboten entsteht, während bei etwas weiter vom Kursniveau entfernten Orders, die Tiefe des Auftragsbuchs hoch ist. Bouchaud et al. [Bou+02] zeigen auf, dass die eingehenden Limitorders einer relativ breiten exponentiellen Verteilung der Preise folgen. Maslov und Mills diagnostizieren ebenfalls eine für die stilisierten Fakten typische Exponentialverteilung der Limitorder sowie „fat tails“ bei der Preisanalyse der Aufträge im Limitorderbuch [MaMi01]. In einem ökonometrischen Modell untersuchen Lo et al. den Einfluss von Limitpreis, Bid-AskSpread und Marktvolatilität auf die Ausführungszeiten der Aufträge und stellen dabei eine hohe Sensitivität dieser gegenüber dem Limitpreis fest [LoM+02]. Aufgrund der hier aufgezeigten Bedeutung des mit der Doppelauktion gekoppelten Limitordermechanismus für die Preisbildung, verwendet der FASM eine Börsenimplementierung mit Limitorderbuch. Dieses Verfahren findet z.B. an der Frankfurter Wertpapierbörse zur Ermittlung der Einheitskurse (Kassakurse) Anwendung.
1652
4
O. Hein, M. Schwind
Modellimplementation
Die bisher entwickelten Simulationsmodelle sind genauso vielfältig wie ihre Implementationen. Ergebnisse lassen sich nur schwer nachvollziehen und sind kaum vergleichbar oder gar austauschbar. Eine Standardplattform würde die erzielten Ergebnisse für andere Forscher besser zugänglich machen, das Rad müsste nicht jedes Mal neu erfunden werden. Ausweg bietet das standardisierte MAS Jade 3.2 (Java Agent Development Framework), das die Standards der FIPA3 (Foundation for Intelligent Physical Agents) befolgt. Anders als bei der Simulationsplattform Swarm verfügt Jade über eine ausgeprägte Inter-Agenten-Kommunikation, die für das beschriebene Modell unerlässlich ist und bei dem ASM der unter Swarm entwickelt wurde gänzlich fehlt. Swarm ist außerdem noch in der Programmiersprache Objective-C, einer heute selten benutzen Programmiersprache die ursprünglich für Next Computer entwickelt wurde, implementiert. Swarm ist nicht FIPA konform. Jade als Simulations-Middleware verfügt über alle wichtigen Funktionen, die für eine Kapitalmarktsimulation benötigt werden und ist dadurch sehr flexibel einsetzbar. Jade vereinfacht die Entwicklung von verteilten Systemen, bestehend aus heterogenen Einheiten, die untereinander kommunizieren und kooperieren [Bel+03]. Jade wurde in Java einwickelt und ist durch geeignete API´s (Application Programming Interface) einfach zu erlernen und unabhängig von der Java Version und vom Netzwerk. Durch seine Peer-to-Peer-Architektur ist es besonders gut für selbstständig interagierende, heterogene Agenten geeignet. Jade ist ein opensource Projekt, die Weiterentwicklung wird durch eine breite Gemeinschaft aus Industrie (Motorola, HP, Siemens, etc.) und Universitäten von ca. 1.000 Mitgliedern und einem Governing Board gewährleistet. Agenten kommunizieren über eine Agent Communication Language (ACL) die einerseits komplexe Konversation gestattet und andererseits durch vorgefertigte Interaktionen, wie Verhandlungen, Auktionen, oder Delegation, den Anwender von komplizierten Implementationen befreit.
4.1
Implementation der Agenten
Das beschriebene Simulationsmodell basiert im Wesentlichen auf zwei komplexen Agententypen. Zum einen dem Agent „Börse“, der die Simulation überwacht und steuert und zum andern heterogenen Agenten, die die Investoren repräsentieren.
3
www.fipa.org
Standardisierte Mikrosimulation eines Kapitalmarktes
4.1.1
1653
Agent „Börse“
Der Agent „Börse“ (Abbildung 4) übernimmt neben den klassischen Aufgaben einer Börse auch die Initiierung, Steuerung und die Beendigung der Simulation. Er fordert die Agenten zur Abgabe eines Gebotes auf und verarbeitet die eintreffenden Orders innerhalb des Auktionsmechanimus, wie unter 3.4 beschrieben, zu einem Einheitskurs. Der Einheitskurs und das entstandene Volumen werden gesammelt und auf einem Massenspeicher für die späteren statistischen Auswertungen abgelegt. Der Agent „Börse“ generiert außerdem die exogenen Werte Zins und Gewinn je Aktie, die über eine zyklische Funktion mit normalverteilten Abweichungen erzeugt wird. Auch diese Werte werden auf dem Massenspeicher abgelegt. Die Kontrolle übernimmt die Kommunikation und Steuerung der Agenten. Es werden die aktuellen Marktdaten für Preis und Volumen und die fundamentalen Werte für Zins und Gewinn je Aktie den Agenten zur Verfügung gestellt. Außerdem erfolgt das Settlement der getätigten Umsätze indem Aktien und Cash den Agenten zu- bzw. abgebucht werden. Bei Erreichen des letzten Handelstages fordert der Agent „Börse“ die Agenten zur Deregistrierung auf und beendet die Simulation.
Abbildung 4: Blockdiagramm von Agent „Börse“
1654
4.1.2
O. Hein, M. Schwind
Agent „Investor“
Der Agent „Investor“ (Abbildung 5) modelliert die beiden Anlegertypen wie unter 3.1 beschrieben. Er verfügt über eine Nachrichtenschlange, die eingehende Nachrichten für die Weiterverarbeitung zwischenspeichert und veraltete Nachrichten löscht. Das Portfolio zeigt den Bestand an Aktien und Cash an. Die Börse verbucht innerhalb des Portfolios die Käufe oder Verkäufe. Jeder Agent verfügt über einen Regelsatz (fundamentale Regel, Trendregel) mit dem er sein Verhalten optimieren kann. Ein lokaler Datenspeicher zeichnet alle Aktivitäten des Agenten für spätere statistische Auswertungen auf und legt sie auf einem Massenspeicher ab. Das Verhalten der Investoren wird von einer finite state machine kontrolliert. Die verschiedenen Eingangsparameter wie persönlicher Erfolg, der Erfolg der direkten Nachbarn, der aktuelle Zustand und die aktuell verwendete Regel werden für die Übergangsfunktion verwendet. Außerdem werden für die Übergangsfunktion individuelle Aktivitätsschwellen verwendet, die ein gleichzeitiges Handeln aller Investoren einer Gruppe ausschließen. Der Wechsel zwischen den Handelsregeln ist ausschlaggebend für die Diffusionsprozesse des Investorenverhaltens innerhalb des Kommunikationsnetzwerkes. Die Warteschlange an eingehenden Nachrichten wird regelmäßig überprüft. Sollte die Mehrheit der direkten Nachbarn erfolgreicher mit einer anderen Handelsstrategie sein und die Erfolgsdifferenz über dem Schwellenwert liegen, so passt der Agent seine Handelsstrategie der erfolgreicheren Mehrheit an. Für den Aktienkurs U und den individuellen Schwellenwert W, den Zinssatz r, den Gewinn pro Aktie s und die aktuell verwendete Regel J wird eine Limit Order für einen fundamental orientierten Investoren folgendermaßen generiert: If
J(r,s) + W > U
ĺ
buy at limit J + W
If
J(r,s) - W < U
ĺ
sell at limit J - W
otherwise do nothing Der Agent kann nur soviel Aktien kaufen bzw. verkaufen wie er über Bargeld, bzw. Aktien in seinem Portfolio verfügt.
Standardisierte Mikrosimulation eines Kapitalmarktes
1655
Abbildung 5: Blockdiagramm von Agent „Investor“
4.2
Implementation der Agentenkommunikation
Die Inter-Agenten-Kommunikation ist ein wesentlicher Faktor für das adaptive Verhalten der Agenten. Die Kommunikation ist entsprechend der FIPA Agent Communication Language (ACL) definiert worden. Abbildung 6 zeigt zur besseren Visualisierung der Agentenkommunikation ein Agent-UML (AUML) Sequenz Diagram [Ode+00]. Die Börse („exchange“) generiert zu Beginn die für die Entscheidung der Agenten benötigten historischen Zeitreihen für Zinsen und Gewinne („create history“), wartet bis sich alle Agenten angemeldet haben und fordert zur Abgabe eines Gebotes („cfp“) in Form von einer Kauf- bzw. Verkaufsorder mit Limit und Stückzahl, oder in Form einer Mitteilung über Inaktivität für den aktuellen Handelstag, auf.
1656
O. Hein, M. Schwind
Alle x Handelstage bewerten die Agenten ihren monetären Erfolg der letzten x Handelstage und kommen zu einem positiven (bei Gewinn) oder zu einem negativen Urteil (bei Verlust). Sie teilen dieses Urteil ihren unmittelbaren Nachbarn in Form einer Nachricht mit („send (success, failure)“). Die Nachrichten werden in einer Eingangsschlange gesammelt und dienen als Parameter für spätere eventuelle Verhaltensänderungen. Die Nachrichten verfügen über eine Gültigkeit und werden bei Überschreitung gelöscht.
Abbildung 6: AUML Chart des Simulationsmodells
Standardisierte Mikrosimulation eines Kapitalmarktes
1657
Alle y Handelstage bewerten die Agenten den Erfolg ihrer Handelsstrategie im Verhältnis zu ihrem monetären Erfolg und dem monetären Erfolg ihrer direkten Nachbarn. Bei unzureichendem eigenem monetärem Erfolg wird die Eingangsschlange von Nachrichten der unmittelbaren Nachbarn untersucht. Sollte sich dort eine Anzahl von positiven Nachrichten von Agenten mit abweichender Handelsstrategie befinden die über einem individuellen Schwellenwert liegt, erfolgt eine Angleichung der eigenen Handelsstrategie an die der erfolgreichen Agenten („change to other rule, don´t change rule“). Ist der Simulationsverlauf noch nicht beendet beginnt ein neuer Handelstag, ansonsten melden sich die Agenten bei der Börse ab und die Simulation endet („deregister“).
5
Testläufe
Der FASM befindet sich momentan in einer extensiven Testphase. Folgende Input- und Output-Parameter werden untersucht: Input Parameter: x Anzahl der Agenten x Anzahl der Handelstage x Initiale Verteilung von fundamentalen und trend-orientierten Investoren x Initiale Verteilung von Bargeld und Aktien zwischen den Agenten x Streuungsbreite von individuellen Merkmalen wie Aktivierungsschwellen variierte Handelsstrategien x Zyklische Funktionen für Zinsen und Gewinn pro Aktie x Initiale Preishistorie für Trend Investoren x Agenten Netzwerk Matrix charakterisiert durch durchschnittliche Pfadlänge and clustering coefficient x Zeitintervalle für die Überprüfung auf Regelwechsel und Kommunikation Output Parameter: x Zeitreihen für den Aktienkurs und Umsatz für die Analyse auf „fat tails“, volatility clustering und Volatilität Volumen Korrelation. x Tägliches Agenten Portfolio mit der Menge an Aktien und Bargeld, für die Beurteilung des Erfolgs einzelner Agentenportfolios und Handelsstrategien
1658
O. Hein, M. Schwind
x Das Auftreten von Regelwechsel im Verhältnis zu Preisänderungen, individuelle Aktivitätsschwellen für den Nachweis von Herdenverhalten x Die tägliche räumliche Verteilung von Käufern, Verkäufern und Handelsstrategien innerhalb des Agenten Netzwerkes
6
Zusammenfassung
Die Mikrosimulation von Kapitalmärkten kann trotz ihrer recht kurzen Geschichte bereits erste bedeutende Erkenntnisfortschritte vorweisen. Interdependenzen und wechselseitige Dynamiken können in diesen Modellen besser untersucht werden, als mit herkömmlichen analytischen Methoden. Sie ergänzen damit die klassischen Theorien über die Effizienz der Märkte. Die universellen stilisierten Fakten der Kapitalmärkte stellen statistische Phänomene dar, die als empirische Validierung für Marktmodelle dienen können. Die Implementationen von Marktmodellen ist äußerst heterogen und dadurch kaum nachvollziehbar und vergleichbar. Eine Standardisierung würde Modelle nicht nur vergleichbarer machen, sondern würde auch den Entwicklungsaufwand auf die wesentlichen Details reduzieren. Der FASM stellt die Bemühung dar, durch die standardisierte Middleware Jade, die FIPA konform ist, eine Plattform zur besseren Untersuchung von dynamischen Preisbildungsprozessen bereitzustellen. Der FASM knüpft dabei an die Tradition des Modellbaus für Kapitalmärkte an. Im Hinblick auf eine realitätsnahe Modellierung der Agenten-Kommunikation und Informationsdiffusion geht dieses Modell jedoch weit über die Vorgängermodelle hinaus. Die Erforschung von sozialen Netzwerken und der Dynamik von Ansteckungsprozessen hat in den letzten Jahren einen Aufschwung erfahren. Der FASM verbindet beide Forschungsbereiche und soll bereits gewonnene Erkenntnisse auf die Verwendbarkeit innerhalb der Erforschung von Preisbildungsprozessen hin überprüfen.
Literatur [BaAl99] Barabasi, A.-L.; Albert, R.: Emergence of Scaling in Random Networks. Science 286, 1999, S. 509-512. [BaBo03]Barabasi, A.-L.; Bonabeau, E.: Scale-Free Networks. Scientific American, 2003. [Bel+03] Bellifemine, F.; Caire, G.; Poggi, A.; Rimassa, G.: Jade, A White Paper. exp 3, 2003, S. 6-19.
Standardisierte Mikrosimulation eines Kapitalmarktes
1659
[Bia+95] Biais, B.; Hillion, P.; Spatt, C.: An Empirical Analysis of the Limit Order Book and the Order Flow in the Paris Bourse. The Journal of Finance 50, 1995, S. 16551689. [Bou+02] Bouchaud, J.-P.; Mezard, M.; Potters, M.: Statistical properties of stock order books: empirical results and models. Quantitative Finance 2, 2002, S. 251-256. [Con01] Cont, R.: Empirical properties of asset returns: stylized facts and statistical issues. Quantitative Finance 1, 2001, S. 223-236. [CoBo00] Cont, R.; Bouchaud, J.-P.: Herd behavior and aggregate fluctuations in financial markets. Macroeconomic Dynamics 4, 2000, S. 170-196. [Con99] Cont, R.; Ecole Polytechnique, P.: Statistical properties of financial time series, 1999. [Far01] Farmer, J. D.: Toward Agent-Based Models for Investment, Developments in Quantitative Investment Models 2001. [FaSh02] Farmer, J. D.; Shareen, J.: The price dynamics of common trading strategies. Journal of Economic Behavior and Organization, Vol. 49, No. 2, pp. 149-171, 2002. [KaTv82] Kahneman, D.; Tversky, A.: Judgment Under Uncertainty. Cambridge University Press: Boston, 1982. [LeB+94] LeBaron, B.; Holland, J.; Arthur, B. W.: Artificial Economic Life: A Simple Model of a Stockmarket. Physica D 75, 1994, S. 264-274. [Lev+00] Levy, H.; Levy, M.; Solomon, S.: Microscopic Simulations of Financial Markets. Academic Press: New York, 2000. [LoM+02] Lo, A. W.; MacKinlay, A. C.; Zhang, J.: Econometric models of limit-order executions. Journal of Financial Economics 65, 2002, S. 31-71. [Lux00] Lux, T.: Volatility Clustering in Financial Markets: A Microsimulation of Interacting Agents. International Journal of Theoretical and Applied Finance 3, 2000, S. 675702. [LuMa99] Lux, T.; Marchesi, M.: Scaling and criticality in a stochastic multi-agent model of a financial market. Nature, Vol. 397, No. 11, pp. 498-500, 1999. [MaMi01] Maslov, S.; Mills, M.: Price fluctuations from the order book perspective - empirical facts and a simple model. Physica A 299, 2001, S. 234-246. [Ode+00] Odell, J. H.; Parunak, H. v. D.; Bauer, B.: Extending UML for Agents. Proceedings of the Agent-Oriented Information Systems Workshop at the 17th National Conference on Artificial Intelligence, 2000, S. 3-17. [PaVe01] Pastor-Satorras, R.; Vespignani, A.: Epidemic Spreading in Scale-Free Networks. Physical Review Letters 86, 2001, S. 3200-3203. [Pod99] Poddig, T.: Handbuch Kursprognose, Quantitative Methoden im Asset Management. Uhlenbruch Verlag: Bad Soden, 1999.
1660
O. Hein, M. Schwind
[Rab+03] Raberto, M.; Cincotti, S.; Dose, C.; Focardi, S. M.; Marchesi, M.; Genova, U. d.: Price formation in an artificial market: limit order book versus matching of supply and demand, 2003. [Rab+01] Raberto, M.; Cincotti, S.; Focardi, M. S.; Marchesi, M.: Agent-based simulation of a financial market. Physica A 299, 2001, S. 320-328. [Sim97] Simon, H. A.: Models of Bounded Rationality, Vol. 3: Emperically Grounded Economic Reason. MIT Press: Boston, 1997. [Smi+03] Smith, E.; Farmer, J. D.; Gillemot, L.; Krishnamurthy, S.: Statistical theory of the continous double auction. Arbeitsbericht: Santa Fe Institute: Sante Fe, New Mexico, USA, 2002. [Spi02] Spiwoks, M.: Vermögensverwaltung und Kapitalmarktprognose - Überprüfung der Prognosekompetenz ausgewählter deutscher Vermögensverwalter. Peter LangEuropäische Hochschulschriften: Frankfurt/M., 2002. [Spi03] Spiwoks, M.: Qualität der Zinsprognosen deutscher Banken - Eine empirische Analyse. Kredit und Kapital 3, 2003, S. 289-308. [Spi04] Spiwoks, M.: Die Verwendbarkeit der ZEW-Aktienindex-Prognose für aktive Portfoliomanagement-Strategien. Jahrbücher für Nationalökonomie und Statistik, 2004. [WaCh03] mWang, F., Xiao; Chen, G.: Complex Networks: Small-World, Scale-Free and Beyond. IEEE Circuits and Systems Magazine 1, 2003, S. 6-20. [WaSt98] Watts, D. J.; Strogatz, S. H.: Collective dynamics of ´small-world´ networks. Nature 393, 1998, S. 440-442.
Drivers and Impediments of Consumer Online Information Search: Self-controlled versus Agent-assisted Search Sarah Spiekermann, Dirk Temme Humboldt-Universität zu Berlin
Martin Strobel Maastricht University
Abstract: This research investigates drivers of consumer’s online search activity. Traditional constructs relevant in offline information search (including perceived product risk, purchase involvement and product knowledge) are tested for an online environment on the basis of a structural equation model. In addition, new constructs impacting online search, namely privacy concerns and flow, are analysed. A major contribution of this research is the explicit distinction of consumers’ preference for agent-assisted search versus self-controlled search forms. The analysis is based on 116 subjects that were observed in their search behaviour during a ‘real-world’ shopping trip for cameras. Keywords: online shopping, agents, information search, decision-support
1
Introduction
Since we can observe an increasing use of the WWW as a source of product purchase information a long row of research on consumer product choice processes is being questioned. This is, because the new electronic medium promises to considerably reduce traditional search cost relevant in offline markets [Alba+97, Bak97], offers an exciting amount of new product information sources and efficiently supports the search process through agent technology and other personalization features [Kar+03, HäTr00]. Within a few years, the Internet has evolved as a major source of product information retrieval. In many areas it now serves 10-20% of customers to prepare their purchases [Eco04]. When the market dynamics of the Internet economy are studied, scholars have a tendency to assume the widespread deployment and use of highly performing search engines or personal agent technologies. Based on the fascinating idea that there is a highly efficient and reliable technology at work that has all relevant in-
1662
S. Spiekermann, M. Strobel, D. Temme
formation at hand, they have started to integrate a ‘minimal search cost perspective’ in their models and investigated, for example, the consequences for pricing [Bro00] and market dynamics [Alba+97]. Little research emphasis has been attributed, however, to the fact that consumers may not exclusively want to base their purchase decision on agent recommendations. For example, consumers may not trust the technology to the necessary end and may therefore wish to complement agent suggestions with a personally conducted and more controlled search activity. Urban et al. (1999), for example, who tested consumers satisfaction with a ‘trust-based advisor’ found some evidence that subjects with different predispositions in the purchase process (e.g. different levels of product knowledge) react differently to the support technology. It is therefore important to ask to what extent and why consumers recur to agent recommendations for their purchase decisions, or, in contrast, prefer information search that they control more. The study presented hereafter proposes and tests a comprehensive model of Internet based information search. It explicitly respects the existence of two different types of search conducted online: interaction with an electronic decision-support system on one side and personally controlled, detailed inspection of product descriptions on the other. Following this introduction, section 2 summarizes a structural equation model on online information search. Section 3 describes the methodology we employed to test our model. Section 4 describes the way of measurement. Eventually, Section 5 reports on the results obtained commenting on model fit as well as the acceptance or denial of individual hypotheses tested. Here, we also expand on the relative importance of agent supported search versus detailed product inspection. Section 6 concludes with a summary of major findings.
2
Proposed Model of Online Information Search
We propose a model of drivers and impediments of online information search. At its centre is the amount of search activity displayed by subjects. This search activity is hypothesised to be dependent on a number of variables: purchase involvement, product experience, product class knowledge, perceived risk, stage in the buying process, privacy concerns, cost and benefits of search as well as the achievement of a flow status. Figure 1 gives an overview of the hypothesised constructs and their relationships.
Drivers and Impediments of Consumer Online Information Search
1663
Figure 1: Proposed structural equation model for online information search and results
There are two prominent ways in which product information is sought online: One is to obtain information by consulting detailed product descriptions. Here, pure site navigation, the use of product fact sheets, comparison matrices and photographs is a common means employed in online environments. We refer to this as manual search. Another way to search for products online is the use of interactive decision support systems that allow for more efficient attribute sorting of products and comparative shopping (e.g. MySimon.com). For modelling purposes we distinguish between these two different types of online information search. They are the dependent variables in the model investigated. Search activity prior to purchase has repeatedly been shown influenced by perceived risk. Perceived product risk denotes a consumer’s assessment of the consequences of making a purchase mistake, as well as of the probability of such a mistake occurring [Cun67]. As a result of this initial risk assessment consumers engage in information search in order to reduce the perceived risk to an acceptable level [DoSt94, SuTa98]. In our model we postulate that higher levels of perceived risk lead participants to use both means of search in a relatively intensive manner.
1664
S. Spiekermann, M. Strobel, D. Temme
H1: The more product risk a consumer perceives prior to the purchase of a camera, the more he or she will interact with an electronic advisor agent. H2:The more product risk a consumer perceives prior to the purchase of a camera, the more will he or she consult detailed product information. A recognized construct in structural equation models of information search [PuSt83, SrRa91] (and theoretical reflections thereon) [Moo+97] is the cost benefit judgement consumers make. Cost of search in these studies represent the accumulation of physical and cognitive effort as well as monetary expenditures necessary to find the right product. Benefits of search have been described as satisfaction with the product chosen or cost savings realized through the search activity [PuSt83]. In an online context, perceived cost and benefits of search will probably continue to trigger search effort. Yet, especially the cost side may be of a different nature online than offline. Even though many traditional search cost variables may be comparatively less important in online environments, two traditional information search cost factors, namely information processing time and ease of access to information, remain important in online environments [HoLo99, LyAr00]. As a result, time cost has been included in our model applying it to the interaction process with an agent. Consumers may weigh the number of specifications they provide to a decision support tool and potentially skip interactive search categories in order to minimize time investment. Two hypotheses have been derived: H3: The more time cost a consumer perceives while searching for product information, the less will he or she interact with an electronic sales agent. H4: The more time cost a consumer perceives while searching for product information, the less they will consult detailed product information. As in offline environments, the benefits of search reside in the identification of an appropriate product. Therefore, assuming that the agent is valued, consumers should feel that interacting with an agent helps them identifying the right product and consequently invest into a relatively extensive dialogue (at least in a highinvolvement context). If agent interaction is beneficial, they will probably invest less effort into manual search. Based on this reasoning we hypothesize a competitive effect for the two search forms: H5: The more benefits a consumer perceives from interacting with an agent, the more they will interact with it. H6: The more benefits a consumer perceives from interacting with an agent, the less will he or she search manually.
Drivers and Impediments of Consumer Online Information Search
1665
Another construct in offline information search is product knowledge [SrRa91, BeSm87, PuSt83]. Yet, what consumers actually know about a product category (objective knowledge) and what they think they know (subjective knowledge) is often differing and may have diverging effects on search [Bru85]. Subjective product knowledge investigated here was expected to limit search by allowing responses to become routine or by allowing relevant information to be easier separated from the irrelevant. Furthermore, we argue along existing marketing literature that those consumers who have more knowledge on a product also perceive less purchase risk [SrRa91, SuTa98]. H7: The more knowledge a person states to have about a product category, the less will he or she interact with an electronic advisor agent. H8: The more knowledge a person states to have about a product category, the more will he or she consult detailed product information. H9: The more knowledge a person states to have about a product category, the less risk will he or she perceive when confronted with a buying situation in the respective category in an online context. A concept that has gained considerable recognition in the study of information search is the level of involvement a consumer has with the purchase situation [BeMs87, PuSte83]. Purchase involvement can be described as “a person’s perceived relevance of the object based on inherent needs, values and interests” [Zai85, p.341]. Involvement is seen as a motivational factor in consumer choice behaviour and is attributed mainly to three causes [Dei89]: personal predisposition (i.e. subjective needs or goals), situational factors (e.g. time pressure) or stimulusdependent factors (e.g. influence of product or communication). While situational involvement has been integrated in the model as a separate construct, stimulusdependent involvement has been seized indirectly through the construct of product knowledge and perceived risk. Involvement is expected to play on both, agent interaction and manual search. A number of authors suggested that purchase involvement is also closely related to the consequences element of perceived risk [BeSm87]: H10: The more involvement a consumer has with a purchase situation, the more will he or she interact with an electronic sales agent. H11: The more involvement a consumer has with a purchase situation, the more will he or she consult detailed product information. H12: The more involvement a consumer has with a purchase situation, the more risk will he or she perceive when confronted with a buying situation in an online context. Some studies have been looking explicitely into online interactivity. For example, based on the theory of exchange developed in marketing literature, Swaminathan et al. (1999) tested the impact of vendor characteristics, transaction security, pri-
1666
S. Spiekermann, M. Strobel, D. Temme
vacy concerns and customer characteristics on the likelihood of electronic exchange. Other studies observed the importance of secure financial transactions for consumers’ perceived risk in online transactions. Quite some research attention has been attributed to the impact of privacy concerns on information exchange [Spi+01, Swa+99] and to the existence of flow in online navigation [HoNo96, Nov+00]. These two constructs, privacy and flow, have therefore been integrated in our online search model. Privacy can be sacrificed by both interacting with an agent, or by simply navigating online sites. Web servers usually log every of the users’ activity. However, as was outlined above, when consumers interact with advisor agents on a website (which ask for key-words or retrieve personal data through dialogue-based systems), they reveal a particularly large amount of direct personal information. Consumers were therefore expected to be cautious when using the interactive applications leading to the hypothesis: H13: The more privacy concern a consumer expresses over the revelation of personal data, the less will he or she interact with an electronic sales agent. Another phenomenon occurring when navigating in online environments is ‘flow’. The flow status is a psychological state that has been investigated in the context of intrinsic motivation since the 1960’s [CsCs95]. Hoffman and Novak (1996) observed its relevance for online environments and Novak et al. (2000) defined it as a “state occurring during network navigation which is: (1) characterized by a seamless sequence of responses facilitated by machine interaction, (2) intrinsically enjoyable, (3) accompanied by a loss of self-consciousness, and (4) selfreinforcing.” Thus, when consumers search for information online, it is possible that they loose perception of time and keep on navigating longer and in more directions than they initially planned to. Seen the creation of flow in online environments, the aim was to control this phenomenon with the following hypotheses: H14: The more flow a consumer perceives, the more will he or she interact with an electronic sales agent. H15: The more flow a consumer perceives, the more will he or she consult detailed product information. Finally, it is intuitive to suggest that online consumers, who used physical retail channels to get an overview of the product category and are thus more advanced in the buying process than their peers, engage in less information search online than those who entered the online search process unprepared. Even though the stage in the buying process and product knowledge are related concepts, they have been distinguished here for modelling purposes. Consumers could have felt knowledgeable about a product category without having gone to a store in advance of the online shopping trip. At the same time, subjects may have gone to a store before shopping online, but still felt little knowledgeable about the product category. Given this, it was hypothesized that:
Drivers and Impediments of Consumer Online Information Search
1667
H16: The further a consumer is advanced in the buying process; the less will he or she interact with an electronic sales agent. H17: The further a consumer is advanced in the buying process, the less will he or she consult detailed product information. H18: The further a consumer is advanced in the buying process, the less risk will he or she perceive when confronted with a buying situation in an online context.
3
Method
In November 2000 an experiment was carried out with 151 participants to observe consumer information search behavior during an online shopping trip for a compact camera.
3.1
Participants, Incentive Scheme and Briefing
The experiment was advertised at Humboldt University Berlin, Germany. Its goal was described as a test of user interaction with a highly innovative product search engine. The online environment we said would be hosted by the industrial sponsor of the project who did not wish to be named. All navigational data would be transferred to this company. If people chose to buy something in the store they had to spend their own money. The main incentive to participate in the experiment was a 60% discount offered on the catalogue prices of cameras displayed in the store even though this still implied an expenditure of at least € 40 in case of buying.1 95% of the resulting participants were students from different university faculties, while the remaining 5% held different jobs. 55,8% decided to buy a camera during the experiment.
3.2
Online Material and Apparatus
The shopping trip took place in an online store called “MCJC Store” explicitly programmed for the experiment. The main reason for choosing a self-developed experimental store instead of using log-file material from some conventional online retailer was that we wanted to observe online search behavior with a view 1
Since project finances did not allow us to offer this discount to all buyers, however, the incentive structure was slightly refined such that a lottery after the shopping session decided on one out of 10 participants who would have the right to take the product for the 60% off. The remaining participants received a small financial compensation. If someone had not bought, but won the lottery, he or she would go out empty.
1668
S. Spiekermann, M. Strobel, D. Temme
to 2nd-generation interface-agent systems. For this purpose we needed a highly interactive environment offering users the possibility not only to specify hard product attributes, but also to enroll in an online sales conversation. An animated 3-D shopping agent image licensed from Artificial Life was therefore used to assist the user in product search. 56 purchase related questions were developed that would treat different ‘harder’ and ‘softer’ aspects connected to the purchase situation [Ann+01]. Shoppers could answer as many questions as they deemed necessary to receive a recommendation.They were briefed that the agent would be able to calculate a reliable Top-10 ranking of the 50 different camera models on the basis of three questions answered. The navigation opportunities participants encountered in the store were organized in three phases: When participants entered the experimental store they had a space for orientation (phase 1) where they had the possibility to view all products on offer one by one from a list. From there, users proceeded to the search engine where the anthropomorphic 3-D shopping agent Luci introduced herself and her purpose to the user and started a communication or interaction phase. The agent interaction phase relevant in our model (phase 2) was organized in 7 cycles of 7-10 purchase related questions that a user could run through with the agent. The 7 question cycles were displayed to the user on a category survey page leaving him the choice to run through the agent questions in any order he preferred. After viewing a ranking list based on questions answered, customers could then view a more detailed description of each product and enlarge its photograph (phase 3). The detailed product description contained a brief marketing text on the respective model displayed, a small photograph and a fact sheet summarizing major product attributes. However, no brand names were displayed in the store on any of the products. The reason for this manipulation was that brand names serve as information chunks for consumers [JaHo81, Wei81]. “Information chunks are information that are particularly relevant for the judgment of products and that are able to substitute or bundle a number of other information” [KrWe99, p.280]. The shopping process could be exited at any time and a purchasing decision could be made after the request for a product information page. Before and after the shopping trip, all participants answered a questionnaire in which model variables were integrated.
Drivers and Impediments of Consumer Online Information Search
4 4.1 4.1.1
1669
Measures Measurement of Endogenous Model Constructs Measurement of the Information Search Behaviour
In the literature on offline information search, search activity has typically been operationalised by the time employed, the number of stores visited, the number of product alternatives inspected, etc. [BeSm87, PuSt83]. For the purpose of the current study, measuring information search levels had to be adjusted to the electronic medium. While the relative amount of time spent searching was kept as one factor representing the search effort, the number of page requests was added as a second measure. Time was recorded for interaction with the electronic agent (phase 2) and for the two product inspection periods (phases 1 & 3). The time for interaction with the agent has been represented through the total time spent on answering agent questions and going back to the seven-category survey-page. The number of page requests in the context of agent interactivity stands for the intensity of exchange a user sought with the electronic agent. As was described above, the agent asked 56 purchase related questions, each of them representing a separate page. Users could return to this interactive functionality at any time during the shopping process and modify answers initially given. This activity of modifying specifications added to the number of page requests in the interaction cycle as well as the time spent on the functionality. Finally, calls for the Top-10 ranking originating from the agent dialogue or the 7-category survey-page have been added to the number of page requests representing the breadth of agent interaction. The number of individual product alternatives viewed added to the manual search construct. In addition to this detailed description, users had the possibility to enlarge the photograph of each object in a separate page. The number of photo enlargements has been added as additional page requests to the construct of manual search. Finally, product descriptions were always requested from a page that listed the models available. Together, product model lists, factual descriptions and photo enlargements made up the number of page requests for the dependent manual search construct.
4.1.2
Measurement of Perceived Product Risk
Previous work was referred to in order to measure product category risk. As described in literature [Kap+74], perceived risk has been characterized as a multidimensional construct with people differentiating between several negative consequences of a purchase including functional, financial, sociological and psychological risk. For the current model, risk dimensions have been combined into one
1670
S. Spiekermann, M. Strobel, D. Temme
overall index (that has been proposed and tested by academics in earlier studies [PeTa75]). As a result, risk has been captured in the following way:
OPR j
n
¦ ( PLij ILij ) i 1
ORPj = overall perceived risk for brand j PLij = probability of loss i from the purchase of brand j ILij = importance of loss i from purchase of brand j n = risk facets (here n = 4)
In the pre-shopping questionnaire, risk perception was measured by employing a 15-point scale for both dimensions, probability and importance of loss. In order to calibrate the way in which different people respond to scales, each individual had to rate not only camera purchases, but also potential dangers and probabilities of loss associated with ‘extreme products’ in terms of risk, namely toothpaste and used automobiles.
4.2
Measurement of Exogenous Model Constructs
In order to measure time cost, earlier studies were considered which have introduced the idea of measuring time cost as opportunity cost. For example, Srinivasan and Ratchford (1991) measured time cost by asking people for their general time constraints and implied that this perception would be a measure for the opportunity cost perceived while searching for product information. In the present study, time cost was therefore grasped similarly by asking participants after shopping whether they had the feeling during search that they would have rather done something else. The problem in specifying the benefit construct is that, strictly speaking, benefits are not an antecedent, but a result of search. More precisely, perceived benefits of search are the anticipated result of each additional search step performed [Moo+97, Wei79]. Studies that measure the benefits of search should therefore try to capture either expected or ongoing benefits of search. This, however, has turned out to be a challenge. Either studies referred to the post satisfaction with the product bought [SrRa91] or employed very general measures testing for consumers’ backward belief in the merits of the search activity. Doing so, self justification may have impacted responses. On the other hand, measuring expected benefits of search prior to the actual search taking place carries the risk to prime subjects’ behaviour. The measurement problem was attempted to be circumvented by taking the perceived quality of agent recommendations as an indicator for perceived search benefits. For this purpose participants had to indicate on a 5-point scale after the shopping process how well the agent hit one’s needs. For the measurement of product knowledge we used scales from [MoLe80, SrRa91] asking participants to rate on a 5-point scales how regularly they would
Drivers and Impediments of Consumer Online Information Search
1671
advice peers in the choice of electronics and to what extent they perceive themselves knowledgeable in the product domain. Involvement was deducted form asking participants about the importance of a camera purchase that day for a 60% discount (5-point scales) as well as the urgency of a new camera (4-point scale). In order to measure privacy concerns, some of the scales developed by Ackerman et al. (1999) were used. Participants were asked ten questions reflecting to what degree they would be ready to reveal certain types of information about themselves on a web site, including identification information (e.g. address or name) and profiling information (e.g. hobbies or income). The arithmetic mean of answers given to these 10 questions provided an index for participants’ privacy concerns. Flow is a construct that is relatively complex to measure. In psychological experiments conducted by Csikszentmihalyi and Csikszentmihalyi (1995), the socalled Experience Sampling Method (ESM) has been employed which involves permanent and unexpected measurement of the current state of consciousness during an activity. As such a constant measurement of flow was not practicable in the shopping experiment, an additive index has been developed that is based on a number of questions capturing the flow experience as defined by Csikszentmihalyi and Csikszentmihalyi (1995) and Novak et al. (2000). The index was calculated by taking the mean of five answers provided on a 9-point scale to questions on the ability and challenge to use the shopping interface, concentration, forgetting oneself and having the feeling of rather doing something else; all contructs derived from [CsCs95]. Finally, the fact that some participants had gone to a physical retail outlet was taken into account in advance of the experiment. There, some had already chosen products of interest for themselves that they now wished to buy for a 60% discount in our online store. Even though the online store made it difficult for them to rapidly identify their consideration set due to the lack of brand names, these subjects might still have behaved differently to those who were not informed. Subjects were therefore asked in advance of the buying session whether they had informed themselves of the product they wanted to purchase before coming to the lab and also to what degree they had already decided on products (consideration set). The two answers given were then combined to one additive index entitled Stage in the Buying Process.
1672
5 5.1
S. Spiekermann, M. Strobel, D. Temme
Results Data
Before model estimation, the data was screened for outliers, which led to an exclusion of 6 from 151 observations. In addition, 29 subjects had missing data, which we originally wanted to impute. However, imputing missing values by using a Maximum-Likelihood approach [LiRu87] implies multivariate normal data. Using PRELIS 2.30 [JöSö96] we tested the assumption that the variables are normally distributed. The multivariate tests [Bol89] after listwise deletion of 29 cases with missing data show that the remaining data is significantly skewed (z = 5.42, p = .000) whereas multivariate kurtosis represents a borderline case (z = 2.45, p = .014). An omnibus test on multivariate skewness and kurtosis (F2 = 35.37, p = .000) further indicates that the data is not normally distributed, although deviation from normality seems to be rather modest and in the first place concerns indicators for information search behaviour. As a result, model estimation had to be based on 116 cases.
5.2
Model Estimation and Fit
We used a structural equation modelling approach to simultaneously test model constructs and their relations. The model was estimated by the software program Mplus [MuMu98] which uses Maximum-Likelihood (ML) estimation as a standard modelling approach. Yet, since our data is not normally distributed we used the more robust MLM estimation option available in Mplus (this choice has an effect on the estimated standard errors for parameter estimates as well as the Chisquare test statistic, which corresponds to the re-scaled test statistic developed by Satorra and Bentler (1988, 1994)). In an initial model estimation thus conducted with MLM four of our latent variable indicators had negative measurement error variances. These so-called “heywood cases” often occur in structural equation modelling under the conditions of a small sample size and few indicators per latent variable [AnGe84, Boom82]. We therefore set a strategy negative error variances to zero, a strategy pursued by earlier studies on information search [PuSt83]. Fit measures for this model were highly satisfactory. The RMSEA of .038 is considerably below the cut-off value of .05 [BrCu93, HuBe99] and both CFI = .974 and TLI = .952 are above the threshold value of .95 [HuBe98]. The explained variances of the endogenous variables of information search are only moderate (R2 for “Interaction with agent” is .21 and for “Self-controlled search” .19), but are considerably higher than those reported in former studies on information search behaviour (e.g., Punj and Stealin, 1983).
Drivers and Impediments of Consumer Online Information Search
1673
The rather small sample size prevented a highly sophisticated operationalisation of our theoretical constructs by multiple indicators. Nevertheless, based on parameter estimates for our model we tried to assess the reliability and validity of our twoindicator measurement models (see table 1). For this purpose we used indicator reliability [Bag82], factor reliability (squared correlation between a construct and an unweighted composite of its indicators; see Bagozzi and Baumgartner, 1994) and the average variance extracted [FoLa81]. Both, factor reliability and average variance extracted can also be regarded as measures for convergent validity. Since all these values are above their corresponding threshold values [BaYi88] and as factor loadings were all significant, our construct measurements can be regarded as reliable and valid. Indicator
Indicator Reliability
Factor Reliability
Avg. Variance Extracted
1
.908
.841
.747
2
.431
Product class knowledge
1
.978
.811
.688
2
.438
Interaction with agent
1
.848
.761
.615
2
.455
Product inspection*
1
1.000*
.864
.761
2
.626
t .6
t .5
Factor Involvement
Required level
t .4
Table 1: Reliability and Validity of Measurement Models (*NOTE: error variance fixed to zero)
5.3
Model Relationships Found
Fit measures of the model indicate that the overall relationships hypothecated to exist for online information search sufficiently reflect reality. Interesting for the better comprehension of online information search is to what extent the hypotheses hold true and at what level of significance. Table 2 gives an overview of the findings. Figure 1 summarizes the relationships found and also includes the levels of significance reported on hereafter. H1 and H2 postulated that the more purchase risk a consumer perceives the more will he or she search for information. In fact, H1 (users use an electronic agent
1674
S. Spiekermann, M. Strobel, D. Temme
more intensively when they perceive higher levels of risk) was not confirmed by the data. In contrast, it was observed that participants tended to rely less heavily on the interactive functionality the more risk they perceived, even though this relation is not significant. At the same time, they consulted significantly more detailed product information the more risk they perceived, confirming H2. This finding suggests that consumers may engage more in manually controlled forms of search the more product risk they perceive. At the same time, they do not necessarily like to rely on an agent like the one used in the experiment. This is an interesting finding, because economic theory would suggest that relying on agent advice is more rational than relying on personally sought information. All exogenous constructs that were hypothesized to influence the perception of risk, namely product knowledge (H9), purchase involvement (H12) and the stage in the buying process (H18) proved to be in the right direction. However, none of them were statistically significant, except for product knowledge. Explanatory/
Endogenous variables
Exogenous variables
Perceived risk
Interaction with agent
Self-controlled search
Perceived risk
-
-.022 (-.25)
.139 (1.69)
Time cost of search
-
-.161 (-1.55)
-.299 (-3.63)
Benefits of search
-
-.190 (-1.65)
-.018 (-.20)
Product knowledge
-.232 (-2.06)
-.375 (-2.95)
.005 (.05)
Involvement
.016 (.16)
.315 (2.54)
.367 (3.66)
Privacy
-
-.259 (-2.77)
-
Flow
-
.152 (1.57)
.164 (1.75)
Stage in the buying process
-.081 (-.93)
-.077 (-.83)
-.059 (-.76)
Table 2: Estimation results from a model of online information search; NOTE.— Standardized solution.; t-values are given in parentheses.
As far as the time cost of search is concerned, H4 was supported. The data revealed that the more participants had wished to do something else while shopping online, the less they manually sought for information. The same was true for agent interaction (H3), however not to a significant level. The results might indicate that
Drivers and Impediments of Consumer Online Information Search
1675
agent functionality is relatively less impacted by consumers’ time constraints than are user-driven search forms. In contrast to H5, the more benefits a user derived from their interaction, the less he or she was willing to invest in the interaction process. In fact, since benefits of search were measured in the form of perceived accuracy of agent recommendation, it is intuitive to argue that the better the initial recommendation made by the agent, the less participants had an incentive to return to the interactive functionality to enhance or modify search parameters. However, even if this explanation is straightforward, the finding is still interesting because it raises awareness that one of the most basic assumptions made in information economics, which is that the more benefits one retrieves from information search, the more one searches for information, might be significantly impacted by agent technology (at least if benefits are measured in terms of identifying the right model). This impact resides in the possibility that the perceived utility of search renders decreasing marginal returns of search much quicker than this was the case for offline markets. The result is an inverse relationship between perceived search benefits and the activity of search. More research is certainly needed to investigate this finding and test its impact on the cost-benefit construct in information search theory. H6 (the more benefits a consumer perceives from interacting with an agent, the less will he or she consult detailed product information) was supported by the data, however not at a significant level. The traditional concept of product knowledge proved to be a reliable indicator for the prediction of interaction with the agent. H7 (the more knowledge a person states to have about a product category, the less will he or she interact with an electronic sales agent) was shown to be significant at the highest level. In contrast to this finding, there was almost no effect of product knowledge on self-controlled search (H8). Another traditional search factor, which proved highly significant for both parameters of search, agent interaction and detailed product inspection, was product involvement (H10 and H11). The more involvement a participant had with the purchase situation, the more he or she used both information sources available from the online store. In summary, most of the traditional information search factors identified for offline markets were supported by the online model, with more than half of them at a significant level. Only two relationships did not hold true, namely the impact of perceived risk, and search benefits on the interaction process with the agent. H13 (privacy concerns would be negatively related to consumer willingness to interact with the agent system) was corroborated by model results. In fact, the data does not only support hypothesis 13, but also suggests that privacy concerns may have the strongest impact on agent interaction amongst all variables tested. This finding means that marketers who employ highly interactive technologies on their web sites should, in their own interests, pay attention to the privacy conditions
1676
S. Spiekermann, M. Strobel, D. Temme
they offer to their customers. However, it should also be noted here that in average more than 85% of the agent’s questions were answered by the participants. This is surprising, because answering agent questions is much more informative about a user than his navigating a site. Users’ privacy concerns seem to have expressed themselves more in a restriction of navigation (measurable in time and page requests) than in a reduction on information disclosed. The flow construct for Web navigation introduced by Hoffman and Novak (1996) as well as Novak et al. (2000) proved to be significant to the model. The data confirmed that participants who perceived more flow searched significantly more manually (H15). This positive effect was, however, not significant in as far as the shopping agent was concerned (H14). Finally, the data supported at a non-significant level that the more participants were advanced in the buying process, the less would they interact with the advisor agent (H16) or manually search for information (H17). As there were no brand names displayed in the store, the strength of this finding must, however, be regarded with caution. In case of brand display the negative effect on information search could have been stronger, with participants going directly for their consideration set.
6
Conclusion
The structural equation model we proposed for drivers and impediments of online information search displayed a very good level of fit and supported the majority of hypotheses made. As a result, we were able to show that determinants of information search identified in former offline studies, including product knowledge, purchase involvement and time cost seem to hold true for the online world. Furthermore, prove could be made of the influence of new variables such as privacy concerns and the achievement of a flow status. In addition to the confirmation of these relationships, a number of interesting findings have been made that, in our view, deserve further research confirmation. These include the observation that consumers who perceive higher levels of risk prior to a purchase seem to rely less strongly on agent advice than their peers and prefer to consult the more controllable detail information available on products. Another aspect is consumers’ curious handling of privacy concerns that on one side seem to be significantly addressed by decreased levels of interaction, but on the other hand also seem to be ignored when it comes to actual information disclosure. The particular benefit of the study in the way we conducted it is that we were able to observe the ‘pure’ and instantaneous impact of different behavioural constructs on information search. Thus, we were able, for example, to exclude the impact of
Drivers and Impediments of Consumer Online Information Search
1677
brands on behaviour. We also observed actual search behaviour taking place and did not have to rely on self-reported activities (as former studies did). By using the electronic shopbot, we were also able to win insights into peoples’ dealings with this emerging type of technology and its relative importance in the information search process in comparison to detailed product descriptions. Here it was interesting to see that agents really represent only one way of searching for information and that, for example, in situations of higher purchase risk, they may not be the preferred tool for users to decide on their products. This finding particularly questions the ‘zero-search-cost-assumptions’ of online information search discussed in the introduction.
References [Alba+97] Alba, Joseph; Lynch, John; Weitz, Barton; Janiszewski, Chris; Lutz, Richard; Sawyer, Alan; Wood, Stacy: Interactive Home Shopping: Consumer, Retailer and Manufacturer Incentives to Participate in Electronic Markets. Journal of Marketing, 61 (July), 1997, p. 38-53. [Ann+01] Annacker, Dirk; Spiekermann, Sarah; Strobel, Martin: E-privacy: Evaluating a New Search Cost in Online Environments. In: Proceedings of the 14th Bled Conference of Electronic Commerce, Bled, Slovenia., 2001. [Bag82] Bagozzi, Richard, P.: An Examination of the Validity of Two Models of Attitude. In: A Second Generation of Multivariate Analysis, Vol. 2, ed. Claes Fornell, New York: Praeger, 1982, p. 145-184. [BaYi88] Bagozzi, Richard, P.; Yi Youjae,: On the Evaluation of Structural Equation Models. Journal of the Academy of Marketing Science, 16 (Spring), 1988, p. 74-94. [BaBa94] Bagozzi, Richard, P.; Baumgartner Hans: The Evaluation of Structural Equation Models and Hypothesis Testing. In: Principles of Marketing Research, ed. Richard P. Bagozzi, Cambridge: Blackwell, 1994, p. 386-422. [Bak97] Bakos, Yannis: Reducing Buyer Search Costs: Implications for Electronic Marketplaces. Management Science, 43 (December), 1676-1708, 1997. [BeSm87] Beatty, Sharon E.; Smith Scott M.: External Search Efforts: An Investigation Across Several Product Categories. Journal of Consumer Research, 14 (June), 1987, p. 83-95. [Bol89] Bollen, Kenneth, A.: Structural Equations With Latent Variables, New York: Wiley, 1989. [Bro00] Brown, Jeffrey: Does the Internet Make Markets More Competitive? Evidence form the Life Insurance Industry, Working Paper No. RWP00-007, Harvard University Research, Boston, MA, 2000.
1678
S. Spiekermann, M. Strobel, D. Temme
[BrCu93] Browne, Michael W.; Cudeck, Robert: Alternative Ways of Assessing Model Fit. In: Testing Structural Equation Models, ed. Kenneth A. Bollen and J. Scott Long, Newbury Park: Sage, 1993, p. 136-162. [Bru85] Brucks, Merrie: The Effects of Product Class Knowledge on Information Search Behavior. Journal of Consumer Research, 7(June), 1-16, 1985. [CsCs95] Csikszentmihalyi, Milhay; Csikszentmihalyi, Isabella, S.: Die außergewöhnliche Erfahrung im Alltag – Die Psychologie des Flow-Erlebnisses, ed. Hans Aebli, Stuttgart, 1995. [Cun67] Cunningham, Scott, M.: The Major Dimensions of Perceived Risk. In: Risk Taking and Information Handling in Consumer Behavior, ed. Donald F. Cox, Harvard University Press, Boston, MA, 1967, p. 265-288. [Dei89] Deimel, K.: Grundlagen des Involvement und Anwendung im Marketing. Marketing – Zeitschrift für Forschung und Praxis, 11(8), 1989, p. 153-161. [DoSt94] Dowling, Grahame, R.; Staelin Richard: A Model of Perceived Risk and Intended Risk-handling Activity. Journal of Consumer Research, 21(June), 1994, p. 119-134. [Eco04] The Economist, “A Perfect Market”, May 13th, 2004 [FoLa81] Fornell, Claes; Larcker, David, F.: Evaluating Structural Equation Models with Unobservable Variables and Measurement Errors. Journal of Marketing Research, 18 (February), 1981, p. 39-50. [HäTr00] Häuble, Gerald; Trifts Valerie: Consumer Decision Making in Online Shopping Environments: The Effects of Interactive Decision Aids. Marketing Science, 19(1), 2000, p. 4-21. [HoNo96] Hoffman, Donna; Novak, Thomas, P.: Marketing in Hypermedia ComputerMediated Environments: Conceptual Foundations. Journal of Marketing, 60(July), 1996, p. 50-64. [HoLo99] Hoque, Abeer Y.; Lohse Gerald: An Information Search Cost Perspective for Designing Interfaces for Electronic Commerce. Journal of Marketing Research, 36(August), 1999, p. 387-394. [HuBe98] Hu, Li-Tze; Bentler, Peter, M.: Fit Indices in Covariance Structure Modeling: Sensitivity to Underparameterized Model Misspecification. Psychological Methods, 3, 1998, p. 424-453. [Kar+03] Karat, C.; Brodie, C.; Karat J.; Vergo, J.; Alpert, S.: Personalizing the user experience of ibm.com. IBM Systems Journal, Vol. 42, No. 4, 2003 [JaHo81] Jacoby, Jacob; Hoyer W.: Intra- and Interindividual Consistency in Information Acquisition – A Cross-Cultural Examination. In: Informationsverhalten des Konsumenten. Ergebnisse empirischer Studien, ed. H. Raffée and G. Silberer, Wiesbaden, 1981. [JöSö96] Jöreskog, Karl, G.; Sörbom Dag: PRELIS 2: User’s Reference Guide, Chicago: Scientific Software International, 1996. [Kap+74] Kaplan, Leon; Szybillo, G.; Jacoby Jacob: Components of perceived risk: A Cross-Validation. Journal of Applied Psychology, 3, 1974, p. 287-291.
Drivers and Impediments of Consumer Online Information Search
1679
[KrWe99] Kroeber-Riel, Werner; Weinberg, Peter: Konsumentenverhalten, Vahlen: München, 1999. [LiRu87] Little, Roderick, J., A.; Rubin, Donald, B.: Statistical Analysis with Missing Data, New York: Wiley, 1987. [LyAr00] Lynch, John; Ariely, Dan: Wine Online: Search Costs and Competition on Price, Quality, and Distribution. Marketing Science, 19(1), 2000, p. 83-103. [MoLe80] Moore, William, L.; Lehmann, Donald, R.: Individual Differences in Search Behavior For a Nondurable. Journal of Consumer Research, 7 (December), 1980, p. 296307. [Moo+97] Moorthy, Shridhar; Ratchford, Brian, T.; Talukdar, Debabrata: Consumer Information Search Revisited. Journal of Consumer Research, 23(4), 1997, p. 263-277. [MuMu98] Muthén, Linda, K.; Muthén, Bengt, O.: Mplus User’s Guide, Los Angeles, CA: Muthén and Muthén, 1998. [Nov+00] Novak, Thomas; Hoffman, Donna; Yung, Yiu-Fai: Measuring the Customer Experience in Online Environments: A Structural Modeling Approach. Marketing Science, 19(1), 2000, p. 22-42. [PeTa75] Peter, Paul; Tarpey, Lawrence, X.: A Consumer Analysis of Three Consumer Decision Strategies. Journal of Consumer Research, 2 (June), 1975, p. 29-37. [PuSt83] Punj, Girish; Staelin, Richard: A Model of Consumer Information Search Behavior for New Automobiles. Journal of Consumer Research, 9 (March), 1983, p. 366-380. [PuSte83] Punj, Girish; Steward, Daria: An Interaction Framework of Consumer Decision Making, Journal of Consumer Research, 10 (September), 1983, p. 181-196. [Spi+01] Spiekermann, S.; Grossklags, J.; Berendt B.; Stated Privacy Preferences versus actual behaviour in EC environments: A Reality Check. Proceedings of Wirtschaftsinformatik 2001, Augsburg, September 2001. [SrRa91] Srinivasan, Narasimhan; Ratchford, Brian, T.: An Empirical Test of a Model of External Search for Automobiles. Journal of Consumer Research, 18 (September), 1991, p. 233-242. [SuTa98] Sundaram, D.S.; Taylor, Ronald: An Investigation of External Information Search Effort: Replication in In-home Shopping Situations. In: Advances in Consumer Research, Association for Consumer Research, 1998, p. 440-445. [Swa+99] Swaminathan, Vanitha; Lepkowska-White, Elzbieta; Rao, Bharat P.: Browsers or Buyers in Cyberspace? An Investigations of Factors Influencing Electronic Exchange. Journal of Computer-Mediated Communication, 5 (1) 1999. [Urb+99] Urban, Glen; Sultan, Fareena; Qualls, William: Design and Evaluation of a Trust Based Advisor on the Internet. MIT Working paper. [Vul99] Vulkan, Nir: Economic Implications of Agent Technology and E-commerce. The Economic Journal, 109 (February), 1999, p. 67-90.
1680
S. Spiekermann, M. Strobel, D. Temme
[Wei79] Weitzman, Martin: Optimal search for the best alternative. Econometrica, 47(3), 1979, p. 641-654. [West+00] West, Patricia; Ariely, Dan; Bellman, Steve; Bradlow, Eric; Huber, Joel; Johnson, Eric; Kahn, Barbara; Little, John; Schkade, David: Agents to the Rescue?. Marketing Letters, 10 (3), 2000 p. 285-300. [Zai85] Zaichkowsky, Judith: Measuring the Involvement Construct. Journal of Consumer Research, 12 (December), 1985, p. 341-352.
Hauptvorträge Potenziale einer Integration von Enterprise Resource Planning und Innovationsprozess-Management Tom Sommerlatte
1.683
Sourcing von Finanzprozessen – Ein Modell zur simultanen Bewertung von Economies of Scale und Scope Wolfgang König, Daniel Beimborn, Jochen Franke, Tim Weitzel
1.691
Grid Computing, E-Science and Applications in Industry Hans Hoffmann
1.715
Gefahren für die Wirtschaftinformatik – Risikoanalyse eines Faches Peter Mertens
1.733
Potenziale einer Integration von Enterprise Resource Planning und InnovationsprozessManagement Tom Sommerlatte Arthur D. Little GmbH
1
Rationalisierung durch ERP brachte kein Wachstum
Business Process Reengineering als Rationalisierungsansatz erlebte in den letzten 10 Jahren einen Boom. Die immer höhere Leistungsfähigkeit der IT-Systeme und der darauf verwirklichten Enterprise Resource Planning-Lösungen erlaubten es, die Geschäftsprozesse in den Unternehmen zu durchforsten und im Gesamtzusammenhang zu optimieren. Als Geschäftsprozesse wurden dabei bisher alle Transaktionsprozesse von der Auftragsabwicklung und Produktionssteuerung bis hin zum Supply Chain Management, zum Finanz- und Personalmanagement und zunehmend auch zum Customer Relationship Management einbezogen. In den meisten Fällen konnten aber die Unternehmen, die beispielsweise die unternehmensweite SAP-R/3-Einführung vollzogen haben, kein nennenswertes Umsatz- und Ertagswachstum erzielen.
2
Bisher vernachlässigt: der Innovationsprozess
Das darf nicht überraschen, denn Umsatz- und Ertragswachstum wird nicht nur durch effizientere Geschäftsprozesse und rationellere Abwicklung erzielt sondern setzt vor allen Dingen attraktive Produkte oder Dienstleistungen voraus, mit denen ein Unternehmen seinen Innovationsvorsprung vor den Wettbewerbern herausholt, indem es den größeren Kundennutzen, die bessere Problemlösung und/oder das bessere Preis-Leistungs-Verhältnis bietet. Daher stellt sich die Frage, wie die Innovationsleistung der Unternehmen erhöht werden kann, welche Prozesse denn in den Unternehmen in dieser Hinsicht wirkungsvoller gemanagt werden müssen.
1684
T. Sommerlatte
Die Erfahrung von Arthur D. Little zeigt, dass die Einführung von ERP meistens sogar bewirkt, dass der Spielraum für Innovationsleistung beeinträchtigt wird. Ein ganz entscheidender Prozess wird nämlich durch die ERP-Systeme gar nicht abgedeckt und sogar behindert: der Innovationsprozess. Der F&E-Bereich als vermeintlich verantwortliche Quelle von Innovation wurde zwar in vielen Unternehmen inzwischen auch im Sinne von Process Engineering angegangen – Durchlaufzeiten-Verkürzung, Simultaneous Engineering und Projektmanagement sind dabei die typischen Ansätze. Aber Innovation lebt von Ideen und Kreativität – und die werden in den meisten Fällen durch Projektmanagementsysteme und Stage-Gate-Ansätze sogar noch stranguliert.
3
Den Innovationsprozess umfassend verstehen: mehr als F&E
Der Innovationsprozess fängt, richtig verstanden, mit der Ideenfindung und -auswahl an, der so genannten Ideation. Sie setzt die Einbeziehung externer Quellen voraus, insbesondere der Kunden und Geschäftspartner, sie setzt ferner die Einkreisung der Innovationsfelder und Innovationsdefizite im Markt voraus, die ein Unternehmen für seine Innovationsstrategie nutzen will. Erst dann können die strategisch richtigen Projekte in einem Innovations-Portfolio über einen Meilensteinprozess nach klaren Attraktivitäts- und Risikokriterien vorangetrieben werden. Und schließlich gehört zum Innovationsprozess das Nachhalten der Zielerreichung – um aus Fehlern lernen und Abweichungen durch wirkungsvolle Zusatzmaßnahmen korrigieren zu können. Bisher wird der Innovationsprozess jedoch trotz seiner großen Bedeutung für den Unternehmenserfolg nur in sehr wenigen Unternehmen als optimierbarer Prozess erkannt und gestaltet. Und das, obwohl die Einsatzmöglichkeiten der IT gerade für die Unterstützung des Innovationsmanagements beträchtlich sind.
4
Phasen des Innovationsprozesses – worum geht es?
Beim Innovationsmanagement handelt es sich im Grunde um die Anwendung der Prinzipien des Supply Chain Management auf die Beschaffung und Weiterverarbeitung von Innovationsideen sowie um die Nutzung von Knowledge Management bei der Umsetzung der Ideen in Produkte oder Dienstleistungen.
Potenziale einer Integration von ERP und Innovationsprozess-Management
1685
Prinzipien des Enterprise Resource Planning werden auf den Beitrag aller Funktionsbereiche angewandt, die am Innovationsprozess beteiligt sind oder beteiligt sein sollten. Sehen wir uns den Innovationsprozess und seine Gestaltungsmöglichkeiten einmal näher an. Bei dem Supply, dessen Management durchgehend in einem möglichst reibungslosen Prozess unterstützt werden soll, handelt es sich um den Supply von Ideen. So können wir den Innovationsprozess in fünf grundsätzliche Phasen der Ideenverarbeitung unterteilen: x die Phase der Ideenbeschaffung, x die Phase der Ideenbewertung und –speicherung, x die Phase der Ideenpriorisierung und –umwandlung in Projekte, x die Phase des Projektportfolio-Managements, x die Phase des Innovations-Marketings. Bei jeder dieser Phasen können spezifische IT-Lösungen einen wesentlichen Beitrag leisten, die insgesamt zu einem integrierten Enterprise Resource Planning für den Innovationsprozess zusammengeführt und aufeinander abgestimmt werden müssen.
4.1
Phase der Ideenbeschaffung (Idea Procurement)
Jede Beschaffung setzt die Definition der Parameter der zu beschaffenden "Ware" und die Kenntnis der Bezugsquellen voraus. Dieses einfache Prinzip wird in den meisten Unternehmen bei der Ideengewinnung vernachlässigt. Man vertraut darauf, dass irgendwo her, in erster Linie von den F&E-Mitarbeitern, neue Ideen kommen. Eine systematische und aktive Suche nach Innovationsideen wird in den seltensten Fällen betrieben. So kommen alle möglichen Ideen durch Zufall oder Drängen von Vertriebs- und Entwicklungsverantwortlichen zusammen, ohne näher auf ihre strategische Bedeutung für das Unternehmen hin charakterisiert worden zu sein. Niemand weiß, ob die wirklich entscheidenden Ideen überhaupt dabei sind. Hier gilt: "garbage in, garbage out" – wenn nicht die besten Innovationspotenziale aufgedeckt und in Produkt- oder Dienstleistungsideen umgewandelt werden, dann kann das Ressourcenmanagement der Entwicklungsprojekte noch so gut sein, es kommen keine besonders erfolgversprechenden neuen Produkte und Dienstleistungen dabei heraus. Daher muss der Innovationsprozess damit beginnen, dass die Innovationsfelder erforscht und die unbefriedigten Bedürfnisse der Kunden in diesen Feldern geklärt werden. Attraktive Innovationsfelder sind nur die Geschäftsfelder, in denen ein hohes Verbesserungspotenzial der bisher angebotenen Produkte, Dienstleistungen
1686
T. Sommerlatte
und Lösungen besteht und die gleichzeitig ein hohes Umsatz- und Ertragspotenzial bieten. Ideen, die in diesen Innovationsfeldern nennenswerte Verbesserungen versprechen, sind die "Ware", die beschafft werden muss, und die Bezugsquellen sind in erster Linie die Kunden des Unternehmens, in zweiter Linie "Zwischenhändler" mit eigenem Zugang zu den Bedürfnisträgern wie Lieferanten, Geschäftspartner oder Marktforscher. Die "Einkäufer" der Innovationsideen können und sollten alle Mitarbeiter des Unternehmens sein, die mit einer klaren Ausrichtung auf die definierten Innovationsfelder Beobachtungen über unbefriedigte Bedürfnisse anstellen können, meistens im Gespräch mit der wichtigsten Ideenquelle, den Kunden. Entscheidend ist, dass die gewonnenen Ideen nach einem sinnvollen Raster charakterisiert und vom Unternehmen erfasst werden, dass sie in Korrelation mit den Innovationsfeldern gestellt und für eine Weiterverarbeitung zugänglich gemacht werden. Hierfür eine Struktur und ein Eingabesystem zur Verfügung zu stellen, ist eine wichtige Aufgabe des Innovationsmanagements. IT-Lösungen hierfür gibt es, aber der Ideenbeschaffungsprozess muss als kontinuierlicher, durch Anreize unterstützter Prozess im Unternehmen etabliert werden.
4.2
Phase der Ideenbewertung und -speicherung (Idea Warehousing)
Die Ideenbeschaffung führt, wenn sie systematisch organisiert und implementiert ist, zu einem kontinuierlichen Fischfang mit weit ausgelegten Netzen, denen hoffentlich kein großer Fisch, keine entscheidende Idee entwischt. Aber die Zahl und Vielfalt der eingefangenen Ideen nimmt zu, so dass eine effiziente Sortierung nach weiter zu verfolgenden und weniger passenden Ideen wichtig ist, um die Weiterverarbeitung auf die lohnendsten Ideen konzentrieren zu können. Viele Unternehmen scheitern an der unsortierten Fülle von Ideen, die nicht nach einem strategisch sinnvollen Raster charakterisiert und nicht nachweislich auf ausreichend attraktive Innovationsfelder ausgerichtet sind. Die Auswahl geschieht dann häufig nach der Lautstärke des Ideeninitiators. In der zweiten Phase des Innovationsprozesses muss daher eine Bewertungssystematik bereitgestellt werden, mit der die Ideen nach ihrer strategischen Relevanz für das Unternehmen klassifiziert werden können, vergleichbar mit einer ABCAnalyse: A = sehr wichtig, B = Wichtigkeit geringer oder unklar, C = unwichtig. Dementsprechend muss auch die Speicherung erfolgen. Die Wichtigkeit resultiert aus der Korrelation mit den definierten Innovationsfeldern und dem Marktpoten-
Potenziale einer Integration von ERP und Innovationsprozess-Management
1687
zial sowie aus dem erkennbaren Kundennutzenpotenzial, wobei die Korrelation durch das Eingabe- und Speichersystem hergestellt oder überprüft werden muss. Durch diese Behandlung der beschafften Ware "Ideen" sichert sich das Unternehmen einen ständigen Vorrat an weiterverarbeitbaren Produkt- oder Dienstleistungsideen, der immer wieder situationsgerecht überprüft und abgesichert werden kann.
4.3
Phase der Ideenpriorisierung und -umwandlung in Projekte (Idea Transformation)
Ansätze des Knowledge Management sind für das Idea Warehousing besonders geeignet, denn oft sind es Kombinationen von Ideen, die es zu erkennen gilt, um eine Umwandlung in konkrete Projektvorschläge vornehmen zu können. Projektvorschläge sind das Ergebnis der dritten Bearbeitungsstufe der Ware "Ideen". Auch sie werden auf Vorrat produziert und treten in Konkurrenz mit den laufenden Projekten im Projektportfolio der F&E. Um einen Projektvorschlag einbringen zu können, sind ähnliche Bedingungen zu erfüllen wie bei einem Investitionsvorhaben: ein Projektsponsor muss zusammen mit einem Team aus den verschiedenen zu beteiligenden Funktionsbereichen (wie Entwicklung, Marketing/Vertrieb, Fertigung) eine Projektbegründung und einen Projektplan ausarbeiten, aus denen die Attraktivität (z.B. in Form von Net Present Value oder strategischer Bedeutung) und die technische und wirtschaftliche Erfolgswahrscheinlichkeit hervorgehen. Die Informationen zur Bewertung der jeweiligen Projektvorschläge werden auf diese Weise transparent und können im System von Verantwortlichen aller betroffenen Funktionsbereiche nach bestem Wissen und Gewissen immer wieder korrigiert oder ergänzt werden. In die regelmäßigen Reviews des bestehenden Projektportfolios gehen auch die Projektvorschläge mit ein. Denn das Bessere muss immer die Chance haben, Feind des Guten zu werden. Das häufig benutzte Argument gegen neue Projekte, dass die vorhandenen Ressourcen nicht ausreichend seien, wird auf diese Weise außer Kraft gesetzt.
4.4
Phase des Projektportfolio-Managements
Die wichtigste Führungsaufgabe des Innovationsmanagements eines Unternehmens besteht darin, mit den vorhandenen Ressourcen den größtmöglichen Innovationserfolg im Markt zu erzielen und dadurch Umsatz- und Ertragswachstum zu sichern. Immer mehr Unternehmen setzen sich heute zu Recht Ziele wie den Anteil von in den letzten x Jahren neu eingeführten Produkten und Dienstleistungen am Gesamtumsatz und am Gesamtdeckungsbeitrag.
1688
T. Sommerlatte
Um derartige Ziele erreichen zu können, sind zwei Betrachtungen entscheidend: (1) Setzt das Unternehmen seine Ressourcen für Innovationsprojekte mit dem günstigsten Verhältnis von Attraktivität und Risiko ein und (2) Deckt der Gegenwartswert der Innovations-Pipeline den Nachschub-Bedarf an neuen Produkten/Dienstleistungen ab? Für beide Steuerungsanforderungen gibt es heute leistungsfähige IT-gestützte Instrumente, die in einigen Unternehmen bereits im Einsatz sind.
High risk/high reward
Winners
niedrig
Attraktivität
hoch
Das Projektportfolio mit den Dimensionen Attraktivität und Erfolgswahrscheinlichkeit weist vier Felder auf (siehe Abbildung 1): "Winners", "Safe play", "High risk/high reward" und "No go". Mit Hilfe dieses Instruments des ProjektportfolioManagements ist leicht ersichtlich, wie Ressourcen von als "No go"- oder "High risk/high reward"-Projekten abgezogen und stattdessen bei als "Winner" eingestuften neuen Projekten eingesetzt werden können. Ebenso kann durch die PipelineBetrachtung (siehe Abbildung 2) verdeutlicht werden, in welchem zeitlichen Verlauf das Projektportfolio zu neuen Umsätzen zu führen verspricht. Auf dieser Basis muss heute das für die Strategie des Unternehmens entscheidende Enterprise Resource Planning im Innovationsprozess vorgenommen werden, um den strategischen Anforderungen des Unternehmens gerecht zu werden.
No go niedrig
Safe play
Technische/wirtschaftliche Erfolgswahrscheinlichkeit
hoch
Abbildung 1: Projektportfolio-Optimierung
Allerdings ist damit noch nicht gewährleistet, dass die entwickelten innovativen Produkte und Dienstleistungen im Markt die notwendige Akzeptanz finden, denn ihr Nutzen muss den Kunden gegenüber heute in immer überzeugender Weise argumentiert werden. Marketing und Vertrieb innovativer Produkte und Dienstleistungen stellen heute ganz andere Anforderungen als das etablierter Produkte und Dienstleistungen.
Potenziale einer Integration von ERP und Innovationsprozess-Management
1689
Umsatz (Mio Euro 46%
= Deckungsbeitrag
80
58%
70
51%
60 58%
50 40 52%
30 20% 20 10
2005
2006
2007
2008
2009
2010
Abbildung 2: Pipeline-Optimierung (Umsatzerwartungswert der laufenden Projekte)
Daher darf der Innovationsprozess nicht mit der Entwicklung und Bereitstellung der neuen Produkte und Dienstleistungen als abgeschlossen angesehen werden, vielmehr gehört die Sicherung der Kundenakzeptanz und Marktpenetration ebenso dazu wie die Ideenbeschaffung.
4.5
Phase des Innovations-Marketing
Erfolgreiche innovative Unternehmen stehen mit ausgewählten Kunden schon während des Ablaufs ihrer Entwicklungsprojekte im Dialog, denn von der Innovationsidee zur konkreten technischen Lösung und ergonomischen Gestaltung des innovativen Produkts oder der neuen Dienstleistung kann sich der Lösungsweg vom optimalen Nutzwert für den Kunden immer wieder entfernen. InnovationsMarketing beinhaltet daher den Dialog mit den Kunden im Entwicklungsprozess, um einerseits die erdachte Lösung bei ihnen auf Akzeptanz hin zu testen und andererseits ein Nutzenbewusstsein bei den Kunden zu wecken, das dann bei der Markteinführung schnell in eine Kaufentscheidung umgewandelt werden kann. Der Akzeptanztest zielt darauf ab, den zunächst ja nur abgeschätzten Nutzen zu verifizieren und das Lösungskonzept so genau wie möglich auf das Anforderungsprofil der Kunden auszurichten. Dadurch können Overengineering und Nutzerunfreundlichkeit vermieden werden, zwei Schwächen, die gerade bei ITLösungen häufig beklagt werden. In dieser Phase des Innovationsprozesses bietet sich die Lead-User-Methode an, bei der das Unternehmen eine als innovationswillig erkannte Kundengruppe (Leitkunden) als Dialogpartner benutzt, die dann anschließend auch als Multiplikatoren und Referenzkunden zu wirken versprechen.
1690
T. Sommerlatte
Durch dieses Vorgehen können Fehlentwicklungen und Enttäuschungen infolge schleppender Markteinführung vermieden und gleichzeitig die wirkungsvollsten Verkaufsargumente entwickelt werden, um den Nutzen der Innovation überzeugend zu kommunizieren. Ansätze des Customer Relationship Management können hierfür in Verbindung mit Lösungen des Knowledge Management unterstützend wirken und dem Unternehmen helfen, die Kundenorientierung seines Innovationsprozesses sukzessive zu verbessern.
5
Ausblick
Zweifellos besteht eine der größten Herausforderungen für die deutschen Unternehmen zunehmend in der Steigerung ihrer Innovationsfähigkeit. Schlimm wäre es, wenn die fortschreitende Rationalisierung ihrer Geschäftsprozesse, so notwendig sie ist, ihre Innovationsfähigkeit immer weiter einschränkte. Um dem entgegen zu wirken, muss der Innovationsprozess als dominanter Geschäftsprozess der Unternehmen erkannt und als durchgehendes Supply Chain Management organisiert werden, um den Supply von erfolgversprechenden Innovationsideen, die Umsetzung der strategisch vielversprechendsten Ideen in innovative Produkte und Dienstleistungen und deren Marktakzeptanz zu steuern. ITUnterstützung für diese Aufgabe gibt es heute in Form einer Reihe von Insellösungen. Aber Voraussetzung für eine ganzheitliche Unterstützung des Innovationsprozesses ist ein durchgehender Prozessmanagement-Ansatz mit dem in diesem Beitrag beschriebenen Verständnis. Die Notwendigkeit eines integrierten Innovation Resource Planning-Systems liegt auf der Hand. Wer macht sich an seine IT-gestützte Realisierung?
Sourcing von Finanzprozessen – Ein Modell zur simultanen Bewertung von Economies of Scale und Scope Wolfgang König, Daniel Beimborn, Jochen Franke, Tim Weitzel Universität Frankfurt am Main
Zusammenfassung: Während viele Unternehmen Fortschritte in der IuKTechnologie zur Automatisierung ihrer primären Prozesse, zu einer internen und externen Vernetzung und letztlich zur Neuaufteilung und Optimierung der gesamten Wertschöpfungskette genutzt haben, wurden Sekundärprozesse selten als eigener Optimierungsgegenstand betrachtet. In einer empirischen Studie zu sekundären Finanzprozessen in den 1.000 größten deutschen Unternehmen (ohne Banken und Versicherungen) wird gezeigt, dass vor einer Outsourcing-Entscheidung kulturelle Hürden der Entscheider zu überwinden sind. Es zeigt sich insbesondere, dass die individuelle Outsourcing-Erfahrung der entscheidenden Manager von Bedeutung ist und dass Economies of Scale und Scope getrennt betrachtet und damit mögliche Trade-offs häufig ignoriert werden. Zur Erweiterung der reinen Outsourcing-Entscheidung im Hinblick auf viel versprechende Modelle des kooperativen Outsourcing wird untersucht, wer geeignete Partner für eine selektive Auslagerung von Teilprozessen durch eine Kreuzung der eigenen Wertschöpfungskette mit derjenigen des Partners (Value Chain Crossing) sein können. Aufbauend auf diesen empirischen Ergebnissen wird ein Simulationsmodell vorgestellt, welches insbesondere die simultane Betrachtung verschiedener Einflussfaktoren der Outsourcing-Entscheidung erlaubt. Schlüsselworte: Financial Chain Management, Finanzprozesse in Nicht-Banken, Outsourcing
1
Einleitung
Während in vielen Unternehmen Fortschritte in der IuK-Technologie zur Automatisierung der primären Prozesse, zu einer internen und externen Vernetzung und letztlich zur Neuaufteilung und Optimierung der gesamten Wertschöpfungskette genutzt wurden, zwingt der Wettbewerb zur ständigen Suche nach neuen Effizienzquellen. In diesem Zusammenhang wird insbesondere Outsourcing als Mittel
1692
W. König, D. Beimborn, J. Franke, T. Weitzel
zur Konzentration auf Kernkompetenzen und zur Neugestaltung der Wertschöpfungskette diskutiert. Basierend auf einer empirischen Studie mit den 1.000 größten deutschen Unternehmen (ohne Banken und Versicherungen) wird in diesem Beitrag gezeigt, x
dass vor einer Outsourcing-Entscheidung kulturelle Hürden durch die Entscheider zu überwinden sind, die sich vor allem in der Einschätzung der Prozesskompetenz der Dienstleister niederschlagen,
x
inwieweit Economies of Scale und Scope bedeutsam für das Outsourcing von Teilprozessen sind und wie diese zusammenhängen und
x
wer geeignete Partner für ein selektives Outsourcing von Teilprozessen durch eine Kreuzung der eigenen Wertschöpfungskette mit der Wertschöpfungskette des Partners (Value Chain Crossing) sein können.
Vor diesem Hintergrund wird ein formales Outsourcing-Modell entwickelt, das durch die simultane Berücksichtigung von Economies of Scale und Scope optimale (Teil-)Prozessbündelungskonstellationen ermitteln kann. Als Untersuchungsgegenstand wurden Finanzprozesse in Großunternehmen gewählt, da diese zum einen als typische Sekundärprozesse noch deutliches Optimierungspotenzial vermuten lassen. Zum anderen bieten Finanzprozesse durch ihre prinzipiell durchgängige Digitalisierbarkeit einen idealen Anwendungsfall wirtschaftsinformatischer Methoden zur Prozessoptimierung. Im Gegensatz zu weiten Teilen der Outsourcing-Literatur, die sich vorwiegend mit der Analyse singulärer Erfolgsfaktoren von Outsourcing befasst, wird auf dieser Grundlage ein SourcingSimulationsmodell entwickelt, das die Wirkungen verschiedener Einflussfaktoren wie Economies of Scale und Scope simultan analysiert. Der nächste Abschnitt gibt einen Überblick über die Literatur zu Outsourcing und stellt insbesondere den Übergang von IT-Outsourcing hin zum Auslagern von Geschäftsprozessen dar. Danach wird eine generische Financial Chain als Grundlage der weiteren Untersuchungen eingeführt (Abschnitt 3.1) und bezüglich Economies of Scale und Scope (Abschnitt 3.2) sowie Chancen und Herausforderungen für ein Outsourcing untersucht (Abschnitt 3.3). Zur simultanen Bewertung des Einflusses dieser Argumente wird in Abschnitt 4.1 die Grundlage für ein formales Simulationsmodell gelegt, das Outsourcing-Entscheidungen verschiedener Akteure einer Branche oder eines Marktsegmentes nachbildet und daraus resultierende strukturelle Effekte aufzeigt. Eine hiermit adressierbare Frage ist: In welchen Situationen ist kooperatives Sourcing (Cooperative Sourcing) und das Zusammenlegen einzelner Geschäftsprozesse eine vorteilhafte Alternative zu M&A-Aktivitäten und damit dem Fusionieren ganzer Unternehmen? Ein mögliches Beispielszenario wird in Abschnitt 4.2 diskutiert, Abschnitt 4.3 zeigt in einem Ausblick die zukünftige Weiterentwicklung des Modells auf.
Sourcing von Finanzprozessen
2
1693
Outsourcing
Der externe Bezug von IT-Dienstleistungen ist kein neues Phänomen. Bereits in den 60er Jahren übernahmen Systemhäuser, „service bureaus“ und professionelle Systemmanagement-Anbieter IT-Dienstleistungen und boten diese anderen Unternehmen an. IT-Hardware war relativ teuer und externe Dienstleister stellten Timesharing oder Processing Services zur Verfügung [CuWe03]. Im Jahre 1963 war EDS das erste Unternehmen, das die gesamten Datenverwaltungsdienste eines anderen Unternehmens übernahm [DiGo+04; LaHi93]. Der steigende Bedarf an IT-Applikationen und Dienstleistungen sowie das gleichzeitig knappe Angebot an qualifiziertem IT-Personal führte in den 70er Jahren dazu, dass Manager benötigte Anwendungen extern erstellen und pflegen ließen. Die rasante Evolution der Informationstechnologie und das Aufkommen von günstigen PCs traf die IT-Dienstleister zu Beginn der 80er Jahre schwer [LeHu+03]. Der vormalig starke Outsourcing-Trend im IT-Bereich wurde unterbrochen und Unternehmen tendierten dazu, vermehrt eigene IT-Abteilungen zu kultivieren. Vertikale Integration und die Kontrolle der gesamten Wertschöpfungskette standen im Fokus. Viele Unternehmen bauten die eigene IT-Abteilung aus, welche die verfügbare Informationstechnologie zu einem spezifisch auf das Unternehmen angepassten System entwickelte. Die externe und interne Integration der Informationssysteme wurde zur vordringlichen Herausforderung [LeHu+03]. Mit dem in der Literatur vielfach zitierten Kodak-Deal im Jahr 1989 wurde ein neuer Outsourcing-Trend angestoßen [KeWi96; LoVe95]. Der Betrieb von zuvor selbst erstellter IT-Infrastruktur wurde an externe Dienstleister im Rahmen eines IT-Outsourcing (ITO) abgegeben. Bei Earl wird ITO dabei als die Auslagerung Hardware-orientierter IT-Aktivitäten verstanden [Earl96]. Die Entwicklung leistungsfähiger Netzwerke und insbesondere des Internets führten zum Konzept des Application Service Provisioning (ASP) [Tebb03]. ASP umfasst den Betrieb von Applikationen im Rechenzentrum eines Dienstleisters mit der Bereitstellung der Software über ein Netzwerk basierend auf einem selektiven Outsourcing einzelner Applikationen [DeCu03; KeKr+02]. Dabei lässt sich ASP von ITO in der Form abgrenzen, dass ASP standardisierte Lösungen ohne aufwändige Anpassungen an die Kundenerfordernisse bereitstellt (häufig gängige Desktop-Applikationen oder branchenspezifische Standardsoftware), während ITO umfassender auch stark auf einzelne Kunden zugeschnittene Lösungen anbietet und sich neben den Applikationen auch um den Betrieb der zugrunde liegenden Technologien kümmert [Ried03]. Die Auslagerung gesamter Geschäftsprozesse oder einzelner Module mit der zugrunde liegenden IT im Rahmen eines Business Process Outsourcing (BPO) stellt den jüngsten Trend dar [RoCo04; Weer+03]. BPO wird dabei als die Auslagerung einzelner spezifischer Geschäftsprozesse verstanden [HaMe00]. Im Ge-
1694
W. König, D. Beimborn, J. Franke, T. Weitzel
gensatz zu klassischem ITO wird hier die Informationstechnologie nicht quer über mehrere Geschäftsprozesse oder Unternehmensfunktionen hinweg ausgelagert. Vielmehr wird orthogonal hierzu ein einzelner Prozess inklusive der zugrunde liegenden IT einem externen Provider übergeben [HaMe00]. BPO stellt zurzeit das am schnellsten wachsende Segment im Outsourcing-Markt dar [RoCo04]. Für die Umsätze im ITO-Bereich wird in Großbritanien und Europa ein Wachstum von 154 Mrd. EUR im Jahr 2002 auf über 200 Mrd. EUR im Jahr 2005 prognostiziert [Will+04]. Das BPO-Segment ist dagegen allein im Jahr 2002 um 25% gewachsen, insgesamt wird für 2005 ein Umsatz von 72 Mrd. EUR in diesem Segment prognostiziert [Will+04]. Gleichzeitig sind die Spezifika dieses Typs von Outsourcing in der wissenschaftlichen Literatur bislang kaum adressiert [Ried03; RoCo04]. Während das Outsourcing von IT mittlerweile zu einem integralen Bestandteil des IT-Managements geworden ist [Rock+96], lassen sich weiter gefasste Analysen, welche die verschiedenen Formen des Outsourcing (wie beispielsweise auch ein kooperatives Sourcing (Zusammenlegung) einzelner Prozessteile von Wettbewerbern) in den Entscheidungsprozess einbeziehen, nicht finden. Die in neueren Arbeiten zum Resource Based View zu findende Erkenntnis, dass der Geschäftsprozess im Fokus der Betrachtung und Analyse des Wertbeitrages der IT stehen sollte, führt zu einer stärker prozess- oder ressourcenorientierten Sichtweise des Unternehmens [Baru+95; Melv+04]. IT selbst wird oft als „enabling factor“ in einem prozessorientierten Unternehmen gesehen [FeWi98]. Insbesondere in Unternehmen, die bereits in einem hohen Maße prozessorientiert arbeiten, wird die IT weniger als isolierte Funktion, sondern vielmehr als integraler Bestandteil einzelner Prozesse betrachtet, besonders auch über verschiedene Unternehmensfunktionen hinweg [BrRo03]. Daneben deuten die Konzentration auf Kernkompetenzen und der Zukauf aller peripheren Aktivitäten auf einen Wandel in der Art und Weise hin, wie Organisationen gestaltet und geleitet werden [FeWi98; PrHa90]. Die Wahl des Umfanges auszulagernder IT wird dementsprechend in Zukunft weniger funktionsorientiert auf Ebene der IT, sondern prozessorientiert auf Ebene des Geschäftsprozesses entschieden. Dementsprechend ist die Frage nach dem optimalen Sourcing-Mix des Unternehmens zu stellen: Welche Ressourcen sollen intern erstellt, welche sollen von welchem Anbieter extern bezogen werden? Die optimale Kombination und Orchestrierung von externen Ressourcenbündelungskonzepten wie ITO, ASP und BPO sowie internen Ansätzen wie der Gründung einer Shared Service Organization stellt dabei eine komplexe, strategische Entscheidung dar. Auf der Ebene von ITO wurden hier beispielsweise Fragen des selektiven oder totalen Outsourcing von IT-Funktionen [Laci+96] und der Auswahl einzelner ITFunktionen diskutiert [RoCo03]. Die Wahl der geeigneten Schnitte durch die Teilprozesse und die Bündelung einzelner Ressourcen sind bislang nur unzureichend betrachtet worden. Nach einer Identifikation der Schwachstellen in Ge-
Sourcing von Finanzprozessen
1695
schäftsprozessen ist ein ganzheitliches Sourcing-Modell zur Bestimmung der optimalen Sourcing-Konfiguration von zentraler Bedeutung. Teilfragen des Modells (etwa in Bezug auf selektives und totales ITO) sind bereits in der Literatur adressiert. Ein Modell, das eine Beurteilung der Gesamtsituation des Unternehmens erlaubt, existiert bislang nicht.
3
Financial Chain Management und Outsourcing
Im Folgenden wird zunächst das Konzept der Financial Chain vorgestellt sowie in die durchgeführte empirische Studie eingeführt. Es werden in einem ausgewählten Prozess, der Financial Chain, mögliche Sourcing-Optionen und Sourcing-Partner evaluiert sowie die Rolle von Economies of Scale und Economies of Scope diskutiert.
3.1
Financial Chain
Für viele Primärprozesse wurden Fortschritte in der IuK-Technologie zur Automatisierung, zur internen und externen Vernetzung und letztlich zur Neuaufteilung der Wertschöpfungskette genutzt. Dabei lassen sich Primär- oder Kernprozesse als diejenigen Prozesse definieren, die einen direkten Beitrag zur Wertschöpfung des Unternehmens leisten, wohingegen Sekundärprozesse Unterstützungs- und Managementprozesse umfassen [Hein02]. Das Management der Finanzflüsse (als typischer Sekundärprozess in NichtBanken) ist bislang in den wenigsten Fällen durch Prozessoptimierungsmaßnahmen erfasst worden und immer noch stark durch die Aufbauorganisation bestimmt. Wird in Betracht gezogen, dass die Finanzprozesse im Durchschnitt ein Viertel der gesamten IT-Budgets benötigen, lohnt ein Blick auf potenzielle Verbesserungsmöglichkeiten in diesem Bereich [Skie+04].
Zahlung
Reklamation
Rechnungsstellung
Leistungserfüllung
Geschäftsabwicklung Absicherung
Preisfindung
Finanzierung
Qualifikation
Geschäftsanbahnung
Abbildung 1: Generische Financial Chain [Pfaf+03]
Die Aktivitäten in einer die physischen Leistungsprozesse der Supply Chain begleitenden Financial Chain fallen in den meisten Unternehmen unter die unterstützenden Sekundärprozesse, die im Gegensatz zu den primären Leistungserstel-
1696
W. König, D. Beimborn, J. Franke, T. Weitzel
lungsprozessen keinen direkten Beitrag zur Wertschöpfung der Unternehmen liefern. Sie liegen dadurch viel zu selten im Blickpunkt des Top-Managements [Skie+04]. Die aus sieben Teilschritten bestehende Financial Chain (Abbildung 1) ist immanent mit den Prozessen der physischen Leistungserstellung in der Supply Chain verknüpft und lässt sich in die durch die physische Leistungserfüllung getrennten Bereiche Geschäftsanbahnung und Geschäftsabwicklung einteilen [Pfaf+03]. Die Geschäftsanbahnung beginnt mit der Qualifikation der Geschäftspartner, indem Identität und Bonität des Kunden überprüft werden. Danach wird die Finanzierung des Geschäftes geregelt, etwa durch einen Lieferantenkredit oder Leasing. Es folgen Preisverhandlung und -festsetzung (Preisfindung) und anschließend die Angebotserstellung sowie die Absicherung von Währungs-, Transport- und Kreditausfallrisiken. Die Erfüllung des Geschäftes erfolgt in den Prozessen der physischen Supply Chain, die im Rahmen des Supply Chain Managements mit Lieferanten und Kunden synchronisiert werden. Nach dem Erfüllungsgeschäft beginnt die Geschäftsabwicklung mit der Rechnungsstellung und deren Versand sowie eventuellen Rechnungsreklamationen durch den Kunden. Sind Beanstandungen der Rechnung beseitigt, erfolgt die Zahlung der Rechnung. In einer Studie zur Financial Chain wurde ein Fragebogen mit 35 teils weiter detaillierten, offenen und geschlossenen Fragen auf acht Seiten an die Finanzverantwortlichen der umsatzstärksten 1.000 Unternehmen (ohne Finanzdienstleister) in Deutschland gesendet [Skie+04]. Der Fragebogen gliederte sich in detaillierte Fragestellungen zu den sieben Teilprozessen sowie in übergreifende Fragen zur gesamten Financial Chain. Im Vorlauf der Studie wurde der Fragebogen in PreTests und Expertengesprächen auf Verständlichkeit und inhaltliche Konsistenz geprüft und angepasst. Weiterhin wurden alle Unternehmen telefonisch kontaktiert, um die Chief Financial Officers (CFOs) zu identifizieren. Diesen wurde anschließend der Fragebogen direkt zugeschickt. Die Studie war dabei auf die Branchen ausgerichtet, in denen die Prozesse der Financial Chain keine Primär- oder Kernprozesse darstellen, d. h. Banken und sonstige Finanzdienstleister wurden ausgeschlossen. In einer schriftlichen und einer telefonischen Nachfassaktion wurden alle Finanzverantwortlichen erneut kontaktiert und zur Mitarbeit aufgefordert oder nach Gründen für die bislang ausbleibende Beantwortung des Fragebogens befragt. Die Rücklaufquote der Befragung lag bei 103 verwendbaren Datensätzen (10,3%). Ausgewählte Ergebnisse dieser Studie finden sich im nächsten Abschnitt.
3.2
Outsourcing der Financial Chain – Eine Betrachtung der Economies of Scale und Economies of Scope
Die Financial Chain wird als Sekundärprozess zur Unterstützung der Kerntätigkeit [Port85] nicht mit der Absicht gestaltet und optimiert, daraus einen strategischen Wettbewerbsvorteil in Form eines Alleinstellungsmerkmals zu erhalten. Entsprechend bietet sich die Überlegung an, diese Teilprozesse an einen entsprechenden
Sourcing von Finanzprozessen
1697
Dienstleister auszulagern. Im Folgenden sollen die Einschätzungen der Auslagerungsfähigkeit eines Teilprozesses vor dem Hintergrund der in der Literatur fokussierten Outsourcing-Determinanten „Economies of Scale“ bzw. „Economies of Scope“ dargelegt werden. Als wesentlicher Vorteil des Outsourcing werden i. d. R. Einsparungen aus Skaleneffekten genannt, die sich durch Bündelung gleicher Prozesse mehrerer Organisationseinheiten oder Unternehmen beim Insourcer ergeben [CaHa02; MaMe02; Scho97]. Dem gegenüber steht das Argument, dass große Unternehmen diese erreichbaren Economies of Scale schon innerhalb ihrer eigenen Organisation realisieren können, dass also Skalenerträge sowohl generell erschöpfbar sind als auch im eigenen Unternehmen bereits ausgereizt werden [Earl96; Laci+96]. Einige Teilprozesse der Financial Chain sind – abhängig von der Branche – in solchem Maß repetitiv, dass – unter Vernachlässigung von temporären Schwankungen des Prozessvolumens – die echten Fixkosten eine untergeordnete Rolle spielen. Nimmt man eine lineare Kostenfunktion an, wäre das Prozessvolumen so hoch, dass die Durchschnittskosten hinreichend an die Grenzkosten angenähert sind. So sehen 63,8% der antwortenden Unternehmen keine oder nur für die Minderheit der Teilprozesse Skalenerträge, die durch Outsourcing zusätzlich realisiert werden könnten (Tabelle 1: 1.1). Nur 17,6% sind anderer Ansicht und halten für große Teile der Financial Chain auch bei großen Unternehmen Einsparungen durch Skaleneffekte noch für möglich. Das Ausbleiben von zusätzlichen Skalenerträgen durch Outsourcing hängt jedoch nicht nur davon ab, in welchem Umfang die jeweiligen Teilprozesse schon im eigenen Unternehmen ausgeführt werden, sondern auch von der Prozessheterogenität. Zusätzliche Skaleneffekte können nur realisiert werden, wenn in den Unternehmen einer Branche diese Teilprozesse hinreichend standardisiert ablaufen oder entsprechend homogenisiert werden können. Hier sind die Befragten allerdings recht skeptisch. Nicht einmal die Hälfte (42,9%) der befragten Unternehmen hält eine branchenweite Prozessstandardisierung für möglich (Tabelle 1: 1.2). Diese Einschätzung muss bei einer weiteren Analyse des Verhältnisses interner und externer Skaleneffekte berücksichtigt werden. Ein mit den Economies of Scale verbundenes Argument für Outsourcing ist die Flexibilisierung der operativen Kosten [MaMe02]. Dazu wird der jeweilige Teilprozess ausgelagert (BPO), als Dienstleistung bezogen und auf Basis der Durchsatzzahlen abgerechnet. So kann das Unternehmen näherungsweise vollständig Fixkosten abbauen und maximale Kostenreduktionen realisieren, wenn die Durchsatzzahlen sinken. Diese Flexibilisierung ist jedoch auf Seiten des Insourcers insbesondere dann möglich, wenn er Skaleneffekte realisieren kann; ansonsten bleibt er genauso auf den Fixkosten sitzen wie vorher das outsourcende Unternehmen. Vorteile aus der Flexibilisierung können dann nur noch realisiert werden, wenn diese Durchsatzzahlen der einzelnen Kunden nicht zu stark positiv korreliert sind. Es ergibt sich ein geteiltes Bild, knapp die Hälfte der Unternehmen ist der An-
1698
W. König, D. Beimborn, J. Franke, T. Weitzel
19,8%
34,1%
29,7%
0,0%
1.2 Branchenweit standardisierte Prozesse denkbar (n=98).
9,2%
33,7%
12,2%
23,5%
19,4%
2,0%
1.3 Prozesse weisen schon im eigenen Unternehmen ein derart hohes Transaktionsvolumen auf, dass Outsourcing keine Kosteneinsparungen durch zusätzliche Skaleneffekte mehr realisieren kann (n=92).
7,6%
38,0%
21,7%
20,7%
6,5%
5,5%
Weiß nicht
15,4%
nicht zu
1,1%
Trifft eher
Indifferent
1.1 Auslagerung von Teilprozessen vorteilhaft, da Skaleneffekte beim Insourcer realisiert werden können (n=91).
gen zu Economies of Scale
Trifft voll zu
Trifft eher zu
Manager beurteilen Aussa-
Trifft nicht zu
sicht, ein Insourcer könne keine zusätzlichen Skaleneffekte realisieren (Tabelle 1: 1.3).
Tabelle 1: Economies of Scale in der Financial Chain
Im Gegensatz zu Skaleneffekten beschreiben Economies of Scope Verbundeffekte aus der gemeinsamen Fertigung von Produkten [PaWi81] oder auch der gemeinsamen Bearbeitung verschiedener Prozessschritte. So sind z. B. dann Economies of Scope zu beobachten, wenn es effizient ist, für unterschiedliche Prozessstufen die gleichen Ressourcen, etwa den gleichen Sachbearbeiter, einzubringen [Teec80]. Auch werden erst durch an verschiedenen Stellen vorhandene Kundendaten in einer gemeinsamen Sicht Kundenprofilanalysen möglich. Sind Teilprozesse aufgrund ihrer grundsätzlichen Eigenschaften und Anforderungen stark miteinander verzahnt, so lassen sich häufig Vorteile aus Economies of Scope realisieren. Bei einer Outsourcing-Entscheidung ist dann ein Trade-off zwischen möglichen Economies of Scale und bestehenden Economies of Scope zu berücksichtigen. So sollten beispielsweise bei einer Dominanz von Economies of Scope die jeweiligen Teilprozesse nicht oder aber nur zum gleichen OutsourcingDienstleister outgesourct werden. Das uneingeschränkte Isolieren von Teilprozessen ist dann oftmals gar nicht oder nur zu hohen Koordinationskosten möglich [Bruc98].
indifferent
Trifft eher
Trifft nicht zu
Weiß nicht
2.1 Die Teilprozesse der FC sind so eng miteinander verzahnt, dass ein selektives Outsourcing an jeweils spezialisierte Dienstleister nicht effizient sein kann (n=92).
17,4%
52,2%
13,0%
9,8%
6,5%
1,1%
2.2 In der Integration der Teilprozesse liegt ein höheres Optimierungspotenzial als in der getrennten Optimierung der Teilprozesse (n=92).
22,8%
54,3%
15,2%
1,1%
3,3%
3,3%
Manager beurteilen Aussagen zu Economies of Scope
nicht zu
Trifft eher zu
1699
Trifft voll zu
Sourcing von Finanzprozessen
Tabelle 2: Economies of Scope in der Financial Chain
Mit 69,6% sieht eine Zweidrittel-Mehrheit der Unternehmen in den Prozessen der Financial Chain eine starke Verzahnung als gegeben, sodass selektives Outsourcing der Teilprozesse der Financial Chain problematisch wäre (Tabelle 2: 2.1). Dies wird auch durch die Antworten auf die Frage gestützt, ob die getrennte Optimierung der Teilprozesse mehr Einsparpotenzial verspricht als deren Integration (Tabelle 2: 2.2). So geben 77,1% der befragten Unternehmen an, dass die Integration, d. h. die Abstimmung und die Optimierung der Schnittstellen zwischen den einzelnen Teilprozessen, ein höheres Einsparpotenzial bietet. Die Betrachtung der Interdependenzen zwischen Economies of Scale und Economies of Scope zeigt, dass Unternehmen i. d. R. schwerpunktmäßig einen der beiden Effekte sehen oder berücksichtigen. So gaben die Antwortenden, die zusätzliche Skaleneffekte beim Insourcer für realisierbar sahen, deutlich häufiger an, keine Economies of Scope zwischen den Teilprozessen sehen zu können und deswegen selektives Outsourcing für sinnvoll zu halten und umgekehrt (hoch signifikante Korrelation nach Pearson: r=0,51, p0,01). Zusammenfassend konnte ein von Managern unzureichend wahrgenommener Trade-off zwischen Economies of Scale und Economies of Scope beobachtet werden. Daher wird im Folgenden nach der Untersuchung des Status quo zum Outsourcing der Financial Chain ein Modell zur simultanen Berücksichtigung beider Determinanten entwickelt.
1700
3.3
W. König, D. Beimborn, J. Franke, T. Weitzel
Outsourcing der Financial Chain
Das Outsourcing von Teilen der Financial Chain (BPO) zu einem spezialisierten Insourcer durch Kreuzung der eigenen Wertschöpfungskette mit der des Insourcers stellt eine Option dar, ausgezeichnete Prozessleistungen auch für einen ansonsten nur unzureichend optimierten Sekundärprozess erreichen zu können. Aus Sicht des Insourcers stellt der Prozess dann einen Kernprozess dar, da dieser dem Outsourcer als eigene Dienstleistung angeboten wird und einen unmittelbaren Bezug zur Wertschöpfung des Insourcers hat. Neben Economies of Scale stellt die potenziell höhere Kompetenz des Insourcers oder die mangelnde Kompetenz inhouse einen Grund für ein Outsourcing dar [DiHe01]. Da Outsourcing die Wertschöpfungskette eines Unternehmens durch Spezialisierung nachhaltig ändern kann, spielt insbesondere die Einschätzung der Kompetenz der Dienstleister im Vergleich zur eigenen Kompetenz eine tragende Rolle. Die aus der Automobilindustrie bekannte Weisheit „don’t raise the cattle for your leather seats“ beschreibt dabei bildhaft den Effekt, durch eine Fokussierung auf die eigenen Kernkompetenzen und die Reduzierung der vertikalen Integration einen nachhaltigen Beitrag zum Unternehmenswert zu leisten. Im klaren Gegensatz zu diesen Beispielen und Ausführungen sehen die meisten CFOs die eigene Kompetenz in der Financial Chain als höher im Vergleich zu potenziellen Insourcern an. Sie sind somit einem Outsourcing gegenüber vielfach negativ eingestellt. Insourcer haben höhere Prozesskompetenz als das eigene Unternehmen
zustimmend 7,8%
indifferent 30,0% ablehnend 62,2%
n=90
Abbildung 2: Ein Sourcing-Dienstleister beherrscht die Gestaltung und Optimierung der Teilprozesse besser als unser Unternehmen.
Um dieses verblüffende Ergebnis genauer zu verstehen, wurde betrachtet, inwieweit Outsourcing-Erfahrungen aus vergangenen Projekten einen Einfluss auf die Wahrnehmung der Kompetenz des externen Anbieters haben. Hierzu wurde zunächst der Status quo umgesetzter BPO-Projekte der Teilprozesse der Financial Chain untersucht (Abbildung 3).
Sourcing von Finanzprozessen
1701
40
möglich geplant realisiert
Anzahl Fälle
35 30 25 20 15 10 5
Teilprozess
ng h lu Za
t io n k la Re
un te l l gs s Re
ch n
un
ma
g
g ru n he s ic Ab
P re
is f i
nd
un
g F in
an
z ie
run
t io n a l if ik a Qu
g
0
Abbildung 3: Business Process Outsourcing in der Financial Chain
Bezogen auf die grundlegende Einschätzung eines überhaupt möglichen Business Process Outsourcing wurden in der Stichprobe tatsächlich realisierte Anteile zwischen 11% (Qualifikation) und 27% (Rechnungsstellung) gemessen (Anzahl realisierte Projekte/Anzahl mögliche + geplante + realisierte Projekte). Die mit der Auslagerung von Teilprozessen der Financial Chain erzielten Einsparungen belaufen sich auf durchschnittlich 10,3%. Umgesetzte Outsourcing-Projekte wurden von über der Hälfte der Unternehmen eher positiv bewertet. Betrachtet man die Differenz von erwarteten und realisierten Einsparungen, so hatten Unternehmen, die ihr Outsourcing als erfolgreich klassifizierten, im Durchschnitt Abweichungen von 0%, während die „eher erfolgreichen“ 5,6%-Punkte, die „indifferenten“ 8%Punkte und die „eher gescheiterten“ 27,5%-Punkte unter ihren Erwartungen (letztere haben Abweichungen zwischen 10% und 40% angegeben) lagen. Schließlich wurde die Frage betrachtet, inwieweit Outsourcing-Erfahrung die Einschätzung der Kompetenz des Insourcers beeinflusst. Es ist ein deutlicher Unterschied im Antwortverhalten der beiden Gruppen feststellbar. So schätzen lediglich 28,5% der CFOs mit Outsourcing-Erfahrungen die Kompetenz der InhouseAbteilung höher ein, gegenüber 60,9% der CFOs ohne Outsourcing-Erfahrung [Weit+04]. Nach der Identifikation von Art und Umfang der auszulagernden Prozesse (Outsourcing von Teilprozessen, Outsourcing der gesamten Financial Chain, Beibehalten der internen Prozessbereitstellung und Bildung einer Shared Service Organization) stellt die Wahl eines geeigneten Insourcers für Teile der Financial Chain im Rahmen einer Kreuzung der Wertschöpfungsketten von Outsourcer und Insourcer eine zentrale Entscheidung dar. Als Insourcer der Financial Chain sind insbesondere Banken, andere Finanzdienstleister, IT-Dienstleister, Beratungshäuser sowie Unternehmen der gleichen Branche denkbar.
1702
W. König, D. Beimborn, J. Franke, T. Weitzel
60
50
40
Anzahl der Nennungen
30 20
ation Qualifik erung Finanzi dung Preisfin ung Absicher gstellung Rechnun ation Reklam Zahlung
0
in ke
Ba
ut u so g in rc
er
di nz
t is
le st en
d
r te is
h nc
fte
e
a ch ls
a Br
el es G PW
ng
l. rg de
du
en
n
Outsourcingpartner
O
tle un
hm
n rü sg
gs
Au
e rn
na Fi
ns
re de
en nk
An
ne
n tu
ge
ie -D IT
ra Be
ei e nt U
Teilprozess
10
Abbildung 4: Geeignete Sourcing-Partner für die Teilprozesse der Financial Chain
Die befragten CFOs halten bei den meisten Teilprozessen “kein Outsourcing” für die beste Lösung. Für den Teilprozess „Qualifikation“ werden „andere Finanzdienstleister“ als geeignete Partner gesehen, für die Teilprozesse „Finanzierung“ und „Absicherung“ sind Banken als bestmögliche Partner eingestuft worden, im Fall der Finanzierung sind es sogar mehr Nennungen als für die Option „kein Outsourcing“. IT-Dienstleister werden vor allem für den Teilprozess der „Rechnungsstellung“ als viel versprechender Provider wahrgenommen. In der Zahlungsabwicklung sind – wenig überraschend – die Banken als geeignete Partner eingeschätzt worden.
4
Ein Modell zur simultanen Bewertung der Einflussfaktoren von Sourcing-Entscheidungen im Cooperative Sourcing
Die vorgestellte empirische Analyse zeigte, dass Economies of Scale und Scope sowie erwartete und tatsächliche Kernkompetenzen und damit zusammenhängende Lerneffekte Schlüsselfaktoren bei Outsourcing-Überlegungen darstellen.
Sourcing von Finanzprozessen
1703
Was sind insbesondere gemeinsame Wirkungen der Einflussfaktoren von Sourcing auf den Sourcing-Erfolg? Wie die vorliegende Studie zeigt, bewerteten die Befragten häufig entweder Economies of Scope oder Economies of Scale bei einer Bewertung von Outsourcing-Potenzialen. Inwieweit eine simultane Betrachtung beider Einflussfaktoren zu einer besseren Sourcing-Entscheidung führen kann, ist zu untersuchen. Darauf aufbauend kann für eine Branche untersucht werden, welches geeignete Sourcing-Konstellationen sind, d. h. welche Unternehmen welche Geschäftsfunktionen kooperativ sourcen, um den Trade-off zwischen den genannten Effekten zu optimieren. Aufbauend auf diesen Fragestellungen wird im Folgenden die Grundlage für ein formales Simulationsmodell gelegt, das Outsourcing-Entscheidungen verschiedener Akteure einer Branche oder eines Marktsegmentes nachbildet und daraus resultierende strukturelle Effekte aufzeigt. Ziel dieses Modells kann es nicht sein, detaillierte Prognosen über zukünftige Marktentwicklungen zu treffen. Vielmehr sollen mögliche Ergebnisse aufgezeigt und damit zusammenhängende Probleme frühzeitig erkannt und adressiert werden können. Gerade Akteure in der Praxis können sich über solche Modelle komplexe Zusammenhänge und mögliche Konsequenzen ihres Handelns besser vor Augen führen [Weit+01].
4.1
Modellspezifikation
Das Modell bildet eine Menge von Unternehmen eines Marktes oder Marktsegmentes in Form von Agenten ab, die jeweils über eine individuelle Teilmenge von in diesem Marktsegment vorkommenden Geschäftsfunktionen – also Prozessteilen zur Erfüllung ihres Geschäfts – verfügen. Die Kombination verschiedener Geschäftsfunktionen innerhalb eines Unternehmens führt zu einem Geschäftsprozess, der auf die Befriedigung einer internen oder externen Nachfrage ausgerichtet ist. Die Akteure besitzen die Möglichkeit, zu bestimmten Entscheidungszeitpunkten das Outsourcing von einzelnen Teilprozessen zu evaluieren und durchzuführen. Dabei wird in einem ersten Schritt angenommen, dass die abgebildeten Unternehmen nach geeigneten Partnern zur Bildung einer Kooperation suchen, um gleichartige Teilprozesse in einem der beteiligten Unternehmen oder einer gemeinsamen Ausgründung zusammenzulegen und auf diese Weise Skaleneffekte zu erzielen. Abbildung 5 verdeutlicht die grundlegende Struktur des Modells. Die vertikalen Säulen i=1 bis 5 stellen verschiedene Unternehmen dar, die je nach Branche über ein mehr oder weniger ähnliches Set von Geschäftsfunktionen (symbolisiert durch die vertikale Achse (k=1 bis 7)) verfügen. So können sich Autohäuser hinsichtlich der Financial Chain bspw. darin unterscheiden, ob sie eine Absatzfinanzierung im Funktionsportfolio haben oder nicht. Im Zuge eines Cooperative Sourcing können sich die Unternehmen nun dazu entschließen, letztlich parallel vorgehaltene, hinreichend identische Geschäftsfunktionen in einer Kooperation (Mkm) zu sourcen
1704
W. König, D. Beimborn, J. Franke, T. Weitzel
und somit Einsparungen durch die Vermeidung redundanter Geschäftsfunktionen und die Realisierung von Skaleneffekten zu erzielen (beispielhaft sind in Abbildung 5 drei verschiedene Cooperative-Sourcing-Kombinationen dargestellt, die Menge M51 ist die erste (m) und hier einzige auf dem Markt etablierte Kooperation für Geschäftsfunktion k=5 (z. B. die Rechnungsstellung) und umfasst die beteiligten Akteure 3, 4 und 5). k
Geschäftsfunktionen
k=7 k=6 M51
k=5 k=4 k=3 M21
k=2
M22
k=1 i=1
i=2
i=3
i=5
i=4
Unternehmen
i
Abbildung 5: Cooperative Sourcing von Geschäftsprozessteilen
i, j, I, |I| k, l, K, |K| p ik ^0;1`
Indizes, Menge und Anzahl abgebildeter Akteure Indizes, Menge und Anzahl der im abgebildeten Markt verfügbaren Geschäftsfunktionen Indikator (Binärvariable), ob Akteur i Geschäftsfunktion k implementiert hat
i, j I i, j = 1... |I| k, l K k, l = 1... |K| Funktionsportfolio von i: * pi p i1 ,..., p ik ,..., p i|K |
^
`
Tabelle 3: Akteure und Geschäftsfunktionen
Um die in der Literatur und der vorgestellten Empirie maßgeblichen OutsourcingFaktoren (Treiber und Inhibitoren) abbilden zu können, werden die einzelnen Teilprozesse mit Produktionskostenfunktionen ausgestattet, die über einen fixen und einen variablen Anteil verfügen. Aus Komplexitätsgründen wird zunächst vereinfachend eine lineare Kostenfunktion angenommen. Beim Cooperative Sourcing gleichartiger Prozesse kommt dann jeweils die Technologie desjenigen Partners zum Tragen, welche die niedrigsten Gesamtproduktionskosten für das gemeinsame Prozessvolumen bietet.
Sourcing von Finanzprozessen
C ikP
K ikF , cikP xik PM C kmt
M kmt
1705
Produktionskos- C P K ikF cikP xik ik ten von Funktion k in Unternehmen i Fixkosten und variable Stückkosten von Funktion k des Akteurs i Output von Prozess k in Unternehmen i, zunächst als intertemporal konstant angenommen Produktionskos§ § ·· ¨ ¸ PM ten der KoopeC kmt : min ¨ CikP ¨ xik ¸ ¸ ¸ ¨ iM kmt ¨ ration km in Pe¸ © © iM kmt ¹ ¹ riode t Menge der an der Kooperation km in Periode t beteiligten Unternehmen
¦
Tabelle 4: Produktionskosten
Es wirken nun verschiedene, teilweise gegenläufige Einflussfaktoren auf die Vorteilhaftigkeit der Sourcing-Entscheidung. Einerseits können durch die Bündelung der Geschäftsfunktionen Economies of Scale durch eine stärkere Inanspruchnahme der einzelnen Funktion realisiert werden. Andererseits sind Transaktionskosten in Form von einmaligen Verhandlungs- und Anpassungskosten in der Kontraktphase sowie laufende Schnittstellenkosten und Koordinationsaufwendungen durch die Abstimmung mit den Sourcing-Partnern zu tragen. t = t* (Kontraktphase) Verhandlungskosten Anpassungskosten
t > t* (Kooperationsphase) Koordinationskosten Schnittstellenkosten
Tabelle 5: Anfallende Transaktionskosten bei Cooperative Sourcing
Erstverhandlungs- und laufende Koordinationskosten werden in Abhängigkeit der Kooperationsgröße (Zahl der Teilnehmer) [Beim+04] und der Erfahrung des jeweiligen Unternehmens mit vergangenen Outsourcing-Projekten (Lerneffekte, degressiv abnehmend, [EwWa03; Levi88]) formuliert.
1706
W. König, D. Beimborn, J. Franke, T. Weitzel ]713
k
]712
]723
]712
Geschäftsfunktionen
k=7
]723
]635
]612
k=6
]634
]512
k=5
]645
]523
]412
k=4
]312
k=3
]212
k=2
]112
k=1 i=1
i=2
i=3
i=5
i=4
Unternehmen
i
Abbildung 6: Standardisierungsbedarf zwischen Teilprozessen (nicht vollständig dargestellt)
Die einmaligen Anpassungskosten, welche durch eine Standardisierungsbedarfskennziffer ] kijt determiniert werden, beschreiben Aufwendungen („organisationale Extegrationskosten“), die ein Unternehmen i zu tragen hat, wenn es zum Zeitpunkt t einen Teilprozess k auslagert und sich auf den vorgegebenen Standardprozess eines anderen Unternehmens einlassen muss (Abbildung 6). Ohne diese Prozessstandardisierung wäre das Erzielen von Skaleneffekten nur in unzureichendem Maße möglich. k
Geschäftsfunktionen
k=7
T117
k=6
T317 T357
T116
k=5
T417
T517
T416
T516
T115
k=4
T515
T114
k=3
T514
T113
k=2
T513
T112
T512
k=1 i=1
i=2
i=3
Unternehmen
i=4
i=5 i
Abbildung 7: Modularitätsgrad zwischen Teilprozessen (nicht vollständig dargestellt)
Die Schnittstellenkosten zwischen einzelnen Geschäftsfunktionen (operationalisiert durch den Modularitätsgrad Tikl) resultieren aus Aufgabeninterdependenzen aufgrund erforderlicher Interaktionen zwischen outgesourcten und ingesourcten Teilprozessen, um einen aus mehreren Geschäftsfunktionen bestehenden Ge-
Sourcing von Finanzprozessen
1707
schäftsprozess zu formen (Economies of Scope). So können beispielsweise zusätzliche Kosten durch die Absicherung von Datenflüssen zwischen von verschiedenen Unternehmen bereitgestellten Geschäftsfunktionen entstehen oder Effizienzverluste durch das Aufbrechen eines Ressourcenverbundes eintreten (Abbildung 7). Anpassungskosten
AD Cikmt
CitIF
Tikl = [0,0;1,0[
o it
mit j* = Insourcer der Kooperation km in Periode t Standardisierungsbedarf zwi]kijt = [0,0;1,0] schen den Geschäftsfunktionen k der Akteure i und j (vor Anpassung) in Periode t
¦ ¦¦
c IF
V C ikmt
] kij*t c kAD
Standardisierter Anpassungskostenfaktor für Funktionstyp k M Schnitt1 stellenC itIF T ikl c IF signz ikmt z ilmt i, t 2 kosten von m 0 kK lK Akteur i Standardisierter Schnittstellenkostenfaktor
c kAD
zikmt
AD C ikmt
Interdependenz zwischen Geschäftsfunktionen k und l in Unternehmen i Binärvariable, die angibt, ob Prozess k von Akteur i in Periode t durch Kooperation km ausgeführt wird. VerhandlungsD kosten für AkV C ikmt c Vk M km oitE mit D ! 1 und E 0 teur i in Kooperation km in Periode t Anzahl von Outsourcing-Projekten von Akteur i bis Periode t-1
c Vk
Standardisierter Verhandlungskostenfaktor
C C ikmt
Koordinationskosten
C C ikmt
V J C ikmt mit 0 J 1
Tabelle 6: Spezifikation verschiedener Arten von Transaktionskosten
Nach der Modellierung der Akteure, Teilprozesse und Parameter zur Bestimmung der entscheidungsrelevanten Kostenfaktoren können intertemporale Entscheidungsfunktionen entwickelt werden, die den Unternehmen als Grundlage für Cooperative-Sourcing-Verhandlungen dienen. Formel 1 gibt ein statisches geschäftsfunktionsorientiertes Entscheidungskalkül (CIR = Kalkulationszinssatz) unter der
1708
W. König, D. Beimborn, J. Franke, T. Weitzel
Annahme an, dass die gewählte Kooperation über die Vertragslaufzeit TCoSo unverändert bleibt. §
· § · ¸ ¨ ¸ xik 1 ¨ P ¸ PM ¨ ¸ C x C x km t W km t W ¸ W ¸ ¨ ik ik ¨ x 1 CIR ¸ jk W 1 ¨ ¨ ¸ ¨ ¸ jM km t W © ¹ © ¹
T CoSo ¨
3 ikmt
¦
¦
(1)
production cost effect in t ! t *
V AD Cikmt Cikmt
transactio n cost effect in t t *
T CoSo
§
¨ J C ¦ ¨ © W
V ikm W t
· 1 ¸ 1 CIR W ¸
CikIFW t
1 ¹ transactio n cost effect in t ! t *
Den bei Cooperative Sourcing gegenüber der Selbsterstellung der Geschäftsfunktion durch Economies of Scale entstehenden Einsparungen stehen die beschriebenen einmaligen und laufenden Transaktionskosten, welche aus Economies of Scope und dem Verhandlungsaufwand resultieren, gegenüber.
4.2
Ein Szenario zur Anwendung des Modells
Innerhalb des Modells wirkt eine Reihe von unterschiedlichen Faktoren, deren Beziehung zueinander im Folgenden kurz dargestellt und anhand des empirischen Beispieles der Financial Chain diskutiert werden soll. Die zu realisierenden Einsparungen können als Economies of Scale durch die Zusammenlegung von Geschäftsfunktionen erreicht werden. Je nach individueller Ausgestaltung der Produktionskostenfunktionen der beteiligten Partner werden hier Einsparungen erzielt. So ist in der Financial Chain beispielsweise durch die Bündelung der Rechnungsstellung eine Kostenreduktion durch die gemeinsame Nutzung von Druck- und Versandkapazitäten möglich. Innerhalb des Modells wird angenommen, dass jeweils die kostengünstigste Produktionstechnik verwendet wird. So ist für die Rechnungsstellung denkbar, dass der Partner mit einer ohnehin bereits höheren Anzahl an Rechnungen und einem größeren Versandzentrum diese Funktion für ein oder mehrere Partner mit übernimmt. Auf der anderen Seite sind jedoch Kosten zu berücksichtigen, welche die Vorteilhaftigkeit des Cooperative Sourcing beeinflussen. So ist zunächst ein geeigneter Partner zu finden, mit welchem im Rahmen der Kontraktphase einerseits Verhandlungen über die spezifische Ausgestaltung der gemeinsamen Geschäftsfunktion und andererseits über die Verteilung der Einsparungen zu führen sind. Weiterhin ist es notwendig, die bestehenden Geschäftsfunktionen gegebenenfalls aneinander anzupassen. Dabei muss sich in der Regel das auslagernde Unternehmen an den „Standardprozess“ des Partners anpassen. Diese einmaligen Kosten fallen im Rahmen der Kontraktphase an.
Sourcing von Finanzprozessen
1709
Laufende Kosten fallen in der Sourcing-Beziehung durch Koordinations- und Schnittstellenkosten an. Änderungen an der grundlegenden Gestaltung der Geschäftsfunktion beispielsweise durch ein neues Datenfeld auf der Rechnung sind nur in Abstimmung mit dem oder den Partnern zu realisieren und bringen Koordinationsaufwand mit sich. Weiterhin sind gegebenenfalls laufende Schnittstellenkosten zu tragen. So ist die Rechnungsstellung beispielsweise eng mit dem Prozess der Preisfindung verknüpft, in dem die in der Rechnung zu stellenden Preise festgesetzt werden. Eine enge Abstimmung beider Prozesse und damit die Vermeidung fehlerhaft gestellter Rechnungen ist vorteilhaft und resultiert aus Verbundvorteilen (Economies of Scope). Da innerhalb der Sourcing-Beziehung diese Abstimmung im Gegensatz zur internen Abstimmung über Unternehmensgrenzen hinweg geschehen muss, fallen hier im Vergleich gegebenenfalls höhere Übertragungskosten an, da im genannten Beispiel etwa die Datenübertragung zwischen den Unternehmensnetzwerken und den Geschäftsfunktionen Preisfindung und Rechnungsstellung zusätzlich abgesichert werden muss. Insgesamt wird innerhalb des vorgestellten Modells ein kooperatives Sourcing genau dann vorteilhaft sein, wenn die zusammenzulegenden Geschäftsfunktionen bereits hoch standardisiert sind, umfangreiche Economies of Scale realisierbar sowie Verbundeffekte zwischen in- und outgesourcten Funktionen vergleichsweise gering sind. Dabei werden die Vorteile mit zunehmender Größe der Kooperation abnehmen, da der Produktionskostenvorteil generell durch zusätzliche Teilnehmer degressiv abnimmt, die Koordinationskosten dagegen steigen.
4.3
Ausblick
Das vorliegende Modell ist in einem nächsten Schritt als Simulationsmodell implementierbar, welches autonome Entscheidungen und Verhandlungen der einzelnen Unternehmen abbildet und die resultierenden Gleichgewichte aufzeigt. Dazu ist die Entwicklung von agentenbasierten Entscheidungskalkülen notwendig, welche die zukünftigen Nettoeffekte einer Outsourcing-Entscheidung zu antizipieren helfen. Im beschriebenen Modell (Gleichung (1)) wird eine eingegangene Kooperation zunächst als statisch angenommen, d. h. es gibt keine Erwartungen über zukünftige Variationen der Partnerstruktur; eine entsprechende Erwartungsbildung über mögliche Veränderungen (Externalitäten, Volatilität des Geschäftsumfeldes) im Laufe der Beziehung wird in einem späteren Schritt integriert. Weiterhin muss in der Entscheidungsfunktion berücksichtigt werden, dass die potenziellen Partner in einem wettbewerblichen Verhältnis untereinander stehen („Coopetition“). Zu den Transaktionskostenbestandteilen kommt dann ein weiterer Faktor, die Agency-Kosten, hinzu, die davon abhängen, wie stark die Partner im Wettbewerb stehen und wie hoch der potenzielle Schaden wäre, wenn ein Wettbewerber die gemeinsame Prozessabwicklung opportunistisch ausnutzen würde.
1710
W. König, D. Beimborn, J. Franke, T. Weitzel
Aufgrund der streng formalen Entwicklung ist parallel dazu die Aufstellung eines mathematischen Optimierungsansatzes möglich, der bei gegebenen Parameterkonstellationen die optimale Sourcing-Konfiguration für das betrachtete Marktsegment und die Teilprozesse bietet (für eine Unternehmung in einem einfacheren Modell dargestellt in [Knol93]). Aus einem Vergleich des Optimierungs- und des Simulationsergebnisses lassen sich strukturell diejenigen Situationen erkennen, in denen autonom entscheidende Akteure (bspw. aufgrund von Externalitäten) kein optimales System erreichen [Weit04]. In Zukunft wird die Beschränkung auf lineare Kostenfunktion aufgehoben und für die jeweilige Geschäftsfunktion besser geeignete Funktionen implementiert werden. In erweiterten Modellvarianten können auch existierende Business Service Provider als potenzielle Insourcer auftreten, es werden Wettbewerbseffekte zwischen Sourcing-Partnern berücksichtigt oder die Akteure können ihre zusammengelegten Services auch marktfremden Unternehmen in Form des Value Chain Crossing anbieten.
5
Zusammenfassung
Ein Outsourcing von Teilprozessen der Financial Chain zu spezialisierten Anbietern mit potenziell höherer Kompetenz ist bislang nur selten erfolgt. Firmen, die bereits Teilprozesse outgesourct haben, konnten jedoch teilweise umfangreiche operative Kosteneinsparungen realisieren. Je nach betrachtetem Teilprozess werden Banken und IT-Dienstleister als geeignete Insourcer gesehen. Obwohl das Management der Financial Chain nicht zu den Kernprozessen der Unternehmen zu zählen ist, tendieren viele CFOs dazu, die eigene Prozesskompetenz im Vergleich zu externen Experten systematisch zu überschätzen. Dies kann als interne kulturelle Barriere betrachtet werden, die ein Outsourcing von Teilprozessen verhindert. Es muss erkannt und akzeptiert werden, dass Spezialisierung auch bedeutet, dass andere Unternehmen manche Prozesse besser abwickeln als das eigene Unternehmen. Kooperatives Sourcing kann den nächsten Schritt zu einer grundlegenden Neustrukturierung der Wertschöpfungskette darstellen. Falls Economies of Scale angestrebt werden, ist es möglich, dass ein Unternehmen beispielsweise davon profitiert, wenn ein Mitbewerber mit ähnlichen Prozessen auf der gleichen Plattform abgewickelt wird, um ein höheres Volumen zu generieren. Um allerdings solche Netzwerke breit zu etablieren, sind zunächst Sourcing-Modelle zu entwickeln, die eine simultane Berücksichtigung der Einflussfaktoren zulassen. Ein erster Ansatz für ein entsprechendes Modell wurde im Rahmen dieses Beitrags vorgestellt.
Danksagung Die Autoren danken den Partnern des E-Finance Lab für ihre Unterstützung.
Sourcing von Finanzprozessen
1711
Literatur [Baru+95] Barua, A.; Kriebel, C. H.; Mukhopadhyay, T.: Information Technologies and Business Value: An Analysis and Empirical Investigation. In: Information Systems Research, 6, 1, 1995, S. 3-23. [Beim+04] Beimborn, D.; Fladung, R.; König, W.: An optimization framework for efficient information supply in the academic sector, 8th Pacific Asia Conference on Information Systems (PACIS), Shanghai, China, 2004. [BrRo03] Brown, C. W.; Ross, J. W.: Designing a Process-Based IT Organization. In: Information Strategy: The Executive's Journal, 2003. [Bruc98] Bruch, H.: Outsourcing - Konzepte und Strategien, Chancen und Risiken. Gabler, Wiesbaden, 1998. [CaHa02] Cachon, G.; Harker, P.: Competition and Outsourcing with Scale Economies. In: Management Science, 48, 10, 2002, S. 1314-1333. [CuWe03] Currie, W. L.; Weerakkody, V.: Guest Editorial. In: Business Process Management Journal, 9, 6, 2003. [DeCu03] Desai, B.; Currie, W. L.: Application Service Providers: A model in Evolution, 5th International Conference on Electronic Commerce, Pittsburgh, 2003. [DiGo+04] Dibbern, J.; Goles, T.; R., H.; Jayatilaka, B.: Information Systems Outsourcing: A Survey and Analysis of the Literature. In: The DATA BASE for Advances in Information Systems, 35, 4, 2004, S. 6-102. [DiHe01] Dibbern, J.; Heinzl, A.: Outsourcing der Informationsverarbeitung im Mittelstand: Test eines multitheoretischen Kausalmodells. In: Wirtschaftsinformatik, 43, 4, 2001, S. 339-350. [Earl96] Earl, M. J.: The Risks of Outsourcing IT. In: Sloan Management Review, 37, 3, 1996, S. 26-32. [EwWa03] Ewert, R.; Wagenhofer, A.: Interne Unternehmensrechnung. Springer, Berlin, Heidelberg u. a., 2003. [FeWi98] Feeny, D. F.; Willcocks, L. P.: Re-designing the IS Function around Core Capabilities. In: Long Range Planning, 31, 3, 1998, S. 354-367. [HaMe00] Halvey, J. K.; Melby, B. M.: Business Process Outsourcing - Process, Strategies and Contracts. John Wiley & Sons, New York, 2000. [Hein02] Heinrich, L. J.: Informationsmanagement. R. Oldenbourg Verlag, München, 2002. [KeKr+02] Kern, T.; Kreijger, J.; Willcocks, L. P.: Exploring ASP as sourcing strategy: theoretical perspectives, propositions for practice. In: Journal of Strategic Information Systems, 11, 2002, S. 153-177.
1712
W. König, D. Beimborn, J. Franke, T. Weitzel
[KeWi96] Kern, T.; Willcocks, L. P.: The Enabling and Determining Environment: Neglected Issues in an IT/IS Outsourcing Strategy, European Conference on Information Systems (ECIS), Lisbon, Portugal, 1996. [Knol93] Knolmeyer, G.: Modelle zur Unterstützung von Outsourcing-Entscheidungen. In: Kurbel, K. (Ed.): Wirtschaftsinformatik'93. Springer, Heidelberg 1993, S. 70-83. [LaHi93] Lacity, M. C.; Hirschheim, R.: Information Systems Outsourcing - Myths, Metaphors and Realities. John Wiley & Sons Ltd., Chichester, 1993. [Laci+96] Lacity, M. C.; Willcocks, L. P.; Feeny, D. F.: The Value of Selective IT Sourcing. In: Sloan Management Review, 37, 3, 1996, S. 13-25. [LeHu+03] Lee, J.-N.; Huynh, M. Q.; Kwok, R. C.-W.; Pi, S.-M.: IT Outsourcing Evolution - Past, Present, and Future. In: Communications of the ACM, 44, 5, 2003, S. 84-85. [Levi88] Levinthal, D.: A Survey of Agency Models of Organization. In: Journal of Economic Behavior and Organization, 9, 2, 1988, S. 153-186. [LoVe95] Loh, L.; Venkatraman, N.: An empirical study of information technology outsourcing: Benefits, risk and performance implications, Sixteenth International Conference on Information Systems, Amsterdam, 1995, S. 277-288. [MaMe02] Matiaske, W.; Mellewigt, T.: Motive, Erfolge und Risiken des Outsourcings Befunde und Defizite der empirischen Outsourcing-Forschung. In: Zeitschrift für Betriebswirtschaft (ZfB), 72, 6, 2002, S. 641-659. [Melv+04] Melville, N.; Kraemer, K. L.; Gurbaxi, V.: Review: Information Technology and Organizational Performance: An Integrative Model of IT Business Value. In: MIS Quarterly, 28, 2, 2004, S. 283-322. [PaWi81] Panzar, J.; Willig, R.: Economies of Scope. In: American Economic Review, 71, 2, 1981, S. 268-272. [Pfaf+03] Pfaff, D.; Skiera, B.; Weitzel, T.: Datenintegration in Finanzprozessen, Informatik 2003 - Innovative Informatikanwendungen, Frankfurt, 2003. [Port85] Porter, M. E.: Competitive Advantage. Free Press, New York, 1985. [PrHa90] Prahalad, C. K.; Hamel, G.: The Core Competence of the Corporation. In: Harvard Business Review, May-June 1990, 1990. [Ried03] Riedl, R.: Begriffliche Grundlagen des Business Process Outsourcing. In: Information Management & Consulting, 18, 3, 2003, S. 6-10. [Rock+96] Rockart, J. F.; Earl, M. J.; Ross, J. W.: Eight Imperatives for the IT Organization. In: Sloan Management Review, 38, 1, 1996. [RoCo03] Rouse, A.; Corbitt, B.: Minimising risks in IT outsourcing: Choosing target services, 7th Pacific Asia Conference on Information Systems (PACIS), Adelaide, South Australia, 2003. [RoCo04] Rouse, A.; Corbitt, B.: IT-supported business process outsourcing (BPO): The good, the bad and the ugly, The 8th Pacific Asia Conference on Information Systems (PACIS), Shanghai, 2004.
Sourcing von Finanzprozessen
1713
[Scho97] Schott, E.: Markt und Geschäftsbeziehung beim Outsourcing - Eine marketingorientierte Analyse für die Informationsverarbeitung. Deutscher Universitätsverlag, Wiesbaden, 1997. [Skie+04] Skiera, B.; König, W.; Gensler, S.; Weitzel, T.; Beimborn, D.; Blumenberg, S.; Franke, J.; Pfaff, D.: Financial Chain Management - Prozessanalyse, Effizienzpotenziale und Outsourcing. Books on Demand, Norderstedt, 2004. [Tebb03] Tebboune, D. E. S.: Application service provision: origins and development. In: Business Process Management Journal, 9, 6, 2003, S. 722-734. [Teec80] Teece, D.: Economies of scope and the scope of the enterprise. In: Journal of Economic Behavior and Organization, 1, 1980, S. 223-247. [Weer+03] Weerakkody, V.; Currie, W. L.; Ekanayake, Y.: Re-engineering business processes through Outsourcing: The Knowledge Potential. In: Information Systems Management, (Summer), 2003, S. 7-15. [Weit04] Weitzel, T.: The economics of standards in information networks. Springer Physica, Heidelberg, Berlin, New York, 2004. [Weit+04] Weitzel, T.; Beimborn, D.; Franke, J.: Outsourcing the Financial Chain: an Empirical Analysis of Sourcing and Partnering Potentials, Tenth Americas Conference on Information Systems, New York, 2004. [Weit+01] Weitzel, T.; Son, S.; König, W.: Infrastrukturentscheidungen in vernetzten Unternehmen: Eine Wirtschaftlichkeitsanalyse am Beispiel von X.500 Directory Services. In: Wirtschaftsinformatik, 43, 4, 2001, S. 371-382. [Will+04] Willcocks, L. P.; Hindle, J.; Feeny, D.; Lacity, M. C.: IT and Business Process Outsourcing: The Knowledge Potential. In: Information Systems Management, 21, 3, 2004, S. 7-15.
Grid Computing, E-Science and Applications in Industry1 Hans Hoffmann CERN
1
Introduction
The early universe was extremely dense, hot and opaque for electromagnetic radiation until it cooled off and expanded sufficiently to become transparent to light and astronomical observation. Particle Physics creates matter at temperatures or energies that correspond to conditions in the universe at minute fractions of a second after the big bang and not observable by any other means. In turn such very high energies correspond to extreme short wavelengths of the matter particles involved and allow exploring at very small scale the quarks and leptons, the constituents of today's periodic table of elements, named the "Standard Model" and the forces that describe the interactions between them. Questions asked today are the origin of mass, how to reconcile quantum mechanics describing the microcosm and relativity describing the macrocosm (keyword "string theories") and a unified theory describing the variety of particles and forces. CERN was founded 50 years ago to provide the European technical and technological infrastructure for the collaboration of its Member States towards exploring such fundamental questions.2 Particle Physics has extended its reach into the microcosm by an order of magnitude every 10 to 15 years over the past 40 years corresponding in turn to order of magnitude higher energies for reactions between elementary particles. Important steps were the discovery of the antiproton3, the J/Ȍ4 ҏandҏҏ the W, Z particles5 (No1
2 3 4
Numerous colleagues have contributed to the content of these notes, in particular persons from the European DataGrid (http://cern.ch/edg), the LHC Computing Grid, LCG (http://cern.ch/lcg), and the EGEE (http://cern.ch/egee) projects. At the respective web sites ample and comprehensive information can be found. I would like to mention in particular Fabrizio Gagliardi, CERN, Les Robertson, CERN, Manuel Delfino, now at IFAE-PIC, Barcelona, Alois Putzer, Kirchhoff Institut, Heidelberg and A Reinefeld, Zuse Institut, Berlin. All of those have significantly contributed to my understanding of the subject and, more importantly, to the mentioned projects. General information on CERN can be found in the CERN web-pages under http://www.cern.ch http://www.nobel.se/physics/laureates/1959/ http://www.bnl.gov/bnlweb/history/Nobel/Nobel_76.html
1716
H. Hoffmann
bel Price for Physics 1984 for the CERN physicist Carlo Rubbia and the CERN engineer Simon van der Meer) and the precise determination of the standard model parameters. CERN's LHC project6, to become operational in 2007, will increase this range with respect to the Tevatron at FNAL near Chicago7 again by an order of magnitude to around 10-18m and to objects of up to 2000 GeV mass. It will exceed the discovery potential of the original CERN Proton Synchrotron accelerator, firstly operate in 1959, measured in cms energy, by a factor of 2000. The statistical nature of high energy particle collisions requires extreme selectivity to identify the rare events of interest which occur at levels of 1:1012 collisions or even less frequently for interesting physics at the CERN LHC. This denotes the other challenge of particle physics, namely to identify ever more rare events with ever more sophisticated detection and identification means. An eminent recognition of CERN's contribution to detectors is the Nobel Price for Physics for the CERN physicist Georges Charpak for his development of multiwire proportional chambers in 19928. The most prominent role amongst the technologies used are, however, Information and Communication Technologies, ICT. Also there CERN has made significant contributions as recognised by the Millennium Price of Finland given last year to Tim Berners Lee for his development of the WWW9 at CERN about 15 years ago. Whereas the early discoveries, order of 50 years ago, were still performed with, for example, photographic observation and recording of individual events now electronic detection, recording and analysis of large numbers of events is customary. Increasing amounts of detailed parameters are measured and online selection and filtering is used, followed by sophisticated offline reconstruction, simulation and analysis programs. The LHC general purpose experiments today, ATLAS and CMS, have in excess of 100 million electronic channels and are able to digest ~109 events/s, each with an average multiplicity of ~100 generated secondary particles. In fact, the influx of data into ATLAS10 or CMS at preamplifier level and assuming everything was digitized runs at an equivalent PetaByte/s in-flow of data of which ~100 MByte/s are recorded offline, or ~100 events/s. This corresponds to an online selection and reduction of the available data by a factor of 107. The recording rate for the LHC heavy ion detector reaches 1.25 GBytes/s originating from the extremely high multiplicity of the individual ion-ion collisions.
5 6 7 8 9 10
http://www.nobel.se/physics/laureates/1984/rubbia-lecture.pdf http://lhc-new-homepage.web.cern.ch/lhc-new-homepage/ http://www.fnal.gov/ http://nobelprize.org/physics/laureates/1992/ http://www.technologyawards.org/index.php?technologyawards=1104743195b0c 38a534b13af7d86125023aef161cc&article_id=3338&__from_id__=2912 For all LHC experiments compare: http://greybook.cern.ch/
Grid Computing, E-Science and Applications in Industry
1717
CERN and its collaboration institutes perform a continuous IC Technologies watch named “PASTA”11 in the fields of semiconductor technology, secondary storage, mass storage, networking-, data management - and storage management technologies and high performance computing solutions. The important motivation for these studies is to identify the best cost/performance solutions. A final important ingredient to the contribution from a fundamental science to discussions on technology and innovation comes from the collaborative nature of particle physics. At this time CERN collaborates with almost 300 institutes and more than 4000 scientists in Europe and in excess of 200 institutes and another almost 2000 scientists elsewhere in the world. The ATLAS or CMS collaborations12 are about one third of this each and amongst the largest long-term, global scientific collaborations ever existing until today, with well defined and commonly pursued scientific objectives, each realising devices worth in excess of half a billion € each, CERN contributing ~20%. In the grid context we shall name such collaborations “virtual organisations”, distant groups of people collaborating coherently towards a common objective.
2
Grid Computing to Solve the LHC Worldwide Data Analysis Challenge
The Technical Proposals of the LHC experiments, the first comprehensive papers describing the complete scope of the detectors and published in 199413 gave little information on computing and application software issues. It seemed possible to solve the technical problems but the development of the corresponding technologies was still to far off the level required. (Moore’s law) Following the approval of the LHC project, accelerator and the four experiments (ALICE, ATLAS, CMS, LHCb) in 1996 computing needs started to be considered again. In a common effort between ATLAS and CMS the MONARC project14 provided key information on the design and operation of the worldwide distributed Computing Models for the LHC experiments. These computing models envisaged thousands of physicists involved in data analysis at institutes around the world making use of a complex, tiered set of compute and data servers connected by powerful wide-, regional- and local area networks. 11 12 13 14
http://lcg.web.cern.ch/LCG/PEB/PASTAIII/pasta2002Report.htm http://cern.ch/atlas; http://cern.ch/cms CERN/LHC/94-43; LHCC/P2, 15 December 1994, compare CERN document server http://www.cern.ch/MONARC/ and “Models of Networked Analysis at Regional Centres for LHC Experiments” (MONARC), phase 2 report; KEK preprint 2000-8, CERN/LCB 2000-001, April 2000, M Aderholz(MPI) et al.
1718
H. Hoffmann
Each of the experiments envisaged storing and partially distributing data volumes of Petabytes/y. The MONARC project provided for a simulation tool to assess and optimise the cumulated performance of the distributed facility. In the summer and fall of 1999, it was then realised that Computational Grid technology15, conceived for coupling supercomputers to achieve maximum performance supercomputing, could be extended and adapted to data-intensive, high throughput tasks serving a worldwide community. It was also realised that important amounts of R&D were required to develop the workflow and resource management tools needed to manage such a worldwide, distributed, multi-user and high throughput “Data Grid” system. Two activities were launched at that time, the LHC Computing Review and the formulation of “data grid” R&D proposals with EU and US funding agencies.
2.1
The LHC Computing Review16
The Computing Review evaluated the current situation, plans and prospects of data management and computing at the LHC. The Review involved representative software and computing experts from the experiments and the Information Technologies Division. The Review was supposed to establish: x Solid requirements figures and identified common efforts between the partners. x A proposal of how to organise the efforts. x The need to collaborate closely, the experiments amongst themselves, with the Information Technologies Division at CERN and with national computer centres. The Executive Summary of the Review stated: “The requirements to ensure the storage, management, simulation, reconstruction, distribution and analysis of the data of the four LHC experiments (ALICE, ATLAS, CMS and LHCb) constitute an unprecedented challenge to the High Energy Physics (HEP) and Information Technology (IT) communities. After critical assessment, the review accepted the scale of the resource requirements as evaluated together with the four experiments, namely a total of about 8000 k SI-95 as total processor power required, corre15
16
I. Foster and C. Kesselmann, The GRID: Blueprint for a New Computing Infrastructure, Morgan Kaufmann Publishers, San Francisco, 1998. Compare also: UNICORE (http://www.fz-juelich.de/unicore/ ) and e-Science Programme in the UK (http://www.escience-grid.org.uk/) CERN/LHCC/2001-004, CERN/RRB-D 2001-3; 22 February 2001, “Report of the Steering Group of the LHC Computing Review” ( S Bethke, (chair) MPI Munich, M Calvetti, INFN Florence, H F Hoffmann, CERN, D Jacobs, CERN, M Kasemann, FNAL, D Linglin, IN2P3)
Grid Computing, E-Science and Applications in Industry
1719
sponding at the time (year 2000) to the cumulated compute power of about 300 000 "then" PCs, distributed into a world-wide system, the main parts to be interconnected by WANs with bandwidths in the 10 Gbit/s range and with a total data storage capacity on tape of ~30 Petabyte/year of LHC operation and on disk of ~10 Petabyte. A multi-Tier hierarchical model should be the key element of the LHC computing model. In this model, for each experiment, raw data storage and reconstruction will be carried out at a Tier0 centre. Analysis, data storage, some reconstruction, Monte-Carlo data generation and data distribution will mainly be the task of several (national or supra-national) “Regional” Tier1 centres, followed by a number of (national or infra-national) Tier2 centres to which the end users would be connected appropriately. The CERN-based Tier0+Tier1 hardware for all LHC experiments should be installed as a single partitionable facility. Grid Technology will be used to attempt to contribute solutions to this model that provide a combination of efficient resource utilisation and rapid turnaround time.” The Review requested further activities. In more detail the following points were raised: x Data Challenges of increasing size and complexity should be performed as planned by all the experiments until LHC start-up. x CERN should sponsor a coherent programme to ease the transition of the bulk of the physics community from Fortran to Object Oriented (OO, C++) programming. x Further identified areas of concern were the limited maturity of current planning and resource estimates, the development and support of simulation packages and the support and future evolution of analysis tools. Concerning resources the complete distributed facility was estimated in terms of materials cost and of personnel and material cost at CERN using the PASTA extrapolation. The CERN material effort was about one third of the total distributed facility. The approach to Maintenance and Operation of the LHC computing system included the strategy of rolling replacement within a constant budget. The construction of a common prototype of the distributed computing system should be launched urgently as a joint project of the four experiments and CERN/Information Technologies department, along with the major Regional Tier Centres. It should grow progressively in complexity and scale to reach ~50% of the overall computing and data handling structure of one LHC experiment in time to influence the acquisitions of the full-scale systems, corresponding to about 20% of the total.
1720
2.2
H. Hoffmann
“Data Grid” Projects
The vision of Grids is the long standing wish to connect computing resources together in a transparent way when they are required for a given task, or expressed in the words of Larry Smarr and Charles Catlett, 1992: „Eventually, users will be unaware they are using any computer but the one on their desk, because it will have the capabilities to reach out across the internet and obtain whatever computational resources are necessary” In the layered view of wide area networking services originally the following layers could be associated with an integrated science environment (snapshot from DataGrid): x “Problem Solving Environment” layer: domain specific application interfaces for scientists x Grid Middleware layer: x Grid Application: job-, data- and metadata-management x Collective Services: grid scheduler, replica manager, information and monitoring services x Underlying Grid Services: SQL database-, computing element-, storage element services, replica catalogue, authorisation, authentication, accounting, service index x Fabric services: resource-, configuration-, node and installation- and storage managements as well as monitoring and fault tolerance x Networking and Computing Fabric layers The challenge of constructing the middleware is to identify an architecture of the tasks which allows factorizing them into individual services whilst preserving simplicity, overall efficiency and transparent use. This is the reason for CERN and its collaborating institutes to foresee ample testing opportunities involving the whole community. Several Data Grid projects were launched subsequently covering different aspects of the problem. In Europe and supported by the EU DataGrid (large datasets, high throughput, many users), DataTag (quality of service and high bandwidth in grids), crossgrid (more applications) and EGEE (grid infrastructure to enable escience in Europe); in European nations, to name some of the major ones, in which CERN was involved directly. The European DataGrid17 project was elaborated, proposed and approved in the years 1999 and 2000. It was funded by the European Union and the participating 17
http://cern.ch/edg and using a short description from EDG
Grid Computing, E-Science and Applications in Industry
1721
institutes with the aim of setting up a computational and data-intensive grid of resources for the analysis of data from scientific exploration. The main goal of the DataGrid initiative was to develop and test the technological infrastructure that will x enable the implementation of scientific “collaboratories” or “virtual organizations” where researchers and scientists will perform their activities regardless of geographical location and where they will collaborate and share resources and facilities for agreed common objectives. x allow interaction with colleagues from sites all over the world as well as the sharing of data and instruments on a scale not yet previously attempted. x devise and develop scalable software solutions and testbeds in order to handle many PetaBytes of distributed data, tens of thousand of computing resources (processors, disks, etc.), and thousands of simultaneous users from multiple research institutions. The DataGrid initiative was led by CERN together with five other main partners and fifteen associated partners. The project brought together the European Space Agency (ESA), France's Centre National de la Recherche Scientifique (CNRS), Italy's Istituto Nazionale di Fisica Nucleare (INFN), the Dutch National Institute for Nuclear Physics and High Energy Physics (NIKHEF) and UK's Particle Physics and Astronomy Research Council (PPARC) plus further fifteen associated partners come from the Czech Republic, Finland, France, Germany, Hungary, Italy, the Netherlands, Spain, Sweden and the United Kingdom. The project covered three years, from 2001 to 2003 plus 3 month to wrap-up and consolidate the results, with over 200 scientists and researchers involved. The EU funding amounted to 9.8 million euros, mostly for people. The required matching contributions from the partners exceeded that amount. The first and main challenge facing the project was the sharing of huge amounts of distributed data over the currently available network infrastructure. The DataGrid project relied upon emerging Computational Grid18 technologies. The DataGrid project was divided into twelve Work Packages distributed over four Working Groups: Testbed and Infrastructure, Applications, Computational & DataGrid Middleware, Management and Dissemination. Figure 1 below illustrates the structure of the project and the interactions between the work packages.
18
http://www.globus.org
1722
H. Hoffmann
Figure 1: Interaction between Work Packages
More details on the functions and relations of the various middleware packages can be found in the DataGrid tutorials19. DataGrid has obtained most of its objectives by the end of 2003 and terminated end of March 2004. The important “deliverables” were: x Proof of viability of the grid concept, x Provision of training (>200 persons trained) for the applications addressed, namely for particle physics, bio-medical and earth observation communities, based on extensive test beds, x Delivery of a tested and stable middleware package for the LHC Computing Grid, the delivered package containing basic elements of the Globus toolkit, contributed by Trillium issuing the “virtual data toolkit” (VDT) together with Globus and a substantial number of components delivered by DataGrid. In 2003 and within the now active 6th Framework Programme of the EU the possibility arose of a new grid project named EGEE20 standing for “Enabling Grids for E-Science in Europe”. A number of the DataGrid participants and many further institutes from all over Europe joined in elaborating the proposal. With its ap19 20
http://eu-datagrid.web.cern.ch/eu-datagrid/Tutorial/tutorial.htm http://cern.ch/egee
Grid Computing, E-Science and Applications in Industry
1723
proval for initial two years by the EU in 2003 the project has started in April 2004 and is the currently operating Grid infrastructure project in Europe. It is complemented by other grid projects (DEISA, SEEGrid, DILIGENT and GN2)21 and supposed to provide some infrastructure for them. The most important of those is DEISA22, a grid of major European supercomputer centres. The desired goal of the EGEE project is to create a general European grid infrastructure of production quality on top of present and future EU Research and education networks. The project builds on the EU and EU member states major investment in Grid Technology and exploit the international connections the US and Asia Pacific. It is, in particular, accepted to use the particle physics community as the early adopters and for most of the initial tests and debugging to be performed during the first two years of the project. To this end, the project foresees a close collaboration with the LHC Computing Grid Project described below. The basic middleware functionality can be summarized as job management services (submit, monitor, control), resource management services (location, matching), data management (replication, location), security (services as they evolve) and operations and fault diagnosis (accounting, logging). An overview of that basic functionality of the grid middleware is given in Figure 2 below
Figure 2: Functional overview of a (Data-) Grid
21 22
http://public.eu-egee.org/conferences/2nd/ providing information on the current status of the project http://cern.ch/datatag
a
very
complete
set
of
1724
2.3
H. Hoffmann
Networking Efforts
In the past 20 years networks for digital information transfer and exchange have had a phenomenal increase of available bandwidth from then customary ~10Kb/s to today’s equally customary 10 GB/s, at least between privileged nodes, an increase by a factor of 106. More importantly during that period digital networks have become a generally accepted commodity. The European GÉANT connections between the National Research and Education Networks (NRENs) in Europe is probably the world’s leading research network, connecting more than 3100 universities and R&D centres in over 32 countries across Europe and providing connectivity to most other parts of the world. However, grids pose particular requirements to "quality of service" of networks and the EU and US funded DataTag23 project addressed those. The DataTAG project was to create a large-scale intercontinental Grid testbed that focuses upon advanced networking issues and interoperability between these intercontinental Grid domains, hence extending the capabilities of each and enhancing the worldwide programme of Grid development. The project addresses the issues which arise in the sector of high performance grid and inter-grid networking, including sustained and reliable high performance data replication, end-to-end advanced network services, and novel monitoring techniques. The project has set the "internet land speed record" for data transmission between CALTECH and CERN several times. The DataTag project is now terminated and its tasks promoted further by EGEE and GEANT.
2.4
The LHC Computing Grid24 Project (LCG)
In September 2001 the CERN Council approved the first phase of the LHC Computing Grid project based on the needs established in the Computing Review discussed above and aimed at full exploitation of LHC data by all participating institutes and physicists. The Council followed the proposal of the CERN Management of a two-phased LHC Computing Grid Project resulting from discussions with the experiments and collaborating institutes subsequent to the review, and its proposals for action. It was stated in more detail that x the size and complexity of this task required a worldwide development effort and the deployment of a worldwide distributed computing system, based on
23 24
http://www.deisa.org/ http://cern.ch/lcg
Grid Computing, E-Science and Applications in Industry
1725
tiered regional centres, to which all institutes and funding agencies participating in the LHC experimental programme were asked to contribute. x the envisaged common exploitation by the LHC experiments of the distributed computing system required coherence, common tests and developments, and close co-operation between all nodes of the computing system amongst each other and in particular with the CERN installations. The LHC Computing Grid Project was conceived as a two-phased approach to the problem, covering the years 2001 to 2008 or in more detail: x Phase 1: Development and prototyping at CERN and in Member States and Non Member States from 2001 to 2006, requiring expert manpower and some investment to establish a distributed production prototype at CERN and elsewhere that would be operated as a platform for the data challenges of the experiments. x Phase 2: Installation and operation of the full world-wide initial production Grid system in the years 2006 to 2008, requiring continued manpower efforts and substantial material resources. Further a formal project structure was proposed that would ensure the achievement of the required functionality and performance of the overall system with an efficient use of the allocated resources. Appropriate liaisons with existing grid projects as well as with industry would be put in place to promote the efficient use of resources and avoid duplication of work. Given the special roles as host lab, as the Tier-0 and Tier 1 centre where storage of the raw data emerging from the four detectors and their first pass reconstruction would be performed it was proposed that CERN should lead the project and to perform the necessary CERN-based development and prototyping activities. The LCG project aims at creating a global virtual computing centre for particle physics, focusing at the service aspects for LHC physics and its world-wide community of physicists. LCG has four working areas, namely the x application area for the LHC experiments, including the development of the software environment, the joint projects between the experiments, the data management and the distributed analysis, x grid deployment area, establishing and managing the Grid Service, middleware certification, security, operations, registration, authorization and accounting, to be performed together with the EGEE project described above and possibly other complementary grid projects elsewhere in the world, x grid technology or middleware area, providing a base set of grid middleware – acquisition, development, integration, testing and support, acquiring software from grid projects or industry,
1726
H. Hoffmann
x fabric area with large compute cluster management, data recording, cluster technology, networking and computing service at CERN. The latter three areas would proceed gradually offering increasingly demanding services, starting with simulation, then batch analysis and later interactive analysis. Middleware acquired from DataGrid would be used first and then reengineered middleware from projects such as EGEE or others based on increased experience with test beds. LCG 1, the first LCG production grid service, 24hrs/day and 7 days/week, has become operational in March 2004 based on DataGrid, US-Grid 3 and Nordugrid middleware and was tested with "data challenges" or basically batch jobs by the experiments experiments. Releases with upgraded functionality succeeded each other until summer 2004 where LCG 2 offered a more stable environment for the planned more ambitious further data challenges of the LHC experiments. In the 4th quarter of 2004 the project has seen the continued growth of the LCG-2 infrastructure (which also forms the initial EGEE production service), to more than 80 sites, providing more than 9000 CPU. The charts show the build up of resources during the quarter, and the numbers of jobs running in the service. The peak of jobs was during the final stages of the data challenges in August.
Figure 3.a: Total and free numbers of CPU, operated under LCG 2(EGEE) from July to September 2004
Figure 3.b: Running and waiting jobs, operated under LCG 2(EGEE) from July to September 2004
The overall efficiency of jobs was of the order of 65-70% including all sources of inefficiency and failure. A significant amount of jobs failed owing to lack of preparedness by some of the 80 computer centres participating.
Grid Computing, E-Science and Applications in Industry
1727
For the Grid Technology area the important event in autumn 2003 was the publishing of the ARDA (Architectural Roadmap Towards Distributed Analysis) study. The results of this study were to give rise to new prototype grid middleware testbeds, based on “grid services”, a variant of the much advertised web-services. The prototype middleware allowing for a distributed, "chaotic" analysis has been named gLite for "lightweight middleware for grid computing". The requirements are to be quickly and easily deployable, to use existing services where possible for re-engineering, to interoperate with other middleware packages, resilience and fault tolerance, co-existence with deployed infrastructure i.e. to run as application on LCG 2 and the US-Grid 3. The prototype should become operational now, early 2005. LCG and EGEE are at present engaged in testing usable grid middleware components approaching production level. In parallel major efforts are ongoing developing the European and world-wide computing capacities and the readiness of computer centres to operate in grid mode. The particle physicists are engaged in finishing off their very large software packages and to make them easily operational for the non-specialist user interested in data analysis in a grid environment. Therefore here basically only a status report is given concerning first operational experience in using grid-like distributed computing services. A corresponding talk in a year from now would be able to describe first really operational middleware packages and demonstrate first solutions to Grid Security problems that will be addressed in 2005.
3
Particle Physics and E-Science, E-Infrastructure, Cyberinfrastructure
Science that is competitive at a global scale will require coordinated resource sharing, collaborative processing and analysis of huge amounts of data produced and stored by many scientific laboratories belonging to several countries and institutions. Such sciences have complete mechanisms of collecting the relevant raw data, turning raw data into validated, calibrated pieces of information. Such pieces of information are ordered, completed and validated and described coherently. Finally in the comparison with underlying theoretical understanding such data confirm or not the current understanding and complement and extend the knowledge produced by that science. With the exponential growth of the amounts of data in many sciences this process is performed relying on ICT. Sciences which analyse and understand all their data in this manner are "esciences". "E" is standing for enhanced, empowered, enabled or brought to full potential.
1728
H. Hoffmann
In the words of the former Director of the UK Research Councils, Sir John Taylor, “e-science is about global collaboration in key areas of science and the next generation of infrastructure that will enable it”25. Particle physics in the LHC context is probably the most advanced e-science at this time or an "e-science par excellence". In many countries grids and e-science are seen as the next step towards a comprehensive “cyber infrastructure” as the environment is named by the US-National Science Foundation. They state that the cost and complexity of the 21st century science requires the creation of an advanced and coherent global information infrastructure (info structure). "Info structures" will be driven by global applications changing the ways science is done. Particle physics with the LHC challenge is such an early driving science and the US is joining forces to globally advance the “info structures”. In a similar way and possibly even in advance of the US the EU has made einfrastructure one of their key actions in the 6th Framework Programme, supporting early production grids such as EGEE as e-infrastructure and the “complex problem solving” initiative to advance the scope of the comparatively simple particle physics to more complex sciences and their enabling application technologies and underlying advanced architecture, design and development of the next generation grids. The UK e-science initiative, however, was the instrumental to advance massively application collaborations in the e-science sense and serves as model for Europe and its individual nations. CERN and the LHC community are grateful to their substantial support as well as to the German BMBF, the Italian INFN, the Spanish support and to many other nations or institutions helping with the progress.
4
Interest of E-Science and Grid Computing for Industry
The path to involve industry in grid computing can first pass through sciences enabled by full use of ICT and grid infrastructures and providing novel business opportunities. The other path is that industries see advantages in dynamically linking activities across the particular firms in order to propose novel competitive services or devices beyond the reach of the individual firm.
25
E-Science Programme in the UK (http://www.escience-grid.org.uk/)
Grid Computing, E-Science and Applications in Industry
1729
In science the path will invariably involve collaboration of heterogeneous and distant institutes combining their efforts to address problems that they could not solve individually and where funding agencies would not and should not be willing to complement their resources to enable them individually. Collecting ad hoc critical masses to address novel problems is the name of the game. The collaborative nature of world-wide particle physics is a good example for using limited, however world-wide resources to address the most relevant questions of the science. Often the limited resources are the competent people to address all problems posed. The pervasive technology required to make up e-science efforts are ICT. In Germany the D-Grid initiative26 expresses a "Vision of a new form of scientific activity: e-Science", stating that x the modern Knowledge and Information Society uses the multiple possibilities of efficient communications, easy access to large data and information repositories and powerful computers. x these new methods offer the opportunity to obtain qualitatively and quantitatively better results in science and industry. However, full use of the offered opportunities requires mastering the distributed, dynamically linked system components. x virtualisation is therefore the key notion to future Grid systems. In contrast to existing distributed information systems Grid–Systems of the next generation virtualise data-, information- and computation-services by hiding technical details of the concrete distributed realization behind interfaces. The user only sees the "socket in the wall" giving access to the wanted services and should not be aware of the technical details necessary to obtain computation-, data- or application services. Future grid-systems will enclose thousands of geographically distributed, heterogeneous resources linked together by wide area networks such as the internet. They will be autonomous, self-supervising and selfconfiguring to overcome errors and lack of resources. Further they will be secure, reliable, resilient, universally accessible and offer high level services. In addition they will be completely transparent with assured authentication and authorization. The user need not care about the resources or about their location. Like embedded microcomputers in household devices, cars or mobile communication systems the resources of future grid systems will be transparent and only the provided services appear. x apart from the virtualization the cooperative or collaborative use of computer resources will be a key element of future grid generations. This particular fea26
http://www.d-grid.de/
1730
H. Hoffmann
ture will enable completely new forms of collaborative work in science and industry. Based on particular scientific, but geographically or even internationally distributed facilities grids will support the creation of virtual organizations of "critical mass" enabling the collaborating participants to use the facilities to solve novel and common scientific problems that could not be tackled individually. x this will allow in particular interdisciplinary, European or global collaborations at a new and advanced level. x distributed industrial product development will be enabled as well as spontaneous clustering of scientists for a particular scientific purpose such as a common data analysis by distant but most qualified scientists as well as modeling of novel structures, visualization or common publication. This means a change of paradigm in value creation in industry or science. The European DataGrid and EGEE projects are both meant to be multi-purpose projects based on a specifically interested and driving community, here particle physics and CERN. They both invite other sciences and, in particular, industries to participate with (test-) projects of their own to make use of the novel infrastructure. To this end they both had or have an Industry Forum with the purpose: x The role of the Industry Forum in the Enabling Grids for E-Science in Europe (EGEE) project is to raise awareness of the project amongst industry and to encourage businesses to participate in the project. This will be achieved by making direct contact with industry, liaising between the project partners and industry in order to ensure businesses get what they need in terms of standards and functionality and ensuring that the project benefits from the practical experience of businesses. x The members of the EGEE Industry Forum are companies of all sizes who have their core business or a part of their business within Europe. x The Industry Forum will be managed by a steering group consisting of EGEE project partners and representatives from business. In the EGEE Industry Forum27 the intention is therefore to listen to requirements of industries and to promote uses of the infrastructure. The means will be to provide consultancy, training and collaboration when appropriate. This is in particular true for the technology minded industries of all the small and medium size industries in Europe. The UK e-Science programme provides for numerous examples for such activities and collaborates directly with EGEE and the EU.
27
http://public.eu-egee.org/industry/
Grid Computing, E-Science and Applications in Industry
1731
The D-Grid initiative foresees some funding for comparable initiatives and projects. The most important ingredient of an initiative is the clearly perceived added value from collaborating with an external partner towards a novel purpose, service or product.
5
Fundamental Science and Innovation
CERN’s scientific programme aims at novel and first scientific insight at the energy frontier in particle and nuclear physics. To conceive, construct and exploit the instruments required for this goal, scientists, engineers and technicians at CERN and in collaborating institutes have developed or used as first users new, innovative technologies and combinations of such technologies. Performances of particle and nuclear physics devices such as accelerators and experimental apparatus have had exponential increases in relevant performance figures over many decades, realised in an environment of, at best, constant funding in the scientific community. In a number of cases “breaking” technologies and methods have emerged and continue to emerge with considerable interest for other sciences, industry and society.The pervasive technologies having brought most of the exponential progress of the science have been the Information and Communication Technologies. Systematic exploitation of ICT in particle physics makes it an e-science "par excellence". CERN, with its initiatives LCG, EGEE and others, wants to contribute to the process from scientific insights and applications to novel industrial uses and innovations and to provide for the ingredients of a basic ICT infrastructure enabling such uses. Fundamental science can act as a long range, medium to long term force towards innovation. Dialog with other sciences and industries is an important means to make the process happen. An even better way is to find common projects of interest to both industries and the scientists. In some European countries scientific institutions and universities have a triple purpose, namely to do front end science at a global scale, to train competent people and to provide for innovation from the science. This is certainly true for CERN. In any case, it is useful for industry to follow closely the progress of (fundamental-) sciences. They occasionally provide for a glimpse into the future of technology and areas of innovation and allow to base strategic decisions of industries on some evidence.
Gefahren für die Wirtschaftsinformatik Risikoanalyse eines Faches Peter Mertens Universität Erlangen-Nürnberg
Zusammenfassung: Basierend auf der Beobachtung, dass auch wissenschaftliche Teilgebiete in Lehre und Forschung Auf- und Abschwünge erleben, wird erörtert, welche Gefahren den Aufschwung der Wirtschaftsinformatik vor allem in der Wissenschaft, aber auch in der Praxis beenden und einen Abschwung einleiten könnten. Gesehen werden Bedrohungen durch die Auslagerung der Informationstechnik in andere Länder („Gefahren aus dem Osten“), durch unkritische Übernahme von Entwicklungen des amerikanischen Fachs Information Systems („Gefahren aus dem Westen“) und Schwächen der zeitgenössischen deutschsprachigen Wirtschaftsinformatik („Gefahren von innen“). Empfehlungen zur weiteren Gestaltung der Wirtschaftsinformatik trägt der Referent in Thesenform vor*. Schlüsselworte: Offshoring, Praxisnähe, Begriffsverwirrung, Kumulative Forschung, Formale Methoden, Gründlichkeit
1
Motive
Mein Vortrag hat vier Wurzeln: 1. Eine Meinungsäußerung, wonach die Wirtschaftsinformatik (WI) eine vorübergehende Erscheinung im Bildungswesen sein könnte. 2. Eine wachsende Bedeutung von Risikoanalysen und Risikomanagement, auch in der Informationstechnik. 3. Die Carr-Thesen. 4. Anfragen und Meldungen, die sich auf die Umwidmung von IT-Professuren oder die Schließung ganzer Institute und Studienrichtungen der WI bzw. – im internationalen Raum – der Information Systems bezogen.
*
Eine wesentlich erweiterte Fassung ist im Internet [http://www.wi1.uni-erlangen.de/ veroeffentlichungen/] und als Arbeitspapier Nr. 1/2005 des Bereichs Wirtschaftsinformatik I der Universität Erlangen-Nürnberg, Nürnberg 2005, verfügbar. Dort finden sich zusätzliche Belege für die hier vorgelegten Thesen, weitere Beispiele und Literaturangaben.
1734
2
P. Mertens
Erfolge
Die WI ist in den letzten Jahren stark gewachsen, sowohl was die Zahl der Lehrstühle, der Studierenden, der Veröffentlichungen und der Foren (z. B. WI-Tagung und Multikonferenz) angeht. Fragt man nach den Ausstrahlungen der WI in ihre beiden Mutterdisziplinen (BWL und Informatik), so sehe ich solche sowohl in fachlicher als auch in institutioneller Hinsicht. Bei der fachlichen Beeinflussung hat die WI davon profitiert, dass sie sich nicht so sehr einem Lösungszwang, dem sog. Solution Constraint, unterwarf wie z. B. die Mathematik oder die von ihr abstammende Theoretische Informatik, sondern von vornherein darauf angelegt war, mit den Unvollkommenheiten der Welt, wie z. B. verschmutzten Daten oder irrationalem Führungshandeln, zurechtzukommen. Wenn man die Leistungen der deutschen WI beleuchten möchte, darf die SAP AG nicht unerwähnt bleiben. Lester Thurow vom MIT, der Verfasser eines viel beachteten Werkes über die Zukunft der Weltwirtschaft [Thur04], hat einmal geäußert [OV04]: „Wenn Sie die zehn größten US-Firmen hinsichtlich ihrer Marktkapitalisierung nehmen, sehen Sie, dass sechs davon nach 1968 gegründet wurden. Wenn Sie nach Europa schauen, ist keine Firma neu bis zum Platz 73, und das ist SAP.“ Dies fällt umso mehr auf, als im gesamten Bereich der Informations- und Telekommunikationstechnik der „Exportweltmeister“ Deutschland ein Ausfuhrdefizit von über 7 Mrd. € hat. August-Wilhelm Scheer hat kürzlich die Vermutung niedergeschrieben, dass über die SAP-Systeme das deutsche betriebswirtschaftliche Wissen stärker in den internationalen Raum getragen worden sei als durch die gesamte deutsche akademische Literatur zum Rechnungswesen [Sche04]. In der Tat lässt sich z. B. eine Kette „Schmalenbachsche Grundrechnung Ö Riebelsche Einzelkostenrechnung Ö Sinzigsche Konzeptionen des R/3-CO Ö Welt“ schmieden. Wie mir das SAP-Vorstandsmitglied Claus Heinrich, der im Übrigen auch persönlich nützliches Gedankengut zur WI des Industriebetriebes beisteuerte, versicherte, hat SAP zumindest in jenen Phasen ihres Wachstums, in denen die entscheidenden Weichen gestellt wurden, von der deutschen WI stark profitiert, und naturgemäß fand auch ein gewaltiger Wissenstransfer von den Hochschulen in die Walldorfer Aktiengesellschaft über die Köpfe, d. h. über unsere Absolventinnen und Absolventen, statt. Dieses Kapitel über die Erfolge der WI kann ich rückblickend mit dem bekannten Wort resümieren: „Erst verlacht man’s, dann veracht’ man’s, dann macht man’s“.
3
Gefahren aus dem Osten
In den USA begegnete mir die Auffassung, dass Hochschulen zögern, ihre IS-Departments in ihrer gegenwärtigen Größe zu erhalten oder gar auszubauen, denn der
Gefahren für die Wirtschaftsinformatik - Risikoanalyse eines Faches
1735
auch in den Vereinigten Staaten sehr stark diskutierte Trend zur Auslagerung von IT-Abteilungen in Niedriglohnländer (Offshoring, OS) könne zur Folge haben, dass die IT-Forschung der IT-Produktion nachwandere und infolgedessen weit weniger Nachwuchskräfte benötigt werden. Die zum Teil stark rückläufigen Einschreibungen in die US-Computer-Science-Fakultäten werden auch auf die Furcht der jungen Menschen zurückgeführt, die IT-Arbeitsplätze hätten in den Vereinigten Staaten nicht ein Berufsleben lang Bestand. Eine aus deutscher Sicht gefährliche Kausalkette wäre: Wanderung der Produktion zu den Absatzmärkten Ö der Entwicklung zur Produktion Ö der IT-Produktion zur Entwicklung Ö der IT-Entwicklung zur IT-Produktion Ö der WI-Forschung zur IT-Entwicklung. Als Gutachter einer Forschungsförderungseinrichtung bekam ich einen Vorgeschmack einer solchen Verkettung: Es lag ein Antrag aus einer Hochschule vor, die traditionell mit der in ihrer Umgebung stark repräsentierten Textilindustrie, namentlich Spinnereien und Webereien, kooperierte. Der Antrag war theoretisch wohl fundiert, die angestrebten Lösungen erschienen für die Praxis wichtig. Dennoch wurde im Gutachterkreis eingewandt: Die Förderung wäre problematisch, denn mittlerweile gibt es nur noch drei regionale Betriebe. Denkt man dies zu Ende, so wäre also keine WI-Forschung mehr zu fördern, wenn die Unternehmen, auf die sie abzielt, nicht mehr im Inland ansässig sind. Abbildung 1 zeigt einige bemerkenswerte Meldungen, man beachte z. B. die Positionen 5 und 7. Ein nachgerade alarmierendes Symptom scheint zu sein, dass bayerische Unternehmen den Wirtschaftsminister und die Industrie- und Handelskammern bedrängt haben, die „Kunst des Offshoring“ mit staatlichen Mitteln weiterzuentwickeln. Als Resultat kann man seit Juli 2002 im Internet einen „Leitfaden zur Schaffung und Sicherung von Arbeitsplätzen durch offshore IT-Entwicklung im Rahmen der Internationalisierung des Mittelstandes in Bayern“ abrufen [Soft02]. Ähnlich bedenklich ist es, dass durch ertragsteuerliche Sonderregelungen des § 86 KStG die deutsche Muttergesellschaft die Aufwendungen für die Gründung einer ausländischen Tochtergesellschaft im Inland voll als Werbungskosten geltend machen kann, die repatriierten Gewinne aber mit einem stark reduzierten Satz versteuert. Aus den gegenwärtigen Beobachtungen lassen sich eine Reihe von Szenarios entwickeln. Eine über diese Zukunftsbilder konstante Annahme ist: Die Intelligenz der Fachkräfte in den Zielländern wird nicht niedriger eingeschätzt als die der Angestellten in den Ländern, die die Aufträge erteilen. Führen wir uns z. B. vor Augen, dass die Inder wiederholt exzellente Schachspieler hervorgebracht haben oder dass zum letzten Siemens-Multimedia-Preis die Schlagzeile erschien: „Schüler aus Osteuropa räumen ab“. Ein Extrem ist das Zukunftsbild „Abwarten“: Eine große Zahl von Nationalökonomen, u. a. Jagdish Bhagwati, verweist ähnlich wie Gregory Mankiw, der Vorsitzende des Council of Economic Advisors des US-Präsidenten, darauf, dass nach den Wirkungszusammenhängen der internationalen Arbeitsteilung – die sich sogar bis auf Ricardos Gesetz der komparativen Kosten zurückführen lassen – die Auslagerung von Tätigkeiten in Niedriglohnländer auf längere Sicht die Produktivität
1736
P. Mertens
der hoch entwickelten Industrienationen fördern mag [Bha+04]. Dies könnte aber auch bedeuten, dass die Industrieländer große Teile der Informationstechnik diesen Produktivitätsinteressen opfern müssen. So hat Olsson [Olss04] interessante Beispiele präsentiert, wo europäische Betriebe mittlerer Größe ihre Existenz durch partielles OS der Informationsverarbeitung retten konnten. 1. Nach einem Bericht der Gartner Group (2004) werden in der nächsten Dekade über 3,3 Mio. Arbeitsplätze aus den USA in Niedriglohnländer „auswandern“. 2. John Mahoney, Managing Vice President bei Gartner: Bis 2008 werden im Vergleich zum Jahr 2000 mindestens 60 % der IT-Abteilungen ihre Mitarbeiterzahl um die Hälfte verringert haben. 3. Chinesischer Siemens-Konkurrent Huawei beschäftigt 12.000 Ingenieure, die so viel wie 2.000 deutsche kosten. Arbeitszeit 180 % der deutschen. 4. Siemens lässt Mobiltelefone in China entwickeln, weil sich herausstellte, dass deutsche Ingenieure und Designer den Geschmack der Chinesen nicht trafen. 5. SAP-Entwicklungs-Niederlassung in Indien wird künftig neue mySAP-Module entwickeln. Bis Ende 2004 etwa Verdreifachung der Entwicklerzahl in Bangalore. In Deutschland nur Ersatz ausscheidender Angestellter. Gehalt in Indien ca. 20 % von Deutschland. 6. SAP plant die Verlagerung von Verwaltungsaufgaben aus der Konzernzentrale in Walldorf nach Prag. 7. SAP lässt Komponenten für Mittelstandssoftware in Shanghai entwickeln. 8. Die Nachfrage aus Übersee bei der Infosys Technologies Ltd., Bangalore, stieg im 2. Quartal 2004 gegenüber dem Vorjahresquartal um 49 %. Der Dienstleister erhielt 2003 1 Mio. Bewerbungen für 9.000 Arbeitsplätze. 9. Citibank lässt Anpassung von Software an deutsche Steuergesetze in Indien erledigen. 10. Der Medienkonzern Reuters will 1.500 Stellen in Bangalore ansiedeln und bis 2006 ca. 10 % seiner Arbeitsplätze (Datenmanagement, IT-Berichterstattung) dorthin verlagern. 11. Der Automobilzulieferer Continental entwickelt in seinem Forschungs- und Entwicklungszentrum im rumänischen Sibiu mit 200 Ingenieuren die Software von elektronischen Steuerungselementen wie Fensterhebern. Dazu wird auch die lokale akademische Ausbildung gefördert.
Abbildung 1: Meldungen zum Offshoring [Mert04]
Paul Samuelson konnte in einer Studie nachweisen, dass Ricardos Gesetz dann nicht unkritisch herangezogen werden darf, wenn eine Volkswirtschaft auf einem Teilgebiet den Vorsprung einer anderen besonders rasch wettmacht [Sam04]. Die für die Arbeitsteilung zwischen Volkswirtschaften erkannte generelle Gesetzmäßigkeit muss aber nicht nur für Branchen und Wirtschaftszweige ungültig sein; vielmehr trifft sie auch Nationen ganz unterschiedlich. In einer bemerkenswerten Untersuchung [McKi04; Mert05] hat das McKinsey Global Institute gefunden, dass das OS den USA letztlich zum Vorteil, Deutschland aber OS sowie das „Nearshoring (NS)“ in östliche Nachbarländer zum Nachteil gereichen könnten.
Gefahren für die Wirtschaftsinformatik - Risikoanalyse eines Faches
1737
Die Prognose „Renaissance des ‚Made in Germany’“ beinhaltet, dass eine Art Kernkompetenz oder Nationaltugend der Deutschen, das penible Streben nach sehr hoher Qualität bzw. nach Perfektion, revitalisiert wird, sodass Software hier zwar mit höheren Personalkosten und auch höheren anderen Kostenbestandteilen (z. B. Steuern) hergestellt wird, aber mit einem Qualitätsstandard, der den internationalen Durchschnitt deutlich überragt. Dieses Szenario impliziert, dass die gegenwärtig weithin sichtbaren und auch mit Informatik-Qualität zusammenhängenden Zuverlässigkeitsprobleme in Deutschland (z. B. Toll Collect, relativ schwache Position der deutschen Fahrzeughersteller in den Pannenstatistiken, starke Unpünktlichkeit der Deutschen Bahn) nicht Fanale dafür sind, dass den Deutschen ihr Sinn für Qualität und Pünktlichkeit dauerhaft verloren gegangen wäre. Diskussionen des Verfassers mit Pädagogen unterschiedlicher Provenienz führten freilich zu der Einschätzung, dass man hier die Wende nicht kurzfristig und durch Aufrufe allein einleiten könne; vielmehr müssten insoweit Lässlichkeiten und Versäumnisse im Elternhaus, in der Schule und auch in der akademischen WI-Ausbildung (z. B. Geringachtung der Präzision beim Umgang mit Zahlen, Worten und Sprachkonstrukten) beseitigt werden. Dafür spricht u. a. die so genannte Broken-WindowTheorie [Stre99]. Die Unternehmensberatung A. T. Kearney vertrat auf einer vom Bayerischen Forschungsverbund Wirtschaftsinformatik (FORWIN) am 2004-03-26 veranstalteten Podiumsdiskussion durch ihren Mitarbeiter Heinz Linß die These, dass Informatikelemente, die sehr stark mit Produkten, betrieblichen Funktionen und Prozessen integriert wurden, weniger anfällig gegenüber OS oder NS seien. Sein Haus und er treten daher für eine Akzentverlagerung von der zumindest in Schwellenländern eher nachahmbaren Kerninformatik zu den Angewandten Informatiken (u. a. Medizininformatik, Verkehrsinformatik, WI) ein [Buc+04]. Ähnlich hat sich jüngst und wiederholt der Präsident der Gesellschaft für Informatik, Matthias Jarke, geäußert. Frank Leymann drückte es auf der GI-Jahrestagung 2004 so aus: „In der Programmierung im Großen liegt die Chance der Deutschen“. Diese Einzelaussagen decken sich mit einer Klassifikation in Berufe, die durch Offshoring durchschnittlich und wenig bedroht sind, welche in dem Magazin WIRTSCHAFTSWOCHE erschien [Bur+04, S. 30]. Auch viele schriftliche und mündliche Beiträge zu Arbeiten der internationalen Task Force „Job Migration“ der Association for Computing Machinery, der ich als europäisches Mitglied angehöre, das wichtige Memorandum INNOVATEAMERICA des US-Council on Competitiveness [Coun04] oder das Position Statement „Offshore Outsourcing“ der British Computer Society [Brit04] zeigen in diese Richtung. Dies alles wäre also zum relativen Vorteil der WI. Die Hochschulausbildung in Indien ist sehr stark auf Softwareproduktion fokussiert, Anwendungssysteme sind in den Curricula kaum berücksichtigt. Die Lehre an den chinesischen Universitäten wird noch als sehr theorielastig im ungünstigen Sinne angesehen und eine wirkliche WI ist nicht vorhanden. Zumindest die Stars unter unseren Systementwicklern oder generell unter den Nachwuchskräften der Informatik und WI könnte man im Berufsleben sehr viel
1738
P. Mertens
mehr fördern als bisher. Dies würde z. B. bedeuten, dass arbeitslose oder frühpensionierte Informatiker in Proportion zu den Einkommensbestandteilen, die sie aus den Solidarkassen beziehen, den Spitzenleuten unentgeltlich im beruflichen und eventuell auch im privaten Leben assistieren und dadurch letztlich deren Produktivität bei gleichen Lohnkosten steigern. Vergleichbare Maßnahmen erkennt man bei US-amerikanischen Softwareherstellern, wo niedrig entlohnte Hilfskräfte hochqualifizierten Software-Ingenieuren zur Hand gehen. Ein Beitrag der WI-Forschung läge darin, Methoden zu entwickeln, die es auch weniger qualifizierten Personen, also nicht nur Hochschulabsolventen, gestatten, bei Systementwurf und -einführung wirksam zu helfen. Letztlich haben wir es mit einem Prognoseproblem zu tun: Wie werden sich kritische Erfolgsfaktoren (Infrastruktur, Kapitalstruktur, Anwendungserfahrung, Ausbildung, Arbeitszeit, Gehälter, Anreiz- und Entmutigungssysteme) des internationalen Wettbewerbs in der IT in den auftraggebenden (AG) („outsourcenden“) und in den dienstleistenden (DL) Ländern relativ zueinander entwickeln?
4
Gefahren aus dem Westen
Unsere amerikanische Schwesterdisziplin führt den Namen „Information Systems“ (IS). Seit seiner Entwicklung in den siebziger Jahren begleiten das Fach IS Erörterungen zu seinem Selbstverständnis. So schreibt DeSanctis [DeSa03]: „Since its inception the 1970s, the field of Information Systems (IS) has devoted significant effort to defining its domain, establishing its legitimacy, reflecting and critiquing its contributions, and tracking its progress as an academic discipline.“ In den wissenschaftlichen Organen zum IS hat sich seit etwa drei Jahren eine Art Nabelschau verstärkt. Wenn man diese Diskussionen als „terrible simplificateur“ resümiert, so schälen sich vor allem drei polarisierende Diskurse heraus: Der erste ist „Rigour versus Relevance“. Die Anhänger der „Rigour“ verlangen außerordentlich gründliche Forschung und gehen fast soweit, mit einer Art Alleinvertretungsanspruch auch Einheitsgliederungen für die wissenschaftlichen Publikationen vorzugeben. Wie die Adepten der „Relevance-Lehre“ unterstreichen, müssen Fachzeitschriften und Fachtagungen, die sich diese Rigorosität zu Eigen machen, auf wertvolle Beiträge verzichten, z. B. auf Fallstudien aus der Praxis. Ulrich Frank berichtete mir folgenden Satz aus einem abschlägigen Bescheid zu einem Aufsatz, den er einer amerikanischen Zeitschrift eingereicht hatte: „This well-written paper is not likely to pass the full referee review … We do not publish papers on projects or on systems that do not undergo a proof of concept …“. Andererseits werden Erfahrungsberichte mit dem Hinweis abgelehnt: „No how-Idid-it-papers!“ Vergangenes Jahr hörte ich von einem amerikanischen Kollegen einen Vergleich: Angenommen, auf einem Kongress von Nahrungsmittelchemikern wäre sensationellerweise der Chefchemiker von Coca-Cola bereit, endlich die
Gefahren für die Wirtschaftsinformatik - Risikoanalyse eines Faches
1739
jahrzehntelang geheim gehaltene Zusammensetzung des Sirups zu beschreiben, und das Programmkomitee würde ihm zur Bedingung machen: „Legen Sie zunächst Ihre wissenschaftlichen Forschungsziele dar und beschreiben Sie, auf welchem Signifikanzniveau Sie Ihre Hypothesen testen.“ Wie Hubert Österle mir einmal schrieb, würden wir dann, wenn wir diesem amerikanischen Ansatz sklavisch folgten, unsere „USP des seriösen, praxisnahen, konstruktivistischen Arbeitens wegschmeißen“. Dem stünde auf der Vorteilsseite gegenüber, dass die Wissenschaftler der WI das praktische Geschehen gründlicher durchleuchteten und nicht jede unter dem Blickwinkel der empirischen Feldforschung äußerst fragwürdige „Strichlisten-Umfrage“ von Unternehmensberatern oder Personalvermittlern für bare Münze nähmen. Wenn wir, z. B. für unsere Lehrveranstaltungen und Lehrbücher, wissen wollen, welche Anwendungssysteme von den Betrieben mit welchen Schwierigkeiten, Erfolgen und Misserfolgen entwickelt wurden, können wir uns auf die Fachliteratur seit längerer Zeit nicht mehr verlassen. In den vielen Computermagazinen erscheinen nur noch Artikel von wenigen Spalten, quasi „Appetitmacher“. In dieser Konstellation sind wir darauf angewiesen, als Wissenschaftler selbst in die Betriebe zu fahren und uns vor Ort zu informieren, was naturgemäß sehr aufwändig ist. Österle und Senger haben begonnen, sich systematisch dieser Mühe zu unterziehen. Der Versuch, eine entsprechende Arbeit in der Zeitschrift WIRTSCHAFTSINFORMATIK zu platzieren, ist gescheitert, weil der Hauptherausgeber u. a. die Auffassung vertrat: „Es gibt keinen ‚belastbaren’ Erkenntnisprozess. Das von Ihnen gewählte Erkenntnisverfahren – Interviews, Teilnehmer einer Fallstudienrunde – ist sicherlich als solches ein Verfahren, aber ich erwarte, dass die Gutachter die sehr vielen Freiheitsgrade beim Abwickeln gerade eines solchen Verfahrens kritisieren werden“. (Angesichts derartiger Entwicklungen verwundert nicht, dass in der Zeitschrift der Anteil der Beiträge aus der Feder von Praktikern 2004 bei nur 18 % lag, dafür aber die „Selbstbedienungsquote“, d. h. der Texte von Herausgebern und ihrer Mitarbeiter, bei 43 %.) Wenn stets nur erprobte Dinge Gegenstand einer Veröffentlichung sein dürften, hätte man z. B. Wernher von Brauns oder Hermann Oberths bahnbrechendes Ideengut zur Weltraumfahrt, das diesen außerordentlich wichtigen Forschungs- und Entwicklungszweig eröffnet hatte, nicht publizieren können. Der zweite Diskurs wird in den Vereinigten Staaten weit weniger engagiert geführt. Letztlich läuft er auf das quasi natürliche und hinreichend bekannte Dilemma hinaus, dass große Spezialisierung größeren Tiefgang gestattet, bis zu einem gewissen Grade aber einer Hauptaufgabe der WI, der Entwicklung und Untersuchung integrierter Systeme, entgegensteht. Einen neuen Schub (dritter Diskurs) erhielt die Diskussion zum Selbstverständnis von IS durch einen Aufsatz von Benbasat und Zmud [Ben+03]. Sie postulierten, dass sich IS auf eine Art Kernkompetenz konzentrieren müsse, die sie den „ITArtefact“ nannten. Ihnen traten in der Folge, vor allem im Journal of the Association for Information Systems, verschiedene Autoren entgegen. So meinte z. B. Robey die Auffassung, die von Benbasat und Zmud geforderte rigorose Abgrenzung
1740
P. Mertens
des Faches behindere es, pragmatisch auf neue Entwicklungen zu reagieren [Robe03]. Ähnlich argumentierten DeSanctis [DeSa03] und Galliers [Gall03]. Zusammenfassend: Wir dürfen zwei Gefahren nicht erliegen: 1. De-facto-Zwang zur Übernahme von amerikanischen Gebräuchen (Stilen) bei der Definition von Forschungsprojekten und bei der Publikation der Ergebnisse. 2. Investition zu großer Energien in die „Nabelschau“.
5 5.1
Gefahren von innen – Schwächen Problematische Ziele
Nach wie vor operieren viele Wirtschaftsinformatikerinnen und Wirtschaftsinformatiker mit problematischen Unternehmenszielen [Mert99]. Der Schwerpunkt liegt zu sehr auf den mit operativen Funktionen und Prozessen verbundenen Zielen, die in der unternehmerischen Zielhierarchie auf der dritten oder gar vierten Ebene anzusiedeln sind. Die Zusammenhänge mit den Primärzielen werden aus unseren Analysen ausgespart. Führen wir uns folgende elementare Sachverhalte vor Augen: 1. Ökonomie heißt, Ressourcen bestmöglich auszunutzen. In der Marktwirtschaft bedeutet das für die Unternehmung Maximierung der Rentabilität. An die Stelle der Rentabilität mögen situationsbedingt ihre „Derivate“, wie z. B. der Unternehmenswert, treten. Unser Fach verfügt über ganz unterschiedliches Potenzial, zur Ressourcenökonomie beizutragen, denken wir etwa an APS-Algorithmen oder neuere Einsteuerungsstrategien in der Halbleiterfertigung [Bre+02; Fow+02]. 2. Da sich der Punkt maximaler Wirtschaftlichkeit nicht mit dem maximaler Rentabilität deckt, ist Wirtschaftlichkeitsmaximierung theoretisch nicht exakt. Das folgende Beispiel zeigt, wie mit dem Kriterium Wirtschaftlichkeit die Rentabilitätswirkung einer Verbesserungsmaßnahme unter Umständen stark unterschätzt wird: Angenommen, es gelänge durch bessere Parameterregulierung von IT-Systemen zur inner- oder zur zwischenbetrieblichen Materiallogistik, die Kapitalbindung wie in Abbildung 2 zu verringern. Dann errechnet sich unter den weiteren Annahmen des Beispiels eine Steigerung der Wirtschaftlichkeit um weniger als 1 % (Herleitung im Anhang der erweiterten Fassung). Das Vorhaben könnte in Konkurrenz zu anderen Projekten leicht hintangestellt werden. Die resultierende Rentabilitätssteigerung von 41 % würde aber wohl zur Priorisierung führen.
Gefahren für die Wirtschaftsinformatik - Risikoanalyse eines Faches
1741
3. Sekundär- oder gar Tertiärziele, darunter auch die sog. Prozessziele oder prozessökonomischen Ziele, wie z. B. minimale Kosten oder minimale Durchlaufzeiten bzw. größtmögliche Beschleunigung, sind theoretisch nur haltbar, wenn zahlreiche Ceteris-paribus-Klauseln gelten. Man erinnere sich an Sachverhalte, die teilweise physikalisch bedingt sind: Beschleunigung verlangt einen Aufwand, der überproportional zur erreichten Geschwindigkeit steigt. Ausgangsdaten:
Kapitalbindung Umsatz Zins Gewinn
2.000.000 € 4.000.000 €/Jahr 5% 160.000 €/Jahr
Maßnahme:
Bessere Parametrierung eines PPS-Systems reduziert Kapitalbindung um: 400.000 €
Folge:
Steigerung Wirtschaftlichkeit < 1 % Steigerung Rentabilität 41 %
Abbildung 2: Wirtschaftlichkeit vs. Rentabilität
Wegen der Aktualität möchte ich mich speziell drei Themen, bei denen Zielkonflikte sehr deutlich werden, zuwenden: 1. Ein Schlagwort unserer Tage ist das Echtzeit-Unternehmen (Real-time Business). In der zugehörigen Literatur wird implizit oder explizit unterstellt, dass höchste Geschwindigkeit das Optimum sei. Besonders deutlich kommt das in dem folgenden Satz von Fleisch und Österle, den sie in einem Buch zum Echtzeit-Unternehmen schreiben, zum Ausdruck [Fle+04]: „Schnelle Prozesse sind bessere Prozesse.“ So haben wir genügend theoretische und empirische Belege, dass die Prozesskosten über der Vorgangsdauer U-förmig verlaufen. Eine Beschleunigung vom Punkt der kostenminimalen Dauer in Richtung auf das Zeitminimum ist daher mit anderen Vorteilen im Einzelfall zu begründen. Man übersieht auch einfache Sachverhalte, wie z. B. die, dass die Beschleunigung des Einzelprozesses dazu zwingt, diesen aus Losverbünden herauszunehmen. Die Beschleunigung eines Prozesses, der auf einem nicht-kritischen Pfad in einem Netz liegt, bedeutet zunächst keine Beschleunigung in dem Vorgangsnetz. 2. Ohne spezielle Betrachtung der Prozessgeschwindigkeit ist auch der allgemeine Prozessfokus, dem die WI stark anhängt, gefährlich. Im Zuge der SAPEinführung bei einem Hersteller von Fernsehgeräten entdeckten wir folgenden Konflikt zwischen Prozess- und Ressourcen-Orientierung: Der Prozess „Auftragsbearbeitung“ wurde getrennt von dem Prozess „Reparaturabwicklung“ geführt. In beiden Vorgangsketten werden teure Komponenten (Bildschirmeinheiten) benötigt, diese hatten aber die sog. Process Owners separat disponiert. Die Folge der unkoordinierten Beschaffung waren verschenkte Skalen- bzw. Bündelungseffekte bei der Beschaffungslogistik gewesen.
1742
P. Mertens
3. Die betriebswirtschaftliche Theorie verfügt über einen gut gefüllten Wissenskorb zur optimalen Flexibilität bzw. Elastizität. Forscher wie Herbert Hax, Laux, Meffert, Riebel oder Schmalenbach haben dazu beigetragen. In vielen WI-Arbeiten wird im Gegensatz dazu unterstellt, extreme hohe Flexibilität sei das Optimum.
5.2
Mangelnde kumulative Forschung
Im Jahre 2002 erhielt Raymond Davis jr. den Nobelpreis für Physik. Er hatte zusammen mit Masatoshi Koshiba die experimentelle Neutrinoastrophysik begründet. In einer Würdigung schrieben Kirsten und Trümper [Kir+02]: „Der PhysikNobelpreis für Raymond Davis jr. … ist die späte Anerkennung für ein ... Forscherleben, das in vieler Hinsicht von den Normen und Wertvorstellungen unseres modernen Physikbetriebs abweicht. … Eine modernistische ‚Evaluation’ des in Rede stehenden Wissenschaftlers würde vernichtend ausfallen: Keine Flexibilität, lebenslang ist er bei einem Thema geblieben. … Publikationsliste: Sehr kurz, er tat sich schwer mit Niederschriften, weil stets ‚erst noch etwas zu messen war’. ... Im Zweifelsfall galt immer das Primat der Daten, suggestiv unterlegte Interpretationen waren ihm suspekt.“ Wie kontrastiert dieser Forschungsstil mit manchem in der WI! Schauen wir uns beispielsweise den Themenkomplex an, den man gegenwärtig in etwa mit Wissensmanagement umschreibt: Ganz ähnliche Sachverhalte wurden im Laufe der Jahrzehnte unter Stichworten wie „Informationserschließung“, „Information Retrieval“, „Know-how-Datenbanken“, „Betriebliche Dokumentation“, „Informationsmanagement“, „Business Intelligence“, „Selective Dissemination of Information“ (SDI) oder „Organizational Intelligence“ untersucht. Im Kern ging es und geht es immer wieder um die Frage, wie man Informationen besorgt, filtert, in der richtigen Aufbereitung zum richtigen Zeitpunkt an die richtigen Empfänger liefert, kurzum das, was man generell mit betrieblicher Informationslogistik umschreiben könnte. Die jeweilige Spezialistengemeinde hat sich aber kaum um die Vorgängerarbeiten gekümmert, zuweilen wusste man gar nichts von ihnen. In der im Übrigen lesenswerten Monografie „Integrierte Wissensmanagement-Systeme“ von Gerold Riempp [Riem04], die zum Anliegen hat, die vielfältigen Erscheinungsformen des Wissensmanagements zu systematisieren, tauchen manche der Objekte leider nicht auf. Die frühen Arbeiten von Robert Fugmann zur Chemie-Dokumentation in der Hoechst AG in Verbindung mit der SDI-Methodik [Mer+77, S. 195-197] zeigen enge Verwandtschaft mit Systemen, die z. B. die BASF AG unter dem Namen BASIKS oder Hewlett-Packard unter der Bezeichnung ELMI-B erst in jüngerer Vergangenheit eingeführt haben. Wenn ich die vielen Anstrengungen ganz unterschiedlicher Softwarehersteller von Microsoft bis SAP sehe, die offenbar zwei Mal pro Jahr ihre Konzeption und ihre Architekturen ändern, so drängt sich mir die Frage auf: Was wäre gewesen, wenn man die für ihre Zeit außerordentlich fortschrittliche, nach Branchen differenzierte
Gefahren für die Wirtschaftsinformatik - Risikoanalyse eines Faches
1743
Mittelstands-Anwendungssoftware COMET von Nixdorf mit ruhiger Hand weiterentwickelt hätte?
5.3
Übertriebene Modeerscheinungen
Danny Kaye äußerte einmal: „Wirtschaftswissenschaft ist die einzige Disziplin, in der jedes Jahr auf dieselben Fragen andere Antworten richtig sind“. Gilt der Ausspruch mutatis mutandis für die WI? Idealerweise würde sich eine Disziplin auf einem geraden Fortschrittspfad in Richtung eines wie auch immer definierten Langfristziels bewegen (Abbildung 3). a) Idealer Fortschrittspfad
b) Weniger effizienter Fortschrittspfad
c) Stillstand einer Disziplin
Stand der Disziplin
Stand der Disziplin
Stand der Disziplin
Effizienzverluste
Zeit
Zeit
Zeit
Abbildung 3: Mögliche Fortschrittsverläufe einer Disziplin [Mert95, S. 25]
Auf dem Weg vom Ideal zur Wirklichkeit konzedieren wir wohl alle, dass mäandernde Entwicklungen gemäß b unvermeidlich sind. Das Muster in c zeigt ein Fach in einer Krise. Es kommt vielleicht aus einer Sackgasse nicht heraus, konzentriert sich auf das jeweilige Modethema, wobei die gleiche Mode von Zeit zu Zeit wiederkehrt. Nach dem Auslaufen einer Modewelle werden die gewonnenen Erkenntnisse nicht festgehalten, sodass eventuelle Fortschrittserträge sich wieder verflüchtigen, oft noch bevor die Wissenschaftsprodukte testbar sind. Auch in den Kategorien der Kuhn’schen Wissenschaftstheorie lässt sich die zeitliche Aufeinanderfolge von Paradigmen nicht als Fortschritt deuten. In diesem Denkgebäude käme es vielmehr darauf an, länger in der sog. Normalwissenschaft zu verharren. Denn hier werden signifikante Fakten gesucht und deren Ergebnisse mit den Theorien abgeglichen und die Theorie präzisiert, was vor allem auf Differenzierung hinausläuft. Im Rahmen der Normalwissenschaft gibt es Wissensakkumulation und damit einen echten Fortschritt (vgl. dazu genauer Wuchterl [Wuch98]). 1995 hatten Mitarbeiter von mir und ich in einer sehr aufwändigen Untersuchung analysiert, inwieweit Oszillationen auftreten, wie stark ein Thema kurzzeitig übertrieben wird und ob ein kontinuierlicher Erkenntnis- und Anwendungsfortschritt zu verzeichnen war [Mert95]. Die von uns aufgrund der Auszählungen gezeichneten „Beachtungskurven“ belegen, wie sehr wir in unserem Fach unter Modeerscheinungen zu leiden haben. Wegen der den Oszillationen inhärenten Ineffizienzen erscheint es mir als wichtige Aufgabe der wissenschaftlichen WI, die Modeerscheinungen abzuschwächen.
1744
P. Mertens
Dies bedeutet, dass wir zum einen die Amplituden dämpfen und zum anderen die Frequenz der Schwankungen reduzieren. Vor allem aber müssen wir in dem Zusammenhang auch darauf achten, dass die Früchte früherer Arbeiten im Sinne einer kumulativen Forschung (vgl. Abschnitt 3.2) nicht verderben, sondern allenfalls tief gefroren werden, sodass man sie bei der nächsten Welle wieder aus der Truhe holen kann. Ein Weg hierzu sind gründliche Analysen des Standes der Erkenntnis zu einem bestimmten Zeitpunkt, dies in Studien- und Diplomarbeiten, Dissertationen und anderen Forschungsprojekten oder sog. State-of-the-art-Untersuchungen. Ein wichtiger Ansatz in der wissenschaftlichen WI dürfte aber sein, ein Langfristziel zu fixieren, dem man über alle Modewellen hinweg entgegenstrebt. Dieses Ziel darf durchaus im Sinne Kuhns ein Superparadigma sein oder, in Anlehnung etwa an die Philosophen Ernst Bloch, Friedrich Jonas und Karl Mannheim, eine konkrete Utopie [Schi04]. Mir scheint für die WI als konkrete Utopie die Vollautomation der Betriebe verwendbar, zusammen mit dem Unterziel, den Computer menschenähnlicher zu machen: Möglichst breite Kreise der Bevölkerung müssen IuK-Systeme im teilautomatisch-interaktiven Betrieb leicht bedienen können („menschenzugängliche IV“). Wichtige spezielle Aufgaben der WI sind Zu- und Abgangssysteme und alle Erscheinungsformen der Individualisierung/Situierung, Personalisierung, Rollenmodellierung.
5.4
Mangelnde Präzision der Sprache und Begriffswelt
Mit den Modezyklen hängen unnötige Begriffswechsel zusammen. Als Beispiel sei die Abfolge bei der Einführung des Begriffes MES (Manufacturing Execution Systems) gewählt: Begriff taucht auf - Schwerpunktheft der Zeitschrift Industrie Management enthält Überblicksaufsatz mit zwei verschiedenen Verständnissen [Mus+03] - Veranstaltungen zu MES werden stärker gebucht als solche zu PPS/ Fertigungssteuerung mit gleichem Inhalt - Als „Definitionshinweis“ wird eine Marktstudie empfohlen (Materialsammlung statt Definition) - Es wird ein VDIArbeitskreis mit der Begriffsklärung beauftragt - PPS-Systeme werden (durch den VDMA) diskreditiert, indem man ihre übliche Funktionalität falsch darstellt. Außerordentlich leichtsinnig wird der Prozessbegriff missbraucht. Die meines Wissens jüngste Definition zum Geschäftsprozess, die der sog. Prozess-Guru Michael Hammer in der Fachliteratur publiziert hat [Hamm04], lautet: “A process can be defined as an organized group of related activities that together create value to customers – a coherent structure that defines which tasks are to be performed, in what order, in what location, when, and by whom.” Nimmt man diese Definition wörtlich, so dienen Prozesse nur der Wertschöpfung für Kunden – eine reichlich wirklichkeitsferne Sicht. Bei Knackstedt und Dahlke [Kna+04] lesen wir: „Lebensphasen können jeweils mehrere, auch parallel verlaufende Kundenprozesse, wie z. B. Urlaub, Automobilbesitz …, zugeordnet werden.“ (!)
Gefahren für die Wirtschaftsinformatik - Risikoanalyse eines Faches
1745
Besonders oft sehr schwammig benutzt werden in der WI die „Plastikworte“, von denen einige in Abbildung 4 aufgelistet sind. Man könnte von einer „Fuzzyfizierung“ der Begriffe sprechen. Häufig handelt es sich um Termini, die ursprünglich einen eindeutigen Inhalt hatten, dann aber zunehmend missbraucht wurden – sei es gezielt wegen ihrer attraktiven Anmutung, sei es aus Gedankenlosigkeit. Anwendung Anwendung
Applikation Applikation
Asset Asset
Benchmark Benchmark
Data Data Mining Mining
Enterprise Enterprise Resource Resource Planning Planning System System (ERP-System) (ERP-System)
Business Business Intelligence Intelligence
Engineering Engineering
Informationssystem Informationssystem
Event Event
Geschäftsprozess Geschäftsprozess
Grid Grid
Management Management
Manufacturing Manufacturing Execution Execution System System (MES) (MES)
Performance Performance
Philosophie Philosophie
Prozess Prozess
Szenario Szenario
Optimierung Optimierung Unterstützen Unterstützen
... ...
Abbildung 4: „Plastikworte“
Wenn zwei solcher „Plastikworte“ kombiniert werden, wie z. B. „Performance Management“ oder „Geschäftsprozessoptimierung“, entsteht ein amorphes Gebilde, dessen Eigenschaften sehr schwer zu analysieren und noch schwerer zu prognostizieren sind. Bemerkenswert finde ich den Umgang mit dem für unser Fach so wichtigen Begriff „Optimierung“. Man mache einmal das folgende kleine Experiment: Fragen Sie einen Autor oder Redner, der die Geschäftsprozessoptimierungs-Rhetorik benutzt, wie denn das Optimum definiert sei. Mit höchster Wahrscheinlichkeit wird er in Verlegenheit kommen. Manche flüchten sich dann in Zirkelschlüsse der Art: „Das Optimum ist erreicht, wenn der Geschäftsprozess nicht weiter verbessert werden kann“, andere nennen sehr fragwürdige Sekundär- und Tertiärziele (vgl. Abschnitt 5.1). Abbildung 5 enthält (in verkürzter, aber m. E. nicht sinnentstellender Form) eine Auswahl problematischer Antworten, die ich erhielt, als ich Autoren bat, ihre Passagen über Optimierung zu präzisieren. Ein typisches Beispiel für die Schwierigkeiten, die wir mit der Terminologie haben, sind die laufenden Umbenennungen bei SAP. Charakteristisch ist der folgende Satz aus der Arbeit von Anderson [Ande04, S. XXXII]: „Today more than 80 percent of SAP licence revenue comes from mySAP.com (now renamed my SAP Business Suite to disassociate from the Internet dot-com bubble)”. Einen nicht zu unterschätzenden Beitrag zur mangelnden sprachlichen Präzision leistet auch das übertriebene Einstreuen von Anglizismen. Ungeachtet der ethischen und der Geschmacks-Fragen beinhalten sie drei Probleme: Zum Ersten können sie von Fachfremden als affektierte Ausdrucksweise (sprachliches Imponiergehabe [Kreu03]) interpretiert werden. Zum Zweiten erschweren sie es, zu unterscheiden, wann ein neuer Begriff die Weiterentwicklung des Fachwissens signalisiert und wann er nur allzu vordergründige Bestrebungen
1746
P. Mertens
von Unternehmensberatern, Softwareentwicklern, Veranstaltern von Weiterbildungs-Seminaren oder auch von sog. Gurus aus den Hochschulen reflektiert. Zum Dritten neigen Referenten und Autoren dazu, präzise deutsche Fachbegriffe durch weniger treffsichere Anglizismen zu ersetzen (Abbildung 6); zwar spart sich der Autor dann die Mühe beim Nachdenken, wegen der 1:m-Relation kommt es aber im Zweifel darauf an, dass der Leser nicht Zeit bei der Interpretation einbüßt. Besondere Überlegungen, ob man durch Anglizismen einen falschen Eindruck erweckt, sind am Platze, seit das OLG Köln am 06.08.2004 für Recht befunden hat, dass der Verbraucher irreführende Werbung dann gegen sich gelten lassen muss, wenn er die englische Sprache unzulänglich beherrscht. Steffen Drawert, IDS Scheer AG: Frage:
Wann sind eine Kosten-Service-Relation und eine Supply Chain optimiert?
Antwort:
Eine optimale Kosten-Service-Relation oder SC-Struktur ist … erreicht, wenn die Logistikprozesse leistungsgerecht funktionieren und ein Best-in-Class-Kostenniveau realisierbar erscheint.
Prof. Dr. Andreas Otto, Lehrstuhl Betriebswirtschaftslehre, insbes. Controlling und Logistik der Universität Regensburg: Frage:
Was ist eine optimal gestaltete IS-Architektur?
Antwort:
Unter einer „optimal gestalteten IS-Architektur“ verstehe ich eine Architektur, die exakt auf die Ansprüche der Situation (Unternehmensprozess, Kundenanforderungen, Anordnungen des sonstigen Umfelds) zugeschnitten ist. „Optimal“ ist die Architektur, wenn sie das leistet, was erforderlich ist, aber eben auch nicht mehr als dieses.
UV, Wissenschaftlicher Mitarbeiter: Frage: Wie sind das Optimum und die Restriktion bei der „Optimierung der Ablauforganisation“ definiert? Antwort:
Das Optimum besteht in einer nach der Transaktionskostentheorie bewerteten Abfolge von unternehmensinternen und unternehmensübergreifenden Prozessschritten. Dies bedeutet, dass … die betrachteten Prozesse nicht kostengünstiger und in einer höheren Qualität ablaufen können.
XY, Wissenschaftlicher Mitarbeiter: Frage: Antwort:
Wann ist eine Fertigungstiefe optimal? Die optimale Fertigungstiefe ist der Wertanteil der Vorprodukte und Vorleistungen am Endprodukt, bei denen die Herstellungskosten geringer sind als die Anschaffungskosten.
Abbildung 5: Fragen und Antworten zur „Optimierung“
Nachgerade peinlich wird es, wenn sich deutsche Wirtschaftsinformatiker mit der Übernahme englischer Begriffe zu zieren versuchen, aber wegen mangelnder Beherrschung der englischen Sprache „daneben greifen“. Hierhin gehören die Übersetzung von „Industry Solutions“ mit „Industrie-Lösungen“ statt mit „BranchenLösungen“, von „Corporate University“ als betrieblicher Weiterbildungseinrichtung mit „Unternehmens-Universität“ oder von „Collaboration“ mit „Kollaboration“.
Gefahren für die Wirtschaftsinformatik - Risikoanalyse eines Faches
1747
Nicht geleugnet werden soll, dass (reines) Englisch als einheitliche Welt-Wissenschaftssprache große Vorteile hätte; dies gilt namentlich auch für Codes wie z. B. B2B, B2C, oder B2A. Kapitalgeber Kapitalgeber Kunde Kunde Lieferant Lieferant Dienstleister Dienstleister Konkurrent Konkurrent Nachricht Nachricht Meinungsbekundung Meinungsbekundung Stellungnahme zu zu … … Stellungnahme Kritik Kritik Entgegnung Entgegnung
Player
Statement
Daten Daten Texte Texte Prozessmodelle Prozessmodelle Ablaufregeln Ablaufregeln Informationsquellen Informationsquellen Funktion Funktion Ressource Ressource Struktur Struktur Ruf Ruf Macht Macht Vertrauen Vertrauen Autorität Autorität
Content
Business Process
Standing
Abbildung 6: Beispiele für den Verlust an semantischer Trennschärfe
Abschließend: Die jüngere Geschichte der Soziologie sollte uns eine Warnung sein: Auf dem Höhepunkt ihrer Bedeutung in den Universitäten neigten viele Fachvertreter dazu, allgemeinverständliche Sachverhalte in komplizierten (Fremd-)Worten und Sätzen zu verstecken. Der geradlinig denkende Philosoph Karl Popper hat dies einmal sehr deutlich am Beispiel von Texten von Adorno/Habermas entlarvt [Popp71] (Textbeispiel in der erweiterten Fassung): Nach der „Verschlichtung“ des Textes wurden Selbstverständlichkeiten, Zirkelschlüsse und redundante Aussagen klar sichtbar. Schließlich begannen sich Journalisten über diesen Sprachstil zu mokieren und am Ende büßte die Soziologie sehr an Ruf als seriöse Disziplin ein.
5.5
Vernachlässigung von formalen Methoden
In diesem Kontext ist naturgemäß zunächst an Mathematik und Operations Research (OR) als Mittel zur Schulung des in der WI ganz besonders wichtigen Analysevermögens zu denken. Zum Beispiel ist dem Aufkommen des Lieferkettenmanagements der theoretische und praktische Stellenwert der Mathematik- und OR-Kenntnisse erneut deutlich geworden. Von daher muss die Strategie vieler deutscher wirtschaftswissenschaftlicher Fakultäten, ihre OR-Lehrstühle umzuwidmen, gerade unter dem Blickwinkel der WI infrage gestellt werden, wie umgekehrt die Neueinrichtung von solchen Professuren – etwa in Bern oder Marburg – zu begrüßen ist. Freilich dürfen wir die bisherigen Fehler im OR, die wohl auch ursächlich dafür sind, dass diese Disziplin die Position, die sie in ihren Glanzzeiten hatte, nicht stabilisieren konnte, nicht fortschreiben. Der OR-Pionier Russell L. Ackoff hat es in die Formulierung gekleidet [Acko01]: „OR is preoccupied with efficiency, not effectiveness“ (Rigour statt Relevance!).
1748
P. Mertens
Es ist nicht anzuraten, die Algorithmen, die der Wirtschaftsinformatiker benötigt, allein von Mathematikern und OR-Spezialisten entwickeln zu lassen, denn Verfahren der WI mögen in der Zukunft eher Kombinationen aus mathematischen Methoden einerseits und typischen WI-Betrachtungsgegenständen andererseits sein. Um das mathematische Verfahren effizienter werden zu lassen, führt man ihm ein gewisses Anfangswissen aus der Datenbasis zu. Dieses wird genutzt, um einige theoretisch denkbare Lösungswege von vornherein auszuschließen und so Suchräume zu verkleinern und rasche Antwortzeiten zu erreichen.
5.6
Starke Konkurrenz durch Software-Produzenten
In der Politik und in der populären Presse wird der deutschen Academia in schöner Regelmäßigkeit vorgeworfen, dass der Transfer von der Wissenschaft in die Praxis nicht gut funktioniere. Richten wir also als Wirtschaftsinformatiker einen Blick auf diese fassettenreiche Thematik: 1. Zunächst haben wir aus der Sicht der Universität das Problem, dass wir in etwa eine Zeitstrecke von drei bis vier Jahren benötigen, damit ein junger Wissenschaftler – insbes. im Rahmen seiner Dissertation – einen Forschungsgegenstand einigermaßen abgerundet bearbeiten kann. In vielen Fällen ändern unsere Kooperationspartner in einer solchen Zeitspanne ihre Struktur und ihre Strategie mehrmals. Wenn man davon ausgeht, dass die seit einiger Zeit zu beobachtende Tendenz fast aller Leitungen großer Unternehmen und Konzerne anhält, in kurzen Rhythmen ganze Geschäftsbereiche nicht nur zu restrukturieren, sondern auch zu verkaufen und andere hinzuzukaufen, so stehen die Leiter der IT in den Betrieben fast permanent vor der Herausforderung, ihre besten Leute einsetzen zu müssen, um mit den IT-Architekturen den laufenden Änderungen in der Unternehmensorganisation zu folgen. Von dem Pharma-Hersteller Schering AG erfuhr ich, dass er pro Jahr 10 % seiner Kostenstellen umstrukturiert. Jürgen Dunsch schrieb in der FAZ [Duns04]: „… beginnt heutzutage fast jeder neue Vorstandsvorsitzende eines Großunternehmens seine Tätigkeit damit, die Konzernorganisation durcheinanderzuwirbeln. Kaum ein Stein bleibt auf dem anderen, die Pflöcke, die der Vorgänger eingeschlagen hatte, werden … so schnell wie möglich herausgerissen.“ Ein Ende der Reorganisations-Dynamik ist vorerst nicht zu erkennen. Beispielsweise gab Michael Frenzel, Vorsitzender des Vorstandes des führenden Touristik-Unternehmens TUI und gleichzeitig des Aufsichtsrates der Deutschen Bahn, die Devise aus [OV03]: „Never stop reorganizing.“ Allerdings lassen Studien wie die von Bain & Company, wonach Unternehmen, die in kleinen Schritten expandieren, erfolgreicher wachsen, aufhorchen [Zoo+04]. Hierbei handelt es sich um eine Aufgabe, für die ich keine vernünftige Lösung weiß. 2. Wenn ein reizvolles Zukunftsthema aufkommt, befassen große Softwarehersteller schnell Teams in der Stärke von mehreren Hundert Leuten hiermit. Im Anfangsstadium des Supply Chain Management gab es sowohl bei i2 als
Gefahren für die Wirtschaftsinformatik - Risikoanalyse eines Faches
1749
auch bei SAP schätzungsweise 400 Entwickler dazu, und das waren nicht die schlechtesten Hochschulabsolventinnen und -absolventen. Wie aber soll eine akademische Fachgemeinschaft damit Schritt halten, selbst wenn sie Forschungsverbünde, Schwerpunktprogramme oder Sonderforschungsbereiche organisiert? Es lag nahe, zu fragen, wie andere Disziplinen mit einem vergleichbaren Problem umgehen. Beispielsweise „konkurrieren“ die Lehrstühle für Luft- und Raumfahrt mit sehr großen Mannschaften bei der NASA, beim DLR (Deutsches Zentrum für Luft- und Raumfahrt e.V.) oder bei EADS. Ich habe mich daher mit solchen Lehrstuhlinhabern ausgetauscht und hörte Meinungen wie: „Mit Mainstream-Themen macht man sich tot, man muss sich Nischen suchen“ oder „Man muss deutlich zwischen Forschung und Entwicklung trennen, an der Hochschule Forschung betreiben und der Industrie die Entwicklung überlassen“. Hierzu wurde aber rasch eingeräumt, dass die Hochschulinstitute auch die langfristig orientierte Grundlagenforschung, etwa der NASA, als Konkurrenz haben. Legt man das traditionelle Humboldtsche Bildungsideal zugrunde, so bedeutet eine Nischenstrategie aber auch, dass man nicht jene großen aktuellen Themen lehrt, die man „beforscht“, d. h., man kann auch Lehre und Forschung an der Universität nicht in befriedigender Weise integrieren. 3. Es fällt auf, dass die wissenschaftliche WI an den ganz großen nationalen Entwicklungen von integrierten Anwendungssystemen wenig oder gar nicht beteiligt ist. Öffentlich stark wahrgenommene Beispiele sind die Logistik beim Dosenpfand, die Gesundheitskarte, das Bund-Länder-Programm FISCUS zur Vernetzung der Finanzverwaltungsstellen, die Konzeption und Realisierung der vielen und einschneidenden Pläne der Bundesagentur für Arbeit, die gesetzlichen und die de-facto-Veränderungen am Datenschutz und Toll Collect. Langfristig aber sollten wir danach streben, unser Fachwissen zugunsten der Gesellschaft in solche großen Vorhaben einzubringen. Warum hört man den Kollegen von der Volkswirtschaftslehre oder auch der Politologie bei jeder kleinen Volte im politischen Geschehen unseres Landes zu, uns aber nicht?
5.7
Ungünstige Relation zwischen Gründlichkeit und Geschwindigkeit
Wir beobachten nicht nur in der Querschnittssoftware, etwa bei den Produkten von Microsoft, sondern auch bei der Anwendungssoftware-Entwicklung immer wieder zahlreiche Fehler und Unvollkommenheiten. Beispielsweise war das System APO (Advanced Planner and Optimizer) als besonders wichtige Komponente der SCMInitiative von SAP in der Sprache dieses Softwareproduzenten ein Eskalationsprojekt (dies bedeutet, dass überdurchschnittlich viele Beschwerden zu falschem Code oder zu schlechtem Laufzeitverhalten eintrafen). Derartige Probleme sind – anders als zuweilen von Software-Fachleuten mit einem Schuss Resignation geäußert – nicht fachimmanent. So geben Huckle und Giese an, dass in normaler
1750
P. Mertens
Software 25 Fehler pro KLOC (Kilo Lines of Code) stecken. Wenn es aber darauf ankommt, erreicht man 0,2 bei medizinischer Software und beim Space Shuttle sogar weniger als 0,1 [Huck02; Gies02]. Solche Befunde führen auf den nahe liegenden Schluss, dass die Produktmängel der Preis für die rasche Innovationsgeschwindigkeit bzw. die kurzen Versionszyklen in der Software sind. Ursächlich ist auch die übliche Beurteilung von Standardsoftware: Die „Papierform“ des neuen Produktes wird beurteilt, nicht die TCO. Auch ein gewisser Leichtsinn könnte beteiligt sein, weil fälschlicherweise vermutet wird, Softwarefehler seien durch ein paar ausgetauschte Programmierzeilen spielend behoben. Von einem Roboter-Hersteller erfuhr ich: „In unseren interdisziplinären Entwicklungsgruppen arbeiten die Maschinenbauer am gründlichsten, weil ihre Fehlkonstruktionen weithin sichtbar sind; die Elektroniker können zur Not anders verkabeln oder Widerstände austauschen, die IT-Leute ändern Bits.“ Ich finde, dass die wissenschaftliche WI in der Pflicht ist, zur Lösung dieses sehr schwierigen Dilemmas beizutragen, z. B. durch sorgfältiges Testen und ggf. vergleichendes Beurteilen von neuer Anwendungssoftware. Zum Thema „Gründlichkeit“ ist auch zu rechnen, dass wir wie andere Fächer auch den Mut zu aufwändigen Langfrist-Projekten und Längsschnittsstudien finden (s. u. These 9).
5.8
Ausgewählte organisatorische Schwachstellen
Problematisch ist es, dass es nicht gelang, das aufkommende Fach Informatik an Höheren Schulen hinreichend mit WI-Inhalten zu durchdringen. So läuft man Gefahr, zumindest auf allgemein bildenden Gymnasien (nicht Wirtschaftsgymnasien!) schon von der Aus- und Weiterbildung der Studienräte her ein Fach einzuführen, das man als „Mathematik mit anderen Mitteln“ persiflieren könnte. Nach wie vor gelingt es bedauerlicherweise i. Allg. nicht, bei den für die Ausstattung der Studiengänge Verantwortlichen das Bewusstsein zu wecken, dass wir spezifische Ressourcen, etwa für SAP-Kurse oder Betriebsbesichtigungen, und ein Betreuungsverhältnis (CNW-Wert!) benötigen, welches von dem experimenteller Fächer und der Kerninformatik nicht völlig verschieden ist. In der DFG-Rechnerkommission ist dies immerhin über Generationen durch die Bemühungen mehrerer Kollegen gelungen. Letztlich hat dies auch mit der Attraktivität des Hochschullehrerberufes zu tun. Die Entwicklungen in Indien, wo die PhD-Programme zur Zeit ausbluten, weil die Arbeitsplätze in den Softwarehäusern und bei den ITDienstleistern ungleich attraktiver sind, sollten Warnung genug sein.
Gefahren für die Wirtschaftsinformatik - Risikoanalyse eines Faches
6
1751
Zusammenfassende Anregungen
In der Folge wird einiges, das geboten erscheint, in Thesen zusammengefasst. Diese folgen z. T. aus Erörterungen in diesem Vortrag, zum anderen Teil musste man sie aus Platz- bzw. Zeitgründen ohne Erläuterung in den Raum stellen. 1. Zu achten ist auf Kompatibilität mit den Fortschritten der Informatik, der Rechen- und Netztechnik ebenso wie mit den Zielen und der Theorie der Unternehmung. Hier ist der Akzent von Tertiär- und Sekundärzielen auf Primärziele zu verlagern. 2. Auf präzise und allgemein verständliche Fachsprache unter möglichst weit gehendem Verzicht auf Modebegriffe und Jargon ist Wert zu legen. 3. Es sind Anwendungssysteme zu schaffen, die sich auch für durchschnittlich bis unterdurchschnittlich Qualifizierte eignen. Wege dazu sind Individualisierung/Personalisierung/Rollenbildung/Situierung. 4. Die Komponentisierung in ihren vielen Fassetten ist mit langem Atem weiterzutreiben. 5. Eine Akzentverlagerung von den Prozessen und Administrationssystemen zu Querschnittsfunktionen, Dispositions-, Planungs- und Kontrollsystemen ist angezeigt. 6. Mehr als bisher sind mathematische Methoden, vor allem auch aus dem OR zu übernehmen und an die wirtschaftsinformatische Problemlage zu adaptieren. 7. Die WI darf in ihren Betrachtungsgegenständen, in ihren Methoden und in ihrem Stil nicht unkritisch den Moden folgen. Kumulative Forschung als Wissenschaftstechnik ist die „Methode der Wahl“. Speziell zur Werbung und Öffentlichkeitsarbeit von Softwarehäusern und Unternehmensberatern ist eine kritischere Distanz als bisher zu halten. 8. Im Zweifel möge die deutschsprachige WI nicht Vorschlägen aus den USA folgen, sich auf eine eng umgrenzte Kernkompetenz zu konzentrieren. Vielmehr sollte sie sich auf interdisziplinären Schienen als Triebkopf und nicht als Anhänger aufstellen. Die Themenkomplexe „Lebenszyklus-Management“, „EGovernment“ oder „Integrierte Informationsverarbeitung des Privathaushaltes“ stehen beispielhaft dafür. 9. Die Relevanz ist mindestens gleich hoch zu gewichten wie die Rigorosität. Die US-amerikanischen Begutachtungs-Stile, soweit sie die Rigorosität vor der Relevanz priorisieren, dürfen nicht unbesehen übernommen werden. 10. Forschungsarbeiten mit hohem Aufwand und langer Dauer sind in Angriff zu nehmen. 11. Ein reizvolles Forschungsprojekt, das freilich nicht zu gering dotiert werden dürfte, als Antwort auf Thesen wie denen von Carr [Carr04] wäre eine Art Ex-
1752
P. Mertens
post-Szenario auszuarbeiten. Bei diesem wären, ähnlich wie es die Spät-68er auf dem legendären Kongress in Kassel [Brin80] einmal forderten, zu denken, wie das wirtschaftliche und gesellschaftliche Leben heute aussähe, wenn alle Computer rückstandsfrei in den Weltraum gebeamt worden wären – und mit ihr die WI. 12. Die wissenschaftliche WI sollte sich gegen qualitätsmindernde Hektik, vor allem bei Umstrukturierungen von Konzernen und Betrieben, aussprechen. 13. Die Einflussnahme auf öffentliche Großprojekte mit weiter Sichtbarkeit sollte gesucht werden. 14. Auf die international konkurrenzfähige Ausstattung der WI-Studiengänge ist zu drängen.
Literatur [Acko01] Ackoff, R. L.: OR: after the post mortem. In: System Dynamics Review 17 (2001) 4, S. 341–346, hier S. 345. [Ande04] Anderson, C.: Hasso Plattner: A Profile. In: Kagermann, H. (Hrsg.): Real Time. A Tribute to Hasso Plattner. Wiley: Indianapolis 2004, S. XXIX-XXXIII, hier S. XXXII. [Ben+03] Benbasat, I.; Zmud, R. W.: The Identity Crisis Within the IS Discipline: Defining and Communicating the Discipline’s Core Properties. In: MIS Quarterly 27 (2003) 2, S. 183-194. [Bha+04] Bhagwati, J.; Panagariya, A.; Srinivasan, T. N.: The Muddles over Outsourcing. In: Unveröffentlichtes Manuskript. Angenommen für The Journal of Economic Perspectives, 2004. [Bre+02] Breithaupt, J.-W.; Land, M.; Nyhuis, P.: The workload control concept: theory and practical extentions of Load Oriented Order Release. In: Production Planning & Control 13 (2002) 7, S. 625-638. [Brin80] Brinckmann, H. (Hrsg.): Fortschritt der Computer – Computer für den Fortschritt? Bericht von einem Kongreß über Erfahrungen mit der Informationstechnologie in der Arbeitswelt. Kassel 1980. [Brit04] British Computer Society (Hrsg.): Offshoring – A Challenge or Opportunity for British IT. Working Party on Offshoring. November 2004. [Buc+04] Buchta, D.; Röder, H.; Ziegler, R.; Linß, H.: IT-Offshoring und Implikationen für den Standort Deutschland. A. T. Kearney-IT-Offshoring-Studie, 2004. [Bur+04] Burgmaier, S.; Handschuch, K.; Ramthun , C.; Sprothen, V.: Globalisierung. Mit einem MausKlick. Wann wandert Ihr Arbeitsplatz aus? WIRTSCHAFTSWOCHE 39 (2004), S. 30.
Gefahren für die Wirtschaftsinformatik - Risikoanalyse eines Faches
1753
[Carr04] Carr, N. G.: Does IT Matter? Harvard Business School Press: Boston, Mass. 2004. [Coun04] Council on Competitiveness (Hrsg.): INNOVATEAMERICA. Unveröffentlichter Bericht o.O. 2004. [DeSa03] DeSanctis, G.: The Social Life of Information Systems Research: A Response to Benbasat and Zmud's Call for Returning to the IT Artifact. In: Journal of the Association for Information Systems 4 (2003) 7, S. 360-376. [Duns04] Dunsch, J.: Renaissance der Familienunternehmen. In: Frankfurter Allgemeine Zeitung vom 2004-11-04. [Fle+04] Fleisch, E.; Österle, H.: Auf dem Weg zum Echtzeit-Unternehmen. In: Alt, Rainer; Österle, Hubert (Hrsg.): Real-time Business: Lösungen, Bausteine und Potenziale des Business Networkings. Springer: Berlin u. a. 2004, hier S. 16. [Fow+02] Fowler, J. W.; Hogg, G. L.; Mason, S. J.: Workload Control in the Semiconductor Industry. In: Production Planning and Control 13 (2002) 7, S. 568-578. [Gall03] Galliers, R. D.: Change as Crisis or Growth? Toward a Trans-disciplinary View of Information Systems as a Field of Study. In: Journal of the Association for Information Systems 4 (2003) 7, S. 337-351. [Gies02] Giese, I.: Software Reliability. http://www-aix.gsi.de/~giese/swr/allehtml.html, 2002-02-28, Abruf am 2004-12-29. [Greb03] Grebe, S.: Produktionsplanungssoftware: Was hat sie mit der Automatisierungswelt zu tun? In: IT & PRODUCTION 3 (2003) V+VI, S. 30. [Hamm04] Hammer, M.: The Process Revolution. In: Kagermann, H. (Hrsg.): Real Time. A Tribute to Hasso Plattner. Wiley: Indianapolis 2004, S. 81-91, hier S. 84. [Huck02] Huckle, T.: Kleine BUGs, große GAUs. Softwarefehler und ihre Folgen. http://www5.in.tum.de/~huckle/bugso.pdf, 2002-03-06, Abruf am 2004-12-29. [Kir+02] Kirsten, T.; Trümper, J.: Neue Fenster ins All. In: Physik Journal 1 (2002) 12, S. 22-29, hier S. 22. [Kna+04] Knackstedt, R.; Dahlke, B.: Customer Process Management. In: WiSt – Wirtschaftswissenschaftliches Studium 33 (2004) 1, S. 47-54, hier S. 47-48. [Kreu03] Kreutz, H.: Stammbuchblatt – Zum Überdenken: Wider besseren Wissens. In: Kreutz, H. (Hrsg.): Ultrastabilität?! Arbeitsprogramm des Lehrstuhls für Soziologie und Sozialanthropologie der Universität Erlangen-Nürnberg. Nürnberg 2003, hier S. 13-15. [McKi04] McKinsey Global Institute: Can Germany Win From Offshoring? http://www.mc kinsey.com/knowledge/mgi/rp/offshoring/german_summary.asp. Abruf am 2004-12-29. [Mer+77] Mertens, P.; Schrammel, D.: Betriebliche Dokumentation und Information. 2. Aufl., Anton Hain: Meisenheim am Glan 1977. [Mert95] Mertens, P.: Wirtschaftsinformatik – Von den Moden zum Trend. In: König, W. (Hrsg.): Wirtschaftsinformatik '95, Wettbewerbsfähigkeit, Innovation, Wirtschaftlichkeit. Physica: Heidelberg 1995, S. 25-64.
1754
P. Mertens
[Mert99] Mertens, P.: Operiert die Wirtschaftsinformatik mit den falschen Unternehmenszielen? – 15 Thesen. In: Becker, J.; König, W.; Schütte, R. u. a. (Hrsg.): Wirtschaftsinformatik und Wissenschaftstheorie. Wiesbaden 1999, S. 379-392. [Mert04] Mertens, P.: Informationstechnik in Deutschland – ein Auslaufmodell? In: Informatik Spektrum 27 (2004) 3, S. 255-259. [Mert05] Mertens, P.: Für Sie gelesen: Farrell, D., Can Germany Win from Offshoring? Erscheint in WIRTSCHAFTSINFORMATIK Heft 2, 2005. [Mus+03] Mussbach-Winter, U.; Wiendahl, H.-H.: Was leisten MES-Lösungen heute? Merkmale ihrer Planungs- und Steuerungskonzepte. In: Industrie Management 19 (2003) 2, S. 14-18. [Olss04] Olsson, E.: Leveraging Offshore for Competitive Advantage. In: Unveröffentlichter Vortrag auf der Tagung Software-Management 2004 am 2004-11-05 bis 03. [OV03] O. V.: Manager des Jahres 2000: Michael Frenzel. http://www.manager-magazin. de/koepfe/mdj/0,2828,167355,00.html, 2003-11-20, Abruf am 2004-12-29. [OV04] O. V.: „Wenn ich Ihr Kanzler wäre...“. Interview mit Lester Thurow. Welt am Sonntag vom 2004-02-01. [Popp71] Popper, K. R.: Wider die großen Worte. In: DIE ZEIT Nr. 39 vom 1971-09-24, S. 8. [Riem04] Riempp, G.: Integrierte Wissensmanagement-Systeme. Springer: Berlin 2004. [Robe03] Robey, D.: Identity, Legitimacy and the Dominant Research Paradigm: An Alternative Prescription for the IS Discipline. In: Journal of the Association for Information Systems 4 (2003) 7, S. 352-359, hier insbes. S. 356. [Sam04] Samuelson, Paul A.: Where Ricardo and Mill Rebut and Confirm Arguments of Mainstream Economists Supporting Globalization. In: Journal of Economic Perspectives 18 (2004) 3, S. 135-146. [Sche04] Scheer, A.-W.: Power on the Desktop. In: Kagermann, H. (Hrsg.): Real Time. A Tribute to Hasso Plattner. Wiley: Indianapolis 2004, S. 25-36, hier S. 26. [Schi04] Schiller, H.-E.: Konkrete Utopie. http://www.ernst-bloch.net/owb/fobei/fobei27. htm, Abruf am 2004-12-29. [Soft02] Software Forum e.V. (Hrsg.): Offshore IT für den Mittelstand. http://www.software-offensive-bayern.de/pdf/OffshoreIT.pdf, 2002, Abruf am 2004-12-29. [Stre99] Streng, F.: Das „broken windows“-Paradigma – Kriminologische Anmerkungen zu einem neuen Präventionsansatz. Erlanger Universitätsreden Nr. 57/1999, Erlangen 1999. [Thur04] Thurow, L.: Die Zukunft der Weltwirtschaft. Campus: Frankfurt a. M. 2004. [Wuch98] Wuchterl, K.: Lehrbuch der Philosophie: Probleme, Grundbegriffe, Einsichten. 5. Aufl., UTB: Stuttgart u. a. 1998. [Zoo+04] Zook, C.; Seidensticker, F.-J.: Die Wachstumsformel. Carl Hanser Verlag: München, Wien, 2004.
Autorenverzeichnis Dr. Andreas Abecker FZI - Forschungszentrum Informatik an der Universität Karlsruhe Haid-und-Neu-Str. 10-14 D-76131 Karlsruhe
[email protected] http://www.fzi.de/wim
Lars Algermissen Westfälische Wilhelms-Universität Münster Leonardo-Campus 3 D-48149 Münster
[email protected] http://www.wi.uni-muenster.de/is/de
Prof. Dr. Heimo H. Adelsberger Universität Duisburg-Essen Campus Essen Universitätsstr. 12 D-45144 Essen
[email protected] http://wip.w-inf.uni-essen.de
Katja Andresen Universität Potsdam August Bebel Str. 89 D-14482 Potsdam
[email protected] http://www.uni-potsdam.de/u/wvinf
Stephan Aier Technische Universität Berlin Franklinstraße 28/29 D-10587 Berlin
[email protected] http://www.sysedv.tu-berlin.de Andreas Albers Johann Wolfgang Goethe-Universität Frankfurt a. M. Gräfstr. 78 D-60054 Frankfurt a. M.
[email protected] http://www.m-lehrstuhl.de
Prof. Dr. Jürgen Angele ontoprise GmbH Amalienbadstr. 36 Raumfabrik 29 D-76227 Karlsruhe
[email protected] Mitra Arami Wirtschaftsuniversität Wien Augasse A-1090 Wien
[email protected] http://wi.wu-wien.ac.at Dr. Andreas Auinger Universität Linz Freistädterstraße 315 A-4040 Linz
[email protected] http://www.ce.jku.at
1756 Prof. Dr. Dieter Bartmann Universität Regensburg D-93040 Regensburg
[email protected] Dr. Uwe Bath IT Strategie BRIEF, Architektur und Prozesse Deutsche Post AG, Zentrale D-53250 Bonn Prof. Dr. Bernhard Bauer Universität Augsburg Universitätsstraße 14 D-86159 Augsburg
[email protected] http://www.informatik.uniaugsburg.de/vs/ Prof. Dr. Jörg Becker Westfälische Wilhelms-Universität Münster Leonardo-Campus 3 D-48149 Münster
[email protected] http://www.wi.uni-muenster.de/is/de Daniel Beimborn Johann Wolfgang Goethe-Universität Frankfurt a.M. Mertonstraße 17 D-60054 Frankfurt am Main
[email protected] http://www.beimborn.de Alexander Benlian Ludwig-Maximilians-Universität Ludwigstr. 28 D-80539 München
[email protected] http://www.wi.bwl.uni-muenchen.de/
Autorenverzeichnis Thomas Berger Institut für interdisziplinäre Forschung e.V. Am Alten Schlachthof 4 D-36037 Fulda
[email protected] Martin Bernhardt Johann Wolfgang Goethe-Universität Frankfurt am Main Mertonstraße 17-25 D-60054 Frankfurt a. M.
[email protected] http://www.ecommerce.wiwi.unifrankfurt.de/bernhardt Prof. Dr. Abraham Bernstein Universität Zürich Winterthurerstrasse 190 CH-8057 Zürich
[email protected] http://www.ifi.unizh.ch/ddis Oliver Berthold Humboldt-Universität zu Berlin Rudower Chaussee 25 D-12489 Berlin
[email protected] http://www.dbis.informatik.huberlin.de/~berthold/ Prof. Dr. Martin Bichler Technische Universität München Boltzmannstr. 3 D-85748 Garching
[email protected] http://ibis.in.tum.de
Autorenverzeichnis Markus Bick Universität Duisburg-Essen Campus Essen Universitätsstr. 11 D-45143 Essen
[email protected] http://wip.w-inf.uni-essen.de
1757 Volker Born Universität Leipzig Karl-Heine-Str. 22b D-04229 Leipzig
[email protected] http://www.uni-leipzig.de/~wipaed/
Christian Bizer Freie Universität Berlin Garystr. 21 D-14195 Berlin
[email protected] http://www.bizer.de/
Rasa Brundzaite Vilnius University, Kaunas Faculty of Humanities Muitines g. 8 LT-3000 Kaunas
[email protected] http://www.vukhf.lt
Dr. Wolf-Gideon Bleek Universität Hamburg Vogt-Kölln-Str. 30 D-22527 Hamburg
[email protected] http://swt-www.informatik.unihamburg.de
Christian Buddendick European Research Center for Information Systems (ERCIS) Leonardo Campus 3 D-48149 Münster
[email protected] http://www.wi.uni-muenster.de/aw/
Prof. Dr. Freimut Bodendorf Universität Erlangen-Nürnberg Lange Gasse 20 D-90403 Nürnberg
[email protected]
Prof. Dr. Hans Ulrich Buhl Universität Augsburg Universitätsstr. 16 D-86159 Augsburg
[email protected] http://www.wi-if.de
Karsten Böhm Universität Leipzig Augustusplatz 10 - 11 D-04109 Leipzig
[email protected] http://bis.informatik.uni-leipzig.de Dr. Tilo Böhmann Technische Universität München Boltzmannstr. 3 D-85748 Garching
[email protected] http://www.winfobase.de
Prof. Dr. Alfred Büllesbach DaimlerChrysler AG 096-0824 D-70546 Stuttgart Christoph Bürki UBS AG Postfach CH-8098 Zürich
[email protected] http://www.ubs.com
1758 Lars Burmester Philipps-Universität Marburg Universitätsstrasse 24 D-35032 Marburg
[email protected] http://wi.wiwi.uni-marburg.de Prof. Dr. Peter Chamoni Universität Duisburg-Essen Fak. 3 Wirtschaftsinformatik & OR Lotharstr. 63, LF 221 D-47057 Duisburg
[email protected] Stavros Dalakakis Universität Stuttgart Universitätsstr. 38 D-70569 Stuttgart
[email protected] http://www.informatik.unistuttgart.de/ifi/gr/mitarbeiter/dalakakis/ home.html Patrick Delfmann Westfälische Wilhelms-Universität Münster Leonardo-Campus 3 D-48149 Münster
[email protected] http://www.wi.uni-muenster.de/is/de Dr. Jens Dibbern Universität Mannheim Schloss D-68131 Mannheim
[email protected] http://www.bwl.unimannheim.de/wifo1/ger/
Autorenverzeichnis Astrid Dickinger Wirtschaftsuniversität Wien Augasse 2-6 A-1090 Wien
[email protected] http://www.tourism.wu-wien.ac.at/cgibin/ift.pl?personal/dickinger.htm Michael K. Diederich Fraunhofer Gesellschaft Nobelstr. 12 D-70569 Stuttgart
[email protected] http://www.iao.fraunhofer.de Andreas J. Dietrich Universität Hohenheim Schwerzstraße 35 D-70599 Stuttgart
[email protected] http://www.wi2.uni-hohenheim.de/ Dr. Andreas Dietzsch Schweizerische Mobiliar Bundesgasse 35 CH-3001 Bern
[email protected] http://www.mobi.ch Turgut Dogan Universität Potsdam August-Bebel-Str. 89 D-14482 Potsdam
[email protected] Alexander Dreiling Queensland University of Technology Level 5 / Margaret St AUS-4000 Brisbane
[email protected] http://sky.fit.qut.edu.au/~dreiling
Autorenverzeichnis
1759
Dr. Andreas Eberhart Universität Karlsruhe (TH) Englerstraße 11 D-76131 Karlsruhe
[email protected]
Prof. Dr. Dieter Euler Universität St. Gallen Dufourstr. 40a CH-9000 St. Gallen
[email protected]
Sven Eckert Otto-Friedrich-Universität Bamberg Feldkirchenstraße 21 D-96045 Bamberg
[email protected] http://www.iaws.wiai.uni-bamberg.de
Dr. Carsten Felden Universität Duisburg-Essen Campus Duisburg Lotharstraße 65 D-47057 Duisburg
[email protected] http://www.uniduisburg.de/FB5/BWL/WI
Dr. Rainer Eckstein Humboldt-Universität zu Berlin Rudower Chaussee 25 D-10099 Berlin
[email protected] http://www.dbis.informatik.huberlin.de/~rconrad/
Prof. Dr. Otto K. Ferstl Otto-Friedrich-Universität Bamberg Feldkirchenstraße 21 D-96045 Bamberg
[email protected] http://www.iaws.wiai.uni-bamberg.de
Dr. Ulf-Daniel Ehlers Universität Duisburg-Essen, Campus Essen Universitätsstr. 9 D-45141 Essen
[email protected] http://wip.w-inf.uni-essen.de
Stefan Figge Johann Wolfgang Goethe-Universität Frankfurt a. M. Gräfstr. 78 D-60054 Frankfurt a. M.
[email protected] http://www.m-lehrstuhl.de
Dr. Ralf Elbert Technische Universtät Darmstadt Hochschulstr. 1 D-64289 Darmstadt
[email protected] http://www.fgul.de
Prof. Dr. Elgar Fleisch Universität St. Gallen Institut für Technologiemanagement Dufourstr. 40a CH-9000 St. Gallen
[email protected] www.item.unisg.ch und ETH Zürich Zürichbergstrasse 18 CH-8028 Zürich
[email protected] www.mtec.ethz.ch
Reinhard Eschbach HypoVereinsbank Arabellastraße 12 D-81925 München
[email protected]
1760
Autorenverzeichnis
Daniel Fötsch Friedrich-Schiller-Universität Jena Carl-Zeiß-Str. 3 D-07743 Jena
[email protected] http://dmp-sun.wiwi.uni-jena.de/wi2/
Tom Gellrich Johann Wolfgang Goethe-Universität Rheinstr. 16 D-60325 Frankfurt
[email protected] http://www.efinancelab.de
Wolfgang Frank Institut für digitale Medien und Kommunikation GmbH Leipziger Straße 130 D-36039 Fulda
[email protected]
Alexander Georgius Peters, Schönberger & Partner Schackstr. 2 D-80539 München
[email protected] http://www.pspmuc.de
Jochen Franke Johann Wolfgang-Goethe Universität Frankfurt am Main Mertonstr. 17 D-60054 Frankfurt am Main
[email protected] www.is-frankfurt.de www.efinancelab.com www.jochen-franke.de
Prof. Dr. Reinhard Gillner Fachhochschule Fulda Forstring 92 D-63225 Langen
[email protected]
Prof. Dr. Bärbel Fürstenau Technische Universität Dresden Münchner Platz 3 D-01062 Dresden
[email protected] http://wipaed.wiwi.tudresden.de/index.htm Markus Gelhoet Universität Osnabrück Fachgebiet BWL/Management Support und Wirtschaftsinformatik D-49069 Osnabrück
[email protected] http://www.oec.uos.de/mswi
Dimitrios Gizanis Universität St. Gallen Müller-Friedberg-Strasse 8 CH-9000 St. Gallen
[email protected] http://www.iwi.unisg.ch Matthias Goeken Philipps-Universität Marburg Universitätsstrasse 24 D-35032 Marburg
[email protected] http://wi.wiwi.uni-marburg.de Thomas Goetz Schweizerische Mobiliar Bundesgasse 35 CH-3001 Bern
[email protected] http://www.mobi.ch
Autorenverzeichnis
1761
Moritz Gomm Technische Universtät Darmstadt Hochschulstr. 1 D-64289 Darmstadt
[email protected] http://www.fgul.de
Prof. Oliver Günther, Ph.D. Institut für Wirtschaftsinformatik, HU Berlin Spandauer Str. 1 D-10178 Berlin
[email protected]
Philipp Goos Universität Göttingen Platz der Göttinger Sieben 5 D-37073 Göttingen
[email protected] http://www.wi2.wiso.uni-goettingen.de
Dr. Frank Habermann IMC AG Altenkesseler Str. 17/D3 D-66115 Saarbrücken
[email protected] http://www.im-c.de
Kai-Uwe Götzelt Friedrich-Alexander-Universität Erlangen-Nürnberg Lange Gasse 20 D-90403 Nürnberg
[email protected] http://www.wi2.uni-erlangen.de/
Jun.-Prof. Dr. Andreas Hackethal J.W.Goethe Universität Frankfurt a. Main Mertonstr. 17 D-60325 Frankfurt am Main
[email protected]
Prof. Dr. Manfred Grauer Hoelderlinstr. 3 D-57068 Siegen
[email protected] http://www-winfo.uni-siegen.de Prof. Dr. Heinz Lothar Grob Institut für Wirtschaftsinformatik Leonardo-Campus 3 D-48149 Münster
[email protected] http://www.wi.uni-muenster.de/aw/ Prof. Dr.-Ing. Norbert Gronau Universität Potsdam August Bebel Str. 89 D-14482 Potsdam
[email protected] http://www.uni-potsdam.de/u/wvinf
Martin Hafner Universität St. Gallen Müller-Friedberg-Strasse 8 CH-9000 St. Gallen
[email protected] Dr. Svenja Hagenhoff Universität Göttingen Platz der Göttinger Sieben 5 D-37073 Göttingen
[email protected] http://www.wi2.wiso.uni-goettingen.de Dr. Elmar Hahn Unigraphics Solutions GmbH Robert-Bosch-Str. 11 D-63225 Langen
[email protected] http://www.ugsplm.de
1762
Autorenverzeichnis
Matthias Handy Universität Rostock Richard-Wagner-Str. 31 D-18119 Rostock
[email protected] http://www-md.e-technik.uni-rostock.de
Prof. Dr. Thomas Hess Ludwig-Maximilians-Universität Ludwigstr. 28 D-80539 München
[email protected] http://www.wi.bwl.uni-muenchen.de/
Jörg Härtwig Universität Leipzig Augustusplatz 10 - 11 D-04109 Leipzig
[email protected] http://bis.informatik.uni-leipzig.de
Oliver Hinz Johann Wolfgang Goethe-Universität Frankfurt am Main Mertonstraße 17-25 D-60054 Frankfurt a. M.
[email protected] http://www.ecommerce.wiwi.unifrankfurt.de/hinz
Ralf Heese Humboldt-Universität zu Berlin Rudower Chaussee 25 D-10099 Berlin
[email protected] http://www.dbis.informatik.huberlin.de/%7Erheese/ Oliver Hein Universität Frankfurt Mertonstr. 17 D-60325 Frankfurt
[email protected] http://www.wi-frankfurt.de Prof. Dr. Armin Heinzl Universität Mannheim Schloss S 219 / 220 D-68131 Mannheim
[email protected] http://www.bwl.unimannheim.de/Heinzl/de/ Dr. Jörg Heistermann KarstadtQuelle New Media Theodor-Althoff-Strasse 2 D-45133 Essen
[email protected]
Dr. Hans F. Hoffmann CERN CH-1211 Geneve 23
[email protected] Dr. Erik Hofmann Universität St. Gallen Dufourstrasse 40a CH-9000 St. Gallen
[email protected] http://www.klog.unisg.ch Markus Holzhäuser Johann Wolfgang Goethe-Universität Ohmstr. 57 D-60486 Frankfurt
[email protected] http://www.efinancelab.de Prof. Dr. Uwe Hoppe Universität Osnabrück Katharinenstr. 1 D-49069 Osnabrück
[email protected] http://bow.oec.uniosnabrueck.de/bow/home/home.php
Autorenverzeichnis
1763
Gerald Hübsch TU Dresden Mommsenstr. 13 D-01069 Dresden
[email protected] http://www.rn.inf.tu-dresden.de
Esther Kaufmann Universität Zürich Winterthurerstrasse 190 CH-8057 Zürich
[email protected] http://www.ifi.unizh.ch/ddis
Anna Maria Jankowska European University Viadrina Frankfurt (Oder) Grosse Scharrnstr. 50 D-15230 Frankfurt (Oder)
[email protected] http://www.bi.uni-ffo.de
Prof. Dr.-Ing. Reinhard Keil-Slawik Univerität Paderborn Fürstenallee 11 D-33102 Paderborn
[email protected]
Bozena Jankowska Europa-Universität Viadrina D-15230 Frankfurt (Oder)
[email protected] Thomas Jöckel Institut für interdisziplinäre Forschung e.V. Am Alten Schlachthof 4 D-36037 Fulda
[email protected] Dr. Bernd-Ulrich Kaiser Bayer Business Services Gebäude 2976 D-51368 Leverkusen
[email protected] o. Univ. Prof. Dr. Dimitris Karagiannis Universität Wien Brünnerstr. 72 A-1210 Wien
[email protected] http://www.dke.univie.ac.at
Prof. Dr. Hans-Georg Kemper Universität Stuttgart Lehrstuhl für Wirtschaftsinformatik I Breitscheidstr. 2c D-70174 Stuttgart
[email protected] http://www.wi.uni-stuttgart.de Prof. Dr. Karim Khakzar Fachhochschule Fulda Marquarsstraße 35 D-36039 Fulda
[email protected] Sana Khan BP Oil UK Limited Chertsey Road UK-TW16 7LN Sunbury upon Thames, Middlesex
[email protected] Prof. Dr. Stefan Kirn Universität Hohenheim Schwerzstraße 35 D-70599 Stuttgart
[email protected] http://www.wi2.uni-hohenheim.de/
1764 Christine Kiss Technische Universität München Boltzmannstr. 3 D-85748 München
[email protected] http://ibis.in.tum.de Prof. Dr. Fritz Klauser Universität Leipzig Karl-Heine-Str. 22b D-04229 Leipzig
[email protected] http://www.uni-leipzig.de/~wipaed/
Autorenverzeichnis Dr. Dieter Klumpp Alcatel SEL Stiftung Lorenzstr. 10 D-70435 Stuttgart
[email protected] Jan Kolter Universität Regensburg Universitätsstr. 31 D-93053 Regensburg
[email protected] http://www-ifs.uni-regensburg.de
Dr. Mark Klein Massachusetts Institute of Technology 77 Massachusetts Ave, NE20-336 US-2139 Cambridge, MA
[email protected] http://ccs.mit.edu/klein
Prof. Dr. Wolfgang König Johann Wolfgang Goethe-Universität Frankfurt a.M. Mertonstraße 17 D-60054 Frankfurt am Main
[email protected] http://www.wiwi.unifrankfurt.de/~wkoenig
Prof. Dr. Stefan Klein University College Dublin Belfield IRL-Dublin 4
[email protected] http://mis.ucd.ie
Prof. Dr. Hermann Krallmann Technische Universität Berlin Franklinstr. 28/29 D-10587 Berlin
[email protected]
Prof. Dr. Ralf Klischewski German University in Cairo Al Tagamoa Al Khames ET New Cairo City
[email protected] http://www.guc.edu.eg
Andrea Krause Fraunhofer Institut für Systemtechnik und Innovationsforschung (ISI) Breslauer Straße 48 D-76139 Karlsruhe
[email protected] http://www.isi.fhg.de/ti/
Thomas Klug PA Consulting Group Business Transformation Group Fürstenbergerstraße 3-9 D-60322 Frankfurt am Main
[email protected] http://www.paconsulting.com
Ulrich Krauß Technische Universität München Leopoldstr. 145 D-80804 München
[email protected] http://www.bwl.wiso.tu-muenchen.de
Autorenverzeichnis Prof. Dr. Helmut Krcmar Technische Universität München Boltzmannstr. 3 D-85748 Garching
[email protected] http://www.winfobase.de Dr. Dalia Kriksciuniene Vilnius University, Kaunas Faculty of Humanities Muitines g. 8 LT-3000 Kaunas
[email protected] http://www.vukhf.lt Dr. Jörg Krumbiegel Intershop Communications AG Intershop Tower D-07740 Jena http://www.intershop.de Dr. Harald Kühn BOC Information Systems GmbH Rabensteig 2 A-1010 Wien
[email protected] http://www.boc-eu.com Matthias Kunzelmann Universität Karlsruhe (TH) Englerstr.14 D-76131 Karlsruhe
[email protected] http://www.iw.uni-karlsruhe.de Prof. Dr. Karl Kurbel European University Viadrina Frankfurt (Oder) Grosse Scharrnstr. 50 D-15230 Frankfurt (Oder)
[email protected] http://www.bi.uni-ffo.de
1765 Hermann-Josef Lamberti Deutsche Bank AG Taunusanlage 12 D-60325 Frankfurt
[email protected] Florian Lang FAU Erlangen-Nürnberg Lange Gasse 20 D-90403 Nürnberg
[email protected] http://www.wi2.unierlangen.de/person/fnlang/index-e.html Johanna Langfermann Technische Universität Dresden Münchner Platz 3 D-01062 Dresden
[email protected] http://wipaed.wiwi.tudresden.de/index.htm Josef Lankes Technische Universität München Boltzmannstraße 3 D-85748 Garching
[email protected] http://wwwmatthes.in.tum.de Dr. Christine Legner Universität St. Gallen Müller-Friedberg-Strasse 8 CH-9000 St. Gallen
[email protected] http://www.iwi.unisg.ch Prof. Dr. Franz Lehner Universität Passau Innstr. 39 D-94032 Passau
[email protected]
1766
Autorenverzeichnis
Dr. Jan Marco Leimeister Technische Universität München Boltzmannstr. 3 D-85748 Garching
[email protected] http://www.winfobase.de
Markus Loth Technische Universität München Leopoldstr. 145 D-80804 München
[email protected] http://www.bwl.wiso.tu-muenchen.de
Dr. Uwe Leimstoll Fachhochschule beider Basel (FHBB) Peter-Merian-Straße 86 CH-4002 Basel
[email protected] http://www.ebusiness.fhbb.ch/uleimstoll
Stephan Mantel Otto-Friedrich-Universität Bamberg Feldkirchenstr. 21 D-96045 Bamberg
[email protected] http://www.seda.wiai.uni-bamberg.de/
Dr. Susanne Leist European University Viadrina Frankfurt (Oder) Postfach 1786 D-15207 Frankfurt (Oder)
[email protected] Prof. Dr. Frank Leymann Universität Stuttgart Universitätsstr. 38 D-70569 Stuttgart
[email protected] Silvia Lippmann Johann Wolfgang Goethe Universität Frankfurt Gräfstr. 78 D-60054 Frankfurt
[email protected] http://www.m-lehrstuhl.de Christian Locher Universität Regensburg D-93040 Regensburg
[email protected] http://www.ibi.de
Prof. Dr. Florian Matthes Technische Universität München Boltzmannstraße 3 D-85748 Garching
[email protected] http://wwwmatthes.in.tum.de Jan Mendling WU Wien Augasse 2-6 A-1090 Wien
[email protected] http://wi.wu-wien.ac.at/~mendling Prof. Dr. Dr. h. c. mult. Peter Mertens Universität Erlangen-Nürnberg Lange Gasse 20 D-90403 Nürnberg
[email protected] http://www.wi1.uni-erlangen.de/ Bertolt Meyer Humboldt-Universität zu Berlin Unter den Linden 6 D-10099 Berlin
[email protected] http://amor.cms.huberlin.de/~h04440am/
Autorenverzeichnis Dr. David Meyer Wirtschaftsuniversität Wien Augasse A-1090 Wien
[email protected] http://wi.wuwien.ac.at/Wer_sind_wir/meyer/ Kay-Uwe Michel TU Dresden, Fakultät Wirtschaftswissenschaften Münchner Platz 3 D-01062 Dresden
[email protected] http://wiim.wiwi.tu-dresden.de Agnieszka Miluniec TU Szczecin, Faculty of Informatics ul. Zolnierska 49 PL-71-210 Szczecin
[email protected] http://www.wi.ps.pl Malgorzata Mochol Freie Universität Berlin Takustr. 9 D-14195 Berlin
[email protected] http://page.mi.fu-berlin.de/~mochol/ Matthias Mohr Technische Universität München Boltzmannstr. 3 D-85748 Garching b. München
[email protected] http://www.winfobase.de
1767 Claudia Müller Universität Potsdam August-Bebel-Strasse 89 D-14482 Potsdam
[email protected] http://www.uni-potsdam.de/u/wvinf/ Dr. Jörg P. Müller Siemens AG, CT IC 6 Otto-Hahn-Ring 6 D-81730 München
[email protected] Jürgen Müller Universität Kassel Wilhelmshöher Allee 64-66 D-34109 Kassel
[email protected] http://www.unikassel.de/fb10/oeff_recht/projekte/prove t.ghk Nils Müller Technische Universität München Boltzmannstr. 15 D-85747 Garching
[email protected] http://www.iwb.tum.de Claas Müller-Lankenau Universität Münster Leonardo Campus 3 D-48149 Münster
[email protected] http://www.wi.uni-muenster.de/wi/ Dr.-Ing. Michael Müller-Wünsch TNT Logistics Deutschland GmbH Rotfeder-Ring 5 D-60327 Frankfurt
[email protected]
1768
Autorenverzeichnis
Prof. Dr. Wolfgang Nejdl Universität Hannover Appelstr. 4 D-30167 Hannover
[email protected] http://www.kbs.uni-hannover.de/
Prof. Dr. Hubert Österle Universität St. Gallen Müller-Friedberg-Strasse 8 CH-9000 St. Gallen
[email protected] http://www.iwi.unisg.ch
Prof. Dr. Gustaf Neumann WU Wien Augasse 2-6 A-1090 Wien
[email protected] http://wi.wu-wien.ac.at/~neumann
Sven Overhage Universität Augsburg Universitätsstraße 16 D-86159 Augsburg
[email protected] http://www.sven.overhage.org
Björn Niehaves Westfälische Wilhelms-Universität Münster Leonardo-Campus 3 D-48149 Münster
[email protected] http://www.wi.uni-muenster.de/is/de
Wolfgang Pausch FH Regensburg Universitätsstr. 31 D-93053 Regensburg
[email protected] http://www.fh-regensburg.de
Dr. Joachim Niemeier T-Systems Multimedia Solutions GmbH Riesaer Strasse 5 D-01129 Dresden
[email protected] http://www.mms-dresden.de
Dr. Jan M. Pawlowski Universität Duisburg-Essen Campus Essen Universitätsstr. 10 D-45142 Essen
[email protected] http://wip.w-inf.uni-essen.de
Radoslaw Oldakowski Freie Universität Berlin Garystr. 21 D-14195 Berlin
[email protected] http://www.wiwiss.fuberlin.de/suhl/ueber_uns/team/radoslaw _oldakowski.htm
Prof. Dr. Günther Pernul Universität Regensburg Universitätsstraße 31 D-93053 Regensburg
[email protected] http://www-ifs.uni-regensburg.de
Autorenverzeichnis Donovan Pfaff Johann Wolfgang-Goethe Universität Frankfurt am Main Mertonstr. 17 D-60054 Frankfurt am Main
[email protected] http://www.ecommerce.wiwi.unifrankfurt.de http://www.efinancelab.com http://www.bonpago.de Jens-Thomas Pietralla Siemens AG Information and Communication Mobile, ICM MP S&M Postfach 801707 D-81617 München Alexander Pikovsky Technische Universität München Boltzmannstr. 3 D-85748 Garching
[email protected] http://ibis.in.tum.de Andreas Pinterits WU Wien Augasse 2-6 A-1090 Wien
[email protected] http://wi.wu-wien.ac.at/~pinterits/ Kilian Plank Johann Wolfgang Goethe-Universität Gräfstr. 78 D-60054 Frankfurt am Main
[email protected]
1769 Hans-Martin Pohl Institut für digitale Medien und Kommunikation GmbH Leipziger Straße 130 D-36039 Fulda
[email protected] Marco Prestipino Universität Zürich Winterthurerstrasse 190 CH-8057 Zürich
[email protected] http://www.ifi.unizh.ch/im Torsten Priebe Universität Regensburg Universitätsstr. 31 D-93053 Regensburg
[email protected] http://www-ifs.uni-regensburg.de Klaus Rausch Landesbank Baden-Württemberg Am Hauptbahnhof 2 D-70173 Stuttgart
[email protected] http://www.lbbw.de Michael Reinicke Universität Bayreuth Universitätsstrasse 30 D-95440 Bayreuth
[email protected] http://wi.oec.uni-bayreuth.de Monica Reitz Ludwig-Maximilians-Universität Ludwigstr. 28 D-80539 München
[email protected] http://www.wi.bwl.uni-muenchen.de/
1770 Prof. Dr.-Ing. Bodo Rieger Universität Osnabrück Fachgebiet BWL/Management Support und Wirtschaftsinformatik D-49069 Osnabrück
[email protected] http://www.oec.uos.de/mswi
Autorenverzeichnis Stephan Roser Universität Augsburg Universitätsstraße 14 D-86159 Augsburg
[email protected] http://www.informatik.uniaugsburg.de/vs/
Dr. Susanne Robra-Bissantz Friedrich-Alexander-Universität Erlangen-Nürnberg Lange Gasse 20 D-90403 Nürnberg
[email protected] http://www.wi2.uni-erlangen.de/
Prof. Dr. Wilhelm Rossak Friedrich-Schiller-Universität Jena Ernst-Abbe-Platz 1 – 4 D-07743 Jena
[email protected] http://swt.informatik.uni-jena.de/
Prof. Dr. Dieter Roller Universität Stuttgart Universitätsstr. 38 D-70569 Stuttgart
[email protected] http://www.informatik.unistuttgart.de/ifi/gr/
Heiko Roßnagel Johann Wolfgang Goethe Universität Frankfurt Gräfstr. 78 D-60054 Frankfurt
[email protected] http://www.m-lehrstuhl.de
Daniel Rolli Universität Karlsruhe (TH) Englerstraße 14 D-76131 Karlsruhe
[email protected]
Dr. Andreas Rothe Landesbank Baden-Württemberg Am Hauptbahnhof 2 D-70173 Stuttgart
[email protected] http://www.lbbw.de
Prof. Michael Rosemann Queensland University of Technology Level 5 / Margaret St AUS-4000 Brisbane
[email protected] http://sky.fit.qut.edu.au/~rosemann
Dr. Wasim Sadiq SAP Research (SAP Australia Pty Ltd) Level 12 / 133 Mary Street AUS-4000 Brisbane
[email protected] http://www.sap.com
Autorenverzeichnis
1771
Joachim Salmann Fachhochschule Fulda Marquarsstraße 35 D-36039 Fulda
[email protected]
Simone Schmid Universität Potsdam August Bebel Str. 89 D-14482 Potsdam
[email protected] http://www.uni-potsdam.de/u/wvinf
DI Dr. Christoph Schaffer Fachhochschule Hagenberg Hauptstraße 117 A-4232 Hagenberg
[email protected] http://mc.fh-hagenberg.at
Hans-Peter Schnurr Ontoprise GmbH Amalienbadstr. 36 D-76227 Karlsruhe
[email protected] http://www.ontoprise.de
Markus Schimmer ibi research an der Universität Regensburg Emmeransplatz 5 D-93047 Regensburg
[email protected] http://www.ibi.de
Prof. Dr. Wolfgang Scholl Humboldt-Universität zu Berlin Unter den Linden 6 D-10099 Berlin
[email protected] http://www.psychologie.huberlin.de/orgpsy
Martin Schissler Otto-Friedrich-Universität Bamberg Feldkirchenstraße 21 D-96045 Bamberg
[email protected] http://www.seda.wiai.uni-bamberg.de
Dr.-Ing. Marten Schönherr Technische Universität Berlin Franklinstr. 28/29 D-10587 Berlin
[email protected]
Robert Schmaltz Universität Göttingen Platz der Göttinger Sieben 5 D-37073 Göttingen
[email protected] http://www.wi2.wiso.uni-goettingen.de
Prof. Dr. Eric Schoop TU Dresden, Fakultät Wirtschaftswissenschaften Münchner Platz 3 D-01062 Dresden
[email protected] http://wiim.wiwi.tu-dresden.de
Markus Schmees Universität Oldenburg Escherweg 2 D-26121 Oldenburg
[email protected] http://www-is.informatik.unioldenburg.de
Dr. Susanne Schreiber Technische Universität Dresden Helmholtzstraße 10 D-01062 Dresden
[email protected] http://www.tu-dresden.de/wwbwljp
1772 Prof. Dr. Petra Schubert Fachhochschule beider Basel (FHBB) Peter-Merian-Straße 86 CH-4002 Basel
[email protected] http://www.e-business.fhbb.ch/pschubert Prof. Dr. Gerhard Schwabe Universität Zürich Winterthurerstrasse 190 CH-8057 Zürich
[email protected] http://www.ifi.unizh.ch/im Michael Schwind Universität Frankfurt Mertonstr. 17 D-60325 Frankfurt
[email protected] http://www.wi-frankfurt.de Alexander Schwinn Universität St. Gallen Müller-Friedberg-Strasse 8 CH-9000 St. Gallen
[email protected] Antje Sester Wirtschaftsuniversität Wien Augasse A-1090 Wien
[email protected] http://wi.wuwien.ac.at/Wer_sind_wir/sester/ Dr. Bernd Simon WU Wien Augasse 2-6 A-1090 Wien
[email protected] http://wi.wu-wien.ac.at/~simon/
Autorenverzeichnis Tobias Simon Technische Universität München Boltzmannstr. 3 D-85748 Garching b. München
[email protected] Prof. Dr. Elmar J. Sinz Otto-Friedrich-Universität Bamberg Feldkirchenstr. 21 D-96045 Bamberg
[email protected] http://www.seda.wiai.uni-bamberg.de Prof. Dr. Tom Sommerlatte Arthur D. Little GmbH Gustav-Stresemann-Ring 1 D-65189 Wiesbaden
[email protected] http://www.adlittle.de Arina Soukhoroukova Johann Wolfgang Goethe-Universität Frankfurt am Main Mertonstr. 17 D-60054 Frankfurt
[email protected] http://www.ecommerce.wiwi.unifrankfurt.de Dr. Andreas Speck Friedrich-Schiller-Universität Jena Carl-Zeiß-Str. 3 D-07743 Jena
[email protected] http://dmp-sun.wiwi.uni-jena.de/wi2 Dr. Sarah Spiekermann Humboldt Universität zu Berlin Spandauer Strasse 2 D-10179 Berlin
[email protected]
Autorenverzeichnis Axel Spriestersbach SAP Research Vincenz-Prießnitz-Str. 1 D-76131 Karlsruhe
[email protected] http://www.sap.com/research Dr.-Ing. Thomas Springer TU Dresden Mommsenstr. 13 D-01069 Dresden
[email protected] http://www.rn.inf.tu-dresden.de Dr. Heike Stach Bundesministerium des Innern Bundesallee 216-218 D-10179 Berlin
[email protected] www.bmi.bund.de o. Univ. Prof. DI Dr. Christian Stary Universität Linz Freistädterstraße 315 A-4040 Linz
[email protected] http://www.ce.jku.at Dr. Werner Steck 100world AG Vordere Cramergasse 11 D-90478 Nürnberg
[email protected] http://www.100world.com Dr. Ljiljana Stojanovic FZI - Forschungszentrum Informatik an der Universität Karlsruhe Haid-und-Neu-Str. 10-14 D-76131 Karlsruhe
[email protected] http://www.fzi.de/wim
1773 Nenad Stojanovic University of Karlsruhe, Germany Englerstrasse 11 D-76131 Karlsruhe
[email protected] Dr. Richard Straub IBM Tour Descartes F-92066 Paris La Defense Dr. Martin Strobel Maastricht University Tongersestraat 53 NL-6200 MD Maastricht
[email protected] Prof. Dr. Rudi Studer Universität Karlsruhe Postfach D-76128 Karlsruhe
[email protected] http://www.aifb.unikarlsruhe.de/WBS/rst Christian Suchan Otto-Friedrich-Universität Bamberg Feldkirchenstraße 21 D-96052 Bamberg
[email protected] http://www.iaws.wiai.uni-bamberg.de Dr. Gerrit Tamm Universität St. Gallen Müller-Friedberg-Str. 8 CH-9000 St. Gallen
[email protected]
1774 Dr. Dirk Temme Humboldt Universität zu Berlin Spandauer Strasse 1 D-10178 Berlin
[email protected] Dr. Orestis Terzidis SAP Research, CEC Karlsruhe D-76131 Karlsruhe
[email protected] Jun.-Prof. Dr. Frank Teuteberg Universität Osnabrück Katharinenstr. 1 D-49074 Osnabrück
[email protected] http://www.wi-u.de Dr. Frédéric Thiesse Universität St. Gallen Dufourstr. 40a CH-9000 St. Gallen
[email protected] http://www.item.unisg.ch Peter Thomas Technische Universität Darmstadt Hochschulstraße 1 D-64289 Darmstadt
[email protected] http://www.future-project.info Prof. Dr.-Ing. Robert Tolksdorf Freie Universität Berlin Takustr. 9 D-14195 Berlin
[email protected] http://www.robert-tolksdorf.de/
Autorenverzeichnis Matthias Tomann 100world AG Vordere Cramergasse 11 D-90478 Nürnberg
[email protected] http://www.100world.com Dr. Horst Treiblmaier Wirtschaftsuniversität Wien Augasse 2-6 A-1090 Wien
[email protected] http://wwwi.wu-wien.ac.at/ Matthias Trier Technische Universität Berlin Franklinstrasse 28/29 D-10587 Berlin
[email protected] http://www.sysedv.cs.tu-berlin.de Prof. Dr. Klaus Turowski Universität Augsburg Wirtschaftsinformatik und Systems Engineering Universitätsstraße 16 D-86135 Augsburg
[email protected] Christian Ullrich Otto-Friedrich-Universität Bamberg Feldkirchenstraße 21 D-96045 Bamberg
[email protected] http://www.iaws.wiai.uni-bamberg.de
Autorenverzeichnis Prof. Dr. Wil M. P. van der Aalst Technical University Eindhoven GPO Box 513 NL-5600 MB Eindhoven
[email protected] http://is.tm.tue.nl/staff/wvdaalst/index. html Hong Tuan Kiet Vo Universität Karlsruhe TH Englerstrasse 14 D-76131 Karlsruhe
[email protected] http://www.iw.uni-karlsruhe.de Dr. Stefan Volkert sd&m Carl-Wery-Str.4 D-81739 München
[email protected] http://www.sdm.de Dr. Jan vom Brocke European Research Center for Information Systems (ERCIS) Leonardo Campus 3 D-48149 Münster
[email protected] http://www.wi.unimuenster.de/brocke.htm Dr. Rainer von Ammon Fachhochschule Oberösterreich Roseggerstrasse 12 A-4600 Wels
[email protected] http://www.fh-wels.at
1775 Prof. Dr.-Ing. habil. Joachim Warschat Fraunhofer Gesellschaft Nobelstr. 12 D-70569 Stuttgart
[email protected] http://www.iao.fraunhofer.de Kai Wehmeyer Universität Münster Leonardo Campus 3 D-48149 Münster
[email protected] http://www.wi.uni-muenster.de/wi/ Prof. Dr. Christof Weinhardt Universität Karlsruhe TH Englerstrasse 14 D-76131 Karlsruhe
[email protected] Dr. Tim Weitzel Johann Wolfgang Goethe-Universität Frankfurt a.M. Mertonstraße 17 D-60054 Frankfurt am Main
[email protected] http://www.wiwi.uni-frankfurt.de/ ~tweitzel Dr. Göttrik Wewer Bundesministerium des Inneren Alt-Moabit 101 D D-10559 Berlin Fridolin Wild WU Wien Augasse 2-6 A-1090 Wien
[email protected]
1776
Autorenverzeichnis
Thomas Wilde Ludwig-Maximilians-Universität Ludwigstr. 28 D-80539 München
[email protected] http://www.wi.bwl.uni-muenchen.de/
André Wittenburg Technische Universität München Boltzmannstraße 3 D-85748 Garching
[email protected] http://wwwmatthes.in.tum.de
Univ.-Prof. Dr. Dr. habil. Dr. h.c. Horst Wildemann Technische Universität München Leopoldstr. 145 D-80804 München http://www.bwl.wiso.tu-muenchen.de
Remigiusz Wojciechowski Bayer AG
[email protected]
Dr. Arno Wilfert Arthur D. Little GmbH Martin-Luther-Platz 26 D-40212 Düsseldorf
[email protected] http://www.adlittle.de Prof. Dr. Udo Winand Universität Kassel Nora-Platiel-Strasse 4 D-34127 Kassel
[email protected] http://www.inf.wirtschaft.uni-kassel.de Veronica Winkler Universität Augsburg Universitätsstr. 16 D-86159 Augsburg
[email protected] http://www.wi-if.de Prof. Dr. Robert Winter Universität St. Gallen Müller-Friedberg-Strasse 8 CH-9000 St. Gallen
[email protected]
Petra Wolf Technische Universität München Boltzmannstr. 3 D-85748 Garching b. München
[email protected] http://www.winfobase.de Prof. Dr. Michael F. Zäh Technische Universität München Boltzmannstr. 15 D-85747 Garching
[email protected] http://www.iwb.tum.de Dr. Rüdiger Zarnekow Universität St. Gallen Müller-Friedberg-Str. 8 CH-9000 St. Gallen
[email protected] Dr.-Ing. Thomas Ziegert SAP Research Vincenz-Prießnitz-Str. 1 D-76131 Karlsruhe
[email protected] http://www.sap.com/research