Frank Keuper | Alexander Vocelka | Michael Häfner (Hrsg.) Die moderne Finanzfunktion
Frank Keuper | Alexander Vocelka...
481 downloads
2485 Views
3MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Frank Keuper | Alexander Vocelka | Michael Häfner (Hrsg.) Die moderne Finanzfunktion
Frank Keuper | Alexander Vocelka | Michael Häfner (Hrsg.)
Die moderne Finanzfunktion Strategien, Organisation und Prozesse
Bibliografische Information Der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
Prof. Dr. Frank Keuper ist Inhaber des Lehrstuhls für Betriebswirtschaftslehre, insbesondere Konvergenz- und Medienmanagement an der Steinbeis-Hochschule Berlin. Weiterhin ist er Akademischer Leiter und Geschäftsführer des Sales & Service Research Center, dessen Förderer die T-Punkt Vertriebsgesellschaft mbH ist. Alexander Vocelka ist Mitglied der Geschäftsleitung der Softlab GmbH. Michael Häfner ist Leiter Finance Business Consulting der Softlab GmbH.
1. Auflage 2008 Alle Rechte vorbehalten © Betriebswirtschaftlicher Verlag Dr. Th. Gabler | GWV Fachverlage GmbH, Wiesbaden 2008 Lektorat: Barbara Roscher | Jutta Hinrichsen Der Gabler Verlag ist ein Unternehmen von Springer Science+Business Media. www.gabler.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: Ulrike Weigel, www.CorporateDesignGroup.de Druck und buchbinderische Verarbeitung: Wilhelm & Adam, Heusenstamm Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in Germany ISBN 978-3-8349-0564-2
Geleitwort Die globalen Märkte sind heute im Wesentlichen durch kurze Produkt- und Marktlebenszyklen, eine Vielzahl von unsteten Entwicklungen und eine extreme Wettbewerbsintensität gekennzeichnet. Die sich als Teil der Network Society entwickelnde Network Economy birgt darüber hinaus ein hohes Chancen- und Risikopotenzial. Dies dokumentiert sich unter anderem in der Konvergenz der verschiedenen Märkte. Die Konsequenzen dieser Entwicklungen sind auf der Investitionsseite eine Vielzahl an Mergers & Acquisitions und auf der Desinvestitionsseite eine zunehmende Zahl an Unternehmensinsolvenzen. Von beiden Seiten der Medaille sind im positiven wie im negativen Sinne sowohl Konzerne als auch kleine und mittlere Unternehmen betroffen. In einem solchen Umfeld ist es von fundamentaler Bedeutung, dass die Finanzfunktion die Bedeutung erhält, die ihr notwendigerweise zusteht. Als integrativer Bereich, der die globalen Fliehkräfte, denen Unternehmen heute ausgesetzt sind, ausbalanciert, muss sie entsprechend modern interpretiert, operationalisiert und gelebt werden. So ist das strategische marktorientierte Handeln eines Unternehmens unabdingbar mit dem Erfolgsfaktor „moderne Finanzfunktion“ verbunden: letztlich wird der strategische Spielraum durch den monetären Spielraum des Unternehmens determiniert und umgekehrt. Der globale Wettbewerb, eine hohe Investitionsvolatilität und die steigende Komplexität der Wertschöpfungsketten verlangen von Unternehmen ein Höchstmaß an Agilität und Entwicklungsfähigkeit. Dies sind die Kerneigenschaften von nachhaltig erfolgreichen Unternehmen. Märkte zu erschließen, Märkte zu gestalten, Partnerschaften weltweit einzugehen, und die Organisation vom statischen zum sich laufend anpassenden Organismus zu transformieren, der sich entlang dieser Wertschöpfungsketten entwickeln kann: dies sind die Hauptherausforderungen erfolgreicher Unternehmen. Um das eigene Unternehmen fit für die Zukunft zu machen und diese Zukunft selbst mit zu gestalten, muss die Finanzfunktion modern konzipiert und operationalisiert werden. Dabei gehen moderne Unternehmen zunehmend hin zu einem „Best-In-Class-Finance“-Ansatz und weg von dem Ansatz einer pauschalen „World-ClassFinance“-Leistungsfähigkeit. Die Definition der Leistungsfähigkeit erfolgt damit wesentlich individueller und der Zuschnitt entsprechend den differenzierten Anforderungen des einzelnen Unternehmens. Nur so kann die Nachhaltigkeit eines markt- und unternehmensorientierten Handelns insgesamt gewährleistet werden. Somit determiniert zwar die Unternehmensstrategie die Ausgestaltung der verschiedenen Unternehmensbereiche, aber es ist die leistungsfähige Finanzfunktion, die den strategischen Spielraum des Unternehmens und seiner Bereiche entscheidend prägt. Gerade die moderne Interpretation und Ausgestaltung der Finanzfunktion eines Unternehmens stellt somit einen zentralen Erfolgsfaktor für die erfolgreiche Unternehmensführung und -steuerung auf zunehmend komplexeren Märkten dar. November 2007 PETER BROICHER Vorsitzender der Geschäftsführung der Softlab Group
Vorwort Sowohl in der unternehmerischen Praxis als auch in der Theorie herrscht Einigkeit über die herausragende Bedeutung einer modern zu interpretierenden Finanzfunktion, die die Bereiche Finanzmanagement, Accounting und Controlling umfasst. Kein anderer außer der FinanzBereich i. w. S. hat einen derartigen Einblick in und Überblick über das Unternehmen. Insofern ist der Finanz-Bereich i. w. S. der Nukleus einer proaktiven Unternehmensführung und -steuerung. Die logische Konsequenz daraus ist, dass zwischen Unternehmensstrategie, ITManagement und der Finanzfunktion eine interdependente und extrem spannende Beziehung existiert. So determiniert nicht etwa die Strategie die Ausgestaltung der Finanzfunktion eines Unternehmens; vielmehr müssen die Unternehmensstrategien und die Finanzfunktion eine gleichberechtigte Symbiose eingehen. Nur dadurch erhält das Unternehmen den strategischen Spielraum, den es benötigt, um sich in immer stärker und schneller sich wandelnden Märkten erfolgreich positionieren zu können. Demzufolge ist eine inhaltliche Trennung von Unternehmensstrategie und Finance im Rahmen von Reorganisationen oder Beratungsprojekten mit Effektivitäts- und Effizienzeinbußen versehen. Strategy follows Finance and Finance follows Strategy! Die Symbiose von Strategy und Finance bedingt, dass sich die kommenden Marktveränderungen über die Unternehmensgesamt- und Wettbewerbsstrategien in die Finanzfunktion forttragen und gleichzeitig eine zukunftsgerichtete Finanzfunktion über die Unternehmensstrategien in den Markt hinein wirkt. Damit der Finanz-Bereich i. w. S. auch in Zukunft seine zentrale Funktion für die Unternehmensführung und -steuerung wahrnehmen kann, muss dieser zunächst im Unternehmen oder Konzern optimal organisatorisch verankert sein. Nur so kann die Finanzfunktion ihre „PS“ auf die Straße bringen und die Unternehmensstrategien optimal unterstützen und gestalten. Darüber hinaus muss die Finanzfunktion die Bereiche Finanzmanagement, Accounting und Controlling beinhalten, um eine ganzheitliche effektive und effiziente Unternehmenssteuerung zu ermöglichen. Erfolgt also eine Integration von Finanzmanagement, Accounting und Controlling und wird diese Integration IT-gestützt optimal prozessual umgesetzt, so gewinnt diese neue Allianz innerhalb eines Unternehmens bei optimaler organisatorischer Verankerung ein strategiegerichtetes Empowerment, das nicht nur das Unternehmen, sondern auch die Unternehmensumwelt beeinflussen und gestalten kann. Entsprechend der notwendigen integrierenden Betrachtung einer modernen Finanzfunktion eines Unternehmens spaltet sich der vorliegende Sammelband in vier inhaltliche Bereiche auf.
VIII
Vorwort
Erster Teil
Zweiter Teil
Die moderne Finanzfunktion Die organisatorische Perspektive
Die moderne Finanzfunktion Die strategische Perspektive
Dritter Teil Die moderne Finanzfunktion Die Accountingund TreasuryPerspektive Abbildung 1:
Vierter
Teil
Die moderne Finanzfunktion Die ControllingPerspektive
Struktur des Sammelbands
Der erste Teil des Sammelbands widmet sich der organisatorischen Perspektive einer modernen Finanzfunktion. Einleitend diskutiert TINA GISON-HÖFLING die Zukunft des CFO im Spannungsfeld zwischen Desillusionierung und Integrität und zeigt so das notwendige Anforderungsprofil für einen proaktiven CFO auf. THOMAS KRUG beleuchtet die historische Entwicklung von Shared Accounting Services. Der Beitrag verdeutlicht, dass durch eine optimale Standortplanung sowie eine hinreichende Kundenorientierung im Transitionsprozess Finanzdienstleistungen effektiv und effizient in Shared Accounting Services transformiert werden können. CARSTEN VON GLAHN greift den Beitrag von THOMAS KRUG auf und diskutiert dabei vertiefend insbesondere die Voraussetzungen, die bestehen müssen, um Finance- und Accounting-Dienstleistungen in Shared Services zu transformieren. Darüber hinaus werden verschiedene Organisationsformen für die Ausgestaltung von Shared-Finance-&-AccountingServices-Center vorgestellt. Hingegen betrachten ANDREAS GADATSCH und NIKI KOZISEK moderne Strategien eines erfolgreichen IT-Offshoring für Finanzorganisationen. Dabei legt der Beitrag insbesondere die Chancen, Risiken und Erfolgsfaktoren von Offshoring-Strategien offen. Im Gegensatz zu den zuvor diskutierten aufbauorganisatorischen Entwicklungen im Finance-Bereich widmen sich DIETER PUCHTA, STEFAN RÖDER und FRANK KEUPER ablauforganisatorischen Aspekten im operativen und strategischen Geschäft von Bankvorständen. Auf Basis eines Fallbeispiels werden die Effektivitäts- und Effizienzvorteile eines „automatisierten“ Bankvorstands expliziert und die ITVoraussetzungen dargelegt. Die Bedeutung von IT- und Finanzsystemen für die Ausgestaltung der Finanzfunktion eines Unternehmens und die vor dem Hintergrund des weitergehenden Marktwandels oktroyierten Herausforderungen werden von HANNES EMBERGER eingehend beleuchtet.
Vorwort
IX
Der zweite Teil des Sammelbands beleuchtet die strategischen Perspektive einer modernen Finanzfunktion. Einleitend stellen MICHAEL HÄFNER und ALEXANDRA HIENDLMEIER verschiedene Strategien im Finanzbereich vor. Dezidiert werden der Strategie-Entwicklungsprozess sowie ein Anforderungskatalog an die zu entwickelnde und umzusetzende Strategie hergeleitet. Im Anschluss daran diskutieren MAREK T. WOLEK, STEFAN KNECHT und FRANK BOROWICZ die Herausforderungen von Mergers & Acquisitions in China und Indien. Der Fokus der Ausführungen liegt dabei auf dem Compliance-Management, dem Technologietransfer und den Human Resources. Demgegenüber greifen TIM ECKMANN und RACEL MAALEJ den grenzüberschreitenden Warenverkehr auf, um deutlich zu machen, welche Risiken, Herausforderungen und Chancen im Zertifizierungsprozess liegen, der jedoch unabdingbar für eine nachhaltige Sicherung der internationalen Wettbewerbsfähigkeit ist. Der dritte Teil des Sammelbands analysiert die Accounting- und Treasury-Perspektive einer modernen Finanzfunktion. Die Bewertung, das Reporting und das Management immaterieller Vermögensgegenstände erörtern PETER LEIBFRIED und ANDREAS FASSNACHT. CLAUDIA BITTELMEYER, NICK EHRHART, KLAUS MARK und VOLKER ZIMMERMANN beschäftigen sich ebenfalls intensiv mit der Bewertung immaterieller Vermögensgegenstände. Der Fokus ihrer Ausführungen liegt jedoch im Gegensatz zum Beitrag von PETER LEIBFRIED und ANDREAS FASSNACHT auf der Darstellung des Kreditsicherungspotenzials immaterieller Vermögensgegenstände für den deutschen Mittelstand. Im Gegensatz dazu diskutieren BODO KESSELMEYER und PETER LEIBFRIED die XBRL-basierte Berichterstattung und verdeutlichen dabei eindrucksvoll die Vorteile eines solchen IT-Einsatzes. Auch FRANK KEUPER, CHRISTIAN PAPE und REIMER HINTZPETER beschäftigen sich in ihrem Beitrag mit dem Thema Bewertung von Assets. Allerdings greifen sie sich für ihren Beitrag die Bewertung von Geschäftsmodellen von Wohnungsgesellschaften auf, ein in der Literatur weitgehend stiefmütterlich behandeltes Thema. Mit der IT-gestützten Liquiditätsplanung in Unternehmen setzen sich PETER SCHUBERT und OLAF OLLIGES auseinander. Die Autoren verdeutlichen anhand einer theoretischen und praxisinduzierten Betrachtung die Notwendigkeit einer IT-basierten Liquiditätsplanung am Beispiel von SAP. JOSEF BAUR und AURELIO J. F. VINCENTI beschäftigen sich mit Emissionsverfahren und dem Underpricing von IPO. Auf Basis eines theoretisch fundierten Verfahrensvergleichs von Emissionsmethoden legen sie die Stärken und Schwächen der verschiedenen Verfahren offen. Der letzte Teil des Sammelbands analysiert die Controlling-Perspektive einer modernen Finanzfunktion. Zu Beginn explizieren SVEN MÜLLER und GERRIT BRÖSEL die Herausforderungen für das Controlling in der TIME-Branche. Auf Basis einer Analyse der Herausforderungen, die mit der Konvergenz in der TIME-Branche einhergehen, werden modelltheoretische Anforderungen abgeleitet. DIRK LINOWSKI und SVEN HARTMANN verdeutlichen, dass sich MARKOWITZbasierte Optimierungen auch bei institutionell gemanagten Immobilienfonds durchsetzen sollten, um hinreichend gute Ergebnisse zu erlangen. Der Sammelband endet mit einem Beitrag von RAINER HÖNEMANN, STEPHAN NIGGEMANN und ROLAND SCHRÖDER, der die Möglichkeiten und Grenzen einer integrierten Unternehmensplanung zur Steuerung von Projekten herausarbeitet. Ein besonderer Dank gilt den Autorinnen und Autoren, die trotz des engen Zeitplans mit außerordentlichem Engagement und in hoher Qualität ihre Beiträge für diesen Sammelband erstellt haben.
X
Vorwort
Die Einhaltung der Projektdurchlaufzeit vom Projektstart im Dezember 2006 bis zur Abgabe des reproreifen Skripts an den Gabler-Verlag in 2007 war zudem nur möglich, weil wie immer viele „virtuelle Hände“ im Hintergrund agierten. Vor diesem Hintergrund gilt der Dank der Herausgeber insbesondere Frau INES WÖLBLING, die als Wissenschaftliche Mitarbeiterin am Sales & Service Research Center Hamburg (Förderer ist die T-Punkt Vertriebsgesellschaft mbH) der Steinbeis-Hochschule Berlin unermüdliche Formatierungsarbeit leistete. Besonderen Dank schulden die Herausgeber darüber hinaus auch Frau BARBARA ROSCHER und Frau JUTTA HINRICHSEN vom Gabler-Verlag für die angenehme Kooperation bei der Publikation dieses Sammelbands. Hamburg/München, im November 2007 PROF. DR. FRANK KEUPER, ALEXANDER VOCELKA und MICHAEL HÄFNER
Inhaltsverzeichnis Erster Teil Die moderne Finanzfunktion Die organisatorische Perspektive Der CFO der Zukunft Von der Ohnmacht des Controllings zur Vollmacht durch Integrität TINA GISON-HÖFLING (Prognosis) Historische Entwicklung von Shared Accounting Services bei Siemens THOMAS KRUG (Siemens AG) Shared Services für Finance & Accounting Aktuelle und künftige Erscheinungsformen in globalen Konzernen CARSTEN VON GLAHN (Siemens AG) Moderne Strategien des erfolgreichen IT-Offshoring für Finanzorganisationen Risiken und Erfolgsfaktoren ANDREAS GADATSCH und NIKI KOZISEK (Fachhochschule Bonn-Rhein Sieg und Softlab Group) Der „automatisierte“ Bankvorstand Wahrung der organisatorischen Handlungsfähigkeit des Bankvorstands vor dem Hintergrund steigender Umwelt- und Unternehmenskomplexität DIETER PUCHTA, STEFAN RÖDER und FRANK KEUPER (Investitionsbank Berlin und Steinbeis-Hochschule Berlin)
1
3
17
37
61
83
XII
Systemtechnische Unterstützung der Finanzfunktion Herausforderungen und Perspektiven HANNES EMBERGER (Softlab Group)
Inhaltsverzeichnis
127
Zweiter Teil Die moderne Finanzfunktion Die strategische Perspektive Strategien im Finanzbereich MICHAEL HÄFNER und ALEXANDRA HIENDLMEIER (Softlab Group) Operationelle Herausforderungen von Mergers & Acquisitions in China und Indien MAREK T. WOLEK, STEFAN KNECHT und FRANK BOROWICZ (Unternehmensberater und Berufsakademie Karlsruhe) Authorized Economic Operator Nachhaltige Sicherung der Wettbewerbsfähigkeit im grenzüberschreitenden Warenverkehr? TIM ECKMANN und RACEL MAALEJ (Softlab Group)
143 145
177
195
Inhaltsverzeichnis
XIII
Dritter Teil Die moderne Finanzfunktion Die Accountingund Treasury-Perspektive Intangible Assets Management des Unfassbaren PETER LEIBFRIED und ANDREAS FASSNACHT (Universität St. Gallen) Immaterielle Vermögensgegenstände als Kreditsicherheiten – Ein Potenzial für die Mittelstandsfinanzierung in Deutschland? CLAUDIA BITTELMEYER, NICK ERHART, KLAUS MARK und VOLKER ZIMMERMANN (KfW Bankengruppe) Standardisierung der Berichterstattung durch XBRL BODO KESSELMEYER und PETER LEIBFRIED (ANUBO XBRL und Universität St. Gallen) Modellanforderungen zur Bewertung von Geschäftsmodellen von Wohnungsgesellschaften vor dem Hintergrund des Marktwandels FRANK KEUPER, CHRISTIAN PAPE und REIMER HINTZPETER (Steinbeis-Hochschule Berlin, SAGA GWG und Hintzpeter & Partner Management Consultants) Zeitgemäße Liquiditätsplanung Ein Praxisbeispiel PETER SCHUBERT und OLAF OLLIGES (Softlab Group) Festpreise Bookbuilding Auktionen Emissionsverfahren und das Underpricing von IPO JOSEF BAUR und AURELIO J. F. VINCENTI (FernUniveristät in Hagen)
225 227
249
279
301
321
349
XIV
Inhaltsverzeichnis
Vierter Teil Die moderne Finanzfunktion Die ControllingPerspektive Herausforderungen für das Controlling in der TIME-Branche vor dem Hintergrund wachsender Konvergenz am Beispiel des Risikocontrollings SVEN MÜLLER und GERRIT BRÖSEL (Technische Universität Ilmenau und Hochschule Magdeburg-Stendal) MARKOWITZ meets Real Estate DIRK LINOWSKI und SVEN HARTMANN (Steinbeis-Hochschule Berlin und Massey University) Integrierte Unternehmensplanung zur Steuerung von Projekt und Periode Ein Vorgehensmodell RAINER HÖNEMANN, STEPHAN NIGGEMANN und ROLAND SCHRÖDER (Softlab Group und BMW AG)
383
385
415
427
Autorenverzeichnis
449
Stichwortverzeichnis
457
Erster Teil Die moderne Finanzfunktion Die organisatorische Perspektive
Erster Teil
Zweiter Teil Die moderne Finanzfunktion Die strategische Perspektive
Die moderne Finanzfunktion Die organisatorische Perspektive
Dritter Teil Die moderne Finanzfunktion Die Accountingund TreasuryPerspektive
Vierter Die moderne Finanzfunktion Die ControllingPerspektive
Teil
Der CFO der Zukunft – Von der Ohnmacht des Controllings zur Vollmacht durch Integrität TINA GISON-HÖFLING Prognosis
1
Die Desillusionierung des Controllings – Was lernen wir aus den Wirtschaftsskandalen der letzten Jahre? ............................................................................................................... 5 2 Der CFO von heute – Der Konstrukteur der Kontrolle ...................................................... 6 3 „Integrität“ für den CFO der Zukunft – Natürliche Autorität als Führungsprinzip.......... 10 Quellenverzeichnis.................................................................................................................. 16
Anforderungen an den CFO der Zukunft
1
5
Die Desillusionierung des Controllings – Was lernen wir aus den Wirtschaftsskandalen der letzten Jahre?
Ende Juli 2007 räumte THOMAS FISCHER seinen Stuhl bei der WestLB: Hoch riskante Aktiengeschäfte im Eigenhandel in dreistelliger Millionenhöhe am Vorstand vorbei, nicht tragbare Risiken, die wie fehlgeleitete Geschosse das hoch renommierte Institut trafen und dem profilierten Finanzexperten, berühmt für sein Risikomanagement, schließlich den Job kosteten. Ein weiter Fall nach BaFin und IKB, von Siemens ganz zu schweigen. Bei der immer kürzeren Frequenz erschütternder Wirtschaftsskandale stellt sich die Frage, ob auch das ein Teil der Zukunft in einer globalisierten, und damit oft intransparenten Wirtschaft sein wird. Und haben Sie, werte Leser, nicht genau auf diese Frage gewartet in einem Buch, das sich um Antworten bezüglich der Zukunft einer globalisierten Finanzwirtschaft müht? Fälle wie SANIO, VON PIERER und FISCHER hinterlassen einen Bookmark in Deutschlands Industriegeschichte mit noch offenen Konsequenzen für unser Grundverständnis, aber mit unguten Ahnungen, wofür sie letztendlich stehen: einer traurigen Kapitulation unseres (Aber-)Glaubens an SOA (Sarbanes-Oxley Act of 2002) und den scheinbar heiligen Standards von US-GAPP bis IFRS. „Bringen Sie uns aber einen, bei dem so was wie Siemens auf keinen Fall passieren kann“, hören wir seitdem bei der Besetzung von CFO-Positionen. So verständlich diese bündige Anforderung auch scheint, zurück bleibt mehr als fachliche Ratlosigkeit: Lag es wirklich an den Personen? Wäre Siemens mit einem anderen CFO verhindert worden? Liegt die Lösung wirklich in dieser fast schon anachronistischen Rückbesinnung auf menschliche Qualitäten wie „Integrität“ der Schlüsselakteure? Erinnerungen aus 15 Jahren Führungserfahrung im Konzern kommen einem wieder in den Sinn. Jedes Jahr die gleiche Tortur mit dem Budget, dem Forecast, dem Contingency-Plan. Jedes Jahr die unerquickliche Mühe um die begehrten Mittel, das Handlungsviagra jeder Führungskraft. Was wurde da Kreativität investiert, um die eigenen Investmentwünsche unterzubringen in diesem Dschungel aus Excel-Sheets und normierten Formularen. Am Ende stand oft mehr die Frage nach Compliance und weniger nach Sinnhaftigkeit. „Wer handelt, der handelt“1 schrieb FRITZ SIMON in seinem Buch über radikale Marktwirtschaft2 und deren Irrationalität im Management. Denn „handeln“ mussten Frau und Mann häufig schon wenige Wochen nach Budgetvergabe. Doch auch in einer Wirtschaft, in der nichts stetiger ist als der Wandel, bleibt ein verabschiedetes Budget ein beschlossenes Budget, oft unabhängig von den neuen Notwendigkeiten. Je nach Hierarchie und persönlichem Geschick wird „Handeln“ dann zum türkischen Basar im engen Rahmen eines nicht passenden Korsetts. Das Resultat in den meisten Fällen waren und sind verpasste Chancen, die aber zumindest den Standards von Sarbanes-Oxley entsprachen.
1 2
SIMON (1998), S. 17. Vgl. SIMON (1998).
6
GISON-HÖFLING
So bleibt neben all der Fassungslosigkeit nicht nur die Frage, wie sich in einer solch überregulierten Welt des heutigen Konzerncontrollings einzelne Akteure überhaupt einen solchen Spielraum verschaffen konnten. Weit mehr stellt sich die Frage, was uns Enron, Siemens, Daimler, BaFin und WestLB überhaupt über die Möglichkeiten der Kontrolle komplexer Systeme sagen und welche spezifische Rolle der künftige CFO als Hüter der „Corporate Governance“ dabei spielt. Schließlich reden wir hier keineswegs über Start-ups, deren Controlling gerade einmal das Stadium der Gewinnüberschussrechnung hinter sich gelassen hatte. Viele dieser Unternehmen sind oder waren börsennotiert, oft nicht nur in Deutschland, und damit eingebunden in die enge und machtvolle Kontrolle mehrerer Börsenaufsichten und Überwachungsgremien. Ihre Hauptakteure, die CFO der Vergangenheit, wurden schließlich genau mit dem Anspruch rekrutiert, transparente Strukturen zu schaffen, gesichert durch standardisierte (am besten auch noch IT-gesteuerte) Instrumente, die menschliches Eingreifen, ergo auch Manipulation, nahezu ausschließen. Ähnlich wie der Traum der Halle 54 bei VW, Symbol für automatisierte Produktivität durch Geisterhand, wurden in den letzten zehn Jahren hoch komplexe „entmenschlichte“ Systeme der internen und externen Kontrolle von Geldströmen eingeführt. Angesichts der höchst negativen Korrelation von Aufwand und Erfolg schleichen sich Zweifel ein. Hat nicht gerade diese Illusion von Kontrolle zur degenerierten Macht durch die Systeme selbst geführt? Bedingte nicht dieser „Ersatz von Führung“ das offensichtliche „Fehlen von Führung“? Was aber bedeutet dann „Führung“ in der Finanzwirtschaft von morgen?
2
Der CFO von heute – Der Konstrukteur der Kontrolle
Eine kritische Überprüfung der Rolle des CFO bedarf einer Überprüfung der landläufigen Auffassung, der CFO eines Unternehmens sei ein „normales“ Mitglied der Geschäftsleitung. In dieser Fehlannahme liegt vermutlich sogar einer der wichtigsten Gründe für etliche „Fehlbesetzungen“. Fragt man nach dem neuen Strickmuster für den CFO der Zukunft, ist es nämlich durchaus hilfreich, schon die heutige Rolle des CFO in einem globalen Unternehmenskontext kritisch zu beleuchten. Hierzu ein kleiner Exkurs in die etwas andere Betrachtung des Phänomens „Unternehmen“: Von den Evolutionsbiologen,3 den Kybernetikern4 und Systemtheoretikern5 wissen wir seit Anfang der achtziger Jahre, dass lebende Systeme im Allgemeinen, und das spezifische System „Unternehmen“ im Besonderen keinesfalls „triviale Maschinen“ im Sinne eines definierbaren und prognostizierbaren „Ursache-Wirkungs-Prinzips“ sind. Vielmehr hängt das Funktionieren des sozialen Systems „Unternehmen“ essenziell von der erfolgreichen „Konstruktion“ eines „grundlegenden Selbstverständnisses“ darüber ab, wie die „Welt“ (Wirtschaft, Markt,
3 4 5
Siehe hierzu MATURANA/VARELA (1987). Siehe hierzu VON FOERSTER (1985). Siehe hierzu LUHMANN (1984).
Anforderungen an den CFO der Zukunft
7
Produkt, Kunde) funktioniert und welche spezifische Nische das soziale System „Unternehmen“ darin besetzt. Die Idee, dass Wirklichkeiten von Menschen geschaffene „Konstrukte“ sind und nicht gleichbedeutend mit „Wahrheit“, ist zentrale Annahme des Konstruktivismus.6 In jedem sozialen System werden durch das Denken, Erleben und Handeln der beteiligten Menschen „Wirklichkeiten“ so erschaffen, dass sie sich selbst aufrechterhalten und durch ihre Plausibilität für die Akteure zu realem Handeln werden. Dieses Handeln wiederum, bei dem sich alle Akteure permanent wechselseitig beeinflussen, bestätigt die essenziellen Grundannahmen des Systems immer wieder aufs Neue und erschafft sich dadurch ständig selbst. Das Konzept der „Autopoiese“, entwickelt von den Biologen FRANCISCO VARELA und HUMBERTO MATURANA, hat unser Verständnis über das Funktionieren von lebenden Systemen grundlegend verändert. Demnach werden lebende Systeme als autonom beschrieben und ihr Verhalten durch ihre internen Strukturen bestimmt. Veränderungen der Umwelt können niemals bestimmen, was in einem solchen autonomen System geschieht. Das System verhält sich stets so, wie es einer internen Strukturen gemäß ist. „Die Folgerung daraus ist, dass es zwischen Erkenntnis und Erkanntem auch kein Abbild-Gegenstand-Verständnis gibt. Jedes System bestimmt selbst, was es wie erkennt und welche Wirklichkeit es daraus konstruiert.“7 Dabei ist das Prinzip der Selbstorganisation ein zentrales Element. Oft bezeichnen wir dieses Wirklichkeitskonstrukt, dieses grundlegende Selbstverständnis als „Normalität“ einer Organisation. In jeder Organisation gibt es ein Wirklichkeitsverständnis, das von seinen beteiligten Mitgliedern in keiner Weise in Frage gestellt wird. Es kennzeichnet sich durch die fundamentalen „Denkgewohnheiten“ jedes Einzelnen, das über sein Handeln wechselseitig andere beeinflusst und durch andere Akteure permanent selbst beeinflusst und bestätigt wird. „Ganzheitlich“, „vernetzt“, „komplex“ sind die wesentlichen Attribute. Die Maßregeln, die es dafür braucht, sprich die expliziten und impliziten DOs und DON’Ts, die Denkgewohnheiten, Interpretationen, Glaubenssätze, und schließlich (be-)greifbare Werte, Normen, Einstellungen, Haltung, hinlänglich als „Unternehmenskultur“ bezeichnet, regeln nicht nur das Miteinander, sondern wesentlich elementarer auch die eigentliche Zugehörigkeit der Akteure zum System selbst. Lebende Systeme kennzeichnen sich vor allem durch eine für die Mitglieder identifizierbare Grenze zwischen „Innen“ und „Außen“, zwischen dem, was zum System gehört und dem, was als Umwelt betrachtet wird. Jeder der einen Stellenwechsel, selbst in einem branchengleichen Unternehmen, einmal vollzogen hat, kennt das Phänomen. Trotz gleichem Markt und Produkt ist das „Selbstverständnis“ einer Organisation einzigartig und mit keinem anderen Unternehmen vergleichbar. Wie ein Außerirdischer entdeckt jeder Neustarter die spezifischen Einstellungen, Werte, Normen und Haltungen, die von den Mitgliedern im System als „normal“ erlebt werden und als solche nicht mehr in Frage gestellt werden und auch nicht ständig zur Disposition stehen dürfen. Kein Unternehmen wäre „überlebensfähig“ – im Sinne von handlungsfähig, wenn es seine Grundparadigmen ständig zur Disposition stellte.
6 7
Siehe hierzu WATZLAWICK (1981). SIMON (1998), S. 17.
8
GISON-HÖFLING
Genau dieses „Überleben“ ist aber elementares Ziel eines jeden Systems. Dazu gehört das Rekrutieren der „richtigen“ Mitspieler. Kein Mitarbeiter bleibt aus Zufall länger als 12 Monate in einem Unternehmen und entgegen vieler Meinungen macht kein Mitarbeiter aus Zufall Karriere. „Erfolgreiche“ Karrieren hängen in hohem Maße von der Fähigkeit des einzelnen Akteurs ab, inwieweit er durch die Art seiner Rollenausübung in diesem komplexen, sich selbstreferenziellem Wechselspiel für das System als „nützlich“ erlebt wird. Die Wahl des Passivs ist hierbei bewusst gewählt. Es ist nur bedingt der „Akteur“ selbst, der seine Rolle aktiv gestalten kann. Nicht nur die Personaler wissen, dass dies nur bedingt von den fachlichen Fähigkeiten der Person abhängt. Je stärker die Position die „Normalität“ des Systems bestimmt, z. B. bei Positionen im Top-Management, umso mehr trifft dieses zu. Aus systemischer Sicht können daher auch völlig irrationale Personalentscheidungen für den Erhalt des Selbstverständnisses der Organisation ausgesprochen zielführend sein, gleichgültig wie „inkompetent“ der Kandidat zu sein scheint. Dieses neue Verständnis von sozialen Systemen hat die Beraterszene und das Personalwesen in den letzten zwei Jahrzehnten geprägt. Kaum ein Berater oder Personalentwickler, der nicht mittlerweile mit einem Schnupperkurs „Systemische Beratung“ aufwarten kann. Die systemische Sichtweise bietet für unsere Zwecke eine interessante Grundlage für die Rolle und die künftigen Anforderungen des CFO. Befragt man die angeblich Kundigen, wer denn der wichtigste „Regisseur“ für das Theaterstück „Unternehmen“ ist, sozusagen der „Schlüsselmacher“, dann ist die Antwort prompt und einfach. Natürlich der CEO! Ist seine Rolle nicht leitend für das gesamte Ensemble? Deutschland führt mittlerweile die Hitliste der Vorstandswechsel an. In kaum einem anderen Land kommen und gehen die CEO nach so kurzen Amtszeiten. Würde dies jedes Mal zur existenziellen Bedrohung des Systems „Unternehmen“ werden, wären die Insolvenzgerichte die sicherste Arbeitsstätte der Zukunft. Nun gilt gleiches scheinbar auch für den CFO. Auch ihr Rücktritt bedroht keinesfalls das Überleben eines Systems. Dennoch liegt hier der Fall deutlich anders. Es ist sicher richtig, dass der Rücktritt der „Person“ des CFO kein Unternehmen elementar bedroht. Genau die Austauschbarkeit von Individuen definiert ja ihre Rolle im Kontext eines Systems. Letztendlich ist es aber seine „Funktion“, die über GO oder NO GO eines Unternehmens entscheidet. Keine andere Funktion konstruiert im Innen- wie Außenraum so elementar die Wahrnehmung von Erfolg oder Bedrohung im Sinne von „Überlebensfähigkeit“ oder „Misserfolg“. Es sind keineswegs nur die leidigen Aktionäre, die an den Lippen des CFO hängen, wenn dieser die Bilanzzahlen verkündet. Seine Arbeit entscheidet letztendlich über „+“ oder „-“, mit all den gravierenden Folgen, wenn aus dieser Wahrnehmung dann scheinbare Realität wird. Geht es dem Unternehmen „gut“, (gemäß dessen, was im Wirklichkeitskonstrukt als „Erfolg“ bemessen wird) expandiert das Unternehmen. Es wird eingestellt und weitergebildet. Die Mitarbeiter dürfen mit den teuren Airlines fliegen und Plätzchen zum Kaffee bestellen. Eine Vielzahl von Ritualen von „Erfolg“ materialisiert sich in der Wahrnehmung aller Akteure zum Gefühl der „Überlebensfähigkeit“, auch wenn kein einzelner Akteur die Finanzzahlen persönlich kennt. Geht es dem Unternehmen hingegen „schlecht“, verbreitet eine ganze Bandbreite von Handlungen sofort das Wirklichkeitskonstrukt „Krise“ und materialisiert sich an so scheinbar rationalen Maßnahmen wie Rationierung von Kaffee und Plätzchen bis hin zur kollektiven Einsparung von Flipchart-Papier. Auch gilt, dass das Wirklichkeitskonstrukt
Anforderungen an den CFO der Zukunft
9
„Krise“ sich weit mehr über die kollektive Handlung der Akteure vermittelt, denn über abstrakte Zahlenkolonnen in der Finanzzeitung. Im komplexen Wirklichkeitskonstrukt „Wirtschaft“, mit seinen globalisierten und vernetzten Zusammenhängen zwischen Innen- und Außenwelt, zwischen den Aktionären, Hedgefonds, Private Equity, etc. und dem Unternehmen selbst, prallen letztendlich die unterschiedlichen und teilweise höchst kontroversen „Wirklichkeitskonstrukte“ aufeinander. Sehen Aktionäre das Unternehmen schon längst im „Überlebenskampf“, kann die interne Wahrnehmung eines Unternehmens eine völlig gegensätzliche sein. Letztendlich bleibt die Wahrnehmung über die „Gesundheit“ eines lebenden Systems, allen Accounting-Standards zum Trotz, oft eine höchst irrationale. Was sagt der Börsenkurs uns schon über die Überlebensfähigkeit eines Unternehmens? Daran ändern auch scheinbar neutrale Bilanzen wenig. Dennoch kommt gerade der Bilanz als Ritual für objektivierbaren „Erfolg“ in der Innen- wie Außenwirkung eine gravierende Bedeutung zu und mit ihr auch der Rolle des CFO als maßgeblichen Konstrukteur. Es soll keinesfalls behauptet werden, dass der CFO von heute sich dieser Rolle nicht bewusst sei. Die enorme Bedeutung die mittlerweile dem Verfassen von Geschäftsberichten und der Pflege der Aktionärsbeziehungen gewidmet wird, spricht hier eine deutliche Sprache. Lässt man einmal die Fälle beiseite, wo Bilanzfälschungen aus rein krimineller Energie betrieben wurden, finden sich eine Vielzahl von Fällen, wo der Ursprung für die Manipulation ganz anders gelagert war. Im kollektiven Verständnis der Akteure spiegelte die Bilanz des Unternehmens aus der internen Wahrnehmung schlicht nicht den „wirklichen“ Erfolg des Unternehmens wider. Gerade weil in einer so mechanistisch verstandenen „Ursache-Wirkung“Finanzwelt Perception gleich Reality ist, fühlen sich die Hauptakteure aufgefordert, diese zu kontrollieren und zu steuern. Dabei stehen „Kontrolle“ und „Steuern“ für unser Grundverständnis von „Führung“ im Unternehmen. Aus systemischer Perspektive betrachtet, ist der „konstruktive“ Umgang mit scheinbar neutralen und objektiven „Navigationskarten“ wie Finanzzahlen und damit die Darstellung des „wirklichen“ Unternehmenszustandes elementare Aufgabe des Managements. Dabei besteht nur zu leicht die Gefahr, die Menükarte mit dem eigentlichen Gericht zu verwechseln. Die Graugrenze zwischen „Bilanzkreativität“ und „Bilanzmanipulation“ wird hierbei fließend. Daran ändern selbst ausgefeilte Controlling-Systeme und Standards auch künftig nichts. Im Gegenteil: Durch ihre wachsende „Kompliziertheit“ entstand und entsteht ein derart exklusives Instrumentarium, das sich ja selbst den internen Akteuren nicht mehr erschließt. Aus einer Vielzahl von Unternehmensbefragungen wissen wir, dass nur noch wenige Mitarbeiter die wirkliche Bedeutung der Finanzziele ihres Unternehmens und damit die volle Tragweite von Unternehmenszielen überhaupt verstehen. So sehr sich auch Mitarbeiterkommunikationen am Jahresanfang und -ende mühen: Begriffe wie z. B. „Free Cash Flow“ oder „Value based growth“ bleiben für die Mehrheit der Mitarbeiter leere Akronyme, unabhängig davon, wie sehr das eigene variable Einkommen von ihnen abhängt. Damit entstand innerhalb des Systems „Unternehmen“ ein davon weitgehend entkoppeltes System „Finanzen“, das wie kein anderes die Realität exklusiv mit eigener Sprache und Regelkonstruktion entwirft und durchsetzt.
10
GISON-HÖFLING
Lebende Systeme kennen zwei Grundspielarten von Lösungen: „Mehr vom Gleichen“ oder „Das grundsätzlich Andere“.8 Betrachten wir den „Lösungsvorrat“ der meisten CFO, dann lag deren Fokus im Wesentlichen darin, soziale Systeme scheinbar „berechenbar“ zu machen. Letztendlich lassen sich alle Bemühungen um standardisierte Instrumente, wenn nicht sogar der gesamten Funktion „Controlling“ als Versuch werten, auf der Grundlage eines höchst mechanistischen Input-Output-Verständnisses eine angebliche Vorhersagbarkeit und damit Kontrolle über komplexe Wirkungszusammenhänge „Unternehmen“ zu konstruieren. Im Sinne eines „Mehr vom Gleichen“ erschufen ganze Heerscharen von Finanzexperten komplizierte Instrumente, eingeführt mit der Illusion der scheinbaren Kontrolle. Kennzeichnend ist dabei nicht nur der feste Glaube an diese Illusion, sondern die Verselbstständigung eben dieser Instrumente. Wie in einem FAUST’schen Drama hat jeglicher Accounting-Standard mittlerweile ein solch handlungsprägendes Eigenleben entwickelt, dass sich Geschäftsprozesse und Abläufe den Systemen unterordnen und nicht umgekehrt.
3
„Integrität“ für den CFO der Zukunft – Natürliche Autorität als Führungsprinzip
Wie aber sehen Lösungen für das „Grundlegend Andere“ aus, wenn „Mehr vom Gleichen“ kein adäquates Rezept für die Komplexität der Zukunft darstellt? Lassen Sie uns noch einmal unsere eigenen Denkgewohnheiten über „Führung“ im Allgemeinen betrachten. Nur zu deutlich wird dies in den Metaphern mit denen wir diese zu gerne in Bilder malen: Manager „steuern“ darin häuft das Unternehmen wie ein Schiff. Sie sitzen am „Steuerstand“ und „bestimmen dessen Kurs“. Schließlich laufen beim Management ja auch alle Informationen und alles Wissen zusammen, was letztendlich die Grundlage für ein durch und durch rationales Handeln bildet. Die zentrale Aufgabe besteht schließlich genau darin, “Unberechenbarkeiten“, gar Chaos zu „umschiffen“ und durch ein zweck- und zielgerichtetes Steuern Komplexität zu reduzieren und dadurch zu bewältigen. Dabei ist noch halbwegs nachvollziehbar, wenn diese Idee der Kontrolle sich auf die Beherrschung des Schiffes bezieht. Abenteuerlich wird diese Idee, wenn man sie auf die „Umwelt“ ausdehnt: Ozean, Wind und Wetter entziehen sich vollständig der Kontrolle. Selbst die Beherrschung der eigenen Crew ist erfahrungsgemäß eine oft grandiose Überschätzung der Steuermänner. Die entscheidenden Grundannahmen in diesem Bild sind: ¾ Führungskräfte verfügen über objektives Wissen und damit über „Wahrheit“ über die Wirklichkeit des Unternehmens und seiner Umwelt. ¾ Aus diesem Wissen resultiert rationales, zweckgerichtetes und zielführendes Handeln, dass eine Kontrolle über die permanente Wechselwirkung von Schiff und Umwelt ermöglicht und damit letztendlich eine „sicheres“ Ansteuern des Zielhafens. ¾ Die hierarchische Steuerbarkeit bzw. Kontrolle geschieht ausschließlich „von oben nach unten“. Nur so ist gewährleistet, dass alle „an einem Strang“ ziehen. 8
Vgl. VON FOERSTER (1998), S. 32 ff.
Anforderungen an den CFO der Zukunft
11
¾ Kommuniziert werden hierzu ausschließlich die Informationen, die der rationalen Steuerung des Unternehmens dienen.9 Der Charme an diesem mechanistischen Verständnis von Führung liegt in seinem impliziten Versprechen von „Sicherheit“. Adressiert dies nicht eines unserer elementaren Grundbedürfnisse gerade in Zeiten von Turbulenzen und oft nicht mehr steuerbarer Komplexität? Unternehmung und damit auch Unternehmen brauchen Verlässlichkeit und Vertrauen. Wenn uns aber zunehmend der (Aber-)Glaube an das scheinbar Objektive verloren geht, entsteht überhaupt erst der Raum für die Rückbesinnung auf die „weichen“, sprich die kulturbestimmenden Faktoren, die das Handeln der Akteure leitet. Letztendlich sind es immer die ethischen Wertmaßstäbe der jeweiligen Akteure, die „richtig“ und „falsch“, „gut“ und „böse“ unterscheiden. Dies ist ein wesentlicher Grund für die aktuelle Rückbesinnung auf „Integrität“ als Gesamtkompetenz von „ethischer Verantwortlichkeit“, „Transparenz“, „Glaubwürdigkeit“ und „Fairness“. Keine anderen Attribute beschreiben so prägnant unseren Wunsch nach „anständiger“ Führung. Dabei ist durchaus die doppelte Bedeutung des Wortes „anständig“ gemeint: Führung mit ethischen Maßstäben und hoher Kompetenz und Professionalität. Wir wissen aus einer Vielzahl von Studien, dass „faire“ Unternehmen weit profitabler sind, weil sie durch die Transparenz ihrer Regeln, durch die Fähigkeit jeden Mitarbeiter individuell anzusprechen und seine Autonomie zu fördern und zu respektieren, eine deutlich höhere Innovations- und Wirtschaftskraft entfalten. Diese Anforderung gilt grundsätzlich für jede Führungskraft. Denn wo das mechanistische Verständnis von Kontrolle nicht mehr trägt, wird die natürliche Autorität die Grundlage für Vertrauen und Verlässlichkeit. Für den CFO gilt dies aber in besonderem Maße. Wie keine andere Funktion im System „Unternehmen“ ist der CFO Zeichner der Navigationskarten, Kursbestimmer und Regisseur der Wirklichkeitskonstruktion. Nicht nur für die „Bank Ihres Vertrauens“ gilt für den Chef-Finanzler ein hoher Anspruch im Umgang mit der „materialisierten“ Form des Unternehmensvermögens. CHRISTOF SCHMITZ zeichnet hierzu ein treffendes Bild:10 War die Vergangenheit, Stabil Berechenbar Kontinuierlich Strukturiert Regional Geplant Linear
so ist die Zukunft Instabil Turbulent Diskontinuierlich Prozesshaft Global Visionär Vernetzt
Man könnte ganze Bibliotheken füllen mit den Schlüsselkompetenzen, die das sorgsame und kompetente Öffnen der Tür sicherstellen. Dies ist aber keinesfalls der Anspruch dieser Publikation. Vielmehr sollen die konkreten Anforderungen beschrieben werden, die künftig vom CFO bewältigt werden müssen und die dafür notwendigen Kompetenzen. Sie dienen uns als wesentliche Auswahlkriterien und Leitfragen für die Auswahl zukunftsfähiger Topkräfte. 9 10
Vgl. FISCHER (1993), S. 15 ff. Vgl. SCHMITZ (1993), S. 44.
12
GISON-HÖFLING
„Instabilität“ bedeutet vor allem eines: die Zunahme von Konflikten. Die Anzahl der Konfliktherde und -partner hat sich für den CFO in den letzten Jahren vervielfacht und wird weiter steigen. Ihre unterschiedlichsten Erwartungen, das Aufeinandertreffen der unterschiedlichen „Wirklichkeitskonstrukte“ bedingen per se einen beträchtlichen Konfliktstoff. Die wesentlichen Anforderungen an den CFO lauten hier:11 ¾
Konflikte frühzeitig zu erkennen, anzusprechen und zu deeskalieren. Ihre Bewältigung zu initiieren, durchzuführen und letztendlich nachhaltig zu lösen ¾ Konflikten nicht ausweichen, sie aber auch nicht herbei zu reden ¾ Angstfrei und ohne Unsicherheiten Konflikte anzugehen ¾ Konfliktbewältigung und nicht Konfliktvermeidung als Führungsaufgabe zu verstehen ¾ Konfliktpartner überall in der Organisation offen anzusprechen ¾ Weder Aggression noch Fluchttendenzen zu spüren, sondern frühzeitig und aktiv mit Konflikten umzugehen ¾ Die Erfolgsbedingungen einer konstruktiven Konfliktbewältigung zu kennen ¾ Die unterschiedlichen Konfliktarten zu erkennen und unterschiedlich zu handhaben. Zuverlässig zwischen Beziehungs- und Sachebene, zwischen strukturellen und kommunikativen Konflikten unterscheiden zu können ¾ Kompetent mit unterschiedlichen Methoden der Konfliktanalyse umzugehen. Dabei die Risiken und Chancen des Konflikts so lange zu untersuchen bis eine konstruktive und zustimmungsfähige Lösung gefunden ist ¾ Nach der besseren Lösung streben, statt dem persönlichen Rechthaben. Die Win-WinSituation ins Zentrum der Bemühungen stellen, statt den persönlichen Sieg zu verfolgen ¾ Weder gefühlskalt noch explosiv mit den eigenen Gefühlen im Konflikt umzugehen ¾ Auch neutrale Dritte heranziehen können, ohne dies als Gesichtsverlust zu sehen
„Turbulenz“ verlangt direktes und gezieltes Handeln. Wer aber handelt, der (ver-)handelt! Für den CFO der Zukunft fordert dies die Fähigkeit ¾
unterschiedliche Interessen und Ziele zu verhandeln, Interessensunterschiede abzuwägen und eine Win-Win-Situation zu schaffen ¾ Verhandlungen gut vorzubereiten ¾ Ohne Druck und Pochen auf die formale Autorität den Verhandlungspartner an den Tisch bekommen und ins Gespräch zu bringen ¾ Gleichzeitig flexibel und zielbewusst mit der eigenen Verhandlungsstrategie umzugehen ¾ Konstruktiver Umgang mit Störungen, die den Gesprächspartner positiv einstimmt
11
Vgl. COPRAY (2004), S. 4 ff.
Anforderungen an den CFO der Zukunft
13
¾ Persönliche Angriffe sachlich abfedern und diese nicht mit Verletzungen zu parieren ¾ Die Ergebnisse verbindlich festzuhalten und auf deren Umsetzung zu achten „Diskontinuität“ stellt hohe Anforderungen an den Umgang mit den emotionalen Gefühlslagen des Umfelds. Die Hoffnung auf verlässliche Aussagen will sorgsam gehandhabt werden. ¾
Durch emotionales Management eigene und fremde Gefühle (an-)erkennen, den Ausdruck der Gefühle zu gestalten und mit Stimmungen angemessen und respektvoll umzugehen ¾ Die eigenen Gefühle gut wahrnehmen und differenzieren zu können ¾ Sich für andere zugänglich zu machen und kontaktfähig zu sein ¾ Die Gefühlslagen bei anderen Menschen sehr gut einschätzen zu können ¾ Stimmungen und Klima der Organisation sehr schnell zu erkennen ¾ Sich gegen Gruppenstimmungen klar abgrenzen zu können ¾ Die Äußerung der eigenen Gefühle zu bestimmen anstatt sich hinreißen zu lassen ¾ Angriffe und Verletzungen nicht zu verdrängen, sondern eine konstruktive Form zu finden, diese auszudrücken ¾ Sich gut um sich selbst zu kümmern ¾ Mitleid für andere zu empfinden
Das berufsbedingte Instrumentarium der klassischen Finanzexperten bringt es oft mit sich, dass sie nach wie vor in Zahlen statt zu Menschen sprechen. Dabei ist die Vermittlung ihrer „Kursbestimmung“ von elementarer Bedeutung. Dabei besteht die Anforderung darin, ¾
sich in unterschiedlichen Kommunikationskontexten verständlich zu machen, sich in Beziehung zu den unterschiedlichen Kommunikationspartnern innerhalb und außerhalb der Organisation zu setzen und Widersprüche aufzulösen ¾ Sich verständlich zu machen und Missverständnisse zu vermeiden ¾ Gut zuhören und die unterschiedlichen Botschaftsebenen erkennen können ¾ Auf die Redebeiträge anderer einzugehen und dabei Angriffe gut zu parieren, ohne verletzend oder abwertend zu werden ¾ Kommunikationsdynamik verstehen und gestalten ¾ Sich nicht überreden, sondern nur überzeugen zu lassen
¾
Probleme zu bewältigen, effiziente Lösungen herbeizuführen und umzusetzen ¾ Probleme bereitwillig anzugehen und verschiedene Problemlösungsstrategien zu kennen ¾ Die Rahmenbedingen für eine konstruktive Problemlösung zu erkennen ¾ Eingehend Kontext und Entstehung von Problemen zu analysieren und sie zu berücksichtigen
14
GISON-HÖFLING ¾ Mögliche Störungen, Widerstände und Einwände von vorneherein mit einzubeziehen ¾ Risiken und Rückfälle nicht zu scheuen, sondern die eigene Strategie flexibel anzupassen, ohne dabei das Lösungsziel aus den Augen zu verlieren ¾ Sich der Akzeptanz von Problemlösungen zu vergewissern und deren Umsetzung zu gewährleisten
¾
Entscheidungsprozesse zu strukturieren, transparent und partizipativ zu gestalten und zu einem wirksamen Abschluss zu bringen ¾ Entscheidungen zügig zu treffen ¾ Den fachlichen Rat von Experten einzuholen ¾ Sich mit Betroffenen abzustimmen und sie an der Entscheidungsfindung zu beteiligen ¾ Entscheidungen und Begründungen transparent zu machen ¾ Verlässlich zu sein und zu den eigenen Zusagen zu stehen ¾ Entscheidungen unmissverständlich zu kommunizieren ¾ Verantwortung auch für die negativen Folgen von Entscheidungen zu übernehmen und für ausreichend Ressourcen der Betroffenen zu sorgen, mit der Entscheidung zu Recht zukommen. Negative Entscheidungen auch nicht auf andere abzuwälzen ¾ Sich nicht vor schwierigen und unangenehmen Entscheidungen zu drücken ¾ Entscheidungspielräume wahrzunehmen und zu nutzen
„Prozesshaft“ adressiert die Anforderungen das eigene Umfeld sorgsam und effizient zu gestalten. Gefordert ist damit die hohe Kunst ¾
Teamarbeit und Kooperation zu initiieren, zu verbessern und effizient zu realisieren ¾ Klare und eindeutige Absprachen zu treffen ¾ Sorgfältig mit der Zeit und den Ressourcen der anderen umzugehen und diese durch gut strukturierte Vorbereitung zu sichern ¾ Aufbau, Entwicklung und Leitung von Teams zu beherrschen und dafür gute Rahmenbedingungen zu schaffen ¾ Die Besonderheiten des Einzelnen anzuerkennen und sinnvoll in ein Team zu integrieren
¾
Organisationen, Abläufe und Prozesse zielführend zu gestalten ¾ Diese gut erfassen zu können und so zu gestalten, dass sie ihrem Ziel wirklich dient ¾ Den Austausch der notwendigen Akteure durch die Prozesse so zu gestalten, dass Informationen fließen und ihre Beteiligung gesichert ist ¾ Permanent nach Optimierung zu streben ¾ Anzuerkennen, dass man selbst ein Lernender in der Organisation ist und die eigene Organisationskompetenz sich permanent weiterentwickeln muss
Anforderungen an den CFO der Zukunft
¾
15
Sich selbst und andere zur Erreichung klug gesteckter Ziele hinzuführen ¾ Den eigenen Führungsstil und den Führungsbedarf des eigenen Umfeldes zu kennen. Den eigenen Stil personenorientiert und aufgabengerecht anzupassen ¾ Verlässlich für Mitarbeiter und Kollegen zu sein ¾ Die eigene Begeisterung und Motivation mit einzubringen und zu teilen. Gerne zu führen und dies anderen auch zu zeigen ¾ Sich und anderen Ziele zu setzen, die man auch erreichen kann und andererseits Ziele auch zu erreichen, die man sich gesetzt hat ¾ Selbst überzeugt zu sein von den Zielen und Werten, die man vertritt ¾ Führungsfallen, wie z. B. Re-Delegation rechtzeitig zu erkennen und zu meistern ¾ Das klassische Führungsinstrumentarium wie Mitarbeitergespräche zu beherrschen und konsequent anzuwenden ¾ Interne Netzwerke und Kontakte zu anderen im Unternehmen aufzubauen und zu pflegen ¾ Die berufliche Entwicklung anderer zu fördern ¾ Sorgsam mit den eigenen Ressourcen umzugehen. Eine gute Balance zwischen Berufsund Privatleben zu finden
¾
Die einzelnen Elemente zu einer Gesamtkompetenz zusammen zu fügen und durch ethische Verantwortlichkeit, Authentizität und Glaubwürdigkeit zu überzeugen. ¾ Andere nur davon zu überzeugen, wovon man selbst überzeugt ist ¾ Nicht jedes strategische Mittel dem Zweck unterzuordnen ¾ Um der eigenen Treue willen auch bereit zu sein, in Gegensatz zur Organisation zu geraten ¾ Nicht die Flucht in die „innere Kündigung“ zu suchen ¾ Das äußere Verhalten mit der inneren Haltung in Übereinstimmung zu bringen ¾ Durch Diskretion und Zuverlässigkeit ein vertrauensvoller Partner zu werden ¾ Selbstkritisch sich selbst gegenüber zu sein und barmherzig zu den eigenen Fehlern. Sich zu entschuldigen bei Fehlverhalten und daran arbeiten, dieses Verhalten abzustellen.
Die obige Auflistung mag enttäuschen. Haben sich nicht Heerscharen von Trainern um die Vermittlung dieser Schlüsselkompetenzen jahrelang bemüht? Werden nicht Unsummen an Weiterbildungsmitteln in Trainings und Coaching genau für diese Qualifikationen investiert? Soll wirklich in einem „noch-mehr-vom-Gleichen“ die heilsbringende Lösung liegen? Auch hier liegt die Versuchung in der Fokussierung auf das „mechanisch Einzelne“, statt dem vernetzten Ganzen. Keine der oben aufgeführten Anforderungen, ausgedrückt durch beobachtbares Handeln, ist an sich neu – so wie auch das Konzept der Integrität ja kein neues ist Alle oben aufgelisteten Kompetenzen sind heute Standardangebot in jedem halbwegs vernünftigen
16
GISON-HÖFLING
Weiterbildungskatalog. Sie werden jedoch meist einzeln trainiert, so wie einzelne Instrumente, deren Perfektion man verbessern möchte. Beim „kompetenten“ Führen geht es jedoch nicht um die Summe der einzelnen Instrumente. Der einzelne Musiker ist nicht per se ein guter Dirigent für ein anspruchsvolles Orchester, gleichgültig, wie viele Instrumente er mit welcher Perfektion beherrscht. Der eigentliche Anspruch besteht so mehr in der „Integration“ dieser einzelnen Kompetenzfelder, die sich nur durch ihr Zusammenwirken in der Persönlichkeit des einzelnen verankern und auch nur so durch beobachtbares „Handeln“ die Realität seines Umfelds prägen werden. Dies ist auch das für das Umfeld wahrnehmbare Kriterium, ob Handeln „authentisch“, also verankert durch eine ethische Verantwortlichkeit, wahrgenommen wird und damit auch die wesentliche Grundbedingung dafür, dass das Handeln einzelner Kulturelemente einer Organisation wird. Insofern ist die Frage der Personalberater für den CFO der Zukunft nicht nach den notwendigen Weiterbildungsmitteln, um einzelne vorhandene Kenntnisse noch besser zu perfektionieren, sondern die Vernetzung, die Integration der einzelnen Kompetenzen zu erforschen und damit die Fähigkeit der Person, durch ihr alltägliches Handeln kulturprägend in ihre Arbeit als Konstrukteur von Wirklichkeiten einzubringen.
Quellenverzeichnis COPRAY, N. (2004): Der Fairness-Kompetenz-Test für Führungskräfte, in: Chefposition, 2004, Nr. 6, S. S. 4–7. FISCHER, H. R. (1993): Management by bye?, in: SCHMITZ, C. (Hrsg.), Managerie – Systemisches Denken und Handeln im Management, 1. Jahrbuch, Heidelberg 1993, S. 15–40. VON FOERSTER,
H. (1985): Sicht und Einsicht – Versuche zu einer operativen Erkenntnistheorie, Braunschweig 1985.
FOERSTER, H. (1998): Aufbau und Abbau, in: SIMON, F. B. (Hrsg.), Lebende Systeme – Wirklichkeitskonstruktionen in der systemischen Therapie, Frankfurt 1998, S. 32–68.
VON
FRITZ, S. (1998): Radikale Marktwirtschaft – Grundlagen des systemischen Managements, Heidelberg 1998. LUHMANN, N. (1984): Soziale Systeme – Grundriß einer allgemeinen Theorie, Frankfurt 1984. MATURANA, H./VARELA, F. (1987): Der Baum der Erkenntnis – Die biologischen Wurzeln des menschlichen Erkennens, Bern 1987. SCHMITZ, C. (1993): Erfolg durch Vielfalt, in: SCHMITZ, C. (Hrsg.), Managerie – Systemisches Denken und Handeln im Management, 1. Jahrbuch, Heidelberg 1993, S. 41–69. SIMON, F. B. (1998): Wirklichkeitskonstruktionen in der systemischen Therapie, in: SIMON, F. B. (1998), Lebende Systeme – Wirklichkeitskonstruktionen in der systemischen Therapie, Frankfurt 1998, S. 7–18. WATZLAWICK, P. (1981): Die erfundene Wirklichkeit – Wie wissen wir, was wir zu wissen glauben?, München 1981.
Historische Entwicklung von Shared Accounting Services bei Siemens THOMAS KRUG Siemens AG
1
Überblick über die Entstehung von Shared Accounting Services bei Siemens ............... 19 1.1 Siemens – Ein globales Unternehmen.................................................................... 19 1.2 Aufbau und Entwicklung von Shared-Accounting-Service-Centern bei Siemens ............................................................................................................ 19 2 SAS – Eine Möglichkeit zur Erhöhung der globalen Wettbewerbsfähigkeit ................... 22 2.1 Initiativen zur Steigerung der globalen Wettbewerbsfähigkeit .............................. 22 2.2 Leistungsspektrum von SAS .................................................................................. 22 2.3 Ziele von SAS ........................................................................................................ 24 3 Praxisbeispiel für den Aufbau eines SASC...................................................................... 25 3.1 Standortauswahl ..................................................................................................... 26 3.2 Strategischer Ansatz: „Green field“ versus „Brown field“ .................................... 27 3.3 Operative Umsetzung ............................................................................................. 28 3.4 Exkurs: Insourcing oder Outsourcing? ................................................................... 29 4 Fokuspunkte hinsichtlich der Kundenbeziehung ............................................................. 30 4.1 Transition-Prozess.................................................................................................. 30 4.2 Leistungsmessung: Quantität und Qualität ............................................................ 32 4.3 Compliance: SOA und IKS .................................................................................... 33 5 Die Zukunft von Shared Services bei Siemens ................................................................ 34 5.1 Organisatorische Ausgestaltung von Shared Services ........................................... 34 5.2 Regionale Aufstellung von Shared-Service-Centern ............................................. 35 6 Fazit 35 Quellenverzeichnis.................................................................................................................. 36
Historische Entwicklungen von SAS bei Siemens
1
19
Überblick über die Entstehung von Shared Accounting Services bei Siemens
Shared Accounting Services (SAS) gibt es bei Siemens bereits seit den achtziger Jahren. Mit diesem Beitrag sollen die Entwicklung von SAS bei Siemens und die hierbei gewonnenen vielfältigen Erfahrungen eines global agierenden Unternehmens praxisorientiert beschrieben werden.
1.1
Siemens – Ein globales Unternehmen
Siemens, mit Firmensitz in Berlin und München, zählt mit führenden Marktpositionen auf all seinen Arbeitsgebieten zu den weltweit größten und traditionsreichsten Firmen der Elektrotechnik und Elektronik. Rund 475.000 Mitarbeiter entwickeln und fertigen Produkte, projektieren und erstellen Systeme und Anlagen und erbringen maßgeschneiderte Dienstleistungen. In über 190 Ländern unterstützt das vor 160 Jahren gegründete Unternehmen seine Kunden mit innovativen Techniken und umfassendem Know-how bei der Lösung ihrer geschäftlichen und technischen Aufgaben. Der Konzern ist auf den Gebieten Automation and Control, Power, Transportation, Medical, Information and Communications und Lighting tätig. Im Geschäftsjahr 2006 (zum 30. September) betrug der Umsatz bei den fortgeführten Aktivitäten 87,325 Mrd. EUR und der Gewinn nach Steuern 3,033 Mrd. EUR.
1.2
Aufbau und Entwicklung von Shared-Accounting-Service-Centern bei Siemens
Prinzipiell haben Shared Accounting Services1 bei Siemens eine lange Historie, der regional flächendeckende Einsatz von solchen Centern wurde aber erst seit Anfang dieses Jahrzehnts intensiver betrieben. Abbildung 1 skizziert die auch im Folgenden beschriebenen historischen Entwicklungen von SAS bei Siemens. Bereits in den achtziger Jahren wurden die Buchhaltungen der Zentralabteilungen in München zu einer zentralen Buchhaltungseinheit zusammengefasst. Dieses Shared-AccountingService-Center (SASC) erbringt von den Nebenbüchern bis zu den Abschlüssen alle Buchhaltungsdienste für alle Zentralabteilungen. Daneben werden von diesem SASC die kompletten Buchhaltungsaufgaben für eine Vielzahl von rechtlich selbständigen Gesellschaften in Deutschland erbracht, einschließlich Buchhaltungsaufgaben für die Bereichseinheiten Siemens Financial Services und Siemens Real Estate.
1
Zu Shared-Services siehe z. B. KEUPER/OECKING (2006).
20
KRUG
USA Prag Lissabon Lateinamerika Asien
1999 Abbildung 1:
2001
2003
2005
Historische Entwicklung von Shared Accounting Services bei Siemens
In den übrigen Regionen gestaltet sich die Entwicklung wie folgt: Asien: Start Ende der neunziger Jahre in China mit einem Center für Joint Ventures in China und der Landesgesellschaft China sowie parallel mit einem Center in Singapur für alle Landesgesellschaften in Asien außerhalb von China. Die Region war aufgrund der damals vielfach kleinen Gesellschaften mit meist nur schwachen Rechnungswesenfunktionen prädestiniert v. a. Abschluss- und Berichterstattungsaufgaben zu zentrieren. Dies wurde auch dadurch unterstützt, dass bei vielen Gesellschaften in dieser Zeit erstmals eine einheitliche, integrierte SAP-ITPlattform eingeführt wurde. Heute ist das Aufgabenspektrum auch fast durchgehend auf transaktionelle Tätigkeiten ausgeweitet. Europa: Aufgrund der erreichten Größe und Komplexität v. a. der genutzten diversen IT-Systeme begann die Einführung von Shared-Accounting-Centern in Europa deutlich später als in Asien. ¾ Prag: Start im Herbst 2003 mit ersten Aufgaben. Schrittweise wurde der Service über das gesamte Buchhaltungsspektrum hinweg für Bereiche der Siemens AG und Regionalgesellschaften in Nordwesteuropa erweitert. ¾ Lissabon: Gegründet 2004, startete mit dem Aufbau und Ausbau von Nebenbuchaufgaben (Debitoren-, Kreditoren-, Anlagenbuchhaltung) für die Siemens-Gesellschaften in Südwesteuropa. Übernimmt jetzt auch Abschluss-, Hauptbuch- und Berichterstattungsfunktion für diese Region.
Historische Entwicklungen von SAS bei Siemens
21
Amerika: Ohne die heterogene IT-Landschaft aufgrund des meist exogenen Wachstums in den Ländern hätte eine flächendeckende Einführung von SAS noch zügiger vonstatten gehen können. ¾ USA: Seit Ende der neunziger Jahre werden für die Siemens Operating Companies in den USA Nebenbuchhaltungsaufgaben in Orlando zentralisiert betrieben, wobei ein Teil der Aufgaben nach Indien als „Back office“ verlagert wurde. Derzeit ist der Ausbau des Produktportfolios geplant. ¾ Lateinamerika: In Lateinamerika wurden bereits die „shareable“ Teile der Buchhaltungen der Siemens-Gesellschaften in den einzelnen Regionalgesellschaften zusammengefasst. Die Zentralisierung der Aufgaben an einen Standort steht noch bevor. Diese sehr heterogene Vorgehensweise ermöglichte es Siemens zwar eine Vielzahl von lokalen Erfahrungen zu generieren, aber eine Ausschöpfung von überregionalen Synergien konnte nur im begrenzten Umfang erreicht werden. Heute sind konzernweit bereits ca. 1.200 Mitarbeiter in SASC beschäftigt (Abbildung 2), wobei die überwiegende Mehrheit auf Standorte mit deutlich unterdurchschnittlichen Faktorkosten entfällt. USA 77 GJ 06
57
München 113
64
Q2 Plan GJ 06/07 GJ 06/07
Lateinamerika 132
108
109
Q2 GJ Plan 06 GJ 06/07 GJ 06/07
70
45
70
GJ Q2 Plan 06 GJ 06/07 GJ 06/07
311
253
106
GJ 06
Peking 350 137 GJ 06
Q2 Plan GJ 06/07 GJ 06/07
Lissabon
Großbritannien
GJ Q2 Plan 06 GJ 06/07 GJ 06/07
Abbildung 2:
105
Prag
76
123
185
Q2 GJ Plan 06 GJ 06/07 GJ 06/07
135
Q2 Plan GJ 06/07 GJ 06/07
Indien 250
200
160
Singapur 300 112
GJ 06
Q1 Plan GJ 06/07 GJ 06/07
Siemens Shared-Accounting-Service-Center
136
150
Q2 GJ Plan 06 GJ 06/07 GJ 06/07
22
2
KRUG
SAS – Eine Möglichkeit zur Erhöhung der globalen Wettbewerbsfähigkeit
SAS können einen ganz wesentlichen Beitrag zur Erhöhung der Wettbewerbsfähigkeit eines Unternehmens beitragen. In den folgenden Abschnitten wird dies am Beispiel von Siemens erläutert.
2.1
Initiativen zur Steigerung der globalen Wettbewerbsfähigkeit
Innovation, Kundenfokus und globale Wettbewerbsfähigkeit sind die Treiber, die es einem global organisierten Unternehmen ermöglichen, erfolgreich im heutigen gnadenlosen Wettbewerb zu bestehen. Deshalb startete Siemens im Jahr 2004 eine Reihe von Initiativen, die alle das Ziel verfolgten, diese drei Treiber erfolgreich weiter voran zu bringen. Im Bereich Innovation wurden z. B. Plattformstrategien weiterentwickelt, im Bereich Kundenfokus war u. a. das Thema „Cross Selling“ ein Schwerpunkt und im Rahmen der globalen Wettbewerbsfähigkeit wurden Software-Initiativen, Projektmanagement-Initiativen, weltweite Fertigungsstandortkonzepte, etc. vorangetrieben. Ein wichtiger Ansatz zur Verbesserung der globalen Wettbewerbsfähigkeit ist zudem der verstärkte Aufbau und Einsatz von Shared Services. Im Folgenden wird das Thema SAS näher erläutert.
2.2
Leistungsspektrum von SAS
Grundsätzlich lässt sich das Leistungsspektrum, welches SAS anbieten können, in zwei Kategorien unterteilen. Abbildung 3 und Abbildung 4 zeigen das Leistungsspektrum von SASC bei Siemens. ¾ Transactional Services (i. e. Nebenbücher): Darunter sind die Erbringung von Leistungen im Bereich der Debitoren-, Kreditoren- und der Anlagenbuchhaltung, von Cash- und Bank-Tätigkeiten, Inter Company Clearing und Aufgaben im Bereich der Geschäftsbuchhaltung zu verstehen. ¾ Abschluss- und Berichterstattungsfunktion („Record to Report“): Hierunter ist die systemseitige richtige und zeitkonforme Erstellung von Abschlüssen und Management-Berichterstattungen zu verstehen. In einem SASC im eingeschwungenen Zustand können auch buchhalterische Beratungs- und Trainingsaufgaben in das Leistungsspektrum aufgenommen werden. Grundsätzlich werden im SASC alle Routine- und Klärungstätigkeiten in der Buchhaltung erledigt. Die Entscheidung („Management Judgement“) über Bewertungsfragen wird immer bei den geschäftsführenden Einheiten verbleiben. Diese haben auch die inhaltliche Verantwortung für Bilanz, Gewinn- und Verlustrechnung sowie Kapitalfluss-
Historische Entwicklungen von SAS bei Siemens
23
rechnung zu übernehmen (z. B. hinsichtlich des internen Kontrollsystems [IKS] und der Erfordernisse des „Sarbanes-Oxley Act of 2002“ [SOA]). Controlling-Aufgaben sind bis dato kein Bestandteil des Aufgabenspektrums von SAS und verbleiben noch bei den Einheiten. Zu einem späteren Zeitpunkt werden auch Analyse- und Auswertungsaufgaben an SAS verlagert und dort konzentriert für die Kunden erbracht. Es stellt sich die Frage, ob SASC zuerst mit Nebenbuchaufgaben oder Abschluss- bzw. Berichterstattungstätigkeiten starten sollten. Aus der Praxis heraus gibt es dazu keine abschließende Erfahrung. Es hat sich gezeigt, dass im Zuge der Einführung einer einheitlichen IT-Plattform die Konzentration von routinemäßigen Abschluss-/Berichterstattungsaufgaben gleich zu Beginn eines Centeraufbaus durchaus erfolgreich vorgenommen werden kann. Dies ist auch eher möglich, wenn die Gesellschaften, deren Abschluss-/Berichterstattung verlagert werden soll, noch nicht zu groß und kompliziert sind. Siemens nahm diesen Weg erfolgreich in den asiatischen Ländern. Gibt es im Unternehmen noch keine homogene IT-Plattform für Buchhaltungsaufgaben und sind die Gesellschaften, deren Buchhaltungsaufgaben verlagert werden sollen, sehr heterogen in ihrer Größe und historischen Entwicklung, so empfiehlt es sich, den Aufbau von SASC mit der schrittweisen Übernahme von Nebenbuchtätigkeiten zu beginnen. Dienstleistungen, die im ersten Schritt zu erbringen sind: Transaktionale Dienstleistungen Debitorenbuchhaltung
Kreditorenbuchhaltung
¾ Pflege der
¾ Pflege der
¾
¾ ¾ ¾
Kundenstammdaten Rechnungsbearbeitung (Buchung & Erfassung der Zahlungseingänge) Kreditmanagement/ Mahnwesen Bewertung, z. B. Risiken Kontenabstimmung
¾ ¾
¾ ¾ ¾ ¾
Interne Verrechnung ¾ Bearbeitung von ICC-
Transaktionen ¾ Klärung von offenen ICCTransaktionen ¾ Bedienung des Klärungsservers ¾ Abstimmung der ICC-&SFS-Konten
Abbildung 3:
¾
Kreditorenstammdaten Rechnungseingang Rechnungsbearbeitung von Dritten und EDI (Versand & Zahlung) Zahlungsvorgänge (Buchung und Zahllauf) Bewertungsvorgänge, z. B. FOREX Lieferantenkontenabstimmung Abstimmung Wareneingang/ Rechnungsinhalte Controlling der Kreditorenkonten
Anlagevermögen ¾ Anlage von Stammdaten
fürs Anlagevermögen ¾ Anlagenverbuchung ¾ Ausbuchung von
Anlagevermögen
Bankenbuchhaltung ¾ Pflege der Bankkonten ¾ Bearbeitung der
Kasseineingänge/ Kontoauszüge ¾ Unterstützung bei der Vorhersage des Cash Flow ¾ Kontenabstimmung
Hauptbuch ¾ Pflege des Hauptbuchs/
Kontenplans ¾ Aufstellung des Terminplans
für die Abschlusstermine ¾ Schnittstelle
automatische/manuelle Buchungen ¾ Anlage und Veränderungen von Kostenstellen/ Profit Center ¾ Durchlauf der Allokationszyklen & Neugruppierung der Konten
Leistungsspektrum von Shared-Accounting-Service-Centern (1)
24
KRUG
Dienstleistungen, die im zweiten Schritt erbracht werden: Geschäftsbuchhaltung/ Abschlussfunktionen
Competence Center
Period-End Closing/Reporting & Consolidation
Beratung/Schulungen
¾ Pflege von Allocation Keys und statistischen
¾ Schulungen der Bilanzierungsgrundsätze
¾ ¾ ¾ ¾ ¾ ¾
Kennzahlen Pflege aller SAP-Tabellen (ARE/Tiefengliederung) Durchführung von Abschlussfunktionen im SAP R/3 Spiridon Konzernberichterstattung (US GAAP/IFRS) in Esprit Corporate Forecast/Budget (US GAAP/IFRS) Unterstützung bei Abschlussprüfungen (CF FA/CDA/ KPMG) Durchführung jährlicher lokaler Umorganisationen
Abbildung 4:
2.3
und der Siemens-Richtlinien in den Centern ¾ Beurteilung von Geschäftsprozessen
hinsichtlich der bilanziellen Behandlung ¾ Schnittstelle zwischen Zentralabteilung und
Center bei Bilanzierungsrichtlinien (Spezialthemen) ¾ Unterstützung der Zentralabteilung bei der Ausarbeitung von praktischen Maßnahmen entsprechend der neuen Richtlinien ¾ Schnittstelle zwischen Zentralabteilung IT und den Centern
Leistungsspektrum von Shared-Accounting-Service-Centern (2)
Ziele von SAS
Mit dem Einsatz von SASC werden vier Hauptziele verfolgt: ¾ Kostenreduzierung ¾ Qualitätsverbesserung ¾ Compliance ¾ Unterstützung strategischer Ziele Zum Erreichen dieser Hauptziele leisten die Harmonisierung und Standardisierung von Prozessen einen wesentlichen Beitrag. Eine konzernweite Harmonisierung und Standardisierung aller Buchhaltungsprozesse und die damit verbundene Möglichkeit Skaleneffekte zu nutzen, führt über die Zeit zu einer klar erkennbaren Kostenreduktion im Buchhaltungsbereich. Ein weiteres Mittel zum Reduzieren von Kosten ist die Möglichkeit, über SASC global jeweils die besten technischen Werkzeuge (z. B. einheitliches „intelligentes Scannen“, „electronic invoicing“, einheitliche „Work flows“) einzusetzen. Darüber hinaus resultiert auch die Verlagerung und Konzentration von Buchhaltungsaufgaben in Niedriglohnländer in signifikanten Kostenersparnissen. Die bereits angesprochene globale Harmonisierung und Standardisierung von Buchhaltungsmaßnahmen führt nicht nur zu Kostenreduktionen, sondern auch zu einer höheren Datenqualität insgesamt. Der durchgehende Einsatz von Messgrößen in SASC garantiert eine konkrete Erfolgsmessung und ermöglicht damit eine kontinuierliche Verbesserungsstrategie.
Historische Entwicklungen von SAS bei Siemens
25
Die Konzentration der Buchhaltungen auf wenige Standorte reduziert zudem die Möglichkeit für Ausnahmeregelungen und Abweichungen von den vorgegebenen Buchhaltungsregeln. Die Erledigung von Nebenbuchaufgaben und routinemäßigen Abschluss-/Berichterstattungsaufgaben ist das „Kerngeschäft“ von SASC. Das garantiert den vollen Fokus auf diese Tätigkeiten und hilft damit, die Qualität auf ein hohes Niveau zu bringen und ein solches zu halten. Harmonisierte und standardisierte Prozesse sind eine der Voraussetzungen für die Einhaltung der immer strenger werdenden Compliance-Vorschriften. Darüber hinaus bieten der Aufbau von SASC und die damit gegebene Gelegenheit des Neu-Organisierens von Prozessen die Möglichkeit, SOA und IKS optional in die Prozesse mit einzubauen. Auch die beschriebene Reduktion von Ausnahmen und Möglichkeiten zur Abweichung von gewählten Buchhaltungsregeln hilft die Compliance zu erhöhen. Natürlich ergibt die Konzentration von Buchhaltungsaufgaben auf wenige Standorte auch die Möglichkeit, die vorhandenen Bilanzprüfungskapazitäten effizienter einzusetzen. Weiterhin können SASC die Erreichung von strategischen Zielen von Unternehmen stark unterstützen. So erlauben SASC die zügige, einheitliche Eingliederung von im Rahmen von M&A-Aktivitäten neu erworbenen Gesellschaften. Nicht nur mehr eine Vielzahl von Buchhaltern in vielen Ländern muss sich mühsam auf die Eingliederung (und auch Ausgliederung) von Gesellschaften konzentrieren, sondern speziell auf diese Aufgaben fokussierte Teams innerhalb des SASC können diese Aufgabe übernehmen und schnell an Routine gewinnen. Außerdem erleichtert die Reduzierung und Konzentration von Buchhaltungsstandorten die Umstellung von Rechnungslegungsvorschriften erheblich – sei es nur die Änderung von Einzelvorschriften oder die Umstellung von ganzen Rechnungslegungssystematiken wie von US GAAP auf IFRS. Die Verlagerung von Buchhaltungsaufgaben aus den Gesellschaften heraus auf SASC ermöglicht es den abgebenden Einheiten, sich auf das Kerngeschäft zu konzentrieren und die Erbringung der routinemäßigen Buchhaltungsaufgaben den SASC zu überlassen. Neben den gestellten Fragen gibt es nach wie vor noch eine Vielzahl von weiteren denkbaren Fragestellungen, auf die an dieser Stelle aber nicht eingegangen werden soll.
3
Praxisbeispiel für den Aufbau eines SASC
Entscheidet sich ein Unternehmen, Teile seines Rechnungswesens in ein Center zu transferieren, stellen sich eine Vielzahl von Fragen z. B. hinsichtlich des Standorts und der Mitarbeiterauswahl, der Aufgaben, welche verlagert werden können, der Aufgaben, mit welchen begonnen werden sollte, etc. Im Folgenden werden aus Sicht von Siemens und am Beispiel des Aufbaus des SASC Prag exemplarisch ausgewählte Fragestellungen erörtert.
26
KRUG
3.1
Standortauswahl
Nach mehreren bis dato nicht sehr erfolgreichen Anläufen zum Aufbau eines SASC in einem europäischen Niedriglohnland wurde im Jahr 2003 von der damaligen Leitung des Zentralbereichs Finanzen von Siemens beschlossen, in Europa ein SASC aufzubauen, das Buchhaltungsleistungen v. a. für die deutschen Gesellschaften und Bereiche erbringen sollte. Die erste Frage, die es zu lösen galt, betraf die Auswahl eines geeigneten Standorts. Bei einer Vorauswahl wurden Länder mit sehr hohen Lohnkosten, sehr kleine Länder mit geringem geeignetem Arbeitskräftepotenzial, unsichere und derzeit noch unterentwickelte Länder aus der Betrachtung ausgeschlossen. Somit kamen 17 europäische Länder in die engere Auswahl (Abbildung 5). In der folgenden Analyse wurden die Faktoren „Kosten“ und „Umgebung“ als wesentlich für die Standortauswahl erachtet. Für den Faktor „Kosten“ wurden die Sub-Faktoren „Arbeitskosten“ und „Steuern/Subventionen“, für den Faktor „Umgebung“ die Sub-Faktoren „Verfügbarkeit von Arbeitskräften“, „allgemeine politische Konditionen“, „Innovationskriterien“, „technische und verkehrsmäßige Infrastruktur“ und „Sprachkenntnisse“ ermittelt. Kriterium Sprache: Deutsch: 75% Englisch: 25% besser geeignet
Back-Office-Niederlassungen für Deutschland Lettland Polen Slowakei Litauen Estland Irland Süd Afrika Rumänien Türkei Slowenien Portugal Griechenland Israel Großbritannien Schweden
8 7 6
Faktor 5 „Kosten" 4
Ungarn Tschechische Republik
Österreich 3 weniger geeignet
2
Deutschland
1 0
0
1
weniger geeignet
Abbildung 5:
2
3
4 Faktor „Umwelt"
5
6
7
8
9
10
besser geeignet
Ergebnisse der von Siemens durchgeführten Standortauswahl
Von besonderer Bedeutung war die „richtige“ Gewichtung der Faktoren. Sie ist entsprechend des anvisierten Aufgabenspektrums eines Centers (nur einfache Tätigkeiten bis hin zu vollen Buchhaltungsfunktionen inklusive Beratungs-/Trainingsleistung) vorzunehmen. Basierend auf den beschriebenen Faktoren und der entsprechenden Gewichtung wurde anschließend die Bewertung vorgenommen. Im Ergebnis galten Tschechien, Ungarn und die Slowakei als die präferierten Alternativen; Rumänien wurde als Standort für die Zukunft angesehen.
Historische Entwicklungen von SAS bei Siemens
27
Neben den dargestellten „harten“ Standortfaktoren spielen natürlich auch „Soft Factors“ eine nicht zu unterschätzende Rolle. So fiel die endgültige Entscheidung für Tschechien basierend auf einem solchen „Soft Factor“: Weil nicht alle Gesellschaften und Bereiche in Deutschland eine positive Einstellung hinsichtlich des Transfers von Buchhaltungsaufgaben zu einer anderen Einheit im Ausland hatten, war die geographische Nähe und die gute verkehrstechnische Anbindung von Tschechien zu den Siemens-Hauptstandorten München und Erlangen ein ausschlaggebender Faktor. Es ist zwar nie beabsichtigt worden, dass die zukünftigen Kunden des Centers dieses jederzeit besuchen könnten, aber die potenzielle Möglichkeit bei etwaigen Schwierigkeiten in Kürze vor Ort sein zu können, war ein wesentliches Argument gegenüber den Kunden. Sicherlich werden zukünftig schrittweise mehr und mehr Aufgaben an Center in Niedriglohnländer verlagert werden. Aber dennoch werden auch in Zukunft die Center in München, UK und USA weiterhin Aufgaben als Dienstleister für Zentraleinheiten und für Spezialaufgaben wie direkte M&A-Unterstützung wahrnehmen müssen.
3.2
Strategischer Ansatz: „Green field“ versus „Brown field“
Für die Errichtung eines Standortes stehen grundsätzlich die beiden Alternativen „Green Field“ und „Brown Field“ zur Auswahl. Beide Alternativen weisen sowohl Vor- als auch Nachteile auf. „Green Field“ bietet die Möglichkeit, ein Center nach neuesten Erkenntnissen und Wünschen optimal aufzusetzen: Von genutzter Infrastruktur über einzusetzende Prozesse und IT-Tools bis hin zur gewünschten Mitarbeiterqualifikation kann alles neu aufgebaut werden. Allerdings bedeutet dies auch einen erheblichen Ressouceneinsatz hinsichtlich Managementaktivität sowie viel Geduld und Zeit beim Aufbau einer lokalen Unternehmenseinheit. Ein „Brown-field“-Ansatz nutzt vorhandene Kapazitäten eigener Gesellschaften und ist damit schnell und kostengünstig durchzusetzen. Allerdings sind zum einen eine Vielzahl von bereits festgesetzten Rahmenbedingungen zu akzeptieren, zum anderen stellen bereits vorhandene Kostenfaktoren (Lohn- und Gehaltsniveau, IT-Infrastruktur, zu nutzende Immobilie) Restriktionen dar. Nach der Auswahl Tschechiens als Standort wurden die beiden Alternativen geprüft, entweder das geplante Center als Teil der Siemens-Landesgesellschaft in Prag aufzubauen oder einen „Green Field“-Ansatz in Prag, Brünn oder weiter im Osten von Tschechien zu wählen. Die Entscheidung fiel zugunsten der Landesgesellschaft, weil das Vorhandensein von erfahrenen und bewährten Infrastrukturen (Immobilienmanagement, Personalabteilung, IT-Abteilung, generelle Infrastruktur) die potenziellen Nachteile überwog. Vor allem ermöglichte dieses Vorgehen nach der Entscheidung für einen Standort eine schnelle Umsetzung und Realisierung der vorhandenen Aufbaupläne.
28
3.3
KRUG
Operative Umsetzung
Hinsichtlich der Leitung des SASC am Sitz der Siemens-Landesgesellschaft in Prag galt es zwischen den Alternativen eines lokalen Siemens-Mitarbeiters und einem Stammhausvertreter aus Deutschland zu entscheiden. Die Wahl fiel auf einen lokalen Mitarbeiter, weil damit zum einen ein Beispiel für den „Low cost“-Ansatz geliefert werden konnte und zum anderen von Anfang an eine lokale Identität aufgebaut werden sollte. Im Nachhinein stellte sich heraus, dass die Überlegung aus zweierlei Hinsicht unglücklich war: Einerseits ist es schwer, aus der Ferne die Personen mit den richtigen „Skill Sets“ zu finden, andererseits mangelte es den ersten deutschen Kunden an Vertrauen. Die deutschen Gesellschaften und Bereiche wollten am Center einen Leiter sehen, der tiefe Praxiserfahrung in den Buchhaltungsthemen und -anforderungen von Siemens-Deutschland hat. Deshalb wurde letztendlich der Entschluss gefasst, einen Personalwechsel vorzunehmen und zumindest in der Aufbauphase einem Stammhausdelegierten mit v. a. großer Buchhaltungs- und Personalführungserfahrung die Leitung des Centers zu übertragen. Oft haben die abgebenden Einheiten Zweifel an der Tragfähigkeit der berechneten Business Cases, sie fürchten um die Qualität der Buchhaltung und haben sehr oft ein generelles Unwohlsein, weil sie keinen direkten Zugriff auf Teile der Buchhaltung mehr haben. Deshalb ist es enorm wichtig, dass beim Aufbau eines SASC schnell Erfolge vermeldet werden können. Auf diese Weise können skeptische Kunden auf operativer Ebene überzeugt, das Management des Kunden in dessen Entscheidung bestätigt und auch die Moral in den Centern gestärkt werden. Dies erreicht man dadurch, dass man zuerst genau definierte und portionierte, nicht zu komplizierte Aufgaben an ein SASC verlagert. Volumen und Schwierigkeitsgrad der zu verlagernden Aufgaben können dann graduell angehoben werden. Da bekannt war, dass die abgebenden Gesellschaften und Bereiche Zweifel an der Ausbildung und Erfahrung der neuen Mitarbeiter am Center Prag hatten, entschied man sich, grundsätzlich nur Hochschulabgänger mit einem Abschluss in Betriebswirtschaft einzustellen. Dies hatte den Vorteil, dass diese neuen Mitarbeiter die ersten ihnen übertragenen Aufgaben schnell, zügig und in hoher Qualität erledigen konnten. Allerdings waren die Komplexität und damit auch die Attraktivität der ersten übertragenen Aufgaben begrenzt. Dies hatte zur Folge, dass sich viele der neuen Kollegen nicht entsprechend ausgelastet und gefordert fühlten. Eine zu hohe Fluktuation war die logische Konsequenz. Die „Lessons learned“ zeigen, dass man auch in den Centern je nach Arbeitsschwierigkeit die entsprechend ausgebildeten Mitarbeiter einsetzen sollte. Eine weitere Frage ist die Einrichtung der Ablauforganisation. Hierbei ist zu untersuchen, ob ein Center nach Funktionen (z. B. Debitoren, Kreditoren, Anlagebuchhaltung) oder kundenorientiert in der Ablauforganisation aufgestellt werden sollte. Die in den Siemens-Centern gemachte Erfahrung ergibt eine Ausrichtung nach Funktionen. Nur so können über die Zeit Standardisierungen und Harmonisierungen von Prozessen mit den gewünschten Konsequenzen der Kostenreduzierung, Qualitätsverbesserung und Compliance erreicht werden. Ein Punkt, der Harmonisierung und Standardisierung in den SAS immer wieder erschwert, ist, dass die von den Kunden übernommen Prozesse meist sehr unterschiedlich konzipiert sind. Viele der Kunden sind am Anfang lediglich bereit, einen kleinen Teil der Buchhaltung abzugeben. Erst nachdem bewiesen werden konnte, dass die Leistungen, die an den SAS erbracht werden, kosten- und qualitätsmäßig den vereinbarten Service Level Agreements (SLA) entsprechen, sind die Kunden bereit, weitere Prozessschritte zu verlagern. Diese hete-
Historische Entwicklungen von SAS bei Siemens
29
rogene Prozesslandschaft erschwert die gewünschte und angestrebte Harmonisierung und Standardisierung der Prozesse. Wichtig ist bei allen Transfer-Projekten, mit der die eingesetzten IT-Verfahren betreuenden Einheit möglichst eng zusammenzuarbeiten. Siemens hat zwar weitestgehend bei allen Einheiten SAP-Verfahren im Einsatz, allerdings gibt es noch eine Vielzahl unterschiedlicher Versionen und Standards. Dies erfordert eine frühzeitige Einbindung der IT-Abteilungen in die Einheiten und die zentrale IT-Governance. Ein Punkt, den es in diesem Zusammenhang sicherzustellen gilt, ist, dass auch von IT-Seite personelle Ressourcen in ausreichendem Umfang zur Verfügung gestellt werden.
3.4
Exkurs: Insourcing oder Outsourcing?
Mittlerweile gibt es in allen Regionen dieser Welt Unternehmen, die erfolgreich Shared Services als ausschließlichen Geschäftszweck betreiben und ihre Dienste auch gerne anbieten. Diese Unternehmen erbringen nicht nur Leistungen im Bereich Rechnungswesen, sondern v. a. auch im IT- und Personalwesen. Heute gibt es einen durchaus verständlichen Trend in großen Unternehmen, „Shareable Services“ nicht mehr selbst zu betreiben. Vorteile von Outsourcing sind die schnelle, meist professionelle Verlagerung von Aufgaben, Fokussierung auf die Erbringung von Dienstleistungen als Kerngeschäft und schnelle erste Kostenersparnis. Siemens hat sich derzeit dafür entschieden, SAS zwar zu „offshoren“, aber die Dienste weiterhin „in-house“ zu erbringen. Ein wichtiger Punkt für diese Entscheidung ist, dass man insbesondere hinsichtlich der Datensicherheit und -hoheit unabhängig bleiben möchte. Ein weiterer wesentlicher Punkt ist das größere Vertrauen in die Erledigung von Buchhaltungsaufgaben durch eine Siemens-eigene Organisation als durch externe Unternehmen. Dieses Vertrauen wurde dadurch aufgebaut, dass Siemens-interne SASC die notwendigen Leistungen in hoher Qualität und zeitgerecht erbringen können. Ein Grund gegen das Outsourcing ist, dass man zwar durch die Verlagerung von Diensten an externe Anbieter schnell Kostenersparnisse realisieren kann, aber die weitere kontinuierliche Reduzierung von Kosten schwer erreichbar ist. Intern ist eine klare, von den Kunden geforderte Kostentransparenz möglich. Allerdings ist festzuhalten, dass die Entscheidung Outsourcing versus Insourcing nicht einmalig festgelegt wird, sondern regelmäßig zu überdenken ist. Sobald alle Buchhaltungsleistungen innerhalb von Siemens erfolgreich zentralisiert worden sind, besteht die Möglichkeit, schrittweise Aufgaben an externe Dienstleister zu übertragen. Darauf aufbauend kann analysiert werden, ob Outsourcing eine erfolgreiche Weiterentwicklung von Shared Services darstellt.
30
KRUG
4
Fokuspunkte hinsichtlich der Kundenbeziehung
Die flächendeckende Einführung von SAS im Unternehmen führt oft zu Bedenken und Vorbehalten bei den Entscheidungsträgern. Durch anhaltend überzeugende Leistungen und Professionalität können Vertrauen aufgebaut und infolgedessen bestehende Zweifel abgebaut werden. Im Folgenden werden exemplarisch Möglichkeiten aufgezeigt, die helfen, Vertrauen bei den Kunden aufzubauen.
4.1
Transition-Prozess
Die Verlagerung von Aufgaben ist der Beginn einer langjährigen Partnerschaft zwischen abgebender Einheit und aufnehmendem SASC. Um diese Partnerschaft zum Erfolg zu führen, ist es unabdingbar, einen sorgfältig durchdachten und strikt umzusetzenden TransitionProzess (Abbildung 6) mit einem klaren zeitlichen Horizont aufzusetzen. Dabei basiert die Verlagerung von Dienstleistungen zu den SASC auf einer fundierten Planung und einer durchdachten Herangehensweise. 6-8 Wochen Übliche Dauer
2-3 Wochen
Personalbeschaffung Prozessanalyse 6-8 Wochen
Meilensteine
Hauptaktivitäten
fortdauernd
Schulung
Prozesskonzentration 2-3 Wochen formale Prüfung
formale Prüfung
Umsetzung Work shadowing
Stabilisierungsphase und Aufnahme des Betriebs fortdauernd
6-8 Wochen Datentransfer
¾ Erstellung eines Kommunika- ¾ Planung der ¾ Aufstellung und Koordination ¾ Stabilisierung des tionsplans und RundTransferprozesses Verlagerungs- von Teams für das „Work schreibens in die SASC schritte shadowing“, bis zur Erreichung ¾ Gründung eines Projektteams ¾ Erstellen eines des Soll-Zustands ¾ Gründung von ¾ Erstellung des Ist-Prozesses Arbeitsgruppen zur Plans für den ¾ Tägliche Nachbesprechungen und einer Kostenanalyse Verbesserung des Wissens¾ Aktualisierung und Über¾ Abschätzung der zu Kundenservice transfer prüfung der Prozessverlagernden Tätigkeiten ¾ Erstellen der dokumentation aufgrund von BVI und KPI Schulungs¾ Messung und Verfolgung von ¾ Analyse der IT-Landschaft unterlagen Inhalt und Fortschritt des ¾ Aufzeichnen des Ist- und SollKnow-how-Transfers Prozesses ¾ Rückmeldung an den Verant¾ Entwicklung einer wortlichen für das Programmkundenorientierten Lösung Mangagement; Beratung und ¾ Entwurf Service Level Unterstützung der TeamAgreement (SLA) mitglieder ¾ Aktualisierung der SLA/ ÆBusiness case und formelle Business cases Bindung
Abbildung 6:
Verlagerungsprozess
Historische Entwicklungen von SAS bei Siemens
31
Die Verlagerung von Buchhaltungsaufgaben von einer Regionalgesellschaft zu einem SASC kann je nach Komplexität (Rechnungswesenprozesse, IT-Infrastruktur, etc.) zwischen 14 und ca. 20 Wochen dauern. Der erste Schritt bei einem Verlagerungsprojekt ist die Etablierung eines Projektteams, das aus Fachleuten der abgebenden Einheit (Rechnungswesen, Personal, IT) und aus erfahrenen Transition-Projektmitarbeitern, die entweder aus einem SASC oder, wie im Falle von Siemens, aus einer eigens dafür etablierten Projektorganisation kommen. Zu Beginn einer Verlagerung ist vor Ort, gemeinsam mit der lokalen Organisation, eine detaillierte Prozessanalyse durch ein erfahrenes Projektteam durchzuführen. Im Rahmen dieser Prozessanalyse werden zum einen die bestehenden Prozesse hinsichtlich ihrer Kosten (Mitarbeiter, Arbeitsvolumen) und Arbeitsabläufe analysiert und zum anderen wird gemeinsam definiert, wie die bei der abgebenden Einheit noch verbleibenden Prozesse künftig aufgesetzt sein müssen, damit es klare Prozessschnittstellen mit den SASC gibt. Wichtig ist zudem, bei dieser Gelegenheit die bestehende IT-Landschaft aufzunehmen und zusammen mit der örtlichen IT-Organisation festzulegen, welche Anpassungen vorzunehmen sind, um auch nach einer Verlagerung eine reibungslose Prozessabwicklung sicherzustellen. Nach Prozessanalyse, Ermittlung des Leistungsvolumens, des aktuellen Kostenniveaus und Definition der zukünftigen Schnittstellen ist ein (SLA) auszuarbeiten. In diesem SLA werden neben Preisen, Lieferterminen sowie voraussichtlichem Leistungsvolumen, genauestens die zukünftigen Aufgaben von SASC und abgebender Einheit definiert. Je sorgfältiger diese Aufgaben erledigt werden, desto weniger Reibungspunkte sind für die Zukunft zu erwarten. Mit dem Erstellen eines SLA ist überdies ein gemeinsamer Business Case zu entwickeln. Nur bei einem positiv bewerteten Business Case wird das Management der abgebenden Einheit die beabsichtigte Verlagerung, auch bei etwaigen zukünftigen Schwierigkeiten, unterstützen. Die Erfahrung aus Transfer-Projekten zeigt, dass die offene und rechtzeitige Kommunikation des geplanten Projekts an das Personal durch das lokale Management der wesentliche Schlüssel zum Erfolg eines Verlagerungsprojekts ist. Sehr oft hat das lokale Management eine gewisse Scheu, eine solche Kommunikation offen und ehrlich zu führen. Dies erzeugt aber nur Gerüchte, Abwehr und große Sorgen beim betroffenen Personal. Eine Verlagerung von Dienstleistungen zu einem SASC ist in aller Regel mit einem Abbau von Arbeitsplätzen in den betroffenen Abteilungen verbunden, weil es ansonsten kaum Einspareffekte geben würde und folglich der Business Case nicht positiv bewertet werden würde. Diese Tatsache ist vom lokalen Management eindeutig zu kommunizieren. Gleichzeitig muss das Management auch mögliche Maßnahmen – wenn möglich bereits mit genauen Angaben – aufzeigen: ¾ Mitarbeiter können in andere Funktionen versetzt werden. ¾ Mitarbeitern können Übergangsregelungen wie Altersteilzeit angeboten werden. ¾ Mitarbeitern können Abfindungsangebote gemacht werden. Die Erfahrung zeigt, dass durch das Aufzeigen von bereits erarbeiteten Maßnahmen auch diejenigen Mitarbeiter, denen Restrukturierung droht, bis zum Ende des Projekts mitziehen werden. Ohne direkte Kommunikation ist der Projektauftrag gefährdet. Schließlich sollte nicht vergessen werden, dass auch bei Verlagerungsprojekten die Gefahr besteht, dass „Key
32
KRUG
player“ die Organisation frühzeitig verlassen. Diese „Key player“ sind zu identifizieren und ggf. mit „Retention boni“ bis zum erfolgreichen Projektende zu halten. Parallel bzw. etwas zeitversetzt mit der Prozessanalyse beginnt das Einstellen und Einarbeiten von adäquatem Personal im SASC. Die sich anschließende Phase des „Work Shadowing“ bezeichnet die konkrete Übernahme von Arbeitsinhalten bisheriger Mitarbeiter durch das neue Personal. Diese Phase dauert je nach Komplexität und Erfahrung der aufnehmenden Mitarbeiter 6-8 Wochen. „Work Shadowing“ ist bevorzugt an der Lokalität der abgebenden Einheit durchzuführen, denn nur dort werden alle Spezifika der Arbeitsinhalte sichtbar. Wird nur der Standardprozess, ungeachtet oft existierender, nicht dokumentierter Ausnahmefälle, übernommen, so besteht die große Gefahr, dass das „Going live“ im SASC nicht störungsfrei verläuft. Von äußerster Wichtigkeit ist, dass der Projektleiter ein regelmäßiges Feedback von den aufnehmenden Mitarbeitern erhält. Dabei muss festgestellt werden, ob die Aufgabenübernahme entsprechend einem vorab entwickelten Plan abläuft. Sollten Abweichungen von diesem Plan auftreten, gibt es hierfür drei Gründe: ¾ Es wurden keine geeigneten neuen Mitarbeiter von SASC eingestellt. ¾ Es wurden zwar geeignete Mitarbeiter eingestellt, diese wurden aber vorher nicht ausreichend geschult. ¾ Die abgebenden Mitarbeiter blockieren und geben nicht die richtigen und/oder nicht alle benötigten Informationen weiter. Alle drei Fälle erfordern eine entsprechende und umgehende Reaktion durch die Projektleitung. Nach dem „Work shadowing“ erfolgt die Übernahme und das „Going live“ am SASC. Wichtig ist, dass es am SASC einen Projektverantwortlichen gibt, der in den ersten Tagen und Wochen sicherstellt, dass die Übernahme planmäßig verläuft und der Regelbetrieb sicher und schnell erreicht wird.
4.2
Leistungsmessung: Quantität und Qualität
Eine der wichtigsten Voraussetzungen für den erfolgreichen Einsatz von Shared Services ist das neutrale, objektive Messen von Leistungen in den jeweiligen SASC. Leistungen können mit Hilfe von Business Volume Indicators (BVI), Key Performance Indicators (KPI) und verschiedenen Scorecards gemessen werden. BVI zählen quantitative Ergebnisse, KPI messen qualitative Leistungen und mit Scorecards (z. B. Balanced-Scorecard-System) kann man eine Vielzahl von Faktoren kombiniert messen und beurteilen. Die Ergebnisse der Leistungsbemessung können vielfach verwendet werden. BVI, KPI und deren interner Entwicklungsvergleich über die Zeit sowie das damit mögliche externe Benchmarking sind ein hervorragender Ansatz für regelmäßige Schwachstellenanalysen. Basierend auf diesen Schwachstellenanalysen können Maßnahmen eingeleitet werden. Ihr Erfolg lässt sich durch regelmäßiges Reporting von BVI und KPI genau messen. Ein entsprechendes Nachjustieren der Prozesse ist relativ leicht umzusetzen. Nur durch das regelmäßige Messen
Historische Entwicklungen von SAS bei Siemens
33
der erbrachten Leistungen kann ein erfolgreicher, kontinuierlicher Verbesserungsprozess sichergestellt werden. Das Verhältnis zum Kunden untermauert als ein weiterer Punkt die Bedeutung von neutralen, objektiv nachvollziehbaren BVI und KPI. Jeder Kunde wünscht und verlangt ein regelmäßiges Reporting der BVI und KPI, wie sie normalerweise in den SLA vereinbart worden sind. Auf diese Weise kann dem Kunden nachgewiesen werden, dass die versprochenen Zusagen eingehalten werden. Auf diese Weise kann eine vernünftige, für beide Seiten fruchtbare Partnerschaft aufgebaut werden. Wird die Nichteinhaltung zugesagter Leistungsstandards erkannt, sind umgehend erfolgversprechende Korrekturmaßnahmen einzuleiten. Andererseits gerät eine Partnerschaft schnell ins Wanken. Zudem steigt der Stabilisierungsaufwand zeitlich exponentiell an und führt im schlimmsten Fall zur Vertragsauflösung. Ein weiterer Grund für die Notwendigkeit von objektiven und nachvollziehbaren Messungen der erbrachten Leistungen ergibt sich aus dem Unterschied zwischen „gefühlter“ bzw. wahrgenommener und gemessener Qualität. Kunden haben oft das Gefühl, dass nach Verlagerungen von Buchhaltungsaufgaben sowohl die Quantität als auch die Qualität der erbrachten Leistungen im Vergleich zum Status ante schlechter ist, sich manchmal sogar drastisch verschlechtert hat. Allerdings zeigt das Beispiel Siemens, dass Kunden, obgleich oft Gegenteiliges behauptet wird, vor der Verlagerung gar keine klaren und nachvollziehbaren Messkriterien hatten bzw. nur höchst unregelmäßige Messungen durchführten. Deshalb baut sich über die Zeit eine „gefühlte“ Qualität auf, die mangels Vergleichbarkeit und aufgrund von Gewohnheiten als gut, wenn nicht sogar als exzellent, angesehen wird. Weil Fehler nicht gemeldet werden müssen und Rückstände in z. B. der Rechnungsbearbeitung nicht gemessen werden, stellt sich auch keine Wahrnehmung von Schwächen bzw. Verbesserungspotenzialen ein. Nach einem Transfer von Buchhaltungsaufgaben erhöht sich die Sensibilität für Fehler, zeitliche Rückstände, etc., die sich in der Anfangsphase nach einem Transfer ergeben mögen. Deshalb ist es für eine erfolgreiche Partnerschaft unbedingt notwendig, dass bei Beginn eines Transferprojekts gemeinsam mit dem Kunden die beschriebenen Leistungsmessungen lokal vorgenommen werden und ein Referenzwert definiert wird. Nur so kann ein neutraler Status quo festhalten werden, der dann auch die Basis für die zukünftige Vergleichbarkeit hinsichtlich der Qualität der erbrachten Leistungen vor und nach der Verlagerung bildet. Das Schaffen von Vergleichbarkeit ist Basis für eine erfolgreiche Partnerschaft. Sich stetig verbessernde Messergebnisse aus den SASC dienen letztendlich auf der einen Seite bestehenden Kunden als Erfolgsindikatoren, auf der anderen Seite stellen sie gute Verkaufsargumente für potenzielle Neukunden dar.
4.3
Compliance: SOA und IKS
Neben den sich allgemein verstärkenden IKS-Anforderungen stellen die für an den USamerikanischen Börsen gelisteten Unternehmen strengen SOA-Anforderungen eine immer wichtigere Herausforderung dar: „Compliant“ zu sein, ist eine unabdingbare Forderung, die nicht nur an die operativen Teile der Unternehmen gestellt wird, sondern auch an die Einheiten der SAS. Deshalb ist von Anfang an ein SOA-Officer in den SASC einzusetzen, der sich
34
KRUG
neben den IKS-Anforderungen allen weiteren SOA-Anforderungen vollzeitig widmen muss. Nur so kann sichergestellt werden, dass SASC im Sinne aller Kontrollanforderungen „compliant“ sind. Es ist zudem wichtig, gegenüber Kunden und internen sowie externen Prüfern sicherstellen zu können, dass die SASC für deren genau definierten Aufgabenauftrag alle internen und externen Kontrollen vollständig und gerecht erfüllen. Ist dies erreicht, müssen Kunden für den verlagerten Teil der Buchhaltungsaufgaben keine zusätzlichen Prüfhandlungen mehr veranlassen. Dies reduziert sowohl den Aufwand beim Kunden als auch die Gebühren für externe Prüfer, weil alle Prozesse in den SASC einmalig für alle Kunden geprüft und für in Ordnung befunden werden. Ein Schwerpunktthema, das immer wieder in den Mittelpunkt gerückt wird, ist die direkte Schnittstelle zwischen Kunde und SASC. Es muss absolut sichergestellt sein, dass hinsichtlich der SOA-Kontrollen keine Lücken zwischen dem letzten Prozessschritt beim Kunden und dem ersten Prozessschritt beim SASC entstehen. Dazu ist es notwendig, dass SOA-Officer des Kunden und SOA-Officer der Center sich in diesem Punkt eingehend abstimmen. Um keinen Bruch in den Kontrollsystemen zu riskieren, wurde bei Siemens die Regelung eingeführt, dass sowohl der SOA-Officer des Kunden als auch der SOA-Officer des SASC die entsprechenden Paragraphen des SLA unterzeichnen.
5
Die Zukunft von Shared Services bei Siemens
Wie eingangs beschrieben, wurden durch die im Geschäftsjahr 2004/2005 gegründete SharedServices-Initiative im Rahmen der gesamten Siemens-Strategie „Go for profit and growth“ die bereits im Konzern vielfältig vorhandenen Shared-Service-Aktivitäten erstmals gebündelt. Es wurde versucht, mehr im Gleichklang, vereinter und damit stabiler voran zu schreiten. Diese Initiative war ein großer Erfolg. Initiativen haben jedoch den Nachteil, dass es oftmals sehr schwierig ist, alle Kräfte wirklich zielführend zu bündeln. Zudem sind Initiativen zeitlich begrenzt. Schließlich bedarf es oft noch druckvollerer Mittel, um sicher vorhandene Skeptiker von den Vorteilen von Shared Services zu überzeugen.
5.1
Organisatorische Ausgestaltung von Shared Services
Um die beschriebenen Schwierigkeiten zu beseitigen und das Thema Shared Services fest im Konzern zu verankern, wurde zum 01.10.2006 durch den Zentralvorstand von Siemens die Organisationseinheit „GSS – Global Shared Services“ gegründet. GSS hat im Vergleich zu ihrem Vorgänger, der Shared-Services-Initiative, zwei ganz entscheidende Vorteile: GSS wurde als feste Organisationseinheit mit voller Infrastruktur und Aufstellung als operativer Bereich etabliert; Shared Services wurden im definierten Umfang im Konzern als „mandatory“ erklärt. Im Rahmen der GSS wurden die Teilbereiche Accounting & Finance, Information Technology, Human Resources, Procurement and Logistics zusammengefasst. Diese Dienstleistungen werden allen Siemens-Bereichen und Siemens-Gesellschaften weltweit angeboten und sind von diesen auch „zwangsweise“ zu nutzen. Mit Einheiten, die noch nicht oder noch nicht das
Historische Entwicklungen von SAS bei Siemens
35
gesamte Produktportfolio von GSS nutzen, wurden „Road Maps“ für die nächsten drei Jahre entwickelt. Bis dahin sollen die Shared Services im Konzern vollkommen ausgebaut und genutzt werden. GSS hat das Ziel, die Wettbewerbsfähigkeit von Siemens durch die Übernahme und die Einführung von Shared Services und deren kontinuierliche Verbesserung zu stärken. Der Fokus dieser Organisationseinheit liegt damit konsequenterweise darin, die Qualität und Zuverlässigkeit der „Back-office“-Prozesse auch durch Hebung von Synergie-Potenzialen zu erhöhen und durch möglichst kosteneffiziente Erbringung der Leistungen, die Kosten im Konzern signifikant zu reduzieren. Dieses auch zu erreichen, ist unbedingt notwendig, denn eine Mandatierung von Shared Services, wie bei Siemens geschehen, ist zwar für den Erfolg sehr wichtig, aber ohne Qualität und Kostenverbesserung wird kein Shared-Service-Center auf Dauer erfolgreich sein.
5.2
Regionale Aufstellung von Shared-Service-Centern
Wie beschrieben, haben sich die verschiedenen Shared-Service-Aktivitäten im Hause Siemens in den einzelnen Teilbereichen und in den diversen Regionen höchst unterschiedlich entwickelt. Es gab und gibt noch immer verschiedene SASC, es gab und gibt länderspezifische Einkaufsorganisationen, diverse IT-Center, etc. Aber es existieren auch heute schon in einigen Regionen wie den USA und Lateinamerika eigene Shared-Service-Organisationen, die alle bzw. mehrere Teilbereiche umfassen, als selbständige Einheiten. Mit Hilfe von GSS wird nun versucht, auch diese äußerst heterogene Situation regional neu zu gestalten. Aktuell laufen Planungen und auch bereits erste Umsetzungen dieser Pläne, um alle Shared Services, die in gleicher Weise unter dem Dach einer regionalen Einheit gebündelt werden können, in einer begrenzten Anzahl von regionalen Shared-Services-Organisationen zusammenzuführen. Dabei sind noch Standortfragen zu klären sowie die Anzahl der Organisationen im Endausbau endgültig festzulegen.
6
Fazit
Wenn sich ein Unternehmen dazu entschließt, Shared Services einzuführen, müssen sich die Entscheider darüber im Klaren sein, dass sie sich auf eine Reise begeben, die nicht aus dem Katalog gebucht werden kann. Die Reise, die gebucht wird, ist eine Abenteuerreise mit vielen „downs“, aber noch mehr „ups“. Unabhängig davon, ob sehr viele der zu erledigenden Aufgaben mit einer der zahlreichen Beratungsfirmen gemeinsam durchgeführt werden oder ob man versucht, möglichst viel „in-house“ zu erledigen – es wird immer Überraschungen geben. Viele Kunden befürchten, dass mit der Einführung von Shared Services die gewohnte Qualität sinkt, dass Kosten durch zusätzliche Schnittstellen, durch den Verlust von Erfahrungsträgern, etc. anstatt zu sinken möglicherweise steigen, dass die Verantwortung für die Gesamtprozesse nicht mehr klar erkennbar ist. Manchmal entsteht auch Angst um die eigene „Wich-
36
KRUG
tigkeit“ im Unternehmen, so wenn Aufgaben transferiert und lokal Arbeitsplätze abgebaut werden müssen. Diese Befürchtungen sind durchaus real! Nur die sorgfältige Planung von Transfers und deren äußerst umsichtige Umsetzung können vor diesen Gefahren bewahren. Auch darf nicht vergessen werden, dass es unter den Mitarbeitern der abgebenden Einheit oft zu großen aktiven, aber auch passiven Widerständen wegen des zu erwartenden Arbeitsplatzabbaus kommen wird. Hier ist, wie beschrieben, rechtzeitige offene Kommunikation mit dem Aufzeigen von klaren Handlungsalternativen unbedingt notwendig. Auch ist der sorgfältige Aufbau von SASC, beginnend mit der Auswahl des richtigen Managements und der geeigneten Mitarbeiter, ein äußerst wichtiger Bestandteil für erfolgreiche Shared Services. Zuletzt soll nicht verschwiegen werden, dass Siemens nicht auch in die eine oder andere offene Falle getappt ist. Aber aus den Fehlern wurde gelernt und heute funktionieren Transferprojekte weitgehend reibungslos. Die Leistungen, die in allen Shared-Service-Centern erbracht werden, sind generell anerkannt und heute fester Bestandteil der Siemens-Organisation. Nicht nur SAS, sondern alle Shared Services leisten heute im Konzern einen wesentlichen Beitrag zur Erhöhung der Qualität, Reduzierung von Kosten und Einhaltung aller Compliance-Anforderungen und unterstützen das Unternehmen erfolgreich bei „Carve ins“ und „Carve outs“.
Quellenverzeichnis KEUPER, F./OECKING, C. (2006) (Hrsg.): Corporate Shared Services – Bereitstellung von Dienstleistungen im Konzern, Wiesbaden 2006.
Shared Services für Finance & Accounting – Aktuelle und künftige Erscheinungsformen in globalen Konzernen CARSTEN VON GLAHN Siemens AG
1 2
Shared F&A-Services – Der Weisheit letzter Schluss? ................................................... 39 Shared F&A-Services – Charakteristika .......................................................................... 39 2.1 Isolierbarkeit .......................................................................................................... 40 2.2 Kategorisierbarkeit ................................................................................................. 41 2.3 Standardisierbarkeit ............................................................................................... 42 2.4 Normierbarkeit ....................................................................................................... 46 2.5 Modularisierbarkeit ................................................................................................ 48 2.6 Vermarktbarkeit ..................................................................................................... 49 3 Shared F&A-Services – Quo vadis? ................................................................................ 50 3.1 Shared F&A-Services im Konzern......................................................................... 51 3.2 Shared F&A-Services im Netzwerk ....................................................................... 52 3.3 Shared F&A-Services in der Kooperation ............................................................. 54 3.4 Shared F&A-Services in der Koopetition .............................................................. 55 3.5 Shared F&A-Services im Virtualisierungsverbund ................................................ 56 Quellenverzeichnis.................................................................................................................. 57
Shared Services für Finance & Accounting
1
39
Shared F&A-Services – Der Weisheit letzter Schluss?
Die effektive und effiziente Bereitstellung von Finance-&-Accounting-Leistungen und die damit zusammenhängende organisatorische Aufbau- und Ablaufgestaltung stehen mit der Grundsatzfrage in Verbindung, wer in einem Konzern F&A-spezifische Aktivitäten durchführt. Die Spannweite der hieran beteiligten Instanzen reicht vom Rechnungswesen in der Konzernzentrale bis zu den spezifischen F&A-Aufgaben in dezentralisierten Einheiten bzw. Projektgruppen. Im Gegensatz zu Sekundärleistungen der Informationstechnologie (IT) oder des Einkaufs, bei denen die Bereitstellungsevaluierung zwischen (nahezu) vollständiger Eigenerstellung und (nahezu) vollständigem Fremdbezug sinnvoll sein kann,1 bedarf es bei F&A eines anderen Blickwinkels. Es ist einerseits eine vollständige Dezentralisierung kaum denkbar, bei der sämtliche F&A-Aktivitäten in die ausschließliche Entscheidungshoheit der Konzerneinheiten verlagert werden, weil auf diese Weise u. a. der steuer- und finanzrechtlichen Berichterstattung bzw. der erforderlichen Transparenz insbesondere von börsennotierten Konzernen nicht nachgekommen werden könnte. Andererseits führt eine Diskussion über die vollständige Zentralisierung des Rechnungswesens in einer übergreifend agierenden Fachabteilung ins Leere, weil bspw. vorhandene Vermögensgegenstände auf Kostenstellenebene erfasst und dokumentiert werden müssen. Der vorliegende Beitrag soll Shared Services für Finance und Accounting (oder – synonym – Rechnungswesen, F&A) systematisieren und einen Einblick in aktuelle und sich evolutionär entwickelnde künftige Erscheinungsformen der organisatorischen Gestaltung vermitteln.
2
Shared F&A-Services – Charakteristika
Die Determinierung der Charakteristika von Shared F&A-Services ist eng mit der Fragestellung verknüpft, inwieweit bestimmte F&A-Leistungen, die sich wiederum aus so genannte F&A-Komponenten zusammensetzen, ein wettbewerbsfähiges Potenzial aufweisen. Hintergrund dieser Überlegung ist, dass Wettbewerbsvorteile nicht nur aus den Ergebnissen eines Primärprozesses resultieren, die am Markt angeboten werden. Kompetitive Vorteile erwachsen demzufolge ebenfalls aus allen zur Erstellung von Shared F&A-Services erforderlichen Aktivitäten,2 so auch aus rechnungswesenspezifischen Sekundärleistungen und der Art ihrer Bereitstellung.3 PORTER hat Überlegungen im Rahmen des Konzepts der Wertschöpfungskette konkretisiert.4
1 2 3
4
Vgl. VON GLAHN/KEUPER (2006), S. 8 ff. Vgl. PORTER (1985), S. 33 ff. Auf das exakte Vorgehen zur Zerlegung der Wertschöpfungskette in ihre einzelnen Tätigkeiten, eine nachgelagerte Beurteilung im Hinblick auf ihre strategische Relevanz, d. h. eine Klassifikation in Primär- und Sekundärleistungen, wird an dieser Stelle nicht näher eingegangen. Außerdem wird an dieser Stelle auf eine Erläuterung zum detaillierten Vorgehen der Identifikation bedeutsamer Sekundärleistungen von F&A sowie deren Zuordnung zur F&A-leistungserbringenden Konzerneinheit verzichtet, weil dies bereits ausführlich im Schrifttum diskutiert wurde, vgl. PORTER/MILLAR (1985), S. 149 ff. Vgl. BEER (1998), S. 162 ff., und BARTH (2003), S. 173.
40
VON GLAHN
Die Eingrenzung derjenigen Leistungen des Rechnungswesens, die als Shared F&A-Services qualifizierbar sind, beginnt demnach mit den grundlegenden Faktoren der Identifizierbarkeit und Konkretisierbarkeit. Neben der Identifizierbarkeit und Konkretisierbarkeit als sehr rudimentär einzustufende Charakteristika ist ein möglicher Shared F&A-Service auf seine generelle Erstellungs- und Bereitstellungstauglichkeit zu überprüfen. Ausgehend von der Annahme, dass sämtliche in Betracht gezogenen Analyseobjekte identifiziert und konkretisiert werden können, sind zur Charakterisierung von Shared F&A-Services folgende Eigenschaften mit Ausnahme der Vermarktbarkeit dem Oberbegriff Vereinheitlichung zuzuordnen:5 Isolierbarkeit, Kategorisierbarkeit, Standardisierbarkeit, Normierbarkeit, Modularisierbarkeit und Vermarktbarkeit.6
2.1
Isolierbarkeit
Ob eine ursprünglich dezentral ausgerichtete F&A-Leistung von einem definierten Zeitpunkt an durch ein Shared-F&A-Service-Center, d. h. durch eine selbstständig operierende, F&Aleistungserbringende und in den Konzern i. w. S. eingebettete Organisationseinheit bereitgestellt werden kann,7 hängt entscheidend vom Wesen der F&A-Sekundärleistung ab. Die Übertragung einer einheitenspezifisch verantworteten F&A-Leistung bedeutet das Herauslösen dieser Teilaufgabe aus dem Handlungs- und Entscheidungsspielraum einer Konzerneinheit und damit eine Verselbstständigung dieser F&A-Sekundärleistung. Eine solche Loslösung aus dem Gesamtgefüge primärer und sekundärer Aktivitäten ist jedoch nur realistisch, wenn der zu transferierende Shared F&A-Service das Charakteristikum der Isolierbarkeit erfüllt bzw. – wie es SPINTLER formuliert – in die Lage versetzt wird, „[...] ein Eigenleben zu führen.“8 Danach beschreibt die F&A-spezifische Isolierbarkeit eine Möglichkeit, künftige Shared F&A-Services aus einem bestehenden F&A-Beziehungsgeflecht herauszutrennen, die dann zu selbstständig existenzfähigen, von anderen F&A-Leistungsinstanzen abgrenzbaren Objekten mutieren. Notwendig ist die Isolierbarkeit eines Shared F&A-Services vom Rest eines bestehenden Gesamtgebildes, um u. a. nach der Implementierung eine wirtschaftliche und qualitativ hochwertige Bereitstellung zu beurteilen, ggf. spezifische Weiterentwicklungen vorzunehmen, u. a. Verknüpfungen zu anderen F&A-Applikationen zu realisieren und den Aufbau eines Portfolios mit hohem Wiederverwendungsgrad zu ermöglichen. Ein Shared F&A-Service kann zwar isolierbar sein, wird deshalb jedoch nicht konsequenterweise sein ursprüngliches Funktionsgefüge behalten. Es ist denkbar, einen Shared F&A-Service um den Preis einer Beeinträchtigung seines Funktionsumfangs zu isolieren, wenn z. B. eine außerordentlich enge Verknüpfung mit anderen Sekundärleistungen bzw. der Primäraufgabe innerhalb des Wertschöpfungsprozesses gegeben ist. Hat sich eine F&A-Komponente bspw. in proprietären und/oder langfristig gewachsenen F&A-Prozessen und -Strukturen entwickelt, ist sie zumeist nur mit großem Aufwand in einen Shared F&A-Service transformierbar, d. h. in einen alternativen Anwendungszusammenhang zu versetzen. Es kommt also darauf an, dass ein Shared F&A-Service sowohl vom Umfang als auch von seiner inneren Gestalt her die Basis für eine selbstständige Behandlung durch ein Shared-F&A-Service-Center 5 6 7 8
Vgl. zu den folgenden Ausführungen SCHRÖDER (2001), S. 118 ff. Vgl. zu den folgenden Ausführungen insbesondere die Analogie zur Transformation in Shared IT-Services in VON GLAHN/OECKING (2006), S. 14 ff. Vgl. VON GLAHN/KEUPER (2006), S. 17. SPINTLER (1962), S. 66.
Shared Services für Finance & Accounting
41
bietet.9 Ein Shared F&A-Service sollte also nicht nur als solcher identifizierbar bzw. eingrenzbar sein, sondern hat seine mit den Primärleistungen komplementären Funktionen nahezu vollständig separierbar zu entfalten.10 Inwieweit Shared F&A-Services jeweils dieser Anforderung genügen, ist jedoch nicht generell abstrahierbar. Sobald bspw. ein Shared F&AService beim Erstellungsprozess auf informationstechnologische oder rechnungswesenspezifische Vorleistungen zurückzugreifen hat und sein Zugriff nach der Herauslösung aus dem F&A-Gesamtkomplex nur unter höchst ineffizienten Bedingungen gewährleistet werden kann, wird ein effektiver und effizienter Betrieb durch ein Shared-F&A-Service-Center problematisch.11
2.2
Kategorisierbarkeit
Die Kategorisierbarkeit von Shared F&A-Services hängt sehr eng mit ihrer Isolierbarkeit zusammen und gilt als wesentliche Vorbedingung der Standardisierung. Sie beschreibt die Möglichkeit einer Zuordnung eigenständig existenzfähiger Shared F&A-Services zu der jeweils übergeordneten Kategorie (Cluster). Diese Cluster einzelner Shared F&A-Services, wie z. B. Financial Accounting, Management Accounting, F&A-Methodiken und F&A-Risiko-Management, setzen sich aus F&A-Komponenten zusammen. Notwendig ist die Kategorisierbarkeit von Shared F&A-Services, um u. a. eine wirtschaftliche und qualitativ hochwertige Bereitstellung überwachen und beurteilen zu können, ggf. spezifische Weiterentwicklungen vorzunehmen, Verknüpfungen zu anderen F&A-Komponenten zu ermöglichen und einen flexiblen Aufbau eines Shared-F&A-Service-Portfolios zu gestalten. Durch die Kategorisierung von Shared F&A-Services wird infolgedessen sowohl die operative Beherrschbarkeit als auch die Wiederverwendbarkeit von F&A-Komponenten mittels gemeinsamer oder ähnlicher Eigenschaften ermöglicht. Es ist von besonderer Bedeutung, dass die Definition der einzelnen F&A-Cluster, -Kategorien und -Komponenten möglichst exakt erfolgt, um eine erstellungsund bereitstellungsspezifische Verantwortungszuordnung möglichst eindeutig sicherzustellen. Dies ist insbesondere im Hinblick auf eine potenziell transnational verteilte bzw. auf eine konzernübergreifende Verantwortungszuordnung wichtig. Abbildung 1 illustriert den Aufbau eines solchen shared-F&A-service-spezifischen Portfolios. Sowohl die zuvor angesprochene Isolierbarkeit als auch die Kategorisierbarkeit tragen bereits durch ihren ordnenden Charakter zur Effektivität und Effizienz von Shared F&A-Services bei.
9 10 11
Dieser Umstand wird z. T. als isolierte Existenzfähigkeit bezeichnet, vgl. SPINTLER (1962), S. 67. Vgl. HEINZL (1993), S. 43 f. Vgl. NAGENGAST (1997), S. 68.
42
VON GLAHN
Shared F&A-Services
Shared F&A-Service Cluster Financial Accounting
Management Accounting
F&A-Methodiken
F&A-Risiko-Management
Finance Management
Investitions-Management
F&A-Modelle
Externes ComplianceManagement
Asset Management
F&A-Budgetierung
F&A-Analysen
Internes ComplianceManagement
Tax Management
F&A-Controlling
F&A-Reporting
IT-Risiko-Management
Gewinn-&-VerlustManagement
F&A-Planung
F&A-System-Management
…
Forderungs-Management
Leasing-Management
…
VerbindlichkeitsManagement
Kosten- und PreisManagement
Wertpapier-Management
…
Liquiditäts-Management
Vorrats-Management
…
Abbildung 1:
Shared F&A-Services – Exemplarisches Portfolio12
Die anschließend erörterten Faktoren Standardisierbarkeit, Normierbarkeit und Modularisierbarkeit sind zur Verbesserung der strategischen Erfolgsfaktoren Kosten, Qualität und Zeit durch Shared F&A-Services ausschlaggebend.
2.3
Standardisierbarkeit
Es stellt sich für jede F&A-Leistung mit den zuvor beschriebenen Charakteristika die Frage, inwieweit – insbesondere bei der Erstellung und Bereitstellung – auf individuelle Bedürfnisse oder Besonderheiten der Kunden einzugehen ist. Der Anbieter rechnungswesenspezifischer Shared Services strebt an, sein Portfolio weitestgehend zu standardisieren13, um verschiedenartige F&A-Cluster effektiv und effizient im Verbund einzusetzen, was deren Kompatibilität voraussetzt.14 Vorteile aus Standardisierung haben einerseits der individuellen Präferenzstruktur15 des Kunden zu entsprechen. Andererseits ist die Ausnutzung spezifischer Vorteile 12 13 14 15
Vgl. u. a. BANGEMANN (2005), S. 22 ff. Der englische Begriff Standard bezeichnet generell eine Spezifikation, die eine verbreitete Verwendung findet, vgl. PICOT/REICHWALD/WIGAND (2003), S. 183. Vgl. PICOT/REICHWALD/WIGAND (2003), S. 182. Die individuelle Präferenzstruktur bezeichnet die Vorstellungen eines Nachfragers hinsichtlich eines Konglomerats von Eigenschaften und Ausprägungen, die den Idealpunkt seiner als bestmöglich eingeschätzten Leistung darstellen, vgl. MAYER (1993), S. 35 ff., und PILLER/SCHALLER (2002), S. 446.
Shared Services für Finance & Accounting
43
einer technologischen Basis vom Kunden höher zu bewerten als deren Kompatibilität mit alternativen rechnungswesenspezifischen Komponenten.16 Der zu wählende Grad einer Standardisierung setzt somit die Auseinandersetzung mit dem notwendigen Maß an Individualisierung eines jeden Shared F&A-Service voraus. Standardisierung von Finance und Accounting beinhaltet die Vereinheitlichung der i. w. S. verbundenen F&A-Komponenten sowie relevanter Prozesse und eingesetzter Verfahren der Erstellung.17 Dies hat die Ausrichtung der angebotenen Shared F&A-Services an den Ansprüchen, die abnehmende Konzerneinheiten erwartungsgemäß gemeinsam aufweisen, zur Folge.18 Bei extremer Interpretation von Standardisierung wird die Befriedigung kundenindividueller Präferenzen durch einen Anbieter von Shared F&A-Services nicht vorgesehen, indem die Abnehmerschaft als gleichsam anonym angesehen wird.19 Der Anbieter verzichtet in diesem Fall auf eine intensive Interaktion mit (potenziellen) Nachfragern während der Erstellung und Bereitstellung, sodass eine diesbezügliche Kundennachfrage auch unmittelbar, d. h. ohne tief greifende Evaluierung der individuellen Präferenzstruktur erfüllt werden kann.20 Individualisierung21 als Gegenstück zur Standardisierung von Finance & Accounting ist aus dem Blickwinkel eines Anbieters dadurch charakterisierbar, dass das rechnungswesenspezifische Leistungsangebot bis zu einem bestimmten Vollständigkeitsgrad an den Anforderungen bzw. Bedürfnissen eines einzelnen Abnehmers oder einer kleinen Abnehmergruppe mit homogenen Ansprüchen ausgerichtet wird.22 Die relevanten F&A-Komponenten sind für die Abnehmer als individualisiert wahrnehmbar, weil sich die eigenen Vorstellungen bzgl. einer Kombination der bevorzugten Eigenschaften in dem Angebot widerspiegeln. Individualisierte F&A-Anforderungen korrespondieren folglich in besonderem Maße mit dem Erfolgsfaktor Qualität, sodass durch anbieterspezifisches Fachwissen und hohe Kundenbindung Effektivitätsvorteile gegenüber dem Wettbewerb realisierbar sind.23 Zwischen der reinen Individualisierung von F&A-Angeboten als extremer Orientierung an den spezifischen Präferenzen des einzelnen Konzernkunden und einem hochgradig vereinheitlichten Shared F&A-Service als Ausrichtung an den Durchschnittsansprüchen potenzieller Nachfrager existiert eine Vielzahl an Mischformen.24 Diese zeichnen sich dadurch aus, dass sie je nach Ausprägung aus mehr oder weniger standardisierten und individualisierten Bestandteilen bestehen. Individualisierung und Standardisierung stellen infolgedessen zwei unterschiedliche Wege zur Erreichung und Sicherung von Wettbewerbsvorteilen dar. Weiterhin schließen sich diese strategischen Ausrichtungen nicht gegenseitig aus, weil sie sich auf dem angedeuteten Kontinuum wiederfinden.
16 17 18 19 20 21 22 23 24
Vgl. PILLER (2003), S. 28. Vgl. KLEINALTENKAMP (1995), Sp. 2354. Vgl. zu den folgenden Ausführungen MAYER (1993), S. 42 f. und S. 53. Vgl. SCHWENK-WILLI (2001), S. 72. Vgl. MAYER (1993), S. 43. Zum Begriff der Individualisierung vgl. KEUPER (2004), S. 79 ff. und S. 90 ff. Vgl. KEUPER (2001), S. 101. Vgl. SCHWENK-WILLI (2001), S. 71 ff., und KEUPER (2004), S. 97. Vgl. PILLER/SCHALLER (2002), S. 444.
44
VON GLAHN
Werden konzernübergreifende Zielsetzungen ausgeblendet, ist auf Basis der zuvor getroffenen Überlegungen die Notwendigkeit einer Standardisierbarkeit von Shared F&A-Services nur dann gegeben, wenn aus der Sicht eines Anbieters und der Nachfrager Effektivitäts- und Effizienzvorteile einer Standardisierung nachweisbar den Vorteilen der Individualisierung überlegen sind. Werden jedoch konzernübergreifende Zielsetzungen beachtet, denen sich ein Shared-F&A-Service-Center unterzuordnen hat, spielen im multinationalen Kontext v. a. homogene F&A-Prozesse und -Strukturen, die durch ein hohes Maß an Interoperabilität und Kompatibilität von F&A-Komponenten geprägt sind, zur Erreichung von Wettbewerbsvorteilen eine gewichtige Rolle.25 Harmonisierungsbestrebungen innerhalb eines Konzerns auf dem Gebiet von Finance & Accounting sind grundsätzlich auf unterschiedliche Weise implementierbar. Die drei wesentlichen Standardisierungsrichtungen sind die vorangehend dargestellten Shared F&A-Service Cluster Financial Accounting, Management Accounting, F&A-Methodiken und F&A-Risiko-Management, die Konzerneinheiten und die Länder, in denen der Konzern repräsentiert ist (siehe Abbildung 2).
Shared F&AServices
Länder ..n SV SV SV
A
B
C
TS
TS SD
ICN
TS
SD ICM
SD
ICN PG
ICN
ICM
ICM
PG
Med
PG
Med
A&D
Med
A&D
A&D
I&S
Osram
Deutschland
I&S
Osram
I&S
PTD
Osram
China PTD
USA
PTD
… ..m
… ..m
… ..m
… … … … … … … … … ..m
Financial Accounting Management Accounting F&A-Methodiken F&A-Risiko-Management
Konzerneinheiten Abbildung 2:
Shared F&A-Services – Standardisierungsrichtungen26
Die teilweise mangelnde Abstimmung und Kooperation zwischen den einzelnen F&A-Applikations-Herstellern, eine damit einhergehende unzureichende Konnektivität der verwendeten F&A-Applikationen sowie der uneinheitliche Einsatz informationstechnologischer und rechnungswesenspezifischer Hilfsmittel in Kombination mit einheitenspezifischen F&A-Metho25 26
Vgl. zu den folgenden Ausführungen RÖMER (1997), S. 188 ff. In Anlehnung an VON GLAHN (2007), S. 95.
Shared Services für Finance & Accounting
45
diken führt zu erheblichen Zusatzkosten bei der Informationszusammenführung auf Konzernebene. Zur Integration z. T. multinational verteilter Wertschöpfungsaktivitäten eines Konzerns hat ein Anbieter von Shared F&A-Services demzufolge den Einsatz von F&A-Standards innerhalb seines Handlungsraumes bzw. Absatzgebietes zu fördern, um Kompatibilitätsund Interoperabilitätsbarrieren verteilter rechnungswesenspezifischer Instanzen zu überwinden. Ebenfalls kann unter Zuhilfenahme standardisierter F&A-Schnittstellen ein denkbarer Zielkonflikt zwischen einer Harmonisierung von F&A-Prozessen und -Strukturen innerhalb eines Konzerns und z. B. einer Bestellanbindung zu externen Wertschöpfungspartnern abgeschwächt oder sogar aufgehoben werden.27 Werden jetzt die maßgeblichen Fragestellungen im Hinblick auf den notwendigen Grad der Standardisierung bzw. Individualisierung von Shared F&A-Services überprüft,28 nämlich ¾
„Positioniert sich ein Shared-F&A-Service-Center gegenüber seinen Konzernkunden mithilfe von standardisierten Shared F&A-Services oder eher durch ein individualisiertes F&A-Portfolio?“ und
¾ „Beeinflussen übergeordnete Konzernziele die strategische Ausrichtung von Shared F&A-Services in Bezug auf Angebote zur Befriedigung individueller Präferenzen von konzernierten Einheiten?“, so kann zusammenfassend festgestellt werden, dass sich eine starke Tendenz zur hohen Standardisierbarkeit als ein weiteres wesentliches Charakteristikum von Shared F&A-Services durchsetzt. In Analogie zur Argumentation von KEUPER und OECKING ist es wichtig, dass Konzernabnehmern angebotene Shared F&A-Services29 ¾
mehrheitlich standardisierbar sind, um Größendegressionseffekte (Economies of Scale) und Lernkurveneffekte (Economies of Savings) innerhalb eines Konzerns zu realisieren,
¾
überwiegend standardisierbar sind, um Volumenvorteile und Fixkostendegressionseffekte (Economies of Stream) zu realisieren,
¾
größtenteils standardisierbar sind, um Vorteile des Verbunds (Economies of Scope)30 durch center-internes Zusammenfassen zu realisieren sowie
¾ vornehmlich standardisierbar sind, um Beschleunigungen der Prozesslandschaft (Economies of Speed) zu realisieren. Shared F&A-Services zeichnen sich demnach insbesondere dadurch aus, dass sie – analog zu Shared IT-Services – i. S. von Zeit- und Kostensenkungen zur Entlastung der Transaktionspartner beitragen.31 Entlastung ist hierbei als ein direktes Resultat der Standardisierung und der kontinuierlichen Prozessverbesserungen durch Shared-F&A-Service-Center zu interpretieren, sodass ein rechnungswesenspezifisches Portfolio mithilfe der Standardisierung zu geringeren Kosten erstellt und damit in der Konsequenz den Konzernabnehmern preiswerter angeboten werden kann. Sofern sich ein Anbieter von Shared F&A-Services also die Econo27 28 29 30 31
Vgl. RÖMER (1997), S. 194. Vgl. VON GLAHN (2007), S. 96. Vgl. KEUPER/OECKING (2006), S. 395. Zum Begriff der Economies-of-Effekte vgl. KEUPER (2004), S. 126 ff. Der von PANZAR und WILLING formulierte Economies-of-Scope-Effekt orientiert sich am synergetischen Vorteil der Verbunderstellung, vgl. PANZAR/WILLING (1981), S. 268 f. Vgl. VON GLAHN (2007), S. 97.
46
VON GLAHN
mies-of-Effekte zunutze machen kann, legt er das Fundament einer gegenüber rechnungswesenspezifischen Individualleistungen v. a. effizienteren Erstellung und Bereitstellung. Ob der Shared F&A-Service von einem gewissen Zeitpunkt an durch einen Anbieter zur Verfügung gestellt wird, ist daher mit dem Grad der Standardisierbarkeit eines Shared F&A-Services eng verbunden.
2.4
Normierbarkeit
Der Begriff Normierung wird in diesem Beitrag eng gefasst und als ein Objekt interpretiert, das „nach einheitlichem Schema festzulegen ist“ bzw. „einheitlich zu gestalten ist“.32 Während sich Standardisierung von F&A auf den Grad der Berücksichtigung individueller Kundenanforderungen sowie auf die Vereinheitlichung eingesetzter F&A-Methodiken und -Hilfsmittel bezieht, setzt die F&A-Normierung bei den an den F&A-Prozessen und -Strukturen beteiligten Ressourcen selbst an mit dem Ziel, Synergien zu erzeugen. Im Mittelpunkt steht also die Auflösung starrer F&A-Konfigurationen bzw. das Zusammenwachsen oder gar eine Fusion der betroffenen F&A-Prozesse und -Strukturen. Normierung i. S. der Technologie beschreibt die fortschreitende Diffusion struktureller Funktionen und Prozesse.33 Die Motivation zur Normierung von Shared F&A-Services resultiert aus dem Bestreben, immer mehr rechnungswesenspezifische Komponenten miteinander zu verknüpfen, in Verbindung stehende Funktionen in bestimmte F&A-Prozesse und -Strukturen zu integrieren und auf diese Weise z. T. neue Funktionen zu generieren. Zudem sollen solche Shared F&A-Services den Konzernkunden verfügbar gemacht werden, die das Potenzial zur einheitenübergreifenden Kosten-, Qualitäts- und Zeitoptimierung aufweisen.34 Aus SharedF&A-Service-Sicht können drei essentielle so genannte rechnungswesenspezifische Normierungsstufen identifiziert werden (siehe Abbildung 3).
Prozess- und StrukturNormierung Applikations-Normierung Daten-Normierung
Abbildung 3:
32 33 34 35
Shared F&A-Services – Normierungsstufen35
Vgl. u. a. PICOT/REICHWALD/WIGAND (2003), S. 182 ff. Vgl. KEUPER/VON GLAHN (2006), S. 90. Vgl. KEUPER/VON GLAHN (2006), S. 84 ff. In Anlehnung an VON GLAHN (2007), S. 99.
Shared Services für Finance & Accounting
47
Zu den dargestellten F&A-Normierungsstufen zählen:36 ¾
Prozess- und Struktur-Normierung: Zusammenführung von heterogenen und friktionsbehafteten F&A-Prozessen sowie Vereinigen von rechnungswesenspezifischen Strukturen.
¾
Applikations-Normierung: Zusammenlegung und Vereinheitlichung konzernweit verstreuter F&A-Applikationen, wie z. B. Datenbank- und Konsolidierungsapplikationen auf partitionierbaren Serversystemen, durch Verringerung schnittstellenbedingter Friktionen und Förderung nicht menschgebundener Kommunikation.
¾ Daten-Normierung: Schaffung von einheitlichen Datenbeständen, die ursprünglich aus verschiedenen, über Konzerneinheiten verteilten Quellen stammen, durch den Einsatz zentraler Datenbanken und Speichereinheiten, die eine Duplizierung und Replizierung von Daten reduzieren und das Datenmanagement wirtschaftlicher, flexibler und qualitativ hochwertiger gestalten. Eine normierte Daten- und Applikationsarchitektur auf Basis einer vereinheitlichten F&AProzess- und -Strukturlandschaft bildet das Fundament für eine effektive und effiziente Verarbeitung von relevanten F&A-Informationen in Konzernen. Einheitenübergreifende Normierungsmaßnahmen tragen wesentlich zur notwendigen Harmonisierung zwischen den organisatorischen, rechnungswesenspezifischen und informationstechnologischen Bausteinen bei, sodass F&A-Prozesse, -Strukturen, -Applikationen und -Datenarchitekturen an Änderungen der organisatorischen Gestaltung leichter angepasst werden können. Die Bereitstellung von Shared F&A-Services ist nur dann sinnvoll, wenn diesbezügliche Informationen einerseits mehreren Konzerneinheiten aus einer Quelle angeboten werden und andererseits die zum Betrieb und zur Betreuung notwendigen Ressourcen auf das höchste Effektivitäts-/Effizienzverhältnis austariert werden, sodass ein Shared-F&A-Service-Center in die Lage versetzt wird, konkurrenzfähig aufzutreten. Ansonsten handelt es sich aus der Sicht eines Konzerns um eine reine Bereitstellungsverlagerung. Die Normierbarkeit von Shared F&A-Services hat folglich dazu beizutragen, rechnungswesenspezifische Interaktionsabläufe zwischen Anbieter und Konzernnachfragern zu vereinheitlichen. F&A-Normierung bedeutet demzufolge nicht nur die Nutzung schnittstellenreduzierter F&A-Komponenten, sondern fördert gemeinsames Handeln aus der Sicht der Konzerneinheiten, indem bisher uneinheitlich ausgeführte Tätigkeiten zusammengezogen werden. Speziell die Zusammenführung von Datenbeständen in zentralen Datenbanken leistet somit nicht nur einen Beitrag zur Erhöhung der Datenaktualität, -korrektheit und -konsistenz,37 sondern bedeutet auch eine Reduzierung einheitenspezifischer Datenerfassungs-, Kontroll- und Abstimmungsaktivitäten.38 Folgerichtig ist die F&A-Normierbarkeit ein weiteres essentielles Charakteristikum von Shared F&A-Services.
36 37
38
Vgl. KEUPER/VON GLAHN (2006), S. 90. Die Verwendung fragmentierter F&A-Prozesse und -Strukturen kann dazu führen, dass in den einzelnen Konzerneinheiten ermittelte Kennzahlen nicht vergleichbar sind, was zusätzliche Abstimmungs- und Korrekturaktivitäten bedeutet, um eine Vereinheitlichung herbeizuführen. Vgl. SCHRÖDER (2001), S. 130 f.
48
2.5
VON GLAHN
Modularisierbarkeit
Neben den bereits diskutierten Merkmalen stellt die Modularisierung ein weiteres zentrales Charakteristikum von Shared F&A-Services dar.39 Sie gilt als Schlüssel für die Überbrückung und Relaxierung des Spannungsbogens zwischen Standardisierung und Individualisierung.40 Die Modularisierung ist jedoch kein neues Konzept, das erst unter dem Stichwort Shared Services oder alternative Bereitstellungsalternativen von konzernspezifischen Sekundärleistungen eingeführt wurde. Es handelt sich vielmehr um ein bereits in der Vergangenheit zur Rationalisierung bei der materialintensiven Leistungserstellung bewährt eingesetztes Instrument.41 Auf der F&A-Komponentenebene veranschaulicht die Modularisierung „[...] the use of interchangeable units to create product variants.“42 Demzufolge werden isolierbare, austauschbare und standardisierte F&A-Komponenten als F&A-spezifische Module bezeichnet.43 Ziel der Verwendung rechnungswesenspezifischer Module ist es, ein Shared F&A-ServicePortfolio so aufzubauen, dass verwendete F&A-Komponenten bei unterschiedlichen Shared F&A-Services ohne Veränderung i. S. einer Austauschbarkeit Verwendung finden. Hauptsächliche Eigenschaft der Module ist die Unabhängigkeit bei gleichzeitiger Kompatibilität, was wiederum ein Gefüge schafft, das eine bestimmte Anzahl unterschiedlicher Kombinationsmöglichkeiten bietet.44 Aus einer begrenzten Anzahl vereinheitlichter, untereinander kompatibler ‚Baugruppen‘ können bspw. kundenspezifische Optionen erzeugt werden, ohne dabei die grundlegenden Prämissen zur Umwandlung von dezentral verwendeten F&A-Leistungen in vereinheitlichte Shared F&A-Services zu konterkarieren. Es ist hierfür notwendig, ein informationstechnologisches und rechnungswesenspezifisches Grundgerüst zu definieren, das für alle Varianten eines Shared F&A-Services gleich ist, eine shared-F&A-service-übergreifende Verwendung findet und den wesentlichen Bestandteil des Shared-F&A-Service-Portfolios bildet.45 Hieraus resultiert nicht zuletzt eine Reduzierung der Komplexitätskosten durch die Möglichkeit einer u. a. verbesserten Nutzung von Größendegressionseffekten bei der Entwicklung, Erstellung und Bereitstellung von F&A-Komponenten bei gleichzeitiger bedingter Flexibilisierung des Shared-F&A-Service-Portfolios. Zudem lassen sich auch bei der Erstellung und Bereitstellung von Shared F&A-Services sowie bei der Fehlerbereinigung Verbundeffekte verwirklichen, wenn die gleichen F&A-Komponenten in einer Vielzahl unterschiedlicher Shared F&A-Services einsetzbar sind.46 Die Kombination aus Größendegressions- und Verbundeffekten begründen so genannte Economies of Integration47, die im Wesentlichen Einspareffekte aus der „Variation der Fähigkeit“ in Verbindung mit der „Variation der Menge“ beschreiben.48 Neben der rechnungswesenspezifischen Leistungsebene existiert Modularität auch auf der Prozessebene, d. h. nicht nur der Shared F&A-Service kann in F&A-Kompo39 40 41 42 43 44 45 46 47 48
Vgl. zu den folgenden Ausführungen PILLER (2003), S. 226 ff. Vgl. u. a. BOUTELLIER/SCHUH/SEHEZZI (1997), S. 57. Vgl. u. a. PILLER (2003), S. 227 f. ULRICH/TUNG (1991), S. 73. Vgl. EVERSHEIM/SCHENKE/WARNKE (1998), S. 34. Vgl. SCHNÄBELE (1997), S. 131. Vgl. DUDENHÖFFER (1997), S. 144. Vgl. REISS/BECK (1994), S. 30. Vgl. NOORI (1990), S. 142. Vgl. KEUPER (2004), S. 137.
Shared Services für Finance & Accounting
49
nenten aufgespalten werden, sondern auch die dem Rechnungswesen zugrunde liegenden Entwicklungs-, Erstellungs- und Betriebsprozesse. Auch hier wird eine Komplexitätsreduzierung durch Schaffung wiederholbarer F&A-Prozessabschnitte angestrebt.49 Es bleibt festzustellen, dass mit der Entbündelung z. T. vermeintlich unnachgiebiger, vereinzelt autonom lebensfähiger F&A-Prozesse und -Strukturen, die wiederum mit der IT-Landschaft des Konzerns im Gesamtkontext zu bewerten sind, die Voraussetzung geschaffen wird, ein Shared-F&A-Service-Portfolio mit modularem Charakter zu bilden. Sofern es also gelingt, den bestmöglichen Standardisierungsgrad der shared-F&A-service-basierten Transaktionsprozesse zu erreichen und die F&A-Komponenten der Shared F&A-Services durch eine bestmögliche F&A-leistungsinhärente Varietät zu gestalten, können Economies of Integration synergetisch realisiert werden.50 Durch einen modularen Aufbau des Shared-F&A-ServicePortfolios und der daran angelehnten Transaktionsprozesse können auf Basis der kundenspezifischen F&A-Prozesse und -Strukturen überflüssige Funktionen von F&A-Komponenten selektiert und ausgeschlossen werden, was die Transparenz des Gesamtgefüges erheblich erhöhen kann.51 Es ist jedoch zu berücksichtigen, dass die Trennung von einzelnen F&AKomponenten aus ökonomischer, führungspolitischer, informationstechnologischer und rechnungswesenspezifischer Sicht nachvollziehbar sein muss.52
2.6
Vermarktbarkeit
Die Vermarktbarkeit von Shared F&A-Services steht in engem Zusammenhang zu den erzielbaren Kosten-, Qualitäts- und Zeitvorteilen, d. h. es ist entscheidend, inwieweit das Portfolio eines Shared-F&A-Service-Centers von der potenziell abnehmenden konzernierten Zielgruppe in den relevanten Erstellungs-, Bereitstellungs- und Shared-F&A-Service-Eigenschaften besser beurteilt wird als alternative Wettbewerbsangebote.53 Ein im Vergleich zu Wettbewerbern überlegenes Shared-F&A-Service-Angebot wird demnach als Wettbewerbsvorteil verstanden, wenn es sich aus der Sicht eines (potenziellen) Konzernkunden um ein kaufentscheidendes Merkmal handelt, es subjektiv als Erfolg versprechend empfunden wird und der Anbieter es dauerhaft ohne Gefahr einer unmittelbaren Substitution bereitstellen kann.54 Das auf einem subjektiven bzw. selektiven Wahrnehmungs- und Bewertungsvorgang basierende Urteil ist grundsätzlich relativ, aber dennoch vermarktungsentscheidend.55 Dieses Verständnis unterstreicht, dass ein Wettbewerbsvorteil erzielbar ist, wenn spezifische Charaktere vorliegen, die den angebotenen Shared F&A-Services dauerhaft eine exponierte und insbesondere wahrnehmbare Stellung einräumen. Somit liegt aus der Sicht der Konzernkunden ein besonderes Augenmerk auf wettbewerblichen Aspekten, sodass die Vermarktbarkeit von Shared F&A-Services an qualitative, quantitative, temporäre und monetäre Erfüllungsaspekte zur Überprüfung der Konkurrenzfähigkeit des Shared-F&A-Service-Centers im Vergleich zu externen Anbietern geknüpft wird. 49 50 51 52 53 54 55
Vgl. PICOT/REICHWALD/WIGAND (2003), S. 230. Vgl. KEUPER (2001), S. 338. Vgl. WINGERT (1997), S. 186 ff. Vgl. KEUPER (2004), S. 137. Vgl. BENKENSTEIN (1995), S. 182. Vgl. AAKER (1998), S. 23. Vgl. ENGELHARDT/SCHÜTZ (1991), S. 395.
50
3
VON GLAHN
Shared F&A-Services – Quo vadis?
Konzerne befinden sich im internationalen Kontext in einem Umfeld unsicherer Erwartungen über künftige Marktentwicklungen, besonders im Hinblick auf Kunden und Wettbewerber.56 Die Komplexität von Teilmärkten ist insbesondere in innovativen Teilmärkten sehr hoch und dynamisch,57 sodass auf Entwicklungserwartungen basierende Konzernstrategien zumeist nicht uneingeschränkt zutreffen.58 Aus diesem Grund sind z. T. kollaborative Konzepte zu entwickeln, um möglichst präzise und flexibel – in Abhängigkeit vom vorhandenen Umweltkontext – Marktveränderungen begegnen zu können. Die Reaktionsziele und -mechanismen unterscheiden sich in Abhängigkeit vom so genannten Wettbewerbsstimulus.59 Konzerne reagieren proaktiv auf Marktveränderungen – im Gegensatz zur reaktiven Marktorientierung –, wenn sie sich in Vorbereitung auf marktliche Entwicklungen mit den wettbewerblichen Aktivitäten und deren Reaktion auf Veränderungen auseinandersetzen sowie die latenten bzw. potenziell künftigen Kundenbedürfnisse antizipieren.60 Proaktivität hinsichtlich der sich verändernden Umweltbedingungen bedeutet für den einzelnen Konzern, die Möglichkeit zu nutzen, das Wettbewerbsgefüge aktiv mitzugestalten, die Zeiträume der Reaktion auf Aktionen von Wettbewerbern und die Anspruchsanpassungen von Kunden zu antizipieren.61 Wie bereits erörtert, ist die Realisierung von Wettbewerbsvorteilen eine Kombination der Ausschöpfung von Effektivitäts- und Effizienzvorteilen von Primär- und Sekundäraktivitäten eines Konzerns.62 Daher wird im Weiteren eruiert, in welchem organisatorischen Kontext F&A-Leistungen durch ein Shared-F&A-Service-Center bereitstellbar sind, um den kompetitiven Zielvorstellungen eines Konzerns Rechnung zu tragen.63 Werden Shared-F&A-Service-Erscheinungsformen nun in Abhängigkeit von der Führungsintensität hinterfragt, ergibt sich ein eigenständiges führungsabhängiges Shared-F&A-ServiceKontinuum (siehe Abbildung 4). Die in der Literatur diskutierten und evaluierten theoretischen Ausprägungen und aktuellen Praxisbeispiele dienen als Indikator dafür, dass die generellen Ziele von Shared Services hauptsächlich auf eine Steigerung der Effizienz fokussieren.64 In Abhängigkeit von der führungsintensitätsspezifischen Ausprägung rückt jedoch die Effektivitätsdimension in den Betrachtungsvordergrund und erfährt damit eine angemessene, wenn auch nicht unbedingt gleichwertige Berücksichtigung.
56 57 58 59 60 61 62 63
64
Vgl. u. a. LEIFER/O’CONNER/RICE (2001), S. 103. Vgl. PELHAM (1997), S. 291. Vgl. KNACK (2006), S. 180. Vgl. KUESTER/HOMBURG/ROBERTSON (1999), S. 90. Vgl. KNACK (2006), S. 185 f. Vgl. u. a. HAN/KIM/SRIVASTAVA (1998), S. 34. Vgl. PORTER (1985), S. 33 ff. Die nachfolgende Untersuchung der Erscheinungsformen von Shared-F&A-Service-Centern entspringt den grundlegenden Ausführungen von KEUPER und OECKING. Sie werden an dieser Stelle vertiefend untersucht, analytisch erweitert und hinsichtlich der Spezifika von Finance & Accounting konkretisiert, vgl. KEUPER/OECKING (2006), S. 387 ff. Vgl. KEUPER/OECKING (2006), S. 393 f.
Shared Services für Finance & Accounting
51
Grad abnehmender Führungsintensität
Shared F&A-Services im Virtualisierungsverbund Shared F&A-Services in der Koopetition Shared F&A-Services in der Kooperation Shared F&A-Services im Netzwerk Shared F&A-Services im Konzern
Abbildung 4:
Shared F&A-Services – Hybride Erscheinungsformen65
Bei der Untersuchung von rechnungswesenspezifischen Erscheinungsformen der Shared Services wird die Effizienz als ex ante zu erfüllende Bedingung angesehen, wohingegen die Steigerung der Effektivität eine besondere Berücksichtigung erfährt.66
3.1
Shared F&A-Services im Konzern
Den Ausgangspunkt für die shared-F&A-service-spezifischen Erscheinungsformen bildet das Konzept der konzernbasierten Shared F&A-Services. Eine diesbezügliche konzerninterne Arbeitsteilung wird i. d. R. so gestaltet, dass Shared F&A-Service-Center die übergreifende Verantwortung bei der F&A-spezifischen Leistungserstellung und -bereitstellung übernehmen. Auf diese Weise wird u. a. eine verbesserte Ressourcenallokation bei der Transaktion von Shared F&A-Services gewährleistet. Insbesondere SCHULMAN ET AL. stellen die innerhalb eines Konzerns vorzunehmende Ressourcenoptimierung in den Mittelpunkt ihrer Argumentation zur Einführung von Shared Services, indem sie den Nutzen aus der Sicht der Anteilseigner, wie etwa der Aktionäre eines Konzerns, in den Betrachtungsvordergrund stellen: „The concentration of company resources performing like activities, typically spread across the organization, in order to service multiple internal partners at lower cost and with higher service levels, with the common goal of delighting external customers and enhancing corporate value.“67 Weiterhin wird argumentiert, dass Shared Services v. a. für Konzerne relevant sind, die das Umsatzvolumen von zwei Mrd. US-Dollar überschreiten und über mehrere Konzern-
65 66 67
In Anlehnung an VON GLAHN (2007), S. 174. Vgl. BRUHN/GEORGI (2006), S. 175 ff. SCHULMAN ET AL. (1999), S. 9.
52
VON GLAHN
unternehmen verfügen.68 Bei Shared F&A-Services, die auf den Konzern ausgerichtet, aber auch limitiert sind, handelt es sich um ein generelles Aufgabenverteilungsprinzip, bei dem ¾
je nach Führungsintensität der Konzernmutter die organisatorischen und wettbewerbsorientierten Regelungen bzw. Restriktionen im Kontinuum zwischen markt- und hierarchie-orientierter Führung zur Anwendung kommen sowie
¾ die Entscheidungsbefugnis über die Auswahl, die Verantwortung für die Erstellung und die Bereitstellung von Shared F&A-Services in der Obhut einer einzigen Instanz, dem konzerninternen Shared-F&A-Service-Center, liegt. Je nach Ausprägung des Führungsstils bekommt ein Shared-F&A-Service-Center nach diesem Verständnis seine Aufträge entweder von der Konzernmutter oder von den einzelnen Einheiten. Die Anwendung dieser konzernfokussierten Erscheinungsform eignet sich für F&A-Transaktionen, die zuvor an unterschiedlichen Einheiten und/oder Standorten in vergleichbarer Weise abgewickelt wurden und aufgrund der erbrachten Menge ein Synergiepotenzial aufweisen. Die Reduzierung der F&A-prozessualen und -strukturellen Heterogenität in Verbindung mit der Vereinheitlichung von Applikationen trägt zudem zur Verbesserung des konzernspezifischen Effektivitäts- und Effizienzniveaus bei. Insofern entsprechen die Übertragung der Verantwortung, die operative Durchführung und die Bereitstellungsbündelung in Form von konzernbasierten Shared F&A-Services für mehrere Einheiten der Umwandlung einer aus Konzernsicht sekundären Aktivität in eine primäre Aufgabe aus der Sicht des Shared-F&A-Service-Centers. Damit wird vorausgesetzt, dass die Erfolgsfaktoren Kosten, Qualität und Zeit69 durch die von der Konzernführung gewünschte Wettbewerbsstrategie70 des Shared-F&A-Service-Centers in einer für den Konzern effektiveren und effizienteren Form abgebildet werden, als dies alternative F&A-Bereitstellungsalternativen vermögen.
3.2
Shared F&A-Services im Netzwerk
Als erste Abstufung abnehmender Führungsintensität einer hybrid-orientierten F&A-Bereitstellung ist die netzwerkbasierte Erscheinungsform von Shared F&A-Services zu nennen.71 Netzwerke, bei denen ein Shared-F&A-Service-Center eine Partnerrolle spielen, können aus einer aufgabenorientierten und einer formalstrukturellen Perspektive betrachtet werden.
68
69
70
71
Vgl. SCHULMAN ET AL. (1999), S. 7. So konzentrieren diese Autoren ihre Argumentation nicht speziell auf das Rechnungswesen. Shared-Services umfassen in dieser Untersuchung die Sekundärleistungen von Konzerneinheiten, die auch F&A-Leistungen einschließen, vgl. SCHULMAN ET AL. (1999), S. 3. Die kurze Auftragsabwicklung in Shared-F&A-Service-Centern, die Einhaltung der vereinbarten Liefertermine und eine hohe Flexibilität bei den Abnahmevolumina stellen für den Konzernkunden Effektivitätsaspekte dar. Aus der Sicht des Shared-F&A-Service-Centers ist die Zeit eher eine Ausprägung der Effizienz, weil über diesen Faktor, z. B. durch eine möglichst automatisierte Erstellung und Bereitstellung von Shared-F&A-Services, die Kosten und damit die wirtschaftlichen Aspekte beeinflusst werden, vgl. KEUPER/OECKING (2006), S. 393. Eine Wettbewerbsstrategie ist die Art und Weise, mit der ein Konzern auf ausgewählten strategischen Geschäftsfeldern i. S. einer Leistungs-Markt-Kombination mit Wettbewerbern konkurriert, vgl. STEINMANN/SCHREYÖGG (2000), S. 156. Vgl. GÜLLNER (2000), S. 50 ff., HESS (2002), S. 11, und KEUPER/OECKING (2006), S. 409 f.
Shared Services für Finance & Accounting
¾
53
Die anfallenden F&A-spezifischen Aktivitäten eines Netzwerks richten sich nach den erteilten Aufträgen der Netzwerkpartner an ein Shared-F&A-Service-Center. Zur sharedF&A-service-spezifischen Aufgabenerfüllung innerhalb eines Netzwerks ist ein spezifischer Ablauf der Zusammenarbeit zu konfigurieren.72 Ein solcher Prozess wird wiederum durch die F&A-relevanten Aufgaben determiniert, die über die Leistungsverflechtungen der einzelnen Partner miteinander verbunden sind.73 Die zu einem Netzwerk zusammengeschlossenen Akteure verfügen hierbei über verschiedenartige Kompetenzen und ergänzen sich somit z. B. bei der Aggregation von F&A-Komponenten oder bei der operativen Durchführung F&A-spezifischer Aufgaben.74
¾ Durch die erwähnte Kompetenzverteilung finden innerhalb eines Netzwerks Arbeitsteilungen und damit Spezialisierungen statt. Ganzheitliche Aufgabenkomplexe werden zerlegt und i. S. der Erfüllung an eine definierte Anzahl von Partnern verteilt. Das Netzwerk selbst verfügt jedoch grundsätzlich über keine eigenen Ressourcen, sodass zwangsläufig die beteiligten Netzwerkakteure die erforderlichen Arbeitsmittel und das notwendige Personal beisteuern müssen. Das Spektrum potenzieller F&A-spezifischer Netzwerkpartner, die Komponenten zur Bereitstellung von Shared F&A-Services liefern, reicht von Plattform- und Technologieanbietern über Betreiber von Call-Centern bis zu Applikationsherstellern. Zudem übernehmen so genannte F&A-Experten rechnungswesenspezifische Beratungs- und Abwicklungsaufgaben. Erforderlich sind in jedem Fall Abstimmungsinstanzen, die sowohl den Prozess der Erstellung als auch das Ergebnis mithilfe von Regeln innerhalb des Netzwerks überwachen. Die Zielerreichung von Netzwerken lässt sich polyzentrisch oder fokal gestalten.75 Polyzentrisch angelegte Netzwerke versuchen den aggregierten Nutzen aller Partner zu maximieren, während fokale Netzwerke nach der Nutzenmaximierung des jeweiligen fokalen Akteurs streben. Ein netzwerkbasiertes Shared-F&A-Service-Center stellt nach dem Verständnis dieses Beitrages eine Konzerneinheit dar, die einen fokalen Charakter hat.76 Netzwerkbasierte Shared-F&A-Service-Konstellationen begründen eine zeitlich und sachlich unbefristete, auf Basis formloser oder formaler Interaktionsvereinbarungen basierende Kollaborationsform, die aus mindestens drei Akteuren besteht.77 Im Zentrum des Interesses steht die kollaborative Ausgestaltung der Interaktionsbeziehungen zwischen netzwerkbasiertem Shared-F&A-Service-Center und einer Vielzahl von Lieferanten F&A-spezifischer Komponenten, um variantenreichere Shared F&A-Services anbieten zu können. Hauptaufgaben eines solchen fokalen Shared-F&A-Service-Centers sind neben der Koordination von Lieferanten, der Aggregation von Komponenten und der Bereitstellung von Shared F&A-Services die Risikoverteilung, die Kontrolle und die Durchsetzung eines dominant ausgestalteten Netzwerkmanagements.
72 73 74 75 76 77
Vgl. ARNOLD ET AL. (1995), S. 8 ff. Vgl. HESS (1996), S. 10 f. Vgl. HESS/SCHUMANN (1999), S. 364. Vgl. zu den folgenden Ausführungen HESS (2002), S. 26. Vgl. KEUPER/OECKING (2006), S. 409. Vgl. CHROBOK (1998), S. 242 f., und REISS (1998), S. 225 ff.
54
3.3
VON GLAHN
Shared F&A-Services in der Kooperation
Wird die Argumentation von PILLER aufgegriffen, besteht aus Sicht der Nachfrager zukünftig ein zunehmender Bedarf an standardisierter Individualität von Sekundäraktivitäten, wie z. B. bei der Bereitstellung von F&A-Leistungen.78 Eine hiermit verbundene Notwendigkeit der kundenindividuellen Massentransaktion, bei der kundenspezifische Individualität bei tendenziell gleichen Verkaufspreisen – im Vergleich zur F&A-Leistungserstellung für den anonymen Massenmarkt – gewährleistet wird, erfordert auch von den Shared F&A-Services konzernübergreifende Konzepte. Shared-F&A-service-basierte Kooperationen lassen sich nach ihrer Kooperationsrichtung unterscheiden. Es existieren horizontale, vertikale und komplementäre Koordinationsformen für Finance & Accounting:79 ¾
Die vertikale Kooperation zur Bereitstellung von Shared F&A-Services bezieht sich auf Kooperationspartner aufeinander folgender Stufen der Wertschöpfungskette innerhalb eines Shared-F&A-Service-Centers. Eine derartige Kooperationsform wird auch als Wertschöpfungspartnerschaft bezeichnet und entstammt der gleichen Branche, so bspw. die enge Kooperation zwischen F&A-Leistungslieferanten und Shared-F&A-Service-Center.
¾
Bei horizontaler Kooperation wirken ebenfalls Partner der gleichen Branche sowie der gleichen Wertschöpfungsstufe zusammen, wie z. B. bei der Entwicklung konzernspezifischer F&A-Methodiken und beim Aufbau IT-basierter Finance-Management-Plattformen.
¾ Komplementäre (oder – synonym – diagonale)80 Kooperationen werden zwischen Partnern verschiedenartiger Branchen auf unterschiedlichen Wertschöpfungsstufen geschlossen. Hier ist es u. a. denkbar, dass informationstechnologische und auf F&A spezialisierte Lieferanten und Beratungen eine Kooperation mit dem Shared-F&A-Service-Center eingehen. Die zuvor ausgeführte Interpretation unterschiedlicher Kooperationsformen, die sich insbesondere auf den Funktionsbereich des Shared-F&A-Service-Centers bezog, ist auch auf die Konzernebene übertragbar.81 So ist es denkbar, dass Konzerne hinsichtlich ihrer Kernkompetenzen vertikal, horizontal oder komplementär kooperieren und gleichzeitig bestimmte Sekundäraktivitäten, wie z. B. die konzernübergreifende Bereitstellung von Shared F&A-Services, in ihren kollaborativen Handlungsspielraum integrieren. Kooperativ und konzernübergreifend gegründete Shared-F&A-Service-Center erstellen aus einer begrenzten Zahl in hohen Volumina erstellter, untereinander kompatibler und standardisierter F&A-Komponenten (Module) ein ausgewähltes, kundenspezifisches Shared-F&A-Service-Portfolio.82 Kooperationsbasierte Shared-F&A-Service-Center werden durch Verknüpfung nicht im Wettbewerb miteinander stehender Konzerne konstituiert. Auf diese Weise kann sich das Transaktionsvolumen der einzelnen Shared F&A-Services beim konstituierten
78 79 80 81 82
Vgl. PILLER (2003), S. 5 ff. Vgl. BLOHM (1980), S. 1112 ff. Vgl. STAUDT ET AL. (1992), S. 1 ff. Vgl. PICOT/REICHWALD/WIGAND (2003), S. 306. Vgl. WÜPPING (1999), S. 65.
Shared Services für Finance & Accounting
55
Shared F&A-Service-Center auf ein notwendiges Mindestniveau akkumulieren.83 Somit wird die Voraussetzung geschaffen, seitens des kooperationsbasierten Shared-F&A-Service-Centers Angebote effektiv und effizient bereitzustellen. Gerade im Hinblick auf die Ausgestaltung eines kontinentalübergreifenden Shared-F&A-Service-Netzwerks können Skaleneffekte und die Bündelung von Expertenwissen realisiert werden, die für einen einzelnen Konzern nur in Ausnahmefällen erreichbar sind. Darüber hinaus können durch diese Erscheinungsform von Shared-F&A-Service-Centern Markt- und Mobilitätsbarrieren verändert werden. Auf diese Weise wird ggf. eine marktliche Erschließung zur Bereitstellung von Shared F&A-Services überhaupt erst möglich oder es wird die Marktmacht potenzieller Konkurrenten geschwächt.84
3.4
Shared F&A-Services in der Koopetition
Komplexe Innovationen, Entwicklungsvorhaben mit großen Anfangsinvestitionen und strategische Vorhaben, die durch rapiden technologischen Wandel gekennzeichnet sind, können teilweise von einem einzelnen Konzern nicht effektiv und effizient erzeugt werden.85 Es ist vor diesem Hintergrund situationsspezifisch zu klären, inwieweit eine Kooperation von nicht in Konkurrenz stehenden Partnern für die notwendigen Nachfragevolumina zur Realisierung wirtschaftlicher Skaleneffekte potenziell genügt. Gerade bei der Bereitstellung von Sekundärleistungen für Konzerne ist die Vereinigung bzw. das Ausbalancieren von kooperativen und kompetitiven Elementen zur Sicherung von Wettbewerbsvorteilen ein zu evaluierender Denkansatz.86 Der Begriff Koopetition (Coopetition) ist ein im angelsächsischen Sprachraum entstandenes Oxymoron, das für ein Vorliegen einer sektorspezifischen Konkurrenzsituation (Competition) zwischen Konzernen bei gleichzeitigem kooperativem Verhalten (Cooperation) in anderen Wirtschaftbereichen steht.87 NALEBUFF und BRANDENBURGER verbinden spieltheoretische Überlegungen mit der Definition von Koopetition, indem sie Wettbewerber zum Zwecke der Argumentation als „Feinde“ und Kooperationspartner als „Freunde“ titulieren.88 Beide kommen jedoch zu dem Schluss, dass Geschäftsbeziehungen aus einer Dualität der Elemente Kooperation und Konkurrenz bestehen können, d. h. das Geschäftsleben besteht sowohl aus „Krieg“ als auch aus „Frieden“.89 Die Spannbreite denkbarer Konstellationen der Koopetition kann also horizontale und vertikale Beziehungen umfassen.90 Kunden, Lieferanten bzw. Komplementäre, die alle als (potenzielle) Wettbewerber auftreten können, oder Konkurrenten kommen damit für eine derartige koopetitive Geschäftsbeziehung in Betracht.91 Somit kommt ein koopetitionsbasiertes Shared-F&A-Service-Center entweder dadurch zustande, dass es von mindestens zwei im Wettbewerb stehenden Konzernen gegründet wird, oder dadurch, dass ein Shared-F&A-Service-Center eines Konzerns Transaktionsvolumina, F&A-Applikationen, 83 84 85 86 87 88 89 90 91
Vgl. KEUPER/OECKING (2006), S. 410. Vgl. TAUCHER (1988), S. 86 ff. Vgl. KNACK (2006), S. 189. Vgl. JORDE/TEECE (1989), S. 26 ff. Vgl. KEUPER/HANS (2003), S. 56. Vgl. NALEBUFF/BRANDENBURGER (1996), S. 16 ff. Vgl. NALEBUFF/BRANDENBURGER (1996), S. 50, und AFUAH (2000), S. 387. Vgl. THELEN (1993), S. 62. Vgl. RITTER/GEMÜNDEN (1998), S. 260, und AFUAH (2000), S. 387.
56
VON GLAHN
-Prozesse, -Strukturen und F&A-spezifisches Wissen eines oder mehrerer im Wettbewerb stehender anderer Konzerne übernimmt.92 Ziel ist es, auf dem Gebiet der F&A-Sekundärleistungen erhebliche Effektivitäts- und Effizienzvorteile zu realisieren, die allen beteiligten Partnern anteilig zugänglich gemacht werden. Zwei oder mehrere Konzerne kooperieren hierbei hinsichtlich der Erstellung und Bereitstellung von Shared F&A-Services, während sie gleichzeitig absatzmarktseitig miteinander konkurrieren und um Marktanteile kämpfen. Das vorhandene Komplexitätsniveau und die damit verbundenen Komplexitätskosten sind bei einer derartigen Shared-F&A-Service-Konstellation relativ hoch einzustufen, wobei der Führungsintensitätsgrad deutlich auf eine marktliche Orientierung im hybrid-orientierten Kontinuum ausgerichtet ist. Die Vorteilhaftigkeit koopetitiver Partnerschaften liegt hingegen in der Kombination aus wettbewerblichem Druck, auch auf dem Gebiet der Sekundärleistungen effektiver und effizienter zu werden, und dem Ressourcenzugang anderer Konzerne.93 Dieses kann im Idealfall zur Vermeidung von Selbstzufriedenheit führen und eine kreative Spannung bzw. Innovativität im eigenen Konzern zur kontinuierlichen Weiterentwicklung von Shared F&A-Services fördern.94
3.5
Shared F&A-Services im Virtualisierungsverbund
Die logische Weiterentwicklung koopetitionsbasiert gegründeter und netzwerkartig operierender Shared-F&A-Service-Center ist das virtualisierungsbasierte Shared-F&A-Service-Center. Es wählt als virtuelles Subjekt aus einem Netzwerk von Unterauftragnehmern z. T. ad hoc F&A-Komponentenlieferanten aus, die für die Erstellung des jeweiligen Shared F&A-Services bestmöglich geeignet sind.95 Virtuell konzipierte Verbünde erschaffen somit eine interorganisationale Koordinations- und Kooperationsformation, bedienen sich nahezu ausnahmslos marktlicher Mechanismen und verzichten damit auf eine Institutionalisierung von stabilen Führungsfunktionen und hierarchie-orientierten Gestaltungsmechanismen.96 Die beteiligten Partner eines Virtualisierungsverbundes erbringen eine Gesamtleistung auf der Basis eines einheitlichen Geschäftsverständnisses und tragen zur Zusammenarbeit vorrangig auf Basis der eigenen Kernkompetenzen bei.97 Ein virtualisierungsbasiertes Shared-F&A-Service-Center hat damit im Vergleich zu den ausgeführten Erscheinungsformen von Shared F&A-Services die Möglichkeit, sich Veränderungen der Umweltbedingungen außergewöhnlich dynamisch mithilfe einer aktiven Veränderungsverarbeitung situativ anzupassen.98 Der Gegenstand dieses virtuellen F&A-Verbundes besteht z. B. darin, für ein durch eine Private-Equity-Investment-Gruppe übernommenes transnational aufgestelltes Unternehmen kurzfristig F&A-spezifische Aktivitäten zu übernehmen. Zur Bewältigung einer solchen Aufgabe sind Partner mit den unterschiedlichsten Kompetenzen kurzfristig zur Zusammenarbeit zu animieren, deren Kollaborationshorizont und -zeitraum jedoch u. U. schwierig determinierbar ist. Ein einzelnes Shared-F&A-Service-Center, das ge92 93 94 95 96 97 98
Vgl. zu den folgenden Ausführungen KEUPER/OECKING (2006), S. 411 f. Vgl. KNACK (2006), S. 195. Vgl. BENGTSSON/KOCK (2000), S. 424. Vgl. zu den folgenden Ausführungen KEUPER/OECKING (2006), S. 412. Vgl. BOYSEN (2001), S. 27. Vgl. ARNOLD ET AL. (1995), S. 10. Vgl. PICOT/REICHWALD/WIGAND (2003), S. 424.
Shared Services für Finance & Accounting
57
mäß den Erfolgsfaktoren Kosten, Qualität und Zeit die gewünschten komplexen Leistungen erbringen müsste, ist entweder am Markt nicht identifizierbar oder nicht willens, die hiermit verbundenen Risiken ungeteilt zu übernehmen.99 Ein virtualisierungsbasiertes Shared-F&AService-Center hingegen ist in der Lage, äußerst flexibel und besonders anforderungsgerecht in der Rolle eines virtuellen Mittlers zu agieren und den Erstellungs- bzw. Bereitstellungsprozess räumlich und zeitlich zu entkoppeln.100 Es wählt dem jeweiligen Kundenauftrag gemäß die F&A-Komponentenlieferanten bzw. Experten aus, koordiniert diese bei der Aggregation der nachgefragten Shared F&A-Services temporär und federt gegenüber dem Empfänger mögliche Risiken ab. Auf diese Weise werden die Wettbewerbsfähigkeit steigernde Elemente erschlossen, indem einzelfallspezifisch Expertenwissen konzernübergreifend genutzt und ein Zugang zu den jeweiligen Teilmärkten der Koordinationspartner ermöglicht wird. Das virtualisierungsbasierte Shared-F&A-Service-Center tritt gegenüber seinen Kunden einheitlich auf und ist auch alleiniger Haftungspartner. Es wird abnehmerseitig langfristige Interaktionsvereinbarungen hinsichtlich der Erfolgsfaktoren Qualität, Kosten und Zeit sowie der Transaktionsvolumina anstreben, während lieferantenseitig langfristig ausgerichtete, jedoch kurzfristig zu konstituierende Kooperationen zur Erfüllung der definierten Abnehmerbedingungen abgeschlossen werden. Insofern bestehen mit den einzelnen Zulieferern von shared-F&A-service-konstituierenden F&A-Komponenten Rahmenvereinbarungen, um eine effektive und effiziente Bereitstellung zu ermöglichen. Diese Art von Shared-F&A-ServiceCentern kann folglich aus kooperativ agierenden Netzwerken gebildet werden, sich aus netzwerkbasierten Shared-F&A-Service-Centern entwickeln oder auch aus im Wettbewerb zueinander stehenden Konzernen entstehen.101
Quellenverzeichnis AAKER, D. A. (1998): Strategic Market Management, New York et al. 1998. AFUAH, A. (2000): How much do your co-opetitors’ capabilities matter in the face of technological change?, in: Strategic Management Journal, 2000, Nr. 3, S. 387–404. ARNOLD, O./FAISST, W./HÄRTLING, M./SIEBER, P. (1995): Virtuelle Unternehmen als Unternehmenstyp der Zukunft?, in: HMD – Praxis der Wirtschaftsinformatik, 1995, Nr. 185, S. 8–23. BANGEMANN, T. O. (2005): Shared Services in Finance and Accounting, Aldershot/Burlington 2005. BARTH, T. (2003): Outsourcing unternehmensnaher Dienstleistungen, Frankfurt et al. 2003. BEER, M. (1998): Outsourcing unternehmensinterner Dienstleistungen, Wiesbaden 1998. BENGTSSON, M./KOCK, S. (2000): Coopetition in Business Networks, in: Industrial Marketing Management, 2000, Nr. 5, S. 411–426.
99 100 101
Vgl. SPEY (2005), S. 29. Vgl. O’HARA-DEVEREAUX/JOHANSEN (1994), S. 199. Vgl. BERGERON (2003), S. 246 f., und BANGEMANN (2005), S. 232 ff.
58
VON GLAHN
BENKENSTEIN, M. (1995): Die Verkürzung der Fertigungstiefe als absatzwirtschaftliches Entscheidungsproblem, in: Wirtschaftswissenschaftliches Studium, 1995, Nr. 4, S. 180–185. BERGERON, B. (2003): Essentials of Shared Services, Hoboken 2003. BLOHM, H. (1980): Kooperation, in: GROCHLA, E. (Hrsg.), Handwörterbuch der Organisation, Stuttgart 1980, Sp. 1112–1117. BOUTELLIER, R./SCHUH, G./SEGHEZZI, H. D. (1997): Industrielle Produktion und Kundennähe – Ein Widerspruch?, in: SCHUH, G./WIENDAHL, H. (Hrsg.), Komplexität und Agilität, Berlin et al. 1997, S. 41–63. BOYSEN, W. (2001): Interorganisationale Geschäftsprozesse in virtuellen Marktplätzen, Wiesbaden 2001. BRUHN, M./GEORGI, D. (2006): Kundenorientiertes Controlling von Corporate-Shared-Services durch Interne Kundenbarometer, in: KEUPER, F./OECKING, C. (Hrsg.), Corporate Shared Services, Wiesbaden 2006, S. 175–194. CHROBOK, R. (1998): Netzwerk, in: Zeitschrift Führung und Organisation, 1998, Nr. 4, S. 242–243. DUDENHÖFFER, F. (1997): Outsourcing, Plattform-Strategien und Badge Engineering, in: Wirtschaftswissenschaftliches Studium, 1997, Nr. 3, S. 144–149. ENGELHARDT, W. H./SCHÜTZ, P. (1991): Total Quality Management, in: Wirtschaftswissenschaftliches Studium, 1991, Nr. 8, S. 394–399. EVERSHEIM, W./SCHENKE, F.-B./WARNKE, L. (1998): Komplexität im Unternehmen verringern und beherschen, in: ADAM, D. (Hrsg.), Komplexitätsmanagement, Wiesbaden 1998, S. 29–45. VON GLAHN, C. (2007):
Shared Services, Berlin 2007 (in Vorbereitung).
VON GLAHN, C./KEUPER, F. (2006): Shared-IT-Services im Kontinuum der Eigen- und Fremderstellung, in: KEUPER, F./OECKING, C. (Hrsg.), Corporate Shared Services, Wiesbaden
2006, S. 3–26. GLAHN, C./OECKING, C. (2006): Transition und Transformation von Shared-IT-Services. Gestalterische Prämissen zur Einführung eines standardisierten IT-Server-Portfolios im Konzern, in: KEUPER, F./OECKING, C. (Hrsg.), Corporate Shared Services, Wiesbaden 2006, S. 27–52.
VON
GÜLLNER, P. S. (2000): Netzwerke als Ordnungsprinzip, Diss., Freiburg (Schweiz) 2000. HAN, J. K./KIM, N./SRIVASTAVA, R. K. (1998): Market Orientation and Organizational Performance, in: Journal of Marketing, 1998, Nr. 4, S. 30–45. HEINZL, A. (1993): Die Ausgliederung der betrieblichen Datenverarbeitung, Stuttgart 1993. HESS, T. (1996): Entwurf betrieblicher Prozesse, Wiesbaden 1996. HESS, T. (2002): Netzwerkcontrolling, Wiesbaden 2002.
Shared Services für Finance & Accounting
59
HESS, T./SCHUMANN, M. (1999): Erste Überlegungen zum Controlling in Unternehmensnetzwerken, in: ENGELHARD, J./SINZ, E. (Hrsg.), Kooperation im Wettbewerb, Wiesbaden 1999, S. 347–370. JORDE, T. M./TEECE, D. J. (1989): Competition and Cooperation, in: California Management Review, 1989, Nr. 3, S. 25–37. KEUPER, F. (2001): Strategisches Management, München/Wien 2001. KEUPER, F. (2004): Kybernetische Simultaneitätsstrategie, Berlin 2004. KEUPER, F./VON GLAHN, C. (2006): Shared-Controlling-Services, in: Zeitschrift für Controlling & Management, 2006, Nr. 2, Sonderheft, S. 84–93. KEUPER, F./HANS, R. (2003): Multimedia-Management, Wiesbaden 2003. KEUPER, F./OECKING, C. (2006): Shared-Service-Center, in: KEUPER, F./OECKING, C. (Hrsg.), Corporate Shared Services, Wiesbaden 2006, S. 389–416. KLEINALTENKAMP, M. (1995): Standardisierung und Individualisierung, in: TIETZ, B./KÖHLER, R./ZENTES, J. (Hrsg.), Handwörterbuch des Marketing, Stuttgart 1995, Sp. 2354–2364. KNACK, R. (2006): Wettbewerb und Kooperation, Wiesbaden 2006. KUESTER, S./HOMBURG, C./ROBERTSON, T. (1999): Dimensions of Determinants of Retaliatory Behavior of New Product Entry, in: Journal of Marketing, 1999, Nr. 4, S. 90–106. LEIFER, R./O’CONNOR, G. C./RICE, M. (2001): Implementing radical innovation in mature firms, in: Academy of Management Executive, 2001, Nr. 3, S. 102–123. MAYER, R. (1993): Strategien erfolgreicher Produktgestaltung, Wiesbaden 1993. NAGENGAST, J. (1997): Outsourcing von Dienstleistungen industrieller Unternehmen, Hamburg 1997. NALEBUFF, B. J./BRANDENBURGER, A. M. (1996): Coopetition, Frankfurt/New York 1996. NOORI, H. (1990): Managing the Dynamics of New Technology, Englewood Cliffs 1990. O’HARA-DEVEREAUX, M./JOHANSEN, R. (1994): Global Work, San Francisco 1994. PANZAR, J. C./WILLING, R. D. (1981): Economies of Scope, in: American Economic Review, 1981, Nr. 2, S. 268–272. PELHAM, A. M. (1997): Market orientation and performance, in: Journal of Business and Industrial Marketing, 1997, Nr. 5, S. 276–296. PICOT, A./REICHWALD, R./WIGAND, R. T. (2003): Die grenzenlose Unternehmung, Wiesbaden 2003. PILLER, F. T. (2003): Mass Customization, Wiesbaden 2003. PILLER, F. T/SCHALLER, C. (2002): E-Loyalty, in: KEUPER, F. (Hrsg.), Electronic Business und Mobile Business, Wiesbaden 2002, S. 439–464. PORTER, M. E. (1985): Competitive Advantage, New York 1985. PORTER, M. E./MILLAR, V. E. (1985): How information gives you competitive advantage, in: Harvard Business Review, 1985, Nr. 4, S. 149–160.
60
VON GLAHN
REISS, M. (1998): Mythos Netzwerkorganisation, in: Zeitschrift Führung und Organisation, 1998, Nr. 4, S. 224–229. REISS, M./BECK, T. C. (1994): Fertigung jenseits des Kosten-Flexibilitäts-Dilemmas, in: VDIZeitung Integrierte Produktion, 1994, Nr. 11/12, S. 28–30. RITTER, T./GEMÜNDEN, H. G. (1998): Die netzwerkende Unternehmung, in: Zeitschrift Führung und Organisation, 1998, Nr. 5, S. 260–265. RÖMER, M. (1997): Strategisches IT-Management in internationalen Unternehmungen, Wiesbaden 1997. SCHNÄBELE, P. (1997): Mass Customized Marketing, Wiesbaden 1997. SCHRÖDER, H. (2001): Wettbewerbsvorteile durch Standardsoftware?, Hamburg 2001. SCHULMAN, D. S./HARMER, M. J./DUNLEAVY, J. R./LUSK, J. S. (1999): Shared Services, New York et al. 1999. SCHWENK-WILLI, V. (2001): Integriertes Komplexitätsmanagement, Bamberg 2001. SPEY, M. (2005): Virtuelle Unternehmensnetzwerke, Wiesbaden 2005. SPINTLER, R. (1962): Die Problematik der Ausgliederung der betrieblichen Werbefunktion, Diss., München 1962. STAUDT, E./TOBERG, M./LINNÉ, H./BOCK, J./THIELEMANN, F. (1992): Kooperationshandbuch, Stuttgart 1992. STEINMANN, H./SCHREYÖGG, G. (2000): Management, Wiesbaden 2000. TAUCHER, G. (1988): Der dornige Weg strategischer Allianzen, in: Harvard Business Manager, 1988, Nr. 2, S. 86–91. THELEN, E. M. (1993): Die zwischenbetriebliche Kooperation, Frankfurt et al. 1993. ULRICH, K. T./TUNG, K. (1991): Fundamentals of Product Modularity, Sloan School of Management, MIT, December 1991, in: SHARON, A./BEHUN, R./PRINZ, F./YOUNG, L. (Hrsg.), Issues in Design/Manufacture Integration, New York 1991, S. 73–79. WINGERT, G. M. (1997): Wettbewerbsvorteile durch Lieferantenintegration, Wiesbaden 1997. WÜPPING, J. (1999): Produktkonfiguratoren für die kundenindividuelle Serienfertigung (Mass Customization), in: Industrie Management, 1999, Nr. 1, S. 65–69.
Moderne Strategien des erfolgreichen IT-Offshoring für Finanzorganisationen – Risiken und Erfolgsfaktoren ANDREAS GADATSCH und NIKI KOZISEK Fachhochschule Bonn-Rhein-Sieg und Softlab Group
1 2
IT-Outsourcing in der Praxis ........................................................................................... 63 IT-Offshore-Varianten ..................................................................................................... 64 2.1 Onsite-Software-Entwicklung ................................................................................ 64 2.2 Onsite-Offshore-Entwicklung ................................................................................ 64 2.3 Onsite-Onshore-Offshore-Entwicklung ................................................................. 65 2.4 Reine Offshore-Entwicklung ................................................................................. 65 2.5 Nearshore-Entwicklung ......................................................................................... 65 2.6 Captive Center ....................................................................................................... 66 3 Auslagerung von Software-Entwicklungsprozessen in Finanzorganisationen................. 66 3.1 Identifikation geeigneter Bereiche für IT-Offshoring ............................................ 66 3.2 Ausgelagerte Finanzprozesse in der Praxis ............................................................ 67 3.3 Entscheidungsprozess ............................................................................................ 68 3.3.1 Überblick ................................................................................................... 68 3.3.2 Stufe 1 – Make or Buy (Insourcing vs. Outsourcing) ................................ 69 3.3.3 Stufe 2 – Internes oder externes Outsourcing ............................................ 70 3.3.4 Stufe 3 – Nearshore- versus Offshore-Outsourcing ................................... 71 4 Offshoring in IT-Projekten .............................................................................................. 73 4.1 Ausgangssituation .................................................................................................. 73 4.2 Ziele und Motivation des Managements ................................................................ 74 4.3 Management des Auslagerungsprozesses .............................................................. 75 4.4 Risiken aus Sicht des Auftraggebers und des Auftragnehmers .............................. 77 4.4.1 Finanzielle Mehraufwände ........................................................................ 78 4.4.2 Abhängigkeiten .......................................................................................... 79 4.4.3 Know-how-Verlust .................................................................................... 79 4.4.4 Planungs- und Qualitätsrisiken .................................................................. 79 4.4.5 Mitarbeiterqualifizierung und -motivation ................................................ 79 5 Ausblick ........................................................................................................................... 80 Quellenverzeichnis.................................................................................................................. 80
Moderne Strategien des erfolgreichen IT-Offshoring für Finanzorganisationen
1
63
IT-Outsourcing in der Praxis
IT-Offshoring ist lediglich ein zur Zeit viel diskutierter Spezialfall des IT-Outsourcings, d. h. der Verlagerung von Aufgaben im Zusammenhang mit der Planung, Entwicklung und dem Betrieb von Informationssystemen auf Dritte. Insbesondere geht es um die Verlagerung von Programmier- und Testaufgaben aber auch um den Betrieb von Rechenzentren oder Hotlines für Endanwender. Wurden zunächst einfachere Aufgaben wie die Programmierung von mathematischen Algorithmen oder grafischen Anwendungen verlagert, werden zunehmend auch komplexere Tätigkeiten mit hoher Wertschöpfung wie z. B. die Entwicklung von ERP-Systemen in Betracht gezogen. IT-Outsourcing tritt in zahlreichen Varianten in Erscheinung. Üblich sind Klassifizierungen nach dem Ort der Leistungserbringung, der Anzahl der beteiligten Partner sowie der Zugehörigkeit des Leistungserbringers zum Unternehmen (siehe Abbildung 1).
Single (ein Partner)
Onsite Leistungserbringung am Ort der Nachfrage
Onshore Leistungserbringung im Land der Nachfrage
Nearshore Leistungserbringung im Nachbarland
Offshore Leistungserbringung in einem weiter entfernten Land
Dual (zwei Partner, einer davon Onsite) Multiple (mehrere Partner, einer davon Onsite) Intern (eigenes Unternehmen) Extern (fremdes Unternehmen)
Abbildung 1:
Varianten des IT-Outsourcing1
Die bekanntesten Varianten sind Offshoring bzw. Nearshoring. Hierunter ist die Vergabe der Aufträge in Niedriglohnländer zu verstehen. Neben dem Kostenvorteil durch ein niedrigeres Lohnniveau gibt es noch Nebeneffekte, wie z. B. längere Arbeitszeiten, flexiblere arbeitsrechtliche Bestimmungen (z. B. Kündigung von Arbeitsverträgen) sowie steuerliche Subventionen. Klassifizierung nach dem Ort der Leistungserbringung Von Nearshore wird gesprochen, wenn die Leistungserbringung in Niedriglohnländern mit gleichem Kulturkreis, Zeitregion, Sprache, etc. erfolgt. Dies sind aus deutscher Sicht Länder in Osteuropa oder Irland und Portugal. Onshore bedeutet eine Leistungserbringung im Land des Auftragnehmers, also aus deutscher Sicht in Deutschland. Oft stammen die IT-Spezialisten aus dem Ausland und werden zur Erzielung einer größeren Kundennähe im Auftraggeberland eingesetzt. Offshore beschreibt die Auftragsvergabe in weiter entfernte Länder. Hierunter fallen insbesondere Länder anderer Kulturkreise, Zeitzonen und Sprachen, wie z. B. 1
In Anlehnung an BACHER (2002), S. 55.
64
GADATSCH/KOZISEK
Indien oder China. Noshore bezeichnet IT-Prozesse, die im eigenen Unternehmen bzw. im eigenen Land ausgeführt werden, stellt also eine Entscheidung gegen Outsourcing dar. Klassifizierung nach Anzahl der Partner IT-Projekte können durch einen einzigen Partner (Single), durch zwei Partner (Dual) oder durch mehrere Partner (Multiple) bewältigt werden. Im Fall Dual bzw. Multiple arbeitet mindestens ein Partner Onshore, also im Land des Auftraggebers, meist um die Kundennähe zu verbessern und um kulturelle Distanzen zu vermeiden bzw. zu überbrücken. Die eigentliche Leistungserbringung erfolgt dann Offshore bzw. Nearshore. Klassifizierung nach Zugehörigkeit zum Unternehmen In manchen Fällen kommt es vor, dass größere Unternehmen eigene IT-Tochterunternehmen als Outsourcing-Auftragnehmer einsetzen. In diesem Fall handelt es sich um kein reines Outsourcing, weil nach der Konsolidierung die Umsätze neutralisiert werden.
2
IT-Offshore-Varianten
In der Praxis haben sich zahlreiche IT-Offshore-Varianten ausgeprägt. Typische Organisationsformen der Offshore-Software-Entwicklung sind: Onsite, Onsite-Offshore, Onsite-OnshoreOffshore, Nearshore, Reines Offshore und als Spezialfall Captive Center.2
2.1
Onsite-Software-Entwicklung
Bei der Onsite-Software-Entwicklung werden die Mitarbeiter des Offshore-Unternehmens direkt am Standort, meist in den Geschäftsräumen des Auftraggebers, tätig. In diesem Fall handelt es sich um klassisches „Body-Leasing“, wenn nur einzelne Mitarbeiter bereitgestellt werden, oder Fremdbeschaffung von IT-Dienstleistungen, wenn z. B. ein vollständiges Projekt-Team bereitgestellt wird. Der Unterschied zur „normalen“ Fremdbeschaffung liegt eher in der Art des Auftragnehmers, der aus einem „Offshore-Land“ stammt.
2.2
Onsite-Offshore-Entwicklung
Bei der Onsite-Offshore-Software-Entwicklung arbeiten Mitarbeiter des Offshore-Anbieters zum Teil vor Ort beim Kunden im Auftraggeberland. Sie führen insbesondere die fachliche Analyse des Problems durch und erstellen mit dem Kunden die Sollkonzeption. Idealerweise handelt es sich um Mitarbeiter, die aus dem gleichen Kulturkreis wie der Kunde stammen oder entsprechende Erfahrungen vorweisen können. Hierdurch werden die Kommunikationswege beim Kunden verkürzt und Missverständnisse können schnell beseitigt werden. Am Offshore-Standort werden die reinen Entwicklungstätigkeiten (Programmierung, Test, Dokumentation) durchgeführt. Allerdings sinkt der potenzielle Kostenvorteil mit dem Grad der Vor-Ort-Aktivitäten im Auftraggeberland. 2
Vgl. KOLISCH/VEGHES-RUFF (2005), S. 919 ff.
Moderne Strategien des erfolgreichen IT-Offshoring für Finanzorganisationen
2.3
65
Onsite-Onshore-Offshore-Entwicklung
Das Konzept der Onsite-Onshore-Offshore-Software-Entwicklung entspricht weitgehend dem der Onsite-Software-Entwicklung. Hier werden jedoch auch die technischen Arbeiten am Standort des Kunden ausgeführt. In Frage kommen insbesondere Tests und Abnahmen der entwickelten Software, gemeinsam im Dialog mit dem Auftraggeber. Nur der Betrieb der Software erfolgt beim Dienstleister.
2.4
Reine Offshore-Entwicklung
Das klassische Modell der reinen Offshore-Software-Entwicklung sieht vor, dass sämtliche Arbeiten beim Offshore-Anbieter durchgeführt werden. Wegen der großen geografischen Distanz, den damit verbundenen Kommunikationsproblemen und den größeren kulturellen Unterschieden besteht bei diesem Modell die größte Gefahr des Scheiterns.
2.5
Nearshore-Entwicklung
Als Nearshore-Software-Entwicklung wird die Durchführung der Projekte in Ländern bezeichnet, die zum gleichen Kulturkreis zählen und relativ schnell zu erreichen sind. Inhaltlich entspricht das Konzept dem reinen Offshore-Modell, d. h. sämtliche Arbeiten werden beim Offshore- bzw. in diesem Fall beim Nearshore-Anbieter durchgeführt.
Abbildung 2:
Varianten der Offshore-Software-Entwicklung
66
2.6
GADATSCH/KOZISEK
Captive Center
Das Captive Center ist ein Offshore-Entwicklungszentrum des Auftraggebers am OffshoreStandort. Diese Variante wird oft von großen Firmen praktiziert, um die Offshore-Vorteile (insbesondere niedrige Lohnkosten) zu nutzen, ohne deren Nachteile (vor allem Know-howWegfall) in Kauf zu nehmen. Im Kern handelt es sich hierbei um eine Verlagerung der Software-Entwicklung in ein Niedriglohnland.
3
Auslagerung von Software-Entwicklungsprozessen in Finanzorganisationen
3.1
Identifikation geeigneter Bereiche für IT-Offshoring
Der Begriff IT-Offshoring wird insbesondere mit der Verlagerung von Software-Entwicklungstätigkeiten verbunden. Die hohen Potenziale werden damit begründet, dass diese Tätigkeit sehr personalintensiv ist und Lohnkostenvorteile entsprechend hoch wirken. Zu unterscheiden sind nach LAABS die folgenden Formen der Verlagerung:3 ¾
Reines „Bodyleasing“ von Software-Entwicklern (begrenzte freie Mitarbeit in IT-Projekten)
¾
Vergabe von Teilprojekten
¾ Vergabe von vollständigen Projekten einschließlich Projektmanagement MERTENS/GROSSE-WILDE/WILKENS nennen folgende Merkmale für Offshore- bzw. Nearshoregeeignete Softwareprojekte:4 ¾
hoher Anteil der Arbeitskosten
¾
eindeutig spezifizierte Anforderungen, wenig Spielräume
¾
sich wiederholende Tätigkeiten
¾
regelbasierte Entscheidungsfindung und Problemlösung
¾
dokumentierte oder leicht erklärbare Aufgaben und deren Prozesswissen
¾
leichte Aufteilung der Aufgaben, geringe Interaktivität zwischen Dienstleistungen
¾
elektronisch über das Internet abzuwickeln
¾
Softwareprodukt mit langer erwarteter Nutzungszeit (Amortisation der OffshoreEinrichtungskosten)
¾
geringe bis mittlere Bedeutung für das Unternehmen
¾ nicht interdisziplinär 3 4
Vgl. LAABS (2004). Vgl. MERTENS/GROSSE-WILDE/WILKENS (2005), S. 28.
Moderne Strategien des erfolgreichen IT-Offshoring für Finanzorganisationen
67
Weniger gut geeignet sind daher Projekte die nicht über eine Distanz hinweg abgewickelt werden können oder deren fachliche Aufgabenstellung nicht exakt formulierbar ist. Zudem sprechen Sicherheitsaspekte gegen eine Auslagerung, d. h. Kernprozesse eines Unternehmens sind weniger gut Offshore- bzw. Nearshore-geeignet.
3.2
Ausgelagerte Finanzprozesse in der Praxis
Eine jährliche Umfrage zum Stand des Geschäftsprozessmanagements hat ergeben, dass nicht nur klassische Bereiche wie Fuhrparkmanagement oder IT, sondern zunehmend auch Finanzprozesse wie Zahlungsverkehr und Kreditmanagement ausgelagert werden (siehe Abbildung 3).5 Weil erste erfolgreiche Projekte erfahrungsgemäß Nachahmer finden, ist zu erwarten, dass sich dieser Trend noch weiter fortsetzt.
Sonstige
7,3
Keine
22,3
Wertpapierbearbeitung
9,6
Kreditbearbeitung
8,4
Zahlungsverkehr
15,1
Immobilienmanagement
20,5
Fuhrparkmanagement
24,7
Versicherungseinkauf
15,7
Customer Care
9,0
Logistikprozesse
30,0
Einkaufsprozesse
10,8
Kfm. Prozesse
12,0
IT-Prozesse
44,0 0,0
10,0
20,0
30,0
40,0
50,0
Anteil der Auslagerung [%]
Abbildung 3:
5 6
Ausgelagerte Geschäftsprozesse6
Vgl. KOMPETENZZENTRUM FÜR GESCHÄFTSPROZESSMANAGEMENT, FACHHOCHSCHULE BONN-RHEIN-SIEG (2007). Vgl. KOMPETENZZENTRUM FÜR GESCHÄFTSPROZESSMANAGEMENT, FACHHOCHSCHULE BONN-RHEIN-SIEG (2007).
68
GADATSCH/KOZISEK
3.3
Entscheidungsprozess
3.3.1
Überblick
IT-Outsourcing-Entscheidungen sind langfristig wirksame Investitionsentscheidungen. Ein Portfolio-gestützter Entscheidungsprozess vollzieht sich in drei Stufen, die den Grad der Auslagerung und die Entfernung der Realisierungspartner einbeziehen (siehe Abbildung 4).
Offshore vs. Nearshore
Step 3 Internal vs. External Outsourcing
Step 2
(Shared Service Center vs. Service Provider)
Make or Buy
Step 1
Abbildung 4:
(Insourcing vs. Outsourcing)
IT-Offshore-Entscheidungsprozess
Stufe 1: Make or Buy In der ersten Stufe wird geklärt, ob Outsourcing oder die Eigenentwicklung favorisiert wird. Die dafür wesentlichen Entscheidungskriterien sind bezogen auf Unternehmensziele und Kernprozesse: ¾
Individualität der Aufgabenstellung sowie
¾ Strategische Bedeutung der IT-Lösung. Stufe 2: Internes oder externes Outsourcing In der zweiten Stufe wird geklärt, ob externe Partner (klassisches Outsourcing) einbezogen werden oder ob eine interne Lösung gewählt wird. Eine interne Lösung über so genannte Shared-Service-Center bietet sich an, wenn Prozesstypen (z. B. Betreuung von Standardanwendungssoftware) mehrfach in ähnlicher Form in verschiedenen Geschäftsbereichen eines Unternehmens anfallen. Die relevanten Entscheidungskriterien sind: ¾
Strategische Bedeutung und Nähe des Prozesses zum Kerngeschäft (Kernprozess, Führungsprozess, Unterstützungsprozess) sowie
¾ Einheitlichkeit der unternehmensinternen Anforderungen. Stufe 3: Nearshore versus Offshore-Outsourcing In der letzten Stufe wird die Frage geklärt, ob Realisierungspartner in großer Entfernung (Offshore) oder nur Partner in näher gelegenen Regionen (Nearshore oder Inland) berücksichtigt werden. Die hierfür genutzten Entscheidungskriterien sind:
Moderne Strategien des erfolgreichen IT-Offshoring für Finanzorganisationen
¾
69
Interaktionsbedarf während der Software-Erstellung und Änderungshäufigkeit
¾ Unternehmensgröße im Hinblick auf Mitarbeiter, Arbeitsvolumen und Komplexität des Geschäftes 3.3.2
Stufe 1 – Make or Buy (Insourcing vs. Outsourcing)
Buy-Strategie (Outsourcing) Bei geringer Bedeutung der IT-Lösungsansätze für die Unternehmensziele und Kernprozesse bietet sich eine klassische „Buy-Strategie“ an, also Outsourcing der IT-Entwicklung bzw. des IT-Betriebs. Typische Beispiele für das klassische Outsourcing sind Standardanwendungssoftware für die Buchhaltung, Lagerwirtschaft oder IT-Arbeitsplätze, der Betrieb eines kompletten Rechenzentrums oder die Administration von Servern. Make-Strategie Beim Betrieb wenig standardisierter IT-Produkte und IT-Leistungen ist die strategische Bedeutung hoch, wenn wichtige Kernprozesse des Unternehmens betroffen sind und es sich um vorwiegend individuelle Aufgabenstellungen des Unternehmens handelt. Typisch dafür sind die Entwicklung von Informationssystemen für die Produktentwicklung sowie Vertrieb und Service oder spezifische Kundeninformationssysteme. Die Anwendung der Buy-Strategie bei strategisch relevanten Aufgaben wird von vielen Unternehmen unterstützt, z. B. einem bekannten Telekommunikationsanbieter. Stattdessen wird von seinem „Head of Strategic Outsourcing“ vorgeschlagen, das für den Betrieb notwendige Know-how einzukaufen.
hoch
Make-Strategie
Strategische Bedeutung der IT-Lösung im Hinblick auf Unternehmensziele und Kernprozesse
gering
Entwicklung und Betrieb wenig standardisierbarer IT-Produkte und IT-Leistungen z. B. Informationssystem für Produktentwicklung, Vertrieb und Service, Mix-Strategie KundeninforKoordinierter Einsatz mationssystem interner und externer Ressourcen z. B. Outsourcing von ERP-Anwendungen, Buy-Strategie Eigenbetrieb von Outsourcing standardisierter Individualanwendungen IT-Produkte und IT-Leistungen z. B. Standardsoftware für Buchhaltung oder Lagerwirtschaft, Benutzerservice IT-Arbeitsplätze, RZ-Betrieb, Serveradministration gering
Individualität der Aufgabenstellung im Hinblick auf Unternehmensziele und Kernprozesse
Abbildung 5:
7
Outsourcing-Standardstrategien7
Vgl. GADATSCH/MAYER (2006).
hoch
70
GADATSCH/KOZISEK
Mix-Strategie Sind unterschiedliche interne und externe Ressourcen zu koordinieren, wie z. B. beim Betrieb der kompletten ERP-Anwendungen im Verbund mit Eigenentwicklungen, muss von Fall zu Fall entschieden werden. Die Schnittstellenproblematik fordert häufig gesonderte Entscheidungen (siehe Abbildung 5). 3.3.3
Stufe 2 – Internes oder externes Outsourcing
In der zweiten Stufe des Entscheidungsprozesses steht fest, dass Prozesse ausgelagert werden sollen. Dies ist mit externen Partnern oder bei größeren Unternehmen auch über interne Teams, die nach gleichen Prinzipien wie externes Outsourcing strukturiert werden, zu realisieren. Die interne Lösung wird oft auch als Shared-Service-Center (SSC) bezeichnet. Hinter dem Konzept steht der Gedanke, mehrfach ähnlich genutzte Leistungen im Konzern/Unternehmen zu bündeln und unter marktgerechten Bedingungen (Leistungsqualität, Preise, etc.) anzubieten. Externe Provider verlangen meist eine Vertragsbindung von fünf bis zehn Jahren, die für das auslagernde Unternehmen eine geringere Flexibilität mit sich bringt. Interne Dienstleister sind eher im eigenen Sinne zu beeinflussen. Eine Rückverlagerung bei strategischer Neuorientierung oder im Fall des Scheiterns ist leichter möglich.
hoch
Strategische Bedeutung und Nähe des Prozesses zum Kerngeschäft
Internes Outsourcing
Bereichsspezifische Lösungen
(Shared-Service-Center)
(kein Outsourcing)
Externes Outsourcing (Service Provider)
Bereichsspezifisches externes Outsourcing
gering hoch
Abbildung 6:
Einheitlichkeit der Unternehmensinternen Anforderungen
gering
Internes oder externes Outsourcing
Die zur Klärung der Entscheidung relevanten Fragen sind: Wie hoch ist die strategische Bedeutung des Prozess bzw. wie nah ist er am Kerngeschäft des Unternehmens angesiedelt und wie einheitlich sind die unternehmensinternen Anforderungen, d. h. wie heterogen fallen die Anforderungen der einzelnen Geschäftsbereiche aus? Je näher ein Prozess am Kerngeschäft des Unternehmens angelehnt ist, desto eher ist er ein Kandidat für das interne Outsourcing (SSC). Weniger kritische Prozesse können an externe Provider ausgelagert werden. Sind die Unternehmensbereiche hinsichtlich ihrer Anforderungen sehr heterogen, wird ein SSC-Ansatz keinen Mehrwert liefern können. Im Einzelfall kann ein bereichsspezifisches Outsourcing
Moderne Strategien des erfolgreichen IT-Offshoring für Finanzorganisationen
71
daher eine Lösung sein. Handelt es sich innerhalb des Konzerns bzw. Unternehmens um heterogene Prozesse mit hoher strategischer Bedeutung, sollte vom Outsourcing-Vorhaben Abstand genommen werden. Bereichsspezifische Lösungen sind zu präferieren (siehe Abbildung 6). 3.3.4
Stufe 3 – Nearshore- versus Offshore-Outsourcing
Zunehmend stellen sich Unternehmen jedoch nicht mehr die Frage, ob sie Teile ihres ITSpektrums auslagern, sondern in welcher Form sie dieses Vorhaben durchführen. Dabei stellt sich dann die Frage einer Investition in klassische Offshore-Standorte wie Indien oder in Nearshore-Standorte wie Irland, Tschechien oder Russland. Die in Abbildung 7 dargestellte Zuordnung von Auftraggeberländern zu Nearshore-Zielländern wurde einer Untersuchung der Friedrich-Alexander-Universität Erlangen-Nürnberg entnommen.8 Nearshoring-Ziel
Land der Auftraggeber
Kanada, Mexiko Polen, Tschechien, Ungarn, Irland; zunehmend auch die Ukraine, Weißrussland, Lettland und Rumänien Irland China
USA Westeuropa, insb. Deutschland
Abbildung 7:
Großbritannien Japan, Südkorea
Nearshoring-Länder und ihre Auftraggeber9
US-amerikanische Firmen tendieren demnach eher zu Offshore-Standorten, die amerikanischen Gewohnheiten entsprechen, z. B. über ein vergleichbares Schulsystem verfügen. Europäische Firmen haben sich trotz der geringeren Lohnkostenvorteile auf den osteuropäischen Nearshore-Bereich und Irland konzentriert. Die Hauptgründe dafür sind räumliche Nähe und geringere kulturelle Unterschiede im Vergleich zu Offshore-Ländern wie Indien. Kleinere Unternehmen waren in der Vergangenheit eher zurückhaltend, Outsourcing bzw. Offshore-Projekte zu realisieren. Offshore-Projekte erfordern einen hohen Vorlauf an Planung und Vorbereitung sowie dauerhaft einen hohen Koordinationsaufwand. Nearshore-Projekte sind dagegen auch für kleine Projektumfänge bzw. kleinere Unternehmen eine Möglichkeit, die Auslagerung von IT-Leistungen durchzuführen. Diese Entwicklung lässt sich für den Bereich der Auslagerung von Software-Entwicklungstätigkeiten wie in Abbildung 8 dargestellt, generalisieren. Große Unternehmen bevorzugen bei der externen Entwicklung von Applikationen mit hohem Interaktionsbedarf und häufigen Updates eher Nearshore-Regionen, weil relativ schnell auf Entwickler zugegriffen werden kann und der Dialog direkter abläuft. Typische Beispiele sind IT-Entwicklungsprojekte im Bereich der Telekommunikationsbranche. Anwendungen mit eher langfristigem Charakter, z. B. Bank- oder Versicherungsanwendungen, bei denen längere Update-Zyklen die Regel sind, können Nearshore oder Offshore bearbeitet werden. Kleinere Unternehmen setzen generell eher auf Nearshore-Regionen, weil sie typischerweise kleinere Projekte, oft im Unterauftrag, abwickeln und schnell auf die An8 9
Vgl. MERTENS/GROSSE-WILDE/WILKENS (2005), S. 5. Vgl. MERTENS/GROSSE-WILDE/WILKENS (2005), S. 5.
72
GADATSCH/KOZISEK
forderungen ihrer Kunden reagieren müssen. Applikationen mit hohem Interaktionsbedarf werden hier eher im eigenen Haus entwickelt. Nur Applikationen mit geringer Änderungshäufigkeit kommen für Nearshore-Entwicklungen in Frage.
hoch
Interaktionsbedarf während der Software-Erstellung und Änderungshäufigkeit
Noshore
Nearshore
(Eigenentwicklung)
(Externe Entwicklung)
Nearshore
Offshore oder Nearshore
(Externe Entwicklung)
(Externe Entwicklung) gering gering
hoch
Unternehmensgröße im Hinblick auf Mitarbeiter, Arbeitsvolumen und Komplexität
Abbildung 8:
Noshore, Nearshore, Offshore – Standardstrategien für Software-Entwicklung
Kriterien
Indien
Philippinen
China
Russland
Kanada
Irland
Steuerliche Vorteile Verfügbarkeit von relevantem Fachwissen Infrastruktur Ausbildungssystem Kostenvorteile Servicequalität Kultureller Fit
low
Zeitunterschied
medium high
Englischkenntnisse
Abbildung 9: 10
Standortkriterien für Offshore-Outsourcing nach Ländern10
Vgl. SURE (2005), S. 273.
Moderne Strategien des erfolgreichen IT-Offshoring für Finanzorganisationen
73
Regionale Auswahl Die regionale Auswahl muss unternehmensindividuell erfolgen, weil sich die Rahmenbedingungen permanent verändern. Abbildung 9 zeigt einige ausgewählte Offshore-Länder im Vergleich zu Russland und Irland als stellvertretende Nearshore-Länder. Während Irland durch seine kulturelle Nähe und die guten Englischkenntnisse hervorsticht, sind in Russland die Kostenvorteile auf gleichem Niveau wie in typischen Offshore-Regionen.
4
Offshoring in IT-Projekten
4.1
Ausgangssituation
Im Zuge des derzeitigen wirtschaftlichen Aufwärtstrends und der damit verbundenen wachsenden Investitionsbereitschaft der Unternehmen stehen in vielen Konzernen und mittelständigen Unternehmen künftig wieder zahlreiche komplexe und budgetstarke IT-Projekte an. Die derzeitige wirtschaftliche Situation bietet ideale Voraussetzungen hierzu, jedoch waren die Herausforderungen an die IT auch noch nie so groß und komplex wie in dem aktuell vorherrschenden Umfeld. Dies veranlasst Unternehmen, u. a. im Hinblick auf Ressourcen-Engpässe, dazu, u. a. für die Erstellung von Grob-, Fach- und IT-Konzepten sowie für das Prototyping, den Testläufen und der Add-On-Entwicklung, etc. externe Dienstleister zu beauftragen. Die daraus resultierenden vorgelagerten Sourcing- und Auswahlprozesse stellen vielfach die Auftraggeber vor eine wichtige und im Aufwand nicht zu unterschätzende Aufgabe: die Analyse und Bewertung der Beratungsangebote und die im Ergebnis darauf basierende Auswahl eines externen Dienstleisters. Hierbei sind jedoch neben zahlreichen Vertrags- und Methoden-Faktoren nicht zuletzt auch Outsourcing-Aspekte beim jeweiligen Anbieter zu berücksichtigen, die ebenfalls einen entscheidenden Einfluss auf die Projektkosten sowie die Qualität und somit im Ergebnis dem Projekterfolg haben: Um dem rasant wachsenden Wettbewerb und dem damit einhergehenden Kostendruck effektiv begegnen zu können, sind viele externe Dienstleister und Beratungen ebenfalls darauf angewiesen, Teile der angebotenen Leistungspakete durch Dritte durchführen bzw. erstellen zu lassen. Die konsequente Zusammenarbeit mit kostengünstigen Nearund Offshore-Partnern ist hierbei mittlerweile gängige Praxis. In diesem Zusammenhang werden die durch die Beratung zu erbringenden Leistungen wiederum entweder von externen Anbietern erbracht, so genanntes Offshore-Outsourcing, oder aus dem eigenen Beratungsunternehmen heraus, so genanntes Internal- oder Captive-Offshoring, beispielsweise in Form von Tochterunternehmen oder Unternehmenseinheiten im Ausland bzw. Joint Ventures sowie strategischen Allianzen. Die Frage, ob Entwicklungs-, Konzeptions-, und Testanteile ausgelagert werden können bzw. sollen, ist mithin nicht nur innerhalb des beauftragenden Unternehmens interessant. Bei der Auswahl geeigneter Dienstleister, ist es ebenfalls ratsam, den Offund Nearshore-Anteil des anbietenden Dienstleisters genau zu analysieren und zu bewerten. Bei der Analyse und Bewertung der Offshore-Anteile des Dienstleisters sollten neben der Betrachtung dessen bereits vorhandener technischer und personeller Kapazitäten ebenfalls die des Offshore-Partners im Hinblick auf Personal- und Kapitaldecke genauestens ins Blickfeld genommen werden. Denn oftmals fehlt es gerade hier an Erfahrungen mit internationalem Projektmanagement und/oder beiderseitigen interkulturellen Kompetenzen.
74
GADATSCH/KOZISEK
Die im Rahmen dieses Beitrages gewonnenen Erkenntnisse sollen daher zum einen bei unternehmensinternen Outsourcing-Prozessen Anwendung finden, zum anderen sollen sie unterstützenden Input bei der Analyse und Bewertung externer Dienstleiser im Rahmen von ITAuswahlprozessen liefern.
4.2
Ziele und Motivation des Managements
„Do what you can do best and outsource the rest.“ Der heutige IT-Sektor zeichnet sich vor allem durch folgende spezifische Eigenschaften aus: Informationstechnologien sowie deren vor-und nachgelagerte Prozesse sind zu großen Teilen hoch komplex und bedürfen einer weitsichtigen und generischen Integration und Implementierung, die im Idealfall über die komplette Wertschöpfungskette des Unternehmens hinweg reicht. Der stetige Wandel des Marktes, der IT-seitigen Anforderungen sowie die mit dem wachsenden Fortschritt immer wieder neu entwickelten Technologien und Anwendungen machen es Unternehmen schier unmöglich, sich primär um das eigentliche Kerngeschäft zu kümmern und gleichzeitig technologische „State-of-the-art“-IT-Prozesse vorzuhalten. Neben den Bemühungen, sich zunehmend mehr auf die Kernkompetenzen innerhalb der Unternehmung zu konzentrieren, stehen im Zentrum von Outsourcing-Überlegungen natürlich vor allem kostenorientierte Motive, welche wiederum in Kostensenkungs-, Kostenflexibilisierungs- und Kostentransparenzmotive unterteilt werden können, wobei die Letzteren zumindest langfristig der Kostensenkung dienen sollen. Durch das bessere Know-how des externen Outsourcing-Partners sowie dem Übergang der Erfolgs-Risiken auf diesen werden diese Ziele erreicht. Ferner wird oft nur die real erbrachte Leistung in Rechnung gestellt, was in der Folge zu einer höheren Kostentransparenz führt, weil nunmehr eine direkte verursachungsgerechte Leistungsverrechnung mit dem Dienstleister möglich ist. Eine weitere Folge daraus ist, dass sich, je nach Art der Leistungsverrechnung, vorherige Fixkosten in variable Kosten umwandeln lassen. Neben dem primären, quantitativen Ziel der Kostenreduktion, werden auch qualitative Ziele verfolgt, die im Ergebnis wiederum zu Kostensenkungen führen. Eines der wichtigsten qualitativen Ziele ist die Verbesserung und effizientere Gestaltung der Prozesse und Strukturen. Das Dienstleistungsunternehmen ist in der Lage, durch seine spezielle Qualifikation für den ausgelagerten Prozess bzw. Bereich eine hochwertigere und effizientere Leistung zu erbringen, als es das eigene Unternehmen kann. Je nach Art der Gestaltung, können hier zu Beginn Kosten aufgrund von Investitionen entstehen, die aber dauerhaft zu einer Senkung der Prozesskosten und durch qualitative Aufwertung auch zu einer Imageverbesserung führen. Eine kontinuierliche Leistungsverbesserung in einem Teilbereich kann also potentiell zu einer Verbesserung der Gesamtleistung führen. Neben der Prozess- und Strukturverbesserung stehen noch die Entlastung von Ressourcen und die Erhöhung der Unternehmensflexibilität im Fokus. Das Management wird durch die Übertragung von Aufgaben in die Verantwortung des Outsourcing-Partners entlastet und kann sich somit stärker auf die eingangs bereits angesprochenen eigenen Kernkompetenzen konzentrieren. Daraus resultiert darüber hinaus auch eine Entlastung des Personalmanagements. Weil der Dienstleister für eine bedarfsgerechte Bereitstellung der Leistung verantwortlich ist, spielen Urlaub, Feiertage und Krankheit genauso wie andere Kapazitätsprobleme für die outsourcende Unternehmung keine Rolle. Die bisher gebundenen personellen unternehmensinternen
Moderne Strategien des erfolgreichen IT-Offshoring für Finanzorganisationen
75
Kapazitäten werden durch das Outsourcing wieder freigesetzt und können anders verwendet werden. Ein Gewinn hieraus ist, dass das Unternehmen in anderen Bereichen flexibler auf Veränderungen reagieren kann. Es sind allerdings nicht nur allein Kostenaspekte, die Unternehmen dazu veranlassen, ITProjektanteile ins Ausland zu verlagern. Das Management sieht sich gleichzeitig verschiedenen gegensätzlichen Forderungen ausgesetzt, die je nach Projektgröße und Komplexität unterschiedliche Schwierigkeiten und Herausforderungen mit sich bringen: ¾
Wechsel der User/Systeme durch Wandel der Unternehmensstruktur
¾
Wachsende User-Zahlen durch Globalisierung und Expansion
¾
Steigende Erwartung an Integration und Verfügbarkeit
¾
Stetig steigender Komplexitätsgrad
¾ (…) Allen Zielen ist dabei gemein, dass Outsourcing-Überlegungen immer darauf ausgerichtet sind, mit den eventuell durchzuführenden Veränderungen in der Funktionsausübung Wettbewerbsvorteile zu erzielen.
4.3
Management des Auslagerungsprozesses
Ein wesentlicher Erfolgsfaktor für Outsourcing-Prozesse ist, wie so oft, ein konsequentes und strukturiertes Vorgehen bzw. Projektmanagement. Offshoring lässt sich dazu grundsätzlich in sechs Hauptphasen einteilen. Die einzelnen Phasen werden dabei von Querschnittstätigkeiten unterstützt, um einen reibungslosen Ablauf und Übergang der einzelnen Phasen zu gewährleisten.
76
GADATSCH/KOZISEK
Vorüberlegungen
¾ ¾ ¾ ¾
Vision Strategie Ziele (…)
Übernahme
Verhandlung
Planung
¾ Assessment ¾ Kontakt ¾ Analyse ¾ Scope¾ Make-orDefiniton ¾ Request for Buy Proposals ¾ Outsourcing ¾ Provider-Formen ¾ Standort Auswahl ¾ Partner ¾ DueDilligence ¾ (…) ¾ Vertrags¾ ¾
¾ ¾ ¾ ¾
¾
Mitarbeiter Assets Daten Vertragliche Verpflichtungen (…)
Betrieb
Analyse
¾ Einsatz der ¾ Ex-postMitarbeiter
¾ Leistungsmessung
Betrachtung
¾ Analyse der Prozesse
¾ Evaluierung ¾ (…) ¾ (…)
verhandlungen Abschluss (…)
Projektmanagement (Zeit, Risiko, Kommunikation) Projektdokumentation Vertragsmana gement
Abbildung 10:
Phasen des Offshoring
In den einzelnen Projektierungsphasen sollte jedoch nichts dem Zufall überlassen werden: Alle formalisierbaren Themen- und Arbeitspakete sollten gemeinsam mit allen Partnern (Beratungen, Offshore-Partnern und ggf. weiteren Subunternehmern) definiert und festgelegt werden: Eindeutige Eskalationsszenarien, insbesondere bei technischen Problemen, müssen genauestens festgelegt und eingehalten werden. Ein übergreifendes Integrationsteam und entsprechende Lenkungsausschüsse, die mit geeigneten Entscheidungskompetenzen ausgestattet sein müssen, sind an dieser Stelle unbedingt notwendig. Ein weiterer, nicht zu unterschätzender Aspekt ist, wie so oft, die Kommunikation. Auslagernde Unternehmen sollten im Zusammenhang mit Offshoring-Projekten die gewohnten Kommunikationswege neu überdenken und sich darauf einstellen, dass eine internationale und globale Projektarbeit auch eine ebenso globale Kommunikationsform benötigt und der Offshore-Partner beispielsweise jederzeit schnelle Antworten auf dringende Fragen bzw. Entscheidungen bekommen muss. Bei komplexeren Projekten sollte hierzu neben einem entsprechenden Budget für Geschäftsreisen ebenfalls die informationstechnische Infrastruktur (Videokonferenzen, VPN-Zugänge, etc.) geschaffen werden, die einen reibungslosen Betrieb ermöglicht. Gemeinsame Evaluationskriterien sichern mittel- und langfristig den wirtschaftlichen Projekterfolg und sollten von Anfang an höchste Priorität für das übergreifende Projektmanagement haben. Folgende Evaluationskriterien sollten in jedem Fall Berücksichtigung finden:
Moderne Strategien des erfolgreichen IT-Offshoring für Finanzorganisationen
77
¾
Projekt-Performance: Werden Fristen und Budget eingehalten?
¾
Praktikabilität von Eskalationsszenarien: Führen Eskalationen zu einer schnellen und praktikablen Lösung der Problemstellungen? Werden entscheidungsrelevante Stellen schnell und unkompliziert erreicht?
¾
Verfügbarkeit technischer und personeller Ressourcen: Korrespondiert die Bereitstellung der Ressourcen externer Dienstleister z. B. zur Urlaubsplanung im eigenen Unternehmen? Haben die Projektteams ausreichende und vor allem qualitativ passende Ressourcen zur Verfügung gestellt bekommen?
¾
Abgleich mit anderen Teilprojekten: Werden Ergebnistypen anderen Teilprojekten zeitgerecht zur Verfügung gestellt und interne sowie externe Abhängigkeiten ausreichend berücksichtigt?
¾
Reaktionszeiten auf Anfragen: Wie schnell und effizient läuft die Beantwortung von Problem-Tickets? Lohnt ein 1st und 2nd Level Support?
¾
Bug Fixing: Wie hoch und in welchen Bereichen fällt häufiges Bug-Fixing an? Sind Fehlerhäufigkeit, Reaktionszeit, Bearbeitungszeit zufriedenstellend?
¾ Produkt- und Service-Qualität: Halten Dienstleister und Outsourcing-Partner die Versprechen, die in der Angebotsphase gemacht wurden? Ein stetes Monitoring und Tracking sowie das regelmäßige Abfragen dieser Punkte in regelmäßigen übergreifenden Status-Meetings vermeidet letztlich „böse Überraschungen“ während des Projektverlaufes.
4.4
Risiken aus Sicht des Auftraggebers und des Auftragnehmers
Im Zuge des Outsourcings unternehmensinterner Leistungen sind neben der Vielzahl von Chancen auch, je nach Sicht, unterschiedliche Risiken, zu beachten, deren gemeinsame und übergreifende Betrachtung und Berücksichtigung ebenfalls nicht unterschätzt werden sollte. Abbildung 11 gibt eine kurze Übersicht, welche Faktoren aus Sicht des Auftraggebers bzw. Auftragnehmers den Projektverlauf im Wesentlichen negativ beeinflussen können. Vor überzogenen Erwartungen auf beiden Seiten ist indes insgesamt zu warnen. Offshoring fordert von allen Beteiligten innerhalb des Projektes ein hohes Maß an Aufmerksamkeit, Projektmanagement-Erfahrung und interkultureller Kompetenz. Neben der sichtweisen Betrachtung der Risiken aus Auftraggeber- und Auftragnehmersicht, soll an dieser Stelle jedoch der Fokus auf die Betrachtung der Risiken aus Auftraggebersicht gelegt werden.
78
GADATSCH/KOZISEK
Risiken bezogen auf… … den Auftraggeber ¾ Finanzielle ¾ ¾ ¾ ¾ ¾
Mehraufwände Abhängigkeiten Know-how-Verlust Planungs- und Qualitätsrisiken Mitarbeiterqualifizierung und Motivation (…)
… den Auftragnehmer ¾ Unklarheiten in der ¾
¾ ¾ ¾ ¾ ¾ ¾
Abbildung 11: 4.4.1
Anforderungsspezifikation Ungenügende Dokumentation der bestehenden ITArchitektur Unrealistische Erwartungen des Auftraggebers Fehlende Strategie beim Auftraggeber Konkurrenzdruck der Wettbewerber Akzeptanzproblematik beim Auftraggeber Mangelnde Schnittstellen (…)
… die Kooperation ¾ Kulturelle Unterschiede ¾ Politische Unwägbarkeiten
¾ Rechtliche Hürden ¾ Korruption ¾ Mangelhafte Kommunikation
¾ Sprachschwierigkeiten ¾ Unzureichende Sicherheit
¾ Mehraufwand durch Abstimmungsschwierigkeiten ¾ (…)
Risiken für den Auftragnehmer und Auftraggeber
Finanzielle Mehraufwände
Finanzielle Mehraufwände, die die ursprünglich anvisierten Kostenvorteile in Frage stellen können, ergeben sich insbesondere aufgrund von nicht formalisierbaren oder standardisierbaren Auslagerungseinheiten, die wegen ständigem Abstimmungsbedarf einen organisatorischen und finanziellen Mehraufwand verursachen. Ein weiterer Punkt der zu finanziellen Mehraufwänden führen kann, ist die Beschränkung der Sichtweise auf das Kostenbild. Um ein der Wirklichkeit entsprechendes Gesamtkostenbild zu erhalten, darf sich die Kostenbetrachtung nicht ausschließlich auf die reinen Beratungs- und Dienstleistungskosten sowie die fixen Kosten im Rahmen der allgemeinen Projektarbeit beschränken. Für eine umfassende Beurteilung müssen die gesamten Prozesskosten betrachtet werden, also auch die Kosten abgeglichen werden, die mit dem Einkauf und dem damit einhergehenden Outsourcing der Dienstleistungen verbunden sind. Die wesentliche Ursache für etwaig auftretende Kostenersparnisse liegt in der Tatsache, dass der Outsourcing-Partner die Leistungen aufgrund einer Spezialisierung auf ein besonderes Segment von Dienstleistungen günstiger als der Outsourcer selbst anbieten kann („Economies of scale“). Werden diese Aspekte nicht oder nur unzureichend beachtet, ist das Vorhaben zumindest um einen Unsicherheitsfaktor reicher.
Moderne Strategien des erfolgreichen IT-Offshoring für Finanzorganisationen
4.4.2
79
Abhängigkeiten
Eines der mit Sicherheit größten Risiken bei Outsourcing-Projekten ist die schwere Umkehrbarkeit, bzw. je nach Komplexität des Vorhabens, die Unmöglichkeit der Umkehrbarkeit der Oursourcingmaßnahme. Ist der Auslagerungsprozess erst einmal durchgeführt, kann ein Unternehmen nur sehr schwer auf einen kurzfristigen Rückbau der Leistungserbringung reagieren. Unternehmen begeben sich somit in eine Abhängigkeit, die bei einer (Quasi-)Monopolstellung des Dienstleisters, dessen Neuausrichtung im Produkt-Portfolio oder einer möglichen Insolvenz – gerade bei unternehmensspezifischer Leistungserbringung – gravierende Auswirkungen auf die Arbeitsprozesse des Outsourcers haben kann. Die Nachteile einer zu großen Abhängigkeit liegen auf der Hand: Versorgungsrisiken bei Engpässen des Partners, eine schlechte Verhandlungsposition sowie aufgrund von Informationsasymmetrien mögliche Übervorteilungen. 4.4.3
Know-how-Verlust
Ein weiterer Risikofaktor stellt ein möglicher Know-how-Verlust im eigenen Unternehmen dar. Sollte der beauftragte Dienstleister bzw. dessen Outsourcing-Partner das übertragene Wissen zu eigenen Zwecken verwerten oder Konkurrenzunternehmen zukommen lassen, droht auch hier ein irreversibler Informations- und Know-how-Verlust. Des Weiteren bleiben oftmals Weiterentwicklungen in den outgesourcten Bereichen für das Unternehmen nicht mehr erfassbar. Kernkompetenzen des Unternehmens sollten daher auf keinen Fall ausgelagert werden, weil damit die Kontrolle über die Haupttätigkeitsfelder an andere abgeben werden wird und sich diese somit jeglicher Kontrolle und Steuerung entziehen. 4.4.4
Planungs- und Qualitätsrisiken
Alle ausgelagerten Projektanteile haben zwangsläufig interne und externe Abhängigkeiten, die letztlich im Projekterfolg münden. Fehler, terminliche Versäumnisse und/oder eine mangelnde Qualität fallen letztlich immer auf das eigene Unternehmen zurück. Ohne die zuvor beschriebenen Evaluationskriterien sind mittelfristig Konflikte in der Offshore-Kooperation vorprogrammiert. 4.4.5
Mitarbeiterqualifizierung und -motivation
Dem outsourcing-bedingten Wegfall von Aufgaben z. B. im Implementierungs-, Test- und Supportbereich stehen neue Aktivitäten und Arbeitspakete im Bereich Koordination, Controlling und Adaption der eingekauften Dienstleistung an eigene Kernprozesse gegenüber. Sind die eigenen Mitarbeiter jedoch nicht ausreichend qualifiziert und geschult, kann dies den reibungslosen Ablauf der Implementierung neuer Prozesse stark beeinflussen. Unmotivierte Mitarbeiter – sowohl in den bisherigen Supportbereichen als auch in den tangierten Kerngeschäften – stellen zudem ein Risiko dar, dass entstehende Transaktionskosten den erhofften Kostenvorteil deutlich verringern. Offshore-Projekte ohne erfahrene Offshoring-Mitarbeiter sind somit nicht empfehlenswert.
80
5
GADATSCH/KOZISEK
Ausblick
An Prognosen für die zukünftige Entwicklung von Outsourcing- bzw. Offshore-Projekten mangelt es nicht. Die international tätige Beratungsgruppe BOSTON CONSULTING GROUP sieht in einem global, vor allem in den USA und Asien wachsenden Markt insbesondere ein Zusammenwachsen zwischen IT-Outsourcing und Business Process Outsourcing.11 Auslagerungsprojekte werden auch einen größeren Umfang als bisher annehmen. Die Ziele der Unternehmen verlagern sich weg von reinen Kostenreduktionsprogrammen hin zur Leistungssteigerung. Mehrere IT-Lieferanten werden gezielt für spezielle Fragestellungen eingebunden. Wie aktuelle Beispiele großer Unternehmen zeigen, kann diese Markteinschätzung jedoch nicht verallgemeinert werden. Gegen diesen Trend hat sich beispielsweise ein bekanntes Mobilfunkunternehmen für eine komplette Auslagerung der IT an einen einzigen Dienstleister entschieden. Als Argument wird die nicht notwendige Vermittlung zwischen verschiedenen Anbietern bei Interessenskonflikten genannt, weil die IT-Leistung aus einer Hand erbracht wird. Der dritte Aspekt, der Trend zur Auslagerung von kompletten Prozessen einschließlich der IT-Unterstützung, bahnt sich allerdings derzeit erst an. Hierin steckt nach Meinung des Beratungshauses das größte Entwicklungspotenzial.
Quellenverzeichnis ALLWEYER, T./BESTHORN, T./SCHAAF, J. (2004): IT-Outsourcing – Zwischen Hungerkur und Nouvelle Cuisine, in: Deutsche Bank Research, Nr. 43 vom 06.04.2004, Frankfurt. BACHER, M. R. (2000): Outsourcing als strategische Marketing-Entscheidung, Wiesbaden 2000. DEUTSCHE BANK RESEARCH (2006): Offshoring an neuen Ufern – Nearshoring nach Mittelund Osteuropa, in: DEUTSCHE BANK RESEARCH, Nr. 58 vom 19.06.2006, Frankfurt. DREISCHMEIER, R. (2006): Outsourcing Rediscovered – How to create Value from Outsourcing, 12. Handelsblatt-Jahrestagung Strategisches IT-Management am 01.02.2006, Bonn. GADATSCH, A. (2005): IT-Controlling realisieren, Wiesbaden 2005. GADATSCH, A. (2006): IT-Offshore realisieren, Wiesbaden 2006. GADATSCH, A./MAYER, E. (2006): Masterkurs IT-Controlling – Grundlagen – Strategischer Stellenwert – IT-Kosten- und Leistungsrechnung in der Praxis – Mit Deckungsbeitragsund Prozesskostenrechnung, Wiesbaden 2006. KOLISCH, R./VEGHES-RUFF, O. A. (2005): Offshore-Software-Projekte, in: WISU – Das Wirtschaftsstudium, Nr. 7, 2005, S. 917–923. KOMPETENZZENTRUM FÜR GESCHÄFTSPROZESSMANAGEMENT, FACHHOCHSCHULE BONN-RHEINSIEG (2006): Umfrage zum Status Quo Geschäftsprozessmanagement 2006, online: www. bpm-Expo.de, Stand: o. A., Abruf: 19.09.2007.
11
Vgl. DREISCHMEIER (2006).
Moderne Strategien des erfolgreichen IT-Offshoring für Finanzorganisationen
81
LAABS, K. (2004): Offshore Outsourcing und Co-Sourcing, in: GRÜNDER, T. (Hrsg.), IT-Outsourcing in der Praxis, Berlin 2004, S. 117–129. MERTENS, P./GROSSE-WILDE, J./WILKENS, I. (2005): Die (Aus-)Wanderung der Softwareproduktion – Eine Zwischenbilanz, Arbeitsberichte des Instituts für Informatik, Band 38, Nr. 3, Juli 2005, Friedrich-Alexander-Universität Erlangen-Nürnberg. SURE, M. (2005): Vorbereitung, Planung und Realisierung von Business Process Outsourcing bei kaufmännischen und administrativen Backoffice-Prozessen, in: WULLENKORD, A. (Hrsg.), Praxishandbuch Outsourcing – Strategisches Potenzial – Aktuelle Entwicklung, Effiziente Umsetzung, München 2005, S. 261–282.
Der „automatisierte“ Bankvorstand Wahrung der organisatorischen Handlungsfähigkeit des Bankvorstands vor dem Hintergrund steigender Umwelt- und Unternehmenskomplexität DIETER PUCHTA, STEFAN RÖDER und FRANK KEUPER Investitionsbank Berlin und Steinbeis-Hochschule Berlin
1 2
Einleitung......................................................................................................................... 85 Gremienmanagement ....................................................................................................... 87 2.1 Terminologische Einordnung ................................................................................. 87 2.2 Anforderungen an das Gremienmanagement in Kreditinstituten ........................... 88 3 Konzeptualisierung eines Referenzmodells für das IT-gestützte Gremienmanagement .. 90 4 Umsetzung des IT-gestützten Gremienmanagements am Beispiel der Investitionsbank Berlin (IBB) .................................................................................... 97 4.1 Ausgangssituation .................................................................................................. 97 4.1.1 Kurzdarstellung der IBB ............................................................................ 97 4.1.2 Problemstellung ......................................................................................... 99 4.1.3 Handlungsbedarf...................................................................................... 104 4.2 Initialisierung des Projekts ................................................................................... 106 4.3 Schaffung der rechtlichen Grundlagen für das Gremienmanagement.................. 106 4.4 Formulierung der strategischen Leitlinien für das IBB-Gremienmanagement .... 107 4.5 Analyse der Anforderungen der einzelnen Domänen an das IT-gestützte Gremienmanagement ........................................................................................... 108 4.6 Definition der Soll-Prozesse ................................................................................ 109 4.7 SESSION als Werkzeug des IT-gestützten Gremienmanagements ...................... 115 4.7.1 Begründungs- und Auswahlphase ........................................................... 116 4.7.2 Test- und Einführungsphase .................................................................... 117 4.7.3 Einsatz- und Optimierungsphase ............................................................. 117 4.8 Erfolgsfaktoren .................................................................................................... 118 4.9 Ergebnisse ............................................................................................................ 120 5 Zusammenfassung und Ausblick ................................................................................... 121 Quellenverzeichnis................................................................................................................ 122
Der „automatisierte Bankvorstand“
1
85
Einleitung
Eine Befragung von 350 hochrangigen Führungskräften international agierender Unternehmen hat ergeben, dass ein wichtiger Wettbewerbsfaktor in einer qualitativ hochwertigen, zügigen Entscheidungsfindung und der hiermit einhergehenden Beschlussumsetzung liegt.1 Umso erstaunlicher muten dann die der vorgenannten Aussage konträr gegenüberstehenden Ergebnisse der Produktivitätsstudie 2005/2006 an, in deren Rahmen bei fünfzig Unternehmen auch die Effektivität und Effizienz2 von Sitzungen untersucht wurde.3 Für lediglich 27% der untersuchten Sitzungen wurde eine Tagesordnung ordnungsgemäß erstellt und rechtzeitig an die Sitzungsteilnehmer versandt, was in der Konsequenz dazu führte, dass immerhin 49% der Sitzungsteilnehmer sich nicht zur richtigen Zeit am richtigen Sitzungsort einfanden. Des Weiteren waren in 73% der Sitzungen die Teilnehmer kaum bzw. überhaupt nicht vorbereitet und Protokolle wurden nur fragmentarisch oder gar nicht erstellt. Ferner wurden nur in 12% der Fälle konkrete Maßnahmenpläne als Folge getroffener Entscheidungen festgelegt. Darüber hinaus stellten die Autoren der Studie fest, dass in 73% der Fälle die notwendigen Folgeaktivitäten nicht eindeutig kommuniziert, Terminsetzungen zu deren Erledigung nicht vorgenommen und Prozesse zur Umsetzungskontrolle schlecht respektive unzureichend umgesetzt wurden.4 Diese ernüchternden Resultate werden durch frühere Studien bestätigt, die den zeitlichen Umfang,5 die unzureichende Qualität der Ergebnisse sowie die mangelnde Ablauforganisation von Sitzungen negativ hervorheben.6 Es ist anzunehmen, dass auch Kreditinstitute7 im Rahmen des Gremienmanagements8 mit dem Problem der mangelnden Sitzungseffektivität und -effizienz konfrontiert sind.9 Vor dem Hintergrund der steigenden Umwelt- und Unternehmenskomplexität kommt der Sicherung der eigenen Überlebensfähigkeit durch das planvolle, zweck- und zielgerichtete Vorgehen bei der Vorbereitung, Durchführung und Nachbereitung von Sitzungen bei simultaner Optimierung der strategischen Erfolgsfaktoren Kosten, Qualität und Zeit erhebliche Bedeutung zu.10
1 2 3 4 5 6 7
8 9 10
Vgl. ROGERS/BLENKO (2006), S. 62 f. Für die Zwecke dieses Beitrags soll Effektivität als „to do the right things“ und Effizienz als „to do the things right“ definiert werden; vgl. DRUCKER (1974), S. 45. Vgl. PROUDFOOT CONSULTING (2005), S. 10. Vgl. PROUDFOOT CONSULTING (2005), S. 17. Vgl. MC KENNA (1995), S. 16. Vgl. ROSE (2000), S. 180 ff. Der Begriff des Kreditinstituts wird in § 1 Abs. 1 Satz 1 des Gesetzes über das Kreditwesen, kurz KWG, definiert: „Kreditinstitute sind Unternehmen, die Bankgeschäfte gewerbsmäßig oder in einem Umfang betreiben, der einen in kaufmännischer Weise eingerichteten Geschäftsbetrieb erfordert.“; vgl. BUNDESANSTALT FÜR FINANZDIENSTLEISTUNGSAUFSICHT (2007). Der Terminus wird in Punkt 2.1 definiert. Die Vorbereitung, die Durchführung und die Nachbereitung von Sitzungen sind allerdings nur Teilaufgaben des Gremienmanagements. Zum Zusammenhang zwischen Effektivität und Effizienz und den strategischen Erfolgsfaktoren Kosten, Qualität und Zeit vgl. vertiefend KEUPER (2001), S. 11 ff.
PUCHTA/RÖDER/KEUPER
86
Durch die Entwicklung und Implementierung von so genannten Electronic Meeting Systems11, kurz EMS, als Informationssystem zur Unterstützung und Verbesserung der synchronen Zusammenarbeit in Sitzungen12 sollte das zuvor beschriebene Effektivitäts-EffizienzDilemma13 gemindert werden.14 In der Literatur werden die tatsächlich erzielten Ergebnisse sehr kontrovers diskutiert.15 Jedoch konnten Feldforschungen positive Resultate bezüglich der Sitzungseffektivität und -effizienz wissenschaftlich belegen,16 wobei sich vor allem die Genauigkeit der Abstimmung von Aufgabe und eingesetztem EMS als erfolgsbegünstigend erwies.17 KRCMAR/BÖHMANN/KLEIN fordern deshalb auch, dass neben der „technologischen Intervention“ die „Gruppenarbeitssituation in ihrer Gänze zu gestalten“ ist, und sehen Forschungsbedarf insbesondere in der betriebs-, branchen- oder anwendungsgebietsspezifischen Gestaltung sowie Bewertung von Sitzungsprozessen.18 Im vorliegenden Beitrag wird deshalb aufbauend auf dem Versuch einer terminologischen Einordnung des Gremienmanagements und einer kurzen Darstellung der diesbezüglichen für Kreditinstitute relevanten regulatorischen Anforderungen ein Referenzmodell19 für modernes IT-gestütztes Gremienmanagement in Kreditinstituten auf strategischer, operativer und taktischer Ebene inklusive der zur Implementierung erforderlichen Vorgehensbeschreibung konzeptualisiert. Anschließend wird die praktische Umsetzung der zuvor entwickelten Konzeption am Beispiel der Investitionsbank Berlin gezeigt. Hierdurch soll die sinnvolle Verknüpfung der von KRCMAR/BÖHMANN/KLEIN geforderten vollumfänglichen Prozessgestaltung anhand des Kernprozesses „Vorstandssitzung“ mit der technologischen Intervention durch die Einführung von SESSION als Werkzeug des IT-gestützten Gremienmanagements gezeigt werden. Der Beitrag findet seinen Abschluss in einer Darstellung der Erfolgsfaktoren, der erzielten Ergebnisse und einem Ausblick auf mögliche weitere Fortentwicklungen.
11
12 13 14 15 16 17
18 19
Für die Zwecke dieses Beitrags soll der EMS-Begriff Anwendung finden, weil hiermit die systemseitige Unterstützung der örtlich und zeitlich synchronen Kooperation von Sitzungsteilnehmern verdeutlich wird. Eine Übersicht zu weiteren, teilweise synonym verwendeten Begriffen findet sich in KRCMAR/BÖHMANN/KLEIN (2001), S. 238. Vgl. KLEIN/KRCMAR (2003), S. 421. Zum Effektivitäts-Effizienz-Dilemma vgl. vertiefend KEUPER (2004), S. 97 f. Vgl. KLEIN/KRCMAR (2003), S. 421. Vgl. FREY (1995), S. 1 ff., MC KENNA (1995), S. 16, ROSE (2000), S. 180 ff., und DENNIS/WIXOM/ VANDENBERG (2001), S. 167 ff. Vgl. KLEIN/KRCMAR (2003), S. 424. Vgl. BENBASAT/LIM (1993), S. 430 ff., DENNIS/HALEY/VANDENBERG (1996), S. 851 ff., ZIGURS/ BUCKLAND (1998), S. 313 ff., ZIGURS/BUCKLAND/CONNOLLY/WILSON (1999), S. 34 ff., und DENNIS/WIXOM/VANDENBERG (2001), S. 167 ff. Vgl. KRCMAR/BÖHMANN/KLEIN (2001), S. 242.
„Ein Referenzmodell (ausführlich: Referenz-Informationsmodell) ist ein Informationsmodell, das Menschen zur Unterstützung der Konstruktion von Anwendungsmodellen entwickeln oder nutzen, wobei die Beziehung zwischen Referenz- und Anwendungsmodell dadurch gekennzeichnet ist, dass Gegenstand oder Inhalt des Referenzmodells bei der Konstruktion des Gegenstands oder Inhalts des Anwendungsmodells wieder verwendet werden.“; VOM BROCKE (2003), S. 34. Siehe auch FETTKE/LOOS (2005), S. 18 ff., und für eine umfassende etymologische Analyse des Begriffs siehe THOMAS (2006).
Der „automatisierte Bankvorstand“
2
Gremienmanagement
2.1
Terminologische Einordnung
87
Der Begriff Gremienmanagement setzt sich aus zwei Bestandteilen zusammen: Gremium und Management. Nach STOCK-HOMBURG bezeichnet ein Gremium eine „Mehrpersoneneinheit zur Erfüllung übergreifender Daueraufgaben oder Spezialaufgaben durch nicht-ständige Zusammenarbeit.“.20 Allerdings lässt sich auch diese Definition noch durch die Präzisierung der möglichen Funktionen von Gremien verfeinern. Demgemäß ist ein Gremium eine multipersonale organisatorische Einheit zur Analyse, Beratung, Entscheidung, Umsetzung, Dokumentation, Kontrolle respektive Information bezüglich übergreifender Dauer- oder Spezialaufgaben durch nicht-ständige Zusammenarbeit. Weitere mögliche Merkmale zur Charakterisierung von Gremien enthält Abbildung 1. Gliederungsmerkmal Merkmalsausprägungen (Beispiele) Rechtsgrundlage
Kompetenz Grad der Institutionalisierung Zusammensetzung Art des ausgeübten Amts Umfang der Aufgabe
Bildung des Gremiums ist (aufsichts-)rechtlich gefordert und damit obligatorisch (z. B. AktG, GmbHG) Bildung des Gremiums ist fakultativ, rechtliche Vorgabe existiert nicht Analyse-, Informations-, Dokumentations-, Beratungs-, Entscheidungs-, Umsetzungs-, Kontrollgremium formell, informell horizontal, vertikal, lateral haupt-, neben-, ehrenamtlich fachspezifisch, fachübergreifend
Art der Aufgabe Einsatzdauer
dauerhafte Aufgabe, zeitlich begrenzte Spezialaufgabe befristet, unbefristet/kontinuierlich, diskontinuierlich
Zeitverlauf Umfang der Mitarbeit Grad der Hierarchisierung Struktur Qualifikation der Mitglieder
kontinuierlich, diskontinuierlich Voll-, Teilzeit formal-hierarchische Struktur, keine Hierarchie
Abbildung 1:
20 21
mit Ausschüssen, ohne Ausschüsse Fach-, Laiengremium
Gliederungsmerkmale und mögliche Ausprägungen für Gremien21
STOCK-HOMBURG (2005), S. 48 ff. Vgl. hierzu VAHS (2007), S. 80 f., und STOCK-HOMBURG (2005), S. 48 ff.
PUCHTA/RÖDER/KEUPER
88
Allgemein formuliert umfasst Management die Planung, Durchführung und Kontrolle des Wertschöpfungsprozesses.22 In Anlehnung an das anglo-amerikanische Verständnis vom Managementbegriff soll dieser für die Zwecke dieses Beitrags sowohl in seiner funktionalen als auch in seiner institutionellen Bedeutungsvariante Anwendung finden.23 Funktional gesehen umfasst Management in Bezug auf Gremien alle Aktivitäten, „[…] die im Rahmen der Konstituierung und laufenden Betreuung von Gremien anfallen.“24 Der Zeitraum von der Konstituierung des Gremiums über die Arbeitsphase bis zur Einstellung der Tätigkeit kann auch als Lebenszyklus des Gremiums bezeichnet werden. Institutionell hingegen beschreibt Management die Personen, die die vorgenannten Aktivitäten planen, durchführen und kontrollieren, ihre konkreten Tätigkeiten und Rollen. Gremienmanagement umfasst also die Planung, Durchführung und Kontrolle aller Aktivitäten, die im Lebenszyklus einer multipersonalen organisatorischen Einheit anfallen, deren Zweck in der Analyse, Beratung, Entscheidung, Umsetzung, Dokumentation, Kontrolle respektive Information bezüglich übergreifender Dauer- oder Spezialaufgaben durch nichtständige Zusammenarbeit besteht.
2.2
Anforderungen an das Gremienmanagement in Kreditinstituten
Die zunehmende Verknüpfung der internationalen Geld- und Kapitalmärkte bringt es mit sich, dass sich Kreditinstitute einer Wettbewerbssituation gegenüber sehen, die geprägt ist durch Globalität25, ein Höchstmaß an Dynamik, Diskontinuität und Konvergenz26. Die hieraus resultierende Marktkomplexität27 als Teil der Umweltkomplexität28 führt zu einer strengen Kernkompetenzfokussierung29 seitens der Marktteilnehmer. Als Konsequenz ergibt sich die Notwendigkeit der expliziten Beachtung des Managements kernkompetenzunterstützender Support-Leistungen.30 Der Komplexitätsanstieg bringt die Simultaneität von kostenorientierten Effizienzzielen, Zeiteffektivität, Zeiteffizienz und Qualität als Effizienzziel mit sich. Im Kern muss das Gremienmanagement demgemäß dafür Sorge tragen, dass „[…]die richtige Leistungsqualität zum richtigen Zeitpunkt kostengünstig bereitgestellt wird.“31 Um dieser Anforderung gerecht werden zu können, bedarf es einer flexiblen, der Komplexität der Ab-
22 23 24 25 26
27 28 29 30 31
Vgl. KEUPER (2001), S. 1. Vgl. STAEHLE (1999), S. 71. Vgl. SCHMIDT/KOCH (1989), S. 1. Vgl. STRAUBHAAR (2006), S. 38 ff. Für eine definitorische Einordnung des Konvergenzbegriffs vgl. HANS (2006), S. 109 ff. In Bezug auf Kreditinstitute wird der Terminus Konvergenz zumeist für die Beschreibung der sukzessiven Annäherung regulatorischer Aspekte, beispielsweise die Vereinheitlichung existierender Rechnungslegungsstandards wie US-GAAP und IAS/IFRS oder die Konvergenz der Eigenkapitalmessung, verwendet; vgl. hierzu BUNDESVERBAND DEUTSCHER BANKEN (2006). Zum Komplexitätsbegriff vgl. vertiefend KEUPER (2004), S. 15 ff. Ferner wird durch KEUPER der Begriff der Marktkomplexität intensiv behandelt; vgl. hierzu KEUPER (2004), S. 39 ff. Vgl. BEA/HAAS (1997), S. 74 ff. Zu den Erfolgen deutscher Kreditinstitute im Rahmen der Konzentration auf deren Kernkompetenzen vgl. auch BUNDESVERBAND DEUTSCHER BANKEN (2006), S. 47. Vgl. KEUPER/OECKING (2006), S. VII. Vgl. ROLLBERG (1996), S. 12.
Der „automatisierte Bankvorstand“
89
läufe angemessenen Organisationsstruktur und eines auf die institutsspezifischen Komplexitätsanforderungen ausgerichteten Steuerungssystems.32 Neben der Marktkomplexität bildet die Gesellschaftskomplexität den zweiten Teil der Umweltkomplexität,33 wobei zwischen beiden Teilen Abhängigkeiten bestehen. Demnach ist auch die Gesellschaftskomplexität für das Gremienmanagement von Kreditinstituten von Relevanz. Vor allem die Komplexität des Rechtssystems34 und hier vorrangig aufsichtsrechtliche Regularien stellen das Gremienmanagement vor enorme Herausforderungen. So ergeben sich die wachsenden Anforderungen an Effektivität und Effizienz des Gremienmanagements in Banken beispielsweise aus der 2. Säule des neuen Baseler Akkords, die in Form der „Mindestanforderungen an das Risikomanagement“ (MaRisk) Einzug in das aufsichtsrechtliche Regelwerk für deutsche Kreditinstitute gefunden hat. Darin heißt es: „Alle Geschäftsleiter (§ 1 Abs. 2 KWG) sind, unabhängig von der internen Zuständigkeitsregelung, für die ordnungsgemäße Geschäftsorganisation und deren Weiterentwicklung verantwortlich. Diese Verantwortung umfasst […] die Festlegung angemessener Strategien und die Einrichtung angemessener interner Kontrollverfahren und somit die Verantwortung für alle wesentlichen Elemente des Risikomanagements.“.35 Dem Grundsatz der doppelten Proportionalität folgend sind durch die Kreditinstitute „[…] entsprechend Art, Umfang, Komplexität und Risikogehalt der Geschäftsaktivitäten Regelungen zur Aufbau- und Ablauforganisation zu treffen sowie Risikosteuerungs- und -controllingprozesse einzurichten“36. Prozesse sind „[…] klar zu definieren und aufeinander abzustimmen.“.37 Weiterhin hat „[…] das Kreditinstitut entsprechend der Art, dem Umfang, der Komplexität und dem Risikogehalt der Geschäfte angemessene Risikosteuerungs- und -controllingprozesse einzurichten, die eine Identifizierung, Beurteilung, Steuerung sowie Überwachung und Kommunikation der wesentlichen Risiken gewährleisten. Diese Prozesse sollten in ein integriertes System zur Ertrags- und Risikosteuerung (‚Gesamtbanksteuerung‘) eingebunden werden.“38 Das letztgenannte Interne Kontrollsystem (IKS) beinhaltet demnach die systematische Erfassung, entscheidungsorientierte Analyse und Aufbereitung, Verwaltung sowie Archivierung unternehmenskritischer Informationen, die sich beispielsweise aus Gremienbeschlussfassungen der Bank ergeben können. Weiterhin wird auf die Verpflichtung zur systematischen und für sachkundige Dritte nachvollziehbaren Abfassung und Aufbewahrung von Geschäfts-, Kontroll- und Überwachungsunterlagen und ergänzend auf die Sicherstellung von „Aktualität und Vollständigkeit der Aktenführung“ verwiesen.39 Hinsichtlich der hierfür notwendigen technisch-organisatorischen Ausstattung fordern die MaRisk: „IT-Systeme (Hardware- und Software-Komponenten) und die zugehörigen IT-Prozesse müssen die Integrität, die Verfügbarkeit, die Authentizität sowie die Vertraulichkeit der Daten sicherstellen. Für diese Zwecke ist bei der Ausge32 33 34 35 36 37 38 39
Vgl. zum Komplexitätsproblem des strategischen Managements KEUPER (2001), S. 18 f. Zur Definition der Gesellschaftskomplexität vgl. PICOT/FREUDENBERG (1998), S. 70 f. Eine Beschreibung des Verhältnisses von Umwelt-, Markt- und Gesellschaftskomplexität findet sich bei KEUPER (2004), S. 39 ff. DEUTSCHE BUNDESBANK (2007), allgemeiner Teil, Textziffer 3. DEUTSCHE BUNDESBANK (2007), allgemeiner Teil, Textziffer 4.3. DEUTSCHE BUNDESBANK (2007), allgemeiner Teil, Textziffer 4.3.1. DEUTSCHE BUNDESBANK (2007), allgemeiner Teil, Textziffer 4.3.2. DEUTSCHE BUNDESBANK (2007), allgemeiner Teil, Textziffer 6.
PUCHTA/RÖDER/KEUPER
90
staltung der IT-Systeme und der zugehörigen IT-Prozesse grundsätzlich auf gängige Standards abzustellen.“40 Einhergehend mit den Anforderungen der MaRisk üben die Inhalte des Deutschen Corporate Governance Kodex (DCGK) erheblichen Einfluss auf das Gremienmanagement in Banken aus. Auch hierin wird die Aufgabe des Vorstands dokumentiert, „[…] für die Einhaltung der gesetzlichen Bestimmungen und der unternehmensinternen Richtlinien zu sorgen“ und auf deren Beachtung hinzuwirken.41 Des Weiteren trägt der Vorstand für die Einführung eines „angemessenen Risikomanagements und Risikocontrollings“ im Unternehmen Sorge.42 In Textziffer 3.4 wird die „ausreichende Informationsversorgung“ als Aufgabe von Vorstand und Aufsichtsrat, und damit implizit für das Gremienmanagement, festgelegt.43 Besondere Betonung findet hierbei die Wahrung der Vertraulichkeit in der Gremienarbeit.44
3
Konzeptualisierung eines Referenzmodells für das IT-gestützte Gremienmanagement
Das Referenzmodell für das Gremienmanagement setzt sich aus drei Domänen zusammen. Die Domäne „Lieferanten“ umfasst die Bereitstellung von technischen sowie nichttechnischen Dienstleistungen durch interne Fachbereiche, wie z. B. Personal, Rechnungswesen, allgemeine Verwaltung, und externe Dienstleister, beispielsweise IT-Dienstleister. Die Kunden-Domäne des Gremienmanagements sind die Gremienmitglieder selbst oder deren Stellvertreter bzw. Beauftragte. Anwender hingegen sind die Mitarbeiter der Fachbereiche, die für ihre laufenden Aktivitäten die Dienstleistungen des Gremienmanagements, beispielsweise das Sitzungsmanagement oder das Meldewesen gemäß KWG45, nutzen. Sowohl die Kunden als auch die Anwender treten als Leistungsnachfrager auf. Die Leistungserstellung auf Basis der Kunden- bzw. Anwenderbedarfe wird durch die Domäne Gremienmanagement sichergestellt, die sich in drei Ebenen gliedert. Die strategischen Leitlinien für das Gremienmanagement ergeben sich aus der Unternehmensstrategie und deren relevanten Teilstrategien. Auf der strategischen Ebene werden somit insbesondere Aussagen über die Anforderungen und Wünsche der internen und externen Anspruchsgruppen, die bereits vorhandenen oder noch aufzubauenden Kernkompetenzen46 zur Erfüllung der Ansprüche, den sich aus den Ansprüchen und Kernkompetenzen ergebenden Fokus der Wertschöpfung, das konkrete Leistungsangebot sowie die gegebenenfalls zur Wertschöpfungserbringung erforderlichen Kooperationsbeziehungen getroffen.47
40 41 42 43 44 45 46 47
DEUTSCHE BUNDESBANK (2007), allgemeiner Teil, Textziffer 7.2. REGIERUNGSKOMMISSION DEUTSCHER CORPORATE GOVERNANCE KODEX (2007), Textziffer 4.1.3. REGIERUNGSKOMMISSION DEUTSCHER CORPORATE GOVERNANCE KODEX (2007), Textziffer 4.1.4. REGIERUNGSKOMMISSION DEUTSCHER CORPORATE GOVERNANCE KODEX (2007), Textziffer 3.4. REGIERUNGSKOMMISSION DEUTSCHER CORPORATE GOVERNANCE KODEX (2007), Textziffer 3.5. KWG – Gesetz über das Kreditwesen. Zum Begriff der Kernkompetenzen vgl. PRAHALAD/HAMEL (1990), S. 83 f., KNAESE (1996), S. 26 ff., BÖRNER (2000), S. 79, KEUPER (2003), S. 14 f., und KEUPER (2004), S. 51 f. Vgl. RÜEGG-STÜRM (2004), S. 83 ff.
Der „automatisierte Bankvorstand“
91
Die operative Ebene hingegen beinhaltet die Elemente „Unterstützung und Betrieb“ sowie „Infrastruktur-(fort-)entwicklung“. Der Service Desk stellt als direkte Schnittstelle zwischen den Anwendern und dem Gremienmanagement die Erreichbarkeit des Gremienmanagements sicher, registriert Anfragen und trägt für deren Klärung Sorge. Die elementare Voraussetzung für das ordnungsgemäße Funktionieren des Gremienmanagements bildet das Vorhandensein einer zentralen Datenbank, in der beispielsweise neben den allgemeinen Mitgliederinformationen auch Sitzungs-, Anwenderinformationen sowie Textbausteine hinterlegt werden können. Sollten prozessuale oder technische Änderungen im Rahmen des Gremienmanagements notwendig sein, wird der Change-Management-Prozess48 angestoßen, der wiederum Rückwirkungen auf den Service Desk, die Inhalte der Datenbank und die Elemente der taktischen Ebene hat. Im Rahmen des Release Management werden die hard- und softwareseitigen Anpassungen geplant, getestet, implementiert und verwaltet. Hinzu kommt, dass bei der Änderung der Software entsprechende Schulungen durchgeführt und die Dokumentationen angepasst werden müssen. Das Element „Infrastruktur-(fort-)entwicklung“ beinhaltet sämtliche Aktivitäten zur Planung, Inbetriebnahme, laufenden Nutzung, Anpassung, Wartung und gegebenenfalls Abschaltung der für das Gremienmanagement erforderlichen Hardware, z. B. stationäre Arbeitsplatzrechner mit den dazugehörigen Peripheriegeräten oder mobile Endgeräte für die Sitzungsprotokollierung. Hierbei ist eine enge Zusammenarbeit mit der internen IT-Organisation oder dem beauftragten externen IT-Dienstleister notwendig. Die taktische Ebene der Domäne „Gremienmanagement“ enthält die beiden Elemente „Planung und Lieferung“ sowie „Anwendungs-(fort-)entwicklung“. An der direkten Schnittstelle zum Kunden agiert die Kundenbetreuung. Hier werden sämtliche Kundenbedarfe systematisch erfasst und deren Erfüllung koordiniert. Beispielhaft hierfür genannt sei die Durchführung von ordentlichen sowie außerordentlichen Gremiensitzungen. Die Kundenbetreuung nimmt des Weiteren regelmäßig Erfahrungen, Anregungen und Änderungswünsche der Kunden auf, die dann sowohl im Rahmen des Service Level Managements (SLM) als auch im Change Management Berücksichtigung finden.49 Somit besteht die Kernaufgabe des SLM in der Pflege und fortwährenden Verbesserung der mit dem Kunden vereinbarten Dienstleistungen im Rahmen des Gremienmanagements. Konkret bedeutet dies, dass ¾ Bedarfe aus der Kundenbetreuung aufgenommen oder gemeinsam mit der Kundenbetreuung identifiziert werden ¾ die aus den erkannten Bedarfen resultierenden Leistungs- und Qualitätsmerkmale definiert werden ¾ die definierten Leistungs- und Qualitätsmerkmale schriftlich zwischen den Kunden und dem Gremienmanagement fixiert werden
48
49
Das Change Management zeichnet für die ordnungsgemäße Vorbereitung, Durchführung und Kontrolle von Änderungen in Bezug auf das Gremienmanagement verantwortlich. Ziel ist es, ablauforganisatorisch sicherzustellen, dass tatsächlich erforderliche Änderungen effizient umgesetzt werden. Eine solche Anregung ist z. B. der Wunsch eines Vorstandsmitglieds, dass künftig bestimmte Fachbereichsverantwortliche obligatorisch in die Mitzeichnung für eine Sitzungsvorlage einzubeziehen sind. Daraus resultiert dann die Änderung der entsprechenden Dokumentvorlage. Hierfür ist zunächst ein entsprechender Request for Change erforderlich. Die Überwachung der Einhaltung von Mitzeichnungsvorgaben ist dann im Service Level Agreement aufzunehmen.
PUCHTA/RÖDER/KEUPER
92
¾ die Einhaltung der definierten Leistungs- und Qualitätsmerkmale kontrolliert wird und ein diesbezügliches Berichtswesen zu implementieren ist. Aus dem letztgenannten Soll-Ist-Vergleich müssen für den Fall der Soll-Ist-WertInkongruenz konkrete Handlungsnotwendigkeiten abgeleitet werden, die mit der Kundenbetreuung abgestimmt werden und sodann in Abhängigkeit von Art und Umfang des Veränderungsbedarfs in den Change-Management-Prozess einfließen. Die vorgenannten Dienstleistungen des Gremienmanagements umfassen im Kern das Sitzungsmanagement, das die Phasen Vorbereitung, Durchführung, Protokollierung und Kontrolle umfasst. Ausgehend von der Annahme, dass insbesondere das Sitzungsmanagement einen in hohem Maße standardisierbaren Prozess darstellt, empfiehlt sich in der Regel der Einsatz einer standardisierten Anwendungssoftware,50 für deren Einführung referenzmodellseitig ein Phasenschema integriert wird, das sich in folgende Abschnitte gliedert: ¾ Begründung und Auswahl ¾ Test ¾ Einführung ¾ Betrieb ¾
Optimierung.
Kategorie organisatorische Rahmenbedingungen informationstechnische Rahmenbedingungen branchenbezogene Rahmenbedingungen Anzahl und Art der einzuführenden Module
Hersteller-Auswahl Software-Auswahl
Abbildung 2:
50 51
Einflussfaktoren innerhalb der Kategorie Größe des Unternehmens, Struktur der Organisation Art der bestehenden computergestützten Informationssysteme Zwischenbetriebliche Integrationstendenzen, Wettbewerbsdynamik, Anzahl und Art der Branchenlösungen Anzahl simultan eingeführter Module, Anpassung der Organisationsstruktur an die Software-Vorgaben oder Anpassung der Software an die bestehende Organisationsstruktur Größe, Marktstellung, Leistungsfähigkeit, Produkt- und Release-Politik Funktionsumfang, Netzeffekte durch verbreitete einheitliche Standards, externes Beratungswissen vorhanden, Lebenszyklus einer Software aus Sicht des Herstellers
Determinanten des Begründungs- und Auswahlabschnitts51
Vgl. LAYER (1998), S. 134. Entnommen aus KEUPER (2001), S. 358.
Der „automatisierte Bankvorstand“
93
Innerhalb des erstgenannten Abschnitts gilt es die für das jeweilige Unternehmen relevanten, in der Regel kurzfristig nicht änderbaren Rahmenbedingungen einzubeziehen; darüber hinaus geht es um die Art und Anzahl der einzuführenden Module sowie die Hersteller- und Software-Auswahl (siehe Abbildung 3). Die Test- und Einführungsphase wird durch die in Abbildung 3 aufgeführten Faktoren beeinflusst. Kategorie
Einflussfaktoren innerhalb der Kategorie
Art und Umfang der Tests
Einzel- versus Gruppentest, Funktions- versus Prozesstest, laufende versus stichtagsbezogene Tests Organisatorische Aspekte der Tests Zusammensetzung des Testteams (Anwender, Kunden, Projektmitarbeiter) Vor- und Nachbereitung der Tests Fehlerdokumentation, Kontrolle der Fehlerbeseitigung mit Abnahmeprotokollen inhaltliche Ausrichtung der Funktionsorientierte vs. prozessorientierte Einführung Vorgehensweise Einführungsreihenfolge Moduleinführung schrittweise oder „Big Bang“ Art und Umfang der Anpassungen
Customizing, Erweiterungen und Modifikationen
organisatorische Aspekte des Einführungsprojekts
Zusammensetzung des Projektteams (Mitarbeiter des Unternehmens, externe Berater), Auswahl des Projektleiters, Einbindung des Projekts in die Unternehmensorganisation, Grad der Entscheidungskompetenz des Projektteams Verwendung von Vorgehensmodellen seitens des Herstellers, Anwendung nachvollziehbarer Modellierungsmethoden (EPK), Automatisierung von Customizing-Aktivitäten durch Referenzprozesse und vordefinierte Parameterprofile Projektdokumentation, Anwenderdokumentation, Anwenderschulungen
Verwendung von Einführungswerkzeugen
Vorbereitung der Systemnutzung Abbildung 3:
Determinanten der Test- und Einführungsphase52
Im Verlauf des Betriebs- und Optimierungsabschnitts sind die Kategorien Gestaltung der Systemnutzung und des Systembetriebs sowie das fortwährende Change Management von Bedeutung.
52
Vgl. KEUPER (2001), S. 359; eigene Erstellung.
PUCHTA/RÖDER/KEUPER
94
Kategorie
Einflussfaktoren innerhalb der Kategorie
Gestaltung des Systembetriebs
Eigenständige Administration versus Outsourcing der Administration an externe Dienstleister Key-User als unterstützender Partner der Anwender, Reviews der Standard-Softwarenutzung, Anwenderschulungen, Weiterentwicklung der Anwenderdokumentation Management nachträglicher Anpassungen, Management von Funktionserweiterungen und Release-Wechseln
Gestaltung der Systemnutzung
Change Management
Abbildung 4:
Determinanten der Betriebs- und Optimierungsphase53
Die Impulse für die Optimierung der eingesetzten Anwendungssoftware stammen vor allem aus dem Service Level Management und dem Service Desk. Die Umsetzung des IT-gestützten Gremienmanagements in einem Kreditinstitut sollte in vier Phasen erfolgen: Vorbereitung, Konzeption, Implementierung und Institutionalisierung. Inhalt und Ergebnis der jeweiligen Phasen sind Abbildung zu entnehmen. In Abschnitt 4 wird die konkrete Einführung des IT-gestützten Gremienmanagements in der Investitionsbank Berlin auf der Basis des zuvor entwickelten Referenzmodells unter Nutzung des ebenfalls beschriebenen Phasenplans konkret geschildert.
53
Entnommen aus KEUPER (2001), S. 360.
Lieferanten
interne Fachbereiche
externe Dienstleister
Anspruchsgruppen
Kernkompetenzen
Anwendungs(fort-) entwicklung Begründung/ Auswahl Test Einführung Betrieb Optimierung
Infrastruktur – (fort-)entwicklung Planung Beschaffung Betrieb Unterstützung
Kooperationen
Kundenbetreuung
Service Level Management
Planung und Lieferung
Leistungsangebot
Gremienmanagement (GM) Strategisches GM Fokus der Wertschöpfung
Vorbereitung
Durchführung
Protokollierung
Kontrolle Taktisches GM
Service Desk
Operatives GM
Datenbank
Unterstützung und Betrieb Change Management
Release Management
Kunden/Anwender
Kunden
Anwender
Referenzmodell für das IT-gestützte Gremienmanagement
Abbildung 5:
95 Der „automatisierte Bankvorstand“
PUCHTA/RÖDER/KEUPER 96
¾Sicherstellung der kontinuierlichen Funktionsfähigkeit des Gremienmanagements ¾Integration in die bankweiten Kontroll- und Berichtsstrukturen ¾Installierung eines fortwährenden Verbesserungsprozesses ¾weitere Einzelschulungen ¾Trainig-on-the-Job
Institutionalisierung
¾Kommunikation der SollProzesse ¾Auswahl der Anwendungssoftware ¾Anpassung der Anwendungssoftware ¾Test und Implementierung der Anwendungssoftware ¾Erstellung Schulungs- und Anwendungsdokumentation ¾Schulung der VSMitarbeiter ¾Schulung der Anwender
¾Interaktion zwischen den Domänen funktioniert ¾Service Level werden erbracht ¾Weiterbildung des Personals funktioniert
Implementierung
¾Unterstützung bei der Formulierung der normativen Grundlagen des Gremienmanagements ¾Erarbeitung und Verabschiedung der strategischen Ausrichtung des Gremienmanagements ¾Festlegung der Grundstruktur für das IBBGremienmanagement ¾Beschreibung und Abstimmung der SollProzesse
¾Soll-Prozesse sind verbindlich ¾Anwendungssoftware ist ausgewählt, angepasst, getestet und erfolgreich implementiert ¾Mitarbeiter und Anwender sind geschult
Konzeption
¾Initialisierung des Projekts ¾Prüfung der Unternehmensund IT-Strategie ¾Erhebung der domänenspezifischen Anforderungen ¾Ist-Analyse der Prozesse ¾Analyse des Umsetzungsstands des IT-gestützten Gremienmanagements anhand des Referenzmodells
¾Normative und strategische Grundlagen sind gelegt ¾Grundstruktur des ITgestützten IBBGremienmanagements ist definiert ¾Soll-Prozesse sind beschrieben und abgestimmt
Vorbereitung
¾Projektstruktur ist aufgesetzt ¾Unternehmens- und ITStrategie ist analysiert ¾Problemstellung und Handlungsbedarf ist konkretisiert
Phasenplan zur Umsetzung des IT-gestützten Gremienmanagements
Abbildung 6:
Phase Inhalt Ergebnis
Der „automatisierte Bankvorstand“
4
Umsetzung des IT-gestützten Gremienmanagements am Beispiel der Investitionsbank Berlin (IBB)
4.1
Ausgangssituation
4.1.1
Kurzdarstellung der IBB
97
Die Investitionsbank Berlin (IBB) ist seit ihrer rechtlichen Verselbstständigung im Jahr 2004 die zentrale Förderbank des Landes Berlin und agiert eigenständig als Anstalt öffentlichen Rechts mit Anstaltslast und Refinanzierungsgarantie. Zur Konkretisierung ihres gesetzlich definierten Förderauftrags hat der Vorstand in einem langfristig angelegten, systematischen Prozess die auf der bestehenden Vision, Mission sowie dem Unternehmensleitbild aufbauende Geschäftsstrategie formuliert. Die Vision54 der IBB lautet „Leistung für Berlin!“. Hieraus leitet sich die Mission wie folgt ab:55 ¾ Die IBB begleitet Unternehmen mit monetärer Förderung, um das Wirtschaftswachstum der Hauptstadt zu forcieren, um bestehende Arbeitsplätze zu sichern sowie neue zukunftsfähige Arbeitsplätze zu schaffen. ¾ Die IBB leistet im Rahmen des effizienten Bestandsmanagements der Immobilienengagements ihren Beitrag zur Stadtentwicklung und zur sozialen Wohnstruktur Berlins. ¾ Die IBB erwirtschaftet angemessene Erträge, um ihrem Förderauftrag nachhaltig gerecht zu werden. Aus Vision und Mission56 wurde das Unternehmensleitbild für die IBB formuliert, das sich schlagwortartig in sieben Kernbotschaften zusammenfassen lässt:57
54
55
56
57
KEUPER betont die in einer Vision notwendigerweise zum Ausdruck zu bringende fortwährende Anpassung des Unternehmens an sich wandelnde Umweltbedingungen, indem er die „unternehmerische Vision“ als „Konkretisierung des Bewußtwerdens eines unternehmerischen Wunschtraums nach Veränderung“ definiert; vgl. KEUPER (2001), S. 2. STEINMANN/SCHREYÖGG sehen in einer Vision „[…] den Entwurf eines Entwicklungspfads[…], eine Idee, wohin sich das Unternehmen entwickeln sollte“; vgl. STEINMANN/SCHREYÖGG (2005), S. 171. Zur Vision als zentralem Leitkonzept siehe vertiefend NAGEL/WIMMER (2006), S. 38 f., und BENNIS/NANUS (1985), S. 143. Zur neuen Rolle von Managern als Visionäre siehe PICOT/REICHWALD/WIGAND (2003), S. 466 ff., und KIRBY (2003), S. 175 und S. 186. Vgl. INVESTITIONSBANK BERLIN (2007a), S. 7. Zum Prozess des Herunterbrechens der Vision bis auf die Funktionalstrategien eines Unternehmens vgl. DÖRRER (1999), S. 30., KEUPER (2002), S. 111, und KEUPER/HINTZPETER (2007), S. 300 f. HAX/MAJLUF bezeichnen mit der „Business Mission“ den „[…] Unternehmenszweck […], ausgedrückt in herzustellenden und zu vertreibenden Gütern beziehungsweise Dienstleistungen.“, HAX/MAJLUF (1984), S. 56 f. SCHOLZ sieht auf der Definition von HAX/MAJLUF aufbauend in der „Business Mission […] die Festlegung des hierarchisch höchsten Gesamtkonzepts in einer kommunizierbaren Form“; vgl. SCHOLZ (1987), S. 47. DRUCKER definiert den Terminus Mission wie folgt: „[…] a mission statement is not a slogan. It is a precise statement of purpose. Words should be chosen for their meaning rather than beauty, for clarity over cleverness. The best mission statements are plain speech with no technical jargon and no adornments.”, DRUCKER (1999). Ferner: „Eine Einrichtung existiert, um einen bestimmten Zweck und eine Mission zu erfüllen: Sie hat eine spezifische soziale Funktion. In einem Unternehmen besteht der Zweck darin, wirtschaftliche Ergebnisse zu erzielen.“; DRUCKER (2005), S. 31. Eine Vorgabe zur Entwicklung einer Mission auf der Grundlage der Ideen von DRUCKER findet sich in STERN (1998). Siehe ergänzend KEUPER (2001), S. 127, und KIRBY (2003), S. 237 f. Zum Zusammenhang zwischen Vision und Mission siehe KEUPER/HANS (2006), S. 392 ff. Vgl. INVESTITIONSBANK BERLIN (2007a).
PUCHTA/RÖDER/KEUPER
98 ¾ Orientierung der IBB an Kundeninteressen, ¾ Wettbewerbsneutralität, ¾ Fokussierung auf Wirtschaftsförderung, ¾ effizientes Bestandsmanagement in der Immobilienförderung, ¾ schwerpunktmäßig monetäre Förderung, ¾ Arbeit nach betriebswirtschaftlichen Grundsätzen sowie ¾ Ziel-, Ergebnis- und Leistungsorientierung.
Das Unternehmensleitbild58 der IBB mit den genannten sieben Kernelementen, die durch 32 Leitsätze weiter konkretisiert werden, ist kein Selbstzweck; vielmehr bildet das Unternehmensleitbild, das flexibel sich wandelnden Anforderungen angepasst werden kann, den Orientierungsrahmen zur Sicherstellung der Zielerreichung; so impliziert beispielsweise die Kernbotschaft „Arbeit nach betriebswirtschaftlichen Grundsätzen“ u. a. die nachhaltige Sicherstellung einer tragfähigen Bilanz- sowie GuV-Entwicklung. Letztlich münden Vision, Mission und Leitbild in der Unternehmensgesamtstrategie59 der IBB, die das Dach für die Funktionalstrategien Risiko-, Organisations- und Informationstechnologie-, Kommunikations-, Vertriebs-, Treasury-, Beteiligungs- und Kooperationsstrategie bildet.60 Der Erfolg der Strategieumsetzung61 zeigt sich insbesondere anhand folgender Fakten: ¾ Der Jahresüberschuss konnte von 0,8 Mio. EUR im Jahr 2002 auf über 92 Mio. EUR in 2006 gesteigert werden. ¾ Die Bilanzsumme erhöhte sich zwischen 2004 und 2006 um rund 2,15 Mrd. EUR bzw. 11,9%, das Eigenkapital stieg um knapp 80% auf 539 Mio. EUR. ¾ Gegenwärtig sind etwa 5,368 Mrd. EUR in 32 Emissionen (per 30.09.2007) an der Börse Berlin-Bremen zum Handel zugelassen. Ein besonderer Erfolg der noch jungen Förderbank ist, dass seit März 2006 die nicht nachrangigen ungedeckten Schuldverschreibungen der IBB unter der Voraussetzung einer Börsennotiz durch die EZB als so genannte Tier58
59
60 61
Nach KEUPER ist ein Unternehmensleitbild die zumeist schriftlich fixierte Zusammenfassung der Unternehmensführungsphilosophie; das Leitbild umfasst die Ziele und Leistungscharakteristika des Unternehmens sowie Verhaltensnormen für den Umgang mit Mitarbeitern und externen Anspruchsgruppen. Hierbei betont KEUPER, dass der Umwelt- und Unternehmenskomplexität nur durch ein komplexes Unternehmensleitbild ausreichend Rechnung getragen werden kann; vgl. hierzu vertiefend KEUPER (2001), S. 56. Zum Wesen, zur Funktion, zu Inhalten und Risiken bei der Erstellung von Leitbildern in Unternehmen siehe auch NAGEL/WIMMER (2006), S. 268 ff. Nach KEUPER beschreibt die Unternehmensgesamtstrategie „[…] allgemein die globale Wegbeschreibung […], die planmäßig festlegt, auf welche Weise strategische Erfolgspotentiale aufgebaut bzw. erhalten werden können. Dabei gilt es, die sich im Umfeld bietenden Chancen unter weitestgehender Abwendung der Risiken auszuschöpfen, wobei die obersten Unternehmensziele mit Hilfe strategischer Wettbewerbsvorteile – verifiziert durch strategische Erfolgsfaktoren – bestmöglich zu erreichen sind.“; KEUPER (2001b), S. 23, KEUPER (2004), S. 51 f., und KEUPER/HINTZPETER (2007), S. 301. Nach STEINMANN/SCHREYÖGG werden im Rahmen der Formulierung der Gesamtunternehmensstrategie die Geschäftsfelder festgelegt und die strategiekonforme Ressourcenallokation vorgenommen; vgl. STEINMANN/SCHREYÖGG (2005), S. 170. KEUPER/HANS ergänzen darüber hinaus, dass durch die Unternehmensgesamtstrategie ferner die dynamische, evolutionäre Entwicklung des Unternehmens sichergestellt werden soll; vgl. KEUPER/HANS (2003), S. 83 f. Vgl. INVESTITIONSBANK BERLIN (2007a), S. 8 f. Zum Strategiebegriff und dem Zusammenhang zu Vision sowie Mission eines Unternehmens vgl. KEUPER (2001), S. 23.
Der „automatisierte Bankvorstand“
99
1-Sicherheit für Refinanzierungsgeschäfte mit der EZB zugelassen sind. Ferner ergibt sich infolge der Refinanzierungsgarantie des Landes Berlin ein „Solva-0-Status“ für die Verbindlichkeiten der IBB. Dieser Status wurde insbesondere durch die französische Nationalbank anerkannt. Darüber hinaus zeigt die erfolgreiche Platzierung einer SlimboAnleihe (Short Liquid Money Market Bond) mit einem Emissionsvolumen in Höhe von 500 Mio. EUR durch die DZ Bank, IXIS Corporate & Markets, JP Morgan Securities und die Landesbank Baden-Württemberg bei institutionellen Anlegern im In- und Ausland das Vertrauen der Anleger in die strategische Neuausrichtung der IBB. Das ehrgeizige Ziel der IBB, sich als anerkannter Handelspartner dauerhaft an den nationalen sowie internationalen Geld- und Kapitalmärkten zu etablieren, wurde innerhalb kürzester Zeit erreicht. ¾ Verbesserung der Kapitalrendite von 0,3% in 2002 auf 20,8% in 2006. ¾ Simultane Verringerung des Verwaltungsaufwands in Folge eines umfangreichen Restrukturierungsprojekts zur nachhaltigen Senkung der Sach- und Personalkosten von 102,6 Mio. EUR auf 86,3 Mio. EUR.62 4.1.2
Problemstellung
In der IBB zeichnet der dem Vorstandsvorsitzenden direkt unterstellte Stab Vorstandssekretariat (VS) für das Gremienmanagement verantwortlich, das bis zum Jahr 2004 durch die Bankgesellschaft Berlin als Konzernmutter für die IBB wahrgenommen wurde. Im Zuge der rechtlichen Verselbstständigung der IBB musste bis spätestens 01. September durch das VS ein IBB-eigenes, voll funktionsfähiges Gremienmanagement aufgebaut werden. Die Vorbereitung, Durchführung und Nachbereitung der in der Regel wöchentlich stattfindenden Vorstandssitzung ist der wichtigste Kernprozess des Gremienmanagements in der IBB. Als Kunden treten in diesem Fall die Mitglieder des Vorstands auf. Die Vorstandsassistenz fungiert als Kundenbetreuung und nimmt die Kundenbedürfnisse auf, koordiniert deren Umsetzung und informiert den Kunden über die Umsetzung. Der gesamte Kernprozess wird in die Aktivitäten Vorbereitung, Durchführung und Protokollierung, Kontrolle und Beschlusswesen sowie Archivierung gegliedert. Jede Aktivität wurde in Teilaufgaben zerlegt, denen wiederum Prozessbeteiligte, Leistungsindikatoren und erwartete Ergebnisse zugeordnet wurden.
62
Vgl. INVESTITIONSBANK BERLIN (2007b), S. 7.
PUCHTA/RÖDER/KEUPER 100
Aktivität 1: Vorbereitung
¾Mitarbeiter Gremienmanagement ¾Fachbereiche
¾Mitarbeiter Gremienmanagement
Kontrolle und Zusammenstellung der Sitzungsunterlagen
¾Mitarbeiter Gremienmanagement ¾Vorstand ¾Fachbereiche
¾alle Vorlagen sind formal korrekt ¾Abgabe der vollständigen Sitzungsordner an die Gremienmitglieder ist am Freitag vor der Sitzung bis 15.00h erfolgt
Erstellung, Abstimmung, Einreichung Vorlagen
¾Mitarbeiter Gremienmanagement ¾Sekretariatsmitarbeiter der Gremienmitglieder sowie deren Vertreter
¾Vorlagen liegen alle am Freitag um 12.00 h vor der Sitzung vollständig inklusive aller Mitzeichnungen elektronisch und dokumentär im VS vor
Erstellung, Abstimmung, Versand Tagesordnung
¾Sitzungsdaten sind zwei Wochen vor Sitzungsbeginn festgelegt und kommuniziert
¾Tagesordnung ist am Mittwoch vor der Sitzung erstellt, abgestimmt ¾Tagesordnung ist am Donnerstag vor der Sitzung versandt
¾Vollständigkeit der Sitzungsunterlagen ist sichergestellt
¾Sitzungsordner liegen den Gremienmitgliedern am Freitag vor der Sitzung pünktlich und vollständig vor
Festlegung Sitzungsdaten
¾Sitzungsdaten festgelegt ¾Gremienmitglieder, VS sind informiert
¾Tagesordnung ist erstellt, abgestimmt, versandt ¾Gremienmitglieder, VS sind informiert
Inhalt des Service Level Agreements für die Aktivität 1 „Vorbereitung“ des Kernprozesses „Vorstandssitzung“
Abbildung 7:
Prozessbeteiligte Leistungsindikator Ergebnis
Aktivität 2: Durchführung/Protokollierung
¾Mitarbeiter Gremienmanagement
¾Protokollentwurf ist am zweiten Tag nach der Sitzung im Umlaufverfahren beschlossen
¾Vorstandsassistenz ¾Mitarbeiter Gremienmanagement
Einleitung der Protokollbeschlussfassung
¾Vorstandsassistenz ¾Fachbereiche
¾Protokollentwurf ist spätestens einen Tag nach der Sitzung auf formale Korrektheit geprüft
¾Protokoll der Vorstandssitzung ist beschlossen
Formalkontrolle des Protokollentwurfs
¾Vorstandsassistenz
¾Protokollentwurf ist noch am Sitzungstag erstellt ¾Protokollentwurf ist themenspezifisch einen Tag nach der Sitzung abgestimmt
¾Protokollentwurf ist formal korrekt
Erstellung, Abstimmung, Protokollentwurf
¾Vorstandsassistenz hat alle Sitzungsunterlagen zeitgerecht und formal ordnungsgemäß erhalten ¾Vorbereitungsgespräch ist am Montag vor der Sitzung durchgeführt
¾Protokollentwurf ist erstellt und abgestimmt
Vorbesprechung der Sitzungsinhalte
¾Gremienmitglieder haben die wesentlichen Vorlageninhalte verstanden ¾Fragen konnten geklärt oder zur Klärung weitergeleitet werden
Inhalt des Service Level Agreements für die Aktivität 2 „Durchführung/ Protokollierung“ des Kernprozesses „Vorstandssitzung“
Abbildung 8:
Prozessbeteiligte Leistungsindikator Ergebnis
101 Der „automatisierte Bankvorstand“
PUCHTA/RÖDER/KEUPER 102
Aktivität 3: Kontrolle/Berichtswesen
¾Mitarbeiter Gremienmanagement ¾Fachbereiche
¾Umsetzungsbericht ist dem Vorstand als Vorstandsvorlage mindestens vierteljährlich zur Kenntnis gegeben worden
¾Mitarbeiter Gremienmanagement
Erstellung Umsetzungsbericht
¾Mitarbeiter Gremienmanagement ¾Fachbereiche
¾Zahl der zeitgerecht umgesetzten Beschlüsse ¾Zahl der vollständig umgesetzten Beschlüsse
¾Vorstand hat zu jeder Zeit vollumfängliche Transparenz über erledigte oder offene Beschlüsse
Erfassung, Kontrolle der Beschlussumsetzung
¾zwei Arbeitstage nach der Sitzung liegen den Vorlagenerstellern die Beschlüsse zur Umsetzung vor
¾Beschlüsse wurden zeitgerecht und vollständig umgesetzt
Erstellung, Weiterleitung der Beschlüsse
¾Beschlussauszüge aus dem Protokoll sind erstellt und an die Fachbereiche weitergeleitet
Inhalt des Service Level Agreements für die Aktivität 3 „Kontrolle/ Berichtswesen“ des Kernprozesses „Vorstandssitzung“
Abbildung 9:
Prozessbeteiligte Leistungsindikator Ergebnis
Der „automatisierte Bankvorstand“
103
Aktivität 4: Archivierung
Ablage der Sitzungsinhalte
¾Mitarbeiter Gremienmanagement
¾Mitarbeiter Gremienmanagement ¾Fachbereiche
¾Vollständigkeit der Sitzungsunterlagen
¾í
¾Es liegen alle Sitzungsunterlagen revisionssicher sowohl elektronisch als auch dokumentär historisch geordnet im VS vor.
¾Alle Daten lassen sich anhand bestimmter Abfragekriterien über das GMS abfragen.
Prozessbeteiligte Leistungsindikator Ergebnis
Abbildung 10:
Recherche nach Sitzungsinhalten
Inhalt des Service Level Agreements für die Aktivität 4 „Archivierung“ des Kernprozesses „Vorstandssitzung“
Abbildung 11 zeigt den per Anfang 2004 in der IBB existierenden Grad der Umsetzung des Referenzmodells für das Gremienmanagement. Hierbei werden folgende gravierenden Defizite sichtbar: ¾ fehlende rechtliche Rahmenbedingungen: IBB-Gesetz, IBB-Satzung, Geschäftsordnungen für die Gremien ¾ fehlende strategische Leitlinien für die verantwortlichen Mitarbeiter und deren Verknüpfung mit der Unternehmens- sowie IT-Strategie ¾ keine Identifikation der Kunden und Anwender ¾ mangelnde Beschreibungen der relevanten Kernprozesse ¾ fehlende friktionsfreie IT-Unterstützung für die Kernprozesse
PUCHTA/RÖDER/KEUPER
104
¾ mangelndes Prozessdenken führt zu Doppelarbeiten, Informationsverlusten und damit zu mangelnder Prozesseffektivität und -effizienz ¾ fehlende zentrale Datenbank für die Mitglieder- und Sitzungsbetreuung. 4.1.3
Handlungsbedarf
Aus den vorgenannten Problemen resultierte für die mit der Implementierung des IBBGremienmanagements beauftragten Mitarbeiter im VS folgender Handlungsbedarf: ¾ Unterstützung bei der Formulierung und Verabschiedung der Rechtsgrundlagen für die IBB (IBB-Gesetz und IBB-Satzung, Geschäftsordnungen für die Gremien) ¾ Ableitung der Ziele und der strategischen Leitlinien für das VS auf Basis der Vision, Mission, des Leitbilds und der Geschäftsstrategie der IBB ¾ Implementierung des unter Punkt 3 konzeptualisierten Referenzmodells unter Berücksichtigung der für die IBB geltenden Spezifika ¾
Identifikation von Produktivitätssteigerungspotenzialen durch die Einführung einer Endto-End-IT-Unterstützung mit einem besonderen Fokus auf die Beschlusskontrolle.
Zur Relaxation des ermittelten Handlungsbedarfs wurde die Umsetzung des bereits in Abbildung 2 dargestellten Phasenplans für das IT-gestützte Gremienmanagement beschlossen. Nachfolgend werden das Vorgehen erläutert, die Ergebnisse dargestellt und die Erfolgsfaktoren näher beleuchtet.
Vorbereitung
¾Klärung der Sitzungstermine (Telefon, Lotus Notes) mit Vorstand ¾Aufforderung zur Anmeldung von Tagesordnungspunkten (Lotus Notes) ¾Erstellung der Tagesordnung (Lotus Notes, MS Word) ¾Verabschiedung der Tagesordnung (Telefon, Fax, Lotus Notes) ¾Versand der verabschiedeten Tagesordnung an Vorlagenersteller (Lotus Notes) ¾Erstellung von Vorblatt und Vorlage (MS Word u. a.) ¾Abstimmung der Vorlage (Druckdokument, Lotus Notes) ¾Einreichung von Vorblatt und Vorlage nebst Anhängen (Druckdokument, Lotus Notes) ¾Formalkontrolle von Vorblatt und Anhängen (Druckdokument) ¾Erstellung von Kopien und Zusammenstellung der Sitzungsordner ¾fehlende Schnittstellenintegration zwischen MS-Office-Produkten und Groupware (Lotus Notes) ¾fehlende unternehmensweite Transparenz über Sitzungsplanung, Bearbeitungsstand ¾lange Transport- und Liegezeiten der Vorlagen
Archivierung
¾Ablage der Originalvorlagen in separatem A4-Ordner und auf Netzlaufwerk ¾Ablage der Originalprotokolle in separatem A4-Ordner und auf Netzlaufwerk ¾Ablage der Originalumsetzungsmeldungen in separatem A4-Ordner und auf Netzlaufwerk
Kontrolle/Berichtswesen
¾Vorbesprechung der Vorlagen mit den Gremienmitgliedern ¾ Erstellung von Mitschriften im Sitzungsverlauf (handschriftlich) ¾Erstellung Protokollentwurf (MS Word) ¾Abstimmung Protokollentwurf (Lotus Notes) ¾Erfassung der Rückmeldungen (Lotus Notes) ¾Erstellung finale Protokollversion (MS Word) ¾Versand finale Protokollversion an VS-Mitarbeiter zur Formalkontrolle ¾Anmeldung des finalen Protokolls zur Beschlussfassung
¾Übertragung der protokollierten Einzelbeschlüsse nebst Verteiler und Terminsetzungen von MS Word zu MS Access ¾Ausdruck der Einzelbeschlüsse (MS Access) ¾Sortierung der Beschlüsse (VS) und Weiterleitung gemäß Verteiler (Hauspost) ¾tägliche Kontrolle offener Beschlüsse (MS Access) ¾manuelle Übertragung von schriftlich bei mVS eingegangenen Beschlussmeldungen (MS Access) ¾Erstellung der Beschlussübersichten (MS Access) ¾Übertragung der Beschlussübersichten nach MS Word ¾Erstellung einer Vorlage zum aktuellen Umsetzungsstand von Gremienbeschlüssen
¾keine zentrale Dokumentverwaltung mit effektiver Recherchemöglichkeit ¾keine systematische Ablagestruktur ¾Versionsstände von Dokumenten nicht lückenlos darstellbar ¾Doppelablage von elektronischen und nichtelektronischen Dokumenten
Durchführung/Protokollierung
¾keine softwaregestützte OnlineProtokollierung möglich ¾Systembrüche bei Protokollerstellung und -abstimmung ¾lange Zeiträume der Informationsbereitstellung über ggf. erforderliche Beschlussanpassungen
¾mangelnde Automatisierung der Auszugs- und Berichtserstellung ¾zu hohe fachliche Anforderungen für Datenbankabfragen ¾Systembruch zwischen MS Word und MS Access birgt erhebliches Fehlerpotenzial und führt zu erhöhtem Kontrollaufwand
Ist-Analyse des Kernprozesses „Vorstandssitzung“
Abbildung 11:
Phase Teilschritt Problem
105 Der „automatisierte Bankvorstand“
PUCHTA/RÖDER/KEUPER
106
4.2
Initialisierung des Projekts
Das Projekt wurde seitens des Vorstandsvorsitzenden beim Vorstandsstab Unternehmenskommunikation/Vorstandssekretariat in Auftrag gegeben und der Leiter des Vorstandsstabs zum Projektleiter ernannt. Die konzeptionellen Arbeiten wurden durch VS-Mitarbeiter geleistet und bei technischen Fragestellungen der Bereich Organisation/IT eingebunden. Als externer Berater für die technische Umsetzung der konzeptionellen Vorarbeiten, vor allem für die technische Implementierung der künftigen IT-Unterstützung, wurde die Firma SOMACOS eingebunden.
Projektsponsor: Vorstandsvorsitzender
Projektleitung: Leiter des Vorstandsstabs UK/VS
Mitarbeiter VS
Mitarbeiter Bereich Organisation/IT
Externer Berater Firma SOMACOS
VS: Vorstandssekretariat UK: Unternehmenskommunikation SOMACOS: Software Management Consulting
Abbildung 12:
4.3
Projektorganisation
Schaffung der rechtlichen Grundlagen für das Gremienmanagement
Zunächst wurden mit dem IBB-Gesetz63 und der Satzung64 die existenziellen rechtlichen Grundlagen für die Förderbank geschaffen. Hierzu orientierte sich das VS insbesondere an den aufsichtsrechtlichen Vorgaben der Verständigung II und des KWG sowie den Regelungen in anderen Bundesländern. Seit 2004 konstituierten sich die aufsichtsrechtlich, gesetzlich oder satzungsmäßig vorgeschriebenen Gremien, deren Aufgaben und Befugnisse zusätzlich durch Geschäftsordnungen näher konkretisiert wurden:
63 64
Vgl. INVESTITIONSBANK BERLIN (2004a). Vgl. INVESTITIONSBANK BERLIN (2004b).
Der „automatisierte Bankvorstand“
107
¾ Trägerversammlung: Die Aufgaben des Anstaltsträgers obliegen dem Berliner Senat. Hierzu gehören insbesondere die Beschlussfassung über die Verwendung des Bilanzgewinns und die Deckung von Verlusten, die von ihm zu bestellenden Verwaltungsratsmitglieder, die Vergütung der Verwaltungsratsmitglieder, die Entlastung der Mitglieder des Vorstandes und des Verwaltungsrates, der Erlass und die Änderung der Satzung sowie die Vertretung der Bank gegenüber den Verwaltungsratsmitgliedern. ¾ Verwaltungsrat: Der Verwaltungsrat bestimmt die Richtlinien und Grundsätze für die IBB, erlässt die erforderlichen Geschäftsordnungen und überwacht die Geschäftsführung durch den Vorstand. Zur Steigerung der Arbeitseffizienz innerhalb des Gremiums wurden ein Kredit- und ein Arbeitsausschuss gebildet. ¾
Vorstand: Der dem Verwaltungsrat gegenüber berichtspflichtige Vorstand ist mit der nicht auf Gewinnerzielung ausgerichteten Geschäftsführung nach kaufmännischen und wirtschaftlichen Gesichtspunkten betraut. Er vertritt die IBB gerichtlich und außergerichtlich.
¾
Beirat: Der Beirat übt eine beratende und unterstützende Funktion für Vorstand und Verwaltungsrat in allgemeinen, die IBB betreffenden Fragen aus.
Mit Inkrafttreten der rechtlichen Grundlagen65 konnte somit der grobe Handlungsrahmen für das Gremienmanagement in der IBB geschaffen werden.
4.4
Formulierung der strategischen Leitlinien für das IBB-Gremienmanagement
Abgeleitet aus Vision, Mission, Leitbild und Unternehmensgesamtstrategie der IBB verfolgt das VS das Ziel, sich als interner Dienstleister und primärer Ansprechpartner für alle Prozesse des Gremienmanagements gegenüber den Kunden, Anwendern und Lieferanten zu positionieren. Hierfür haben die Mitarbeiterinnen und Mitarbeiter des VS gemeinsam mit dem Vorstand folgende strategischen Leitlinien festgelegt: ¾ Das VS handelt nach betriebswirtschaftlichen Grundsätzen unter Beachtung des jeweils genehmigten Budgetrahmens sowie unter expliziter Berücksichtigung geltender (aufsichts-) rechtlicher Anforderungen. ¾ Im Fokus der Wertschöpfung liegen alle Gremienmanagementprozesse für die gesetzund satzungsmäßig definierten Organe der IBB. ¾ Das VS intensiviert im Rahmen des Gremienmanagements die Zusammenarbeit mit den Fachbereichen der IBB, den strategischen Partnern der IBB sowie insbesondere den für das IBB-Gremienmanagement zuständigen Berliner Senatsverwaltungen, dem Rechnungshof von Berlin und den mit der Jahresabschlussprüfung betrauten Wirtschaftsprüfern. 65
Das Gesetz zur rechtlichen Verselbstständigung der Investitionsbank Berlin wurde am 25. Mai 2004 durch das Abgeordnetenhaus von Berlin verabschiedet und am 02. Juni 2004 im Gesetz- und Verordnungsblatt des Landes Berlin veröffentlicht; vgl. INVESTITIONSBANK BERLIN (2004a). Die Verordnung über die Satzung der Investitionsbank Berlin wurde am 02. September 2004 durch das Abgeordnetenhaus von Berlin verabschiedet und am 14. September 2004 im Gesetz- und Verordnungsblatt des Landes Berlin veröffentlicht; vgl. INVESTITIONSBANK BERLIN (2004b).
PUCHTA/RÖDER/KEUPER
108
4.5
Analyse der Anforderungen der einzelnen Domänen an das IT-gestützte Gremienmanagement
Auf der Grundlage des unter Punkt 3 konzeptualisierten Referenzmodells für das Gremienmanagement wurden für die drei Domänen die einzelnen Anforderungsprofile im Rahmen von moderierten Workshops, die durch das VS durchgeführt wurden, abgeleitet. Danach stellen die Kunden als wichtigste Anspruchsgruppe folgende Anforderungen: ¾ schnelle und fundierte Entscheidungsunterstützung für die Gremienmitglieder ¾ Schaffung eines Wissensvorsprungs durch die zeit- und bedarfsgerechte Zurverfügungstellung von Beschlussvorlagen und Protokollen ¾ höchste Sicherheit und Vertraulichkeit der Sitzungsinhalte sowie der Mitgliederstammdaten ¾ effektives und effizientes Beschlusscontrolling als wesentlicher Bestandteil des internen Kontrollsystems gemäß den MaRisk ¾ Revisionssicherheit und Einhaltung der (aufsichts-)rechtlichen Vorgaben ¾ Reduzierung der Verwaltungskosten durch die Senkung von Such- und Kommunikationskosten sowie die Vermeidung von Doppelarbeiten auf Basis einer transparenten Vorgangssteuerung ¾ Senkung der Koordinationskosten durch eine für die Anwender längerfristig im Voraus einsehbare und zentralisierte Sitzungsplanung ¾ Verkürzung der Durchlaufzeiten für die Vorlagenerstellung, Beschlussfassung und das Beschlusscontrolling durch Standardisierung von Vorlagenformaten, Beschlussfassungsund Mitzeichnungsvorgaben Darüber hinaus stellen die Anwender nachfolgende Anforderungen an das IT-gestützte Gremienmanagement: ¾ effiziente Erstellung, Einreichung und Archivierung von Beschlussvorlagen durch weitestgehende Standardisierung und Automatisierung ¾ Zurverfügungstellung unterschiedlicher Beschlussfassungsverfahren (Sitzungsbeschluss, Umlaufbeschluss) ¾ sofortige Verfügbarkeit der bereits erstellten oder in Erstellung befindlichen Beschlussvorlagen sowie der dazugehörigen Dokumente ¾ sichere Terminüberwachung durch automatische Wiedervorlagen ¾ Senkung des zeitlichen sowie inhaltlichen Einarbeitungsaufwands bei der Integration neuer Mitarbeiter Der hausinterne Bereich Organisation/IT wird unter Bezugnahme auf das Referenzmodell als Lieferant für das Gremienmanagement betrachtet, dessen Anforderungen für den Fall des Einsatzes einer Software für die End-to-End-Unterstützung sich wie folgt zusammenfassen lassen:
Der „automatisierte Bankvorstand“
109
¾ Einhaltung der Vorgaben gemäß der gültigen IT-Funktionalstrategie ¾ weitestgehende Einbindung bereits vorhandener Standardanwendungen ¾ einfache Administration ¾ geringer Wartungsaufwand. Neben den bereits genannten Anforderungen galt es, zusätzlich die Bedarfe der dritten Domäne des Gremienmanagements zu berücksichtigen: ¾ jederzeitige Nachvollziehbarkeit der Bearbeitungsstände von in Umsetzung befindlichen Aktivitäten oder bereits umgesetzten Prozessen ¾ Konsolidierung der bestehenden Daten- und Dokumentenbestände ¾ einfache Anpassung an Kundenanforderungen und einfache Einbindung in die bereits existierende IT-Systemumgebung ¾ hohe Kostentransparenz, insbesondere über die Folgekosten (Wartung, Lizenzen, etc.) ¾ Verringerung des Einarbeitungsaufwands für neue Mitarbeiter durch eine leicht verständliche, aktuelle und schnell verfügbare Dokumentation der Kernprozesse.
4.6
Definition der Soll-Prozesse
Die Schwachstellen des Kernprozesses „Vorstandssitzung“ wurden in Abbildung 8 benannt. Der neue Sollprozess „Vorstandssitzung“ sollte als „Folge logisch miteinander verknüpfter Aktivitäten zur Erreichung eines vorab definierten Ziels“66 eine Reihe von Anforderungen erfüllen: ¾ Zielorientierung ¾ Benennung und Beschreibung der Aktivitäten ¾ Definition einer eindeutigen Rollen- und Rechtestruktur ¾ Beschreibung der Ressourcenanforderungen ¾
Definition der Leistungsindikatoren.
Zielorientierung: Der Sollprozess „Vorstandssitzung“ verfolgt das Ziel, durch eine effektive und effiziente Vorbereitung, Durchführung und Nachbereitung von Vorstandssitzungen zeit-, qualitäts- und kostenoptimale Beschlussfassungen des Vorstands der IBB unter Beachtung der bankrechtlichen und bankbetriebswirtschaftlichen Vorgaben mit einem Höchstmaß an Vertraulichkeit und Flexibilität sicherzustellen. Benennung und Beschreibung der Aktivitäten: Der Sollprozess „Vorstandssitzung“ umfasst die Aktivitäten Vorbereitung, Durchführung und Protokollierung, Kontrolle und Berichtswesen sowie Archivierung. Die Vorbereitungsaktivität enthält im Wesentlichen folgende Teilschritte: 66
Vgl. ITSMF (2005), S. 29.
110
PUCHTA/RÖDER/KEUPER
¾ Klärung der Sitzungstermine mit dem Vorstand ¾ Entwurf, Abstimmung, Versand der Tagesordnung ¾ Erstellung, Abstimmung und Einreichung von Vorblatt und Vorstandsvorlage ¾ Formalkontrolle von Vorblatt, Vorlage und Anhängen ¾ Zusammenstellung der Sitzungsordner für die Sitzungsteilnehmer. Im nächsten Schritt erfolgt die Vorbesprechung der Vorlagen mit den Gremienmitgliedern durch die Vorstandsassistenz. Im Sitzungsverlauf wird ein Protokoll erstellt, das sodann strukturiert, zusammengefasst, abgestimmt und durch den Vorstand beschlossen wird. Im Rahmen der Kontrolle sind die einzelnen Beschlüsse an die Vorlageneinreicher weiterzuleiten mit der Aufforderung, die termingerechte Umsetzung gegenüber dem VS schriftlich zu bestätigen. In regelmäßigen, durch den Vorstand festzulegenden Abständen werden schriftliche Berichte erstellt, aus denen die Form der Beschlussfassung (Sitzung, Umlaufverfahren), das Sitzungsdatum, der Beschlusspunkt, die Nennung des Themas, der Umsetzungszeitpunkt und die Umsetzungsverantwortung hervorgehen. Sollte ein Solltermin überschritten sein, ist dieser rot zu markieren. Letztlich müssen alle Sitzungsunterlagen im Original archiviert werden. Hierzu gehören insbesondere die Beschlussvorlagen, das Protokoll und die Beschlussumsetzungsmeldungen. Rollen- und Rechtestruktur: Inhaber des Gesamtprozesses ist die Sitzungsleitung, in der Regel der Vorstandsvorsitzende. Prozessverantwortlich, d. h. für die Einrichtung und Durchführung des Prozesses zuständig, ist das VS. Prozessausführende sind in Abhängigkeit von der Aktivität und deren Teilschritten: ¾ die Vorlagenersteller bzw. -einreicher ¾ die Sitzungsbearbeiter aus dem VS ¾ der Protokollant. Für den Fall, dass der Prozess IT-gestützt ist, besitzt der Administrator eine Sonderrolle, die sich im globalen Zugriffsrecht auf alle Anwendungssystembestandteile und -inhalte äußert. Den einzelnen Rollen werden nach Aufgabenumfang und Kompetenzrahmen differenzierte Schreib- und Leserechte zugeordnet. So besitzt ein Bereichsleiter das Schreib- und Leserecht für alle Vorstandsvorlagen aus seinem Bereich, während der ihm unterstellte Abteilungsleiter diese Rechte nur für seine Abteilung erhält. Erforderliche Vertretungsregelungen wurden ebenfalls integriert. Besonders wichtig ist, dass die Vorlageninhalte nach erfolgter Einreichung durch den Fachbereich nicht mehr geändert werden können. Ressourcen und Leistungsindikatoren: Für die erfolgreiche Prozessdurchführung sind personelle und technische Ressourcen vorzuhalten. Der Umfang der personellen Ressourcen ist abhängig vom Grad der Prozessstandardisierung und -automatisierung. Das Gremienmanagement der IBB setzt bezogen auf den Sollprozess „Vorstandssitzung“ zwei Vollzeitmitarbeiterkapazitäten für die Aktivitäten Vorbereitung, Kontrolle, Berichtswesen sowie Archivierung ein. Die Sitzungsdurchführung obliegt dem Vorstandsvorsitzenden, die Protokollierung der Vorstandsassistenz.
Der „automatisierte Bankvorstand“
111
Technische Ressourcen sind einerseits die IT-Infrastruktur, die aus einem PC-Standardarbeitsplatz besteht, und andererseits die technischen Hilfsmittel zur Präsentationsunterstützung im Sitzungsverlauf, z. B. Tageslichtprojektor, Beamer u. ä. Über Leistungsindikatoren werden zeitliche, kostenmäßige und qualitative Vorgabewerte definiert, um aus einem späteren Soll-Ist-Vergleich die Eignung des Prozesses für das Erreichen des übergeordneten Prozessziels erkennen zu können. Die folgenden Detaildarstellungen (Abbildungen 13–16) 67 beschreiben die einzelnen Aktivitäten des Sollprozesses „Vorstandssitzung“ näher, indem den einzelnen Teilschritten Prozessbeteiligte (inklusive Rollen und Rechte), Daten, die notwendige IT-Unterstützung, Leistungsindikatoren und das jeweils zu erreichende Ergebnis zugeordnet werden.
67
L – Leserecht, S – Schreibrecht, GMS – Gremienmanagementsystem, VS – Vorstandssekretariat.
PUCHTA/RÖDER/KEUPER 112
Aktivität 1: Vorbereitung
¾Mitarbeiter Gremienmanagement (Sitzungsbearbeitung/ L; S) ¾Fachbereiche (Vorlagenersteller/L; S)
¾GMS
¾Vorlagen und Anhänge ¾Reihenfolge der Tagesordnungspunkte ¾Individuelle Vorgaben der Gremienmitglieder zur Ordnerzusammenstellung
Kontrolle und Zusammenstellung der Sitzungsunterlagen
¾Mitarbeiter Gremienmanagement (Sitzungsbearbeitung/L; S) ¾Sitzungsleitung (Vorstand) (Sitzungsbearbeitung/L (nur Tagesordnung)) ¾Fachbereiche (Vorlagenersteller/L; S)
¾Thema, Datum der Erstellung ¾Ersteller ¾Sachverhalt, Stellungnahme ¾Beschlussformel ¾Mitzeichnung
Erstellung, Abstimmung, Einreichung der Vorlagen
¾Mitarbeiter Gremienmanagement (Sitzungsbearbeitung/L; S) ¾Sekretariatsmitarbeiter der Gremienmitglieder sowie deren Vertreter (Sitzungsbearbeitung/L (nur Sitzungskalender))
¾Sitzungsteilnehmer ¾Protokollführung ¾Themen ¾Vortragende ¾Vortragsart ¾Dauer
¾GMS Æ MS Word, Lotus Notes
¾alle Vorlagen sind formal korrekt ¾Abgabe der vollständigen Sitzungsordner an die Gremienmitglieder ist am Freitag vor der Sitzung bis 15.00 h erfolgt
Erstellung, Abstimmung, Versand der Tagesordnung
¾Ort ¾Datum ¾Beginn (Uhrzeit) ¾Raum
¾GMS Æ MS Word, Lotus Notes
¾Vorlagen liegen alle am Freitag um 12.00 h vor der Sitzung vollständig inklusive aller Mitzeichnungen elektronisch und dokumentär im VS vor
Festlegung der Sitzungsdaten
¾GMS
¾Tagesordnung ist am Mittwoch vor der Sitzung erstellt, abgestimmt ¾Tagesordnung ist am Donnerstag vor der Sitzung versandt
¾Vollständigkeit der Sitzungsunterlagen ist sichergestellt
¾Sitzungsordner liegen den Gremienmitgliedern am Freitag vor der Sitzung pünktlich und vollständig vor
¾Mitarbeiter Gremienmanagement (Sitzungsbearbeitung/ L; S)
¾Sitzungsdaten sind zwei Wochen vor Sitzungsbeginn vollständig im GMS hinterlegt
¾Tagesordnung ist erstellt, abgestimmt, versandt ¾Gremienmitglieder, VS sind informiert
¾Sitzungsdaten sind vollumfänglich im GMS hinterlegt ¾Gremienmitglieder, VS sind informiert
Sollprozess „Vorstandssitzung“ í Aktivität 1 „Vorbereitung“
Abbildung 13:
Prozessbeteiligte (Rolle/Rechte) Daten IT Leistungsindikator Ergebnis
Aktivität 2: Durchführung/Protokollierung
¾Mitarbeiter Gremienmanagement (Sitzungsbearbeitung/L)
¾Standardinhalte Vorstandsvorlage ¾Protokollentwurf
¾Vorstandsassistenz (Protokollant/L; S) ¾Mitarbeiter Gremienmanagement (Sitzungsbearbeitung/L)
Einleitung der Protokollbeschlussfassung
¾Vorstandsassistenz (Protokollant/L; S) ¾Fachbereiche (Vorlagenersteller/L)
¾Inhalte des Protokollentwurfs
¾GMSÆ MS Word
Formalkontrolle des Protokollentwurfs
¾Vorstandsassistenz (Protokollant/L)
¾Teilnehmer, Dauer ¾Sitzungsdaten ¾Sitzungsverlauf ¾Beschlusstext ¾Verteiler ¾Erledigungstermine
¾GMS Æ MS Word
Erstellung, Abstimmung, Protokollentwurf
¾Vorlageninhalte
¾GMS Æ MS Word, Lotus Notes
Vorbesprechung der Sitzungsinhalte
¾GMS
¾Protokollentwurf ist am zweiten Tag nach der Sitzung im Umlaufverfahren beschlossen
¾Protokoll der Vorstandssitzung ist beschlossen
¾Protokollentwurf ist spätestens einen Tag nach der Sitzung auf formale Korrektheit geprüft
¾Protokollentwurf ist formal korrekt
¾Protokollentwurf ist noch am Sitzungstag erstellt ¾Protokollentwurf ist themenspezifisch einen Tag nach der Sitzung abgestimmt
¾Protokollentwurf ist erstellt und abgestimmt
¾Vorstandsassistenz hat alle Sitzungsunterlagen zeitgerecht und formal ordnungsgemäß erhalten ¾Vorbereitungsgespräch ist am Montag vor der Sitzung durchgeführt ¾Gremienmitglieder haben die wesentlichen Vorlageninhalte verstanden ¾Fragen konnten geklärt oder zur Klärung weitergeleitet werden
Sollprozess „Vorstandssitzung“ í Aktivität 2 „Durchführung/Protokollierung“
Abbildung 14:
Prozessbeteiligte (Rolle/Rechte) Daten IT Leistungsindikator Ergebnis
113 Der „automatisierte Bankvorstand“
PUCHTA/RÖDER/KEUPER
114
Ergebnis
Leistungsindikator
IT
Daten
Prozessbeteiligte (Rolle/Rechte)
Aktivität 3: Kontrolle/Berichtswesen
Erstellung, Weiterleitung der Beschlüsse
Erfassung, Kontrolle der Beschlussumsetzung
¾Mitarbeiter Gremienmanagement (Sitzungsbearbeitung/L) ¾Fachbereiche (Vorlagenersteller/L)
¾Mitarbeiter Gremienmanagement (Sitzungsbearbeitung/L) ¾Fachbereiche (Vorlagenersteller/L)
¾Mitarbeiter Gremienmanagement (Sitzungsbearbeitung/L)
¾Beschlusstext ¾Verteiler ¾Umsetzungsfristen
¾Inhalte Standardbeschlussauszug ¾Umsetzungsmeldung der Fachbereiche
¾Inhalte Standardbeschlussauszug ¾Umsetzungsmeldung der Fachbereiche
¾GMS
¾GMS
¾GMS Æ MS Word
¾zwei Arbeitstage nach der Sitzung liegen den Vorlagenerstellern die Beschlüsse zur Umsetzung vor
¾Zahl der zeitgerecht umgesetzten Beschlüsse ¾Zahl der vollständig umgesetzten Beschlüsse
¾Umsetzungsbericht ist dem Vorstand als Vorstandsvorlage mindestens vierteljährlich zur Kenntnis gegeben worden
¾Beschlussauszüge aus dem Protokoll sind erstellt und an die Fachbereiche weitergeleitet
¾Beschlüsse wurden zeitgerecht und vollständig umgesetzt
¾Vorstand hat zu jeder Zeit und vollumfänglich Transparenz über erledigte, offene Beschlüsse
Abbildung 15:
Erstellung Umsetzungsbericht
Sollprozess „Vorstandssitzung“ í Aktivität 3 „Kontrolle/Berichtswesen“
Der „automatisierte Bankvorstand“
115
Aktivität 4: Archivierung
Ablage der Sitzungsinhalte
¾Mitarbeiter Gremienmanagement
¾Mitarbeiter Gremienmanagement ¾Fachbereiche
¾Vollständigkeit der Sitzungsunterlagen
¾í
¾Es liegen alle Sitzungsunterlagen revisionssicher sowohl elektronisch als auch dokumentär historisch geordnet im VS vor.
¾Alle Daten lassen sich anhand bestimmter Abfragekriterien über das GMS abfragen.
Prozessbeteiligte Leistungsindikator Ergebnis
Abbildung 16:
4.7
Recherche nach Sitzungsinhalten
Sollprozess „Vorstandssitzung“ í Aktivität 4 „Archivierung“
SESSION als Werkzeug des IT-gestützten Gremienmanagements
Anhand der normativen und strategischen Vorgaben, der Ergebnisse aus der Analyse der Anforderungen und insbesondere der restrukturierungsbedingten Ressourcenknappheit ergab sich die Notwendigkeit einer möglichst umfassenden Unterstützung der gesamten Prozesskette des Gremienmanagements, wobei zunächst das Sitzungsmanagement, also die Vorbereitung, Durchführung, Protokollierung und Beschlussumsetzungskontrolle von Gremiensitzungen im Mittelpunkt stand. Aufgrund der bestehenden monetären und personellen Ressourcenengpässe im VS selbst und dem Bereich Organisation/IT kam die Entwicklung einer individuellen Anwendungssoftware nicht in Frage. Statt dessen galt es, auf Basis eines systematischen Prozesses, eine am Markt bereits verfügbare, bedarfs- und kostenoptimale standardisierte Anwendungssoftware auszuwählen, an die Anforderungen des IBB-Gremienmanagements an-
PUCHTA/RÖDER/KEUPER
116
zupassen („Customizing“)68, zu testen, einzuführen, in Betrieb zu nehmen und laufend zu optimieren. 4.7.1
Begründungs- und Auswahlphase
Im Rahmen der Begründungs- und Auswahlphase hat das VS die in Abbildung 2 aufgeführten Determinanten als Leitfaden sowohl für die Analyse der Rahmenbedingungen als auch für die Auswahl der standardisierten Anwendungssoftware benutzt. Zunächst mussten die Vorgaben für das Gremienmanagement aus der vom Vorstand verabschiedeten IT-Strategie eingehend analysiert werden. Dadurch wurde der Handlungsrahmen für das Projekt insofern eingeengt, als aus Wirtschaftlichkeitsgründen die Verwendung marktgängiger standardisierter Anwendungssoftware zur Lösung der definierten Problemstellung vorgeschrieben wurde. Demgemäß konnte von Projektbeginn an die Fremdvergabe eines Programmauftrags zur Erstellung einer IBB-spezifischen Anwendungssoftware für das Gremienmanagement ausgeschlossen werden. Weiterhin musste für das Gremienmanagement der IBB der Grundsatz berücksichtigt werden, dass nur eine sich an den bereits definierten Prozessen orientierende Anwendungssoftware in Frage kommt. Für die Prozessdokumentation wurden sowohl Organigramme und EPK69 als auch Funktionsbäume unter Nutzung von ARIS70 erstellt. Herstellerauswahl: Die Firma SOMACOS gilt als Marktführer für Sitzungsmanagementund Gremieninformationssysteme. SOMACOS überzeugt mit schlüsselfertig maßgeschneiderten Komplettlösungen und einem Rundum-Service vor Ort. Mit der Standardanwendungssoftware SESSION verfügt die Firma SOMACOS über die führende Lösung im Sitzungsmanagement. Softwareauswahl: SESSION zeichnet sich technologisch insbesondere durch einen hohen Grad an Integrationsfähigkeit in die bestehende Systemlandschaft der IBB aus. Durch Einbindung der den Kunden, Anwendern und VS-Mitarbeitern bereits vertrauten WindowsBenutzeroberfläche, MS Word als Texteditor und auch Lotus Notes als E-Mail-Client kann der zuvor definierte Sollprozess „Vorstandssitzung“ in einen entsprechenden System-Workflow übersetzt werden. Dokumentvorlagen können an die spezifischen Bedürfnisse der IBB angepasst und modularisiert werden.71 Die Customizing-Erfordernisse seitens der IBB waren sehr groß. Sämtliche Prozessbausteine, d. h. alle Eingangsparameter, Rollen und Rechte, Dokumentvorlagen und Steuerungsgrößen mussten vom VS entworfen werden. Weil SESSION als geschlossenes System konzipiert ist, das alle Vorgänge der Gremienarbeit zentral in einer Datenbank verwaltet und das gesamte Spektrum des Sitzungsmanagements benutzerfreundlich abdeckt, werden alle Prozessschritte systemseitig mit eindeutigen Verantwortlichkeiten und Terminen hinterlegt, wodurch der aktuelle Stand der Vorlagen- und Sitzungsbearbeitung durch die Anwender jederzeit transparent und nachvollziehbar ist. Als besonders geeignet für den Einsatz in der IBB hat sich die fenster- und inhaltsbezogene Berechtigungsverwaltung erwiesen. Der bereits definierte Sollprozess „Vorstandssitzung“, aus 68 69 70
71
Zum Customizing vgl. vertiefend KRCMAR (2005), S. 188. EPK – Ereignisgesteuerte Prozessketten. ARIS – Architektur integrierter Informationssysteme. Hierbei handelt es sich um ein von SCHEER (1991) entwickeltes Architekturmodell für Informationssysteme, durch dessen Verwendung der anforderungsadäquate Einsatz betrieblicher Informationssysteme sichergestellt werden soll; siehe vertiefend KRCMAR (2005), S. 44 f. Für eine mögliche Grundstruktur von Vorlagen für Vorstandssitzungen siehe LANG (2005), S. 91.
Der „automatisierte Bankvorstand“
117
dem die für eine bedarfsadäquate IT-Unterstützung bestehenden Anforderungen eindeutig hervorgehen, machte die Erstellung eines Pflichten- und Lastenhefts nicht mehr notwendig. Anzahl und Art der einzuführenden Module: Zunächst sollte nur der Fokus auf das Sitzungsmanagement gelegt werden. Weitere Module, wie die Abwicklung von Sitzungsgeldern oder webbasierte Informationsdienste waren nicht vorgesehen. Hinsichtlich der Größe der IBB und der Struktur der Bank ergab sich das Problem, die Zahl der Anwender festzulegen. Hierzu wurde entschieden, alle Führungskräfte der ersten, zweiten und dritten Führungsebene inklusive der jeweiligen Vertreter und Sekretariats-Mitarbeiter als Anwender mit entsprechenden Rollen und Rechten einzupflegen. Darüber hinaus wurde eine Abfrage gegenüber den verantwortlichen Führungskräften gestartet, welche Mitarbeiter aus dem eigenen Verantwortungsbereich mit welchen Rollen und Rechten gegebenenfalls zusätzlich systemseitig hinterlegt werden sollten. 4.7.2
Test- und Einführungsphase
Während der sukzessiven Abbildung der Gremienmanagementprozesse in SESSION erfolgten zunächst Einzeltests durch die Projektmitarbeiter. Das Testteam setzte sich im Kern aus einer VS-Mitarbeiterin und einer Beraterin der Firma SOMACOS zusammen. Für die anschließenden Testphasen wurden alle VS-Mitarbeiter eingebunden. Anhand fiktiver Sitzungen erfolgten im Anschluss umfangreiche Einzelfunktions- und darauf aufbauende Tests für die definierten Aktivitäten des gesamten Sollprozesses. Hierzu wurde eigens eine Testumgebung geschaffen. Sämtliche Testfehler wurden dokumentiert und durch die Projektleitung in enger Zusammenarbeit mit der Firma SOMACOS behoben. Die finale Abnahme erfolgte nach erfolgreichem Test durch VS. 4.7.3
Einsatz- und Optimierungsphase
Etwa 100 Mitarbeiter wurden primär für die Vorlagenerstellung geschult. Seit September 2005 werden alle Vorstandssitzungen und Beschlussfassungen des Vorstands im Umlaufverfahren ausschließlich über SESSION bearbeitet. Durch die Projektbeteiligten wurde eine Projektdokumentation und für die späteren Anwenderschulungen auch Anwender-Dokumentationen mit den wesentlichen Arbeitsschritten inklusive dazugehöriger Bildschirmansichten erstellt. VS entschied sich bei der Einführung zu einem „koexistenten Satellitensystem“, d. h., dass aus Sicherheitsgründen für einen Übergangszeitraum von ungefähr vier Wochen alle Teilschritte sowohl auf der Basis des neuen Sollprozesses unter Nutzung von SESSION als auch gemäß dem bis dahin existierenden Prozess abgearbeitet wurden. Angesichts der hohen Anforderungen an die Vertraulichkeit der Informationen wird die Administration der Software hausintern durch das Gremienmanagement in enger Abstimmung mit dem Bereich Organisation/IT durchgeführt. In der Einsatzphase hingegen werden fortlaufend durch den Service Desk angebotene Trainings-on-the-Job angeboten, weil einerseits der Lernerfolg anhand der einzubringenden Sitzungsvorlage am größten ist und andererseits die kritische Größe, ab der sich die Durchführung halb- oder ganztägiger Schulungen lohnen würde, nicht mehr erreicht wird.
PUCHTA/RÖDER/KEUPER
118
Notwendige Release-Wechsel werden hinsichtlich Zeit und Umfang gemeinsam mit der Firma SOMACOS geplant und durchgeführt. Darüber hinaus besteht zwischen dem Service Desk und der Firma SOMACOS ein laufender fachlicher Austausch, der zusätzlich durch jährlich stattfindende Seminare verstärkt wird. Im Verlauf der Einsatzphase hat VS den Kernprozess „Vorstandssitzung“ fortwährend hinsichtlich der Prozesseffektivität und Prozesseffizienz überprüft. Der regelmäßige Kontakt zu den Anwendern durch den Service Desk und die enge Kundenbetreuung durch die Vorstandsassistenz stellten sich als sehr wertvolle Quellen für notwendige Verbesserungen heraus. Die Erkenntnisse wurden durch die Mitarbeiter in VS in einer separaten Liste zusammengeführt und im Rahmen regelmäßig stattfindender Abteilungssitzungen diskutiert, priorisiert und gemeinsam mit der Firma SOMACOS umgesetzt:72 ¾ Übernahme von zwei weiteren Kernprozessen inklusive der zugehörigen Beschlussfassungsverfahren: „Verwaltungsratssitzung“73 und „Beirat“. ¾ Übernahme des Kernprozesses „Führungskräftekonferenz“74 als für die IBB bedeutsamste Sitzung zur strategischen Weichenstellung durch den Vorstand und die Führungskräfte der ersten Ebene. ¾ Wegfall von separaten Vorblättern für Gremienvorlagen durch Integration der Mitzeichnungserfordernisse in die Vorlage selbst. ¾ Einführung einer elektronischen Votierung und Mitzeichnung. ¾ Nutzung von Synergie-Effekten zwischen den Kernprozessen durch die direkte Übernahme per Knopfdruck von Textbausteinen aus aufeinander aufbauenden Vorlagen.
4.8
Erfolgsfaktoren
Ex-post lassen sich zur Umsetzung des IT-gestützten Gremienmanagements eine Reihe von Erfolgsfaktoren75 festhalten. Unterstützung durch das Management: Sowohl der Vorstand als auch die Führungskräfte der ersten Ebene konnten von den Vorteilen des IT-gestützten Gremienmanagements durch intensive Gespräche überzeugt werden. Hilfreich hierfür erwies sich insbesondere das eigens durch VS entwickelte Referenzmodell für das IT-gestützte Gremienmanagement, aus dem die Einbindung in die Unternehmens- und IT-Strategie, die Ziele, Aufgaben sowie intra- bzw. extraorganisationalen Verknüpfungen deutlich werden. In der Konsequenz wurde die praktische 72 73 74 75
Vgl. MANSUKHANEY (2007), S. 12. Zusätzlich wurden für den Kredit- und Arbeitsausschuss die erforderlichen Sollprozesse in SESSION abgebildet. Für einen Musterprozess zur Vorbereitung, Durchführung und Nachbereitung von Strategiekonferenzen vgl. FRISCH/CHANDLER (2007), S. 76 ff. Unter Bezugnahme auf GÄLWEILER handelt es sich bei Erfolgsfaktoren im Rahmen dieser Arbeit um das Zusammenspiel der nachfolgend ermittelten erfolgsrelevanten Voraussetzungen, die zum Zeitpunkt der Erfolgsrealisierung zwingend vorhanden sein müssen; vgl. GÄLWEILER (1987), S. 24, und KEUPER 2001, S. 11 ff. Hiervon zu unterscheiden sind die drei strategischen Erfolgsfaktoren Qualität, Kosten und Zeit, wobei Kosten ein Effizienz-, Qualität ein Effektivitäts- und Zeit sowohl ein Effektivitäts- als auch Effizienzkriterium darstellen; vgl. KEUPER (2001), S. 11 ff., und KEUPER/HINTZPETER (2007), S. 302 ff. Siehe zur Erfolgsfaktorenforschung ausführlich STEINBACH (1997), S. 56 ff.
Der „automatisierte Bankvorstand“
119
Umsetzung infolge des größeren inhaltlichen Verständnisses bei allen Beteiligten und der Transparenz über die dem IT-gestützten Gremienmanagement innewohnenden Wertschöpfungsbeitrag für die gesamte Bank beschleunigt. Besonders wichtig war das Einverständnis des Vorstands, die „Vorstandssitzung“ als Soll-Prozess durch IT zu unterstützen. Dies begünstigte die Bereitstellung von Ressourcen und die Durchführung der erforderlichen Reorganisationsmaßnahmen.76 Projektorganisation: Für den Erfolg des Projekts stellte sich die Tatsache, dass der Vorstandsvorsitzende als Projektsponsor auftrat einen wesentlichen Erfolgsfaktor dar, der sich vor allem in der Testphase anhand der VS von den Fachbereichen zur Verfügung gestellten Testressourcen zeigte. Von Vorteil war ferner die Entscheidung, die Projektleitung an die bis dato für die Unternehmenskommunikation und das Vorstandssekretariat zuständige Stabsleitung zu übertragen, weil somit die neuen Prozessabläufe auch enger kommunikativ begleitet werden konnten. Mit der Firma SOMACOS konnte ein sehr verlässlicher und flexibler Partner für die Umsetzung des Projekts gewonnen werden. Die Nutzung des externen Wissens war insofern äußerst wertvoll als Gremienmanagementprozesse bei den bisher durch SOMACOS betreuten Kunden und der IBB Ähnlichkeiten aufwiesen, die den Aufwand für den Wissenstransfer von der IBB zu SOMACOS nahezu ausschließlich auf IBB-spezifische Besonderheiten beschränkte. Einbindung der Kunden und Anwender: Durch den Abschluss von Service Level Agreements zwischen den Kunden und VS wurden einerseits die wechselseitigen Erwartungen dokumentiert und andererseits die Grundlagen geschaffen, den Beitrag des Gremienmanagements zur Steigerung des Unternehmenswerts messbar zu machen. Gleichzeitig bildet der Service Desk die von den Anwendern akzeptierte direkte Kommunikationsschnittstelle zum Gremienmanagement, die über die Unterstützungsfunktion hinaus auch die Sammlung, Priorisierung und Umsetzung wichtiger Optimierungsimpulse vorantreibt. Systematische Analyse der Ist-Situation, Erhebung des Kundenbedarfs und Ableitung der Sollsituation: Unter Nutzung des beschriebenen Referenzmodells konnte die Ist-Situation gegenüber Kunden und Anwendern sehr eingängig dargelegt werden. Besonders augenscheinlich war die Lücke zwischen dem von den Kunden und Anwendern gegenüber dem Gremienmanagement technisch-inhaltlich Gewollten und dem tatsächlich bis zu diesem Zeitpunkt Machbaren. Die Festlegung des technisch-organisatorischen Sollzustands wurde signifikant erleichtert. Gleichzeitig begünstigte die Orientierung am Referenzmodell die ständige Präsenz des angestrebten Idealzustands, was wiederum die Identifikation der Projektmitarbeiter, des Managements, der Kunden und der Anwender zu stärken vermochte. Festlegung von Qualitäts- und Servicestandards: In Form der Service Level Agreements gibt das Gremienmanagement gegenüber den Kunden konkrete Leistungsversprechen ab, anhand derer die Messung der eigenen Effektivität und Effizienz möglich wird. Kontinuierliche Begleitung des Change-Prozesses und Dokumentation des Vorgehens: Sämtliche Phasen zur referenzmodellbasierten Einführung des Gremienmanagements in der IBB wurden kommunikativ sehr eng gegenüber dem Management, den Kunden und Anwendern begleitet, indem proaktiv die verständlicherweise im Projektverlauf aufkommenden Fragen beantwortet und sich daraus ergebende Problemstellungen kooperativ gelöst wurden. Wie 76
LEONHARD-BARTON spricht in diesem Zusammenhang auch von Innovationspromotoren; vgl. LEONHARD-BARTON (1998), S. 603 ff. Siehe ergänzend KLEIN/KRCMAR (2003), S. 421 ff.
PUCHTA/RÖDER/KEUPER
120
bereits erwähnt, wurde ein Prozess zur Berücksichtigung von Verbesserungsvorschlägen seitens der Kunden und Anwender installiert. Mindestens genauso wichtig war jedoch die Konzeption, Erstellung und laufende Anpassung der Prozessdokumentation. Neben der Inkraftsetzung neuer allgemein gültiger Arbeitsanweisungen in der schriftlich fixierten Ordnung wurden für die SESSION-Anwender im Intranet verfügbare Listen mit Antworten auf häufig gestellte Fragen hinterlegt. Darüber hinaus hat das VS ein ergänzendes Handbuch publiziert, das alle Schritte zur Erstellung, Einbringung und Nachbereitung detailliert mit den dazugehörigen Bildschirmausschnitten beschreibt.
4.9
Ergebnisse
Durch die konsequente Umsetzung des referenzmodellbasierten Gremienmanagements unter Nutzung von SESSION für das IT-gestützte Gremienmanagement ergaben sich für die IBB im Allgemeinen und das Gremienmanagement im Besonderen eine Reihe erheblicher Verbesserungen. Einbindung des Gremienmanagements in das strategische Grundgerüst der IBB: Mit Hilfe des Referenzmodells konnten für das Gremienmanagement der IBB operationale Ziele und Strategien zu deren Erreichung festgelegt werden. Aufbau- und Ablaufstrukturen innerhalb des Gremienmanagements werden ebenso deutlich wie die Verbindungen zu den anderen Domänen. Die Qualitäts- und Leistungsverpflichtungen gegenüber den Kunden finden Eingang in die Zielvereinbarungen für die VS-Mitarbeiter und die zuständigen Führungskräfte. Steigerung der Prozesseffizienz im Sitzungsmanagement: SESSION ermöglicht die komplette Sitzungsplanung ohne die zuvor allgegenwärtigen Systembrüche. Alle Formen der Beschlussfassung, sei es im Rahmen einer Sitzung oder im Umlaufverfahren, werden unterstützt, wobei sich der Anwender aufgrund der komplikationsfreien Einbindung von SESSION in die bestehende Systemlandschaft ständig in dem ihm bekannten Anwendungsumfeld bewegt. Sämtliche Gremieninformationen liegen auf einer zentralen Datenbank in SESSION vor. Hinzu kommt, dass die durch das VS definierten Bearbeitungsprozesse vollständig in SESSION hinterlegt wurden. Die bislang existierende Vielfalt an Dokumentformaten und -inhalten wurde zusammengefasst und standardisiert. Protokolle werden aus der Sitzung heraus in SESSION erstellt. Hierdurch konnte die Zeit zur Erstellung des Protokollentwurfs sowie dessen Abstimmung mit den einreichenden Fachbereichen von bis zu einer Woche auf maximal eineinhalb Tage verkürzt werden. Beschlüsse werden umgehend nach der Sitzung in das Beschlusscontrolling überführt. Zu guter Letzt bietet SESSION umfangreiche Recherchemöglichkeiten für Gremien, Sitzungen, Tagesordnungspunkte, Vorlagen, Protokolle oder einzelne Beschlüsse. Hierdurch erübrigt sich seit Einführung von SESSION die zumeist langwierige Suche im Archiv oder in den dezentralen Dateiordnern der Mitarbeiter. Steigerung der Effizienz des Beschlusscontrollings: Aufgrund der Tatsache, dass sich aus SESSION heraus direkt Protokollauszüge mit dazugehörigen Verantwortlichkeiten und Terminsetzungen erzeugen lassen, wird das Beschlusscontrolling gegenüber der früheren fehleranfälligen, manuellen Übertragung der Beschlusstexte von MS Word zu MS Access stark vereinfacht. Letztlich wird der Zeitraum für die Beschlusserstellung und den -versand von ehemals einem Arbeitstag auf wenige Stunden verkürzt. Der bei Fehlern in der Übertragung entstandene Koordinations- und Problembeseitigungsaufwand konnte reduziert werden. Aus SESSION heraus lassen sich per Knopfdruck sehr vielfältige Auswertungen zum Umset-
Der „automatisierte Bankvorstand“
121
zungsstand offener Beschlüsse erzeugen. Mit MS Access mussten hierfür separate Abfragen programmiert und daraus resultierend Berichte erstellt werden. Auch die Anwender profitieren vom neuen Beschlusscontrolling, denn nunmehr werden zu erledigende Aufgaben und anstehende Termine bereits im Eingangsfenster von SESSION aufgeführt. Per Mausklick gelangt der Anwender ohne Systemwechsel sofort an die jeweiligen Inhalte und kann die Bearbeitung vornehmen. Steigerung der Revisionssicherheit von Gremienmanagementprozessen: SESSION führt die vormals dezentral abgelegten gremienrelevanten Informationen systematisch zusammen. Ein workflowbasiertes Rollen- und Berechtigungskonzept ermöglicht höchste Sicherheit und Vertraulichkeit für Gremienunterlagen. Alle Änderungen an den Sitzungsunterlagen werden protokolliert und somit historisiert, wodurch systemseitig die Transparenz und Nachvollziehbarkeit aller Bearbeitungszwischenstände dokumentiert wird. Die Sitzungsunterlagen werden in nahezu beliebigen Formaten an die jeweilige Sitzung gekoppelt abgelegt, nach erfolgter Beschlussfassung versiegelt und archiviert. Verbesserung der Ressourcensteuerung und Generierung von Personaleinsparungen: Durch die bereits dargelegten Kommunikations- und Dokumentationsmaßnahmen wurde die Einarbeitungszeit künftiger VS-Mitarbeiter signifikant verkürzt. Ferner können Mitarbeiter in den Fachbereichen durch die Anwenderdokumentation und den Service Desk deutlich schneller als bisher Gremienvorlagen erzeugen, abstimmen und der Entscheidungsfindung zuführen, was wiederum Freiräume in den Fachbereichen für die Wahrnehmung weiterer Aufgaben schafft. Der wohl deutlichste Einspareffekt lässt sich allerdings bei den Personalkosten im VS aufzeigen. So konnten die Vollzeitkapazitäten im Jahr 2007 gegenüber dem Jahr 2004 um mehr als 50% gesenkt werden. Dies führte auch zu einer deutlichen Senkung der VSPersonalaufwendungen.
5
Zusammenfassung und Ausblick
Im Rahmen des vorliegenden Beitrags wurde zunächst der Terminus des Gremienmanagements diskutiert und definiert. Anschließend konnte gezeigt werden, dass ein zweck- und zielorientiert agierendes, kernkompetenzunterstützendes Gremienmanagement in Kreditinstituten zur Reduktion des Komplexitätsgefälles zwischen Markt und Kreditinstitut beitragen kann, was ein signifikanter Beitrag zur Sicherung von dessen Überlebensfähigkeit ist. Hierzu wurde mit dem Referenzmodell zum IT-gestützten Gremienmanagement ein Gestaltungsrahmen inklusive eines Vorgehensmodells zu dessen Implementierung konzeptualisiert und am Beispiel der Investitionsbank Berlin operationalisiert. Unter Bezugnahme auf die Zielstellung dieses Beitrags wurde die sinnvolle Verknüpfung der von KRCMAR/BÖHMANN/KLEIN geforderten vollumfänglichen Prozessgestaltung anhand des Kernprozesses „Vorstandssitzung“ mit der technologischen Intervention durch die Einführung von SESSION als EMS-Werkzeug77 des IT-gestützten Gremienmanagements dargestellt. 77
Siehe Abschnitt 1 dieses Beitrags.
PUCHTA/RÖDER/KEUPER
122
Am Schluss wurden die im Verlauf des Implementierungsprojekts ermittelten Erfolgsfaktoren zusammengefasst. Die positiven Ergebnisse zeigten sich insbesondere durch die signifikante Verkürzung der Prozessdurchlaufzeiten und die Senkung der Personalaufwendungen im Vorstandsstab. Künftig gilt es, sowohl die bereits übernommenen Kernprozesse weiter zu optimieren, beispielsweise durch die Umsetzung der vollumfänglichen elektronischen Archivierung unter Wegfall der papiergebundenen Dokumente, als auch zusätzliche Gremienaktivitäten in der Investitionsbank Berlin zu integrieren. So ist es u. a. denkbar, künftig die Sitzungen der Bewilligungsausschüsse durch das Gremienmanagement zu organisieren. Eine Aufgabe wird SESSION im Rahmen des IT-gestützten Gremienmanagements allerdings auch zukünftig nicht übernehmen können; nämlich das Treffen von qualifizierten Vorstandsentscheidungen.
Quellenverzeichnis BEA, F. X./HAAS, J. (1997): Strategisches Management, Stuttgart 1997. BENBASAT, I./LIM, L.-H. (1993): The Effects of Group, Task, Context and Technology Variables on the Usefulness of Group Support Systems, in: Small Group Research, 1993, Nr. 4, S. 430–462. BENNIS, W./NANUS, B. (1985): Leaders – The Strategies for Taking Charge, New York 1985. BÖRNER, C. J. (2000): Strategisches Bankmanagement, München/Wien 2000. VOM
BROCKE, J. (2003): Referenzmodellierung – Gestaltung und Verteilung von Konstruktionsprozessen, in: BECKER, J. ET. AL. (Hrsg.), Advances in Information Systems and Management Science, Band 2, Berlin 2003.
BUNDESANSTALT FÜR FINANZDIENSTLEISTUNGSAUFSICHT (2007): Gesetz über das Kreditwesen, online: http://www.bafin.de/gesetze/kwg.htm#p1, Stand: 16.07.2007, Abruf: 17.09.2007. BUNDESVERBAND DEUTSCHER BANKEN (2006): Banken 2006 – Fakten, Meinungen, Perspektiven, Berlin 2006. DENNIS, A. R./HALEY, B./VANDENBERG, R. J. (1996): A Meta-Analysis of Effectiveness, Efficiency and Participant Satisfaction in Group Support Systems Research, in: Proceedings of the International Conference on Information Systems, 1996, S. 851–853. DENNIS, A. R./WIXOM, B. H./VANDENBERG, R. J. (2001): Understanding Fit and Appropriation Effects in Group Support Systems via Meta-Analysis, in: MIS Quarterly, 2001, Nr. 25, S. 167–193. DEUTSCHE BUNDESBANK (2007): Mindestanforderungen an das Risikomanagement, online: http://www.bundesbank.de/download/bankenaufsicht/pdf/marisk/070306_rs.pdf, Stand: 06.03.2007, Abruf: 16.09.2007. DÖRRER, T. (1999): Wissensbasierte Evaluierung zukünftiger Produktionsstrategien, Aachen 2000. DRUCKER, P. F. (1974): Management, New York et. al. 1974.
Der „automatisierte Bankvorstand“
123
DRUCKER, P. F. (1999): How to Develop a Mission Statement, online: http://www.leader toleader.org/knowledgecenter/sat/mission.html, Stand: 2006, Abruf: 17.09.2007. DRUCKER, P. F. (2005): Was ist Management? – Das Beste aus 50 Jahren, Berlin 2005. FETTKE, P./LOOS, P. (2005): Der Beitrag der Referenzmodellierung zum Business Engineering, in: HMD – Praxis der Wirtschaftsinformatik, 2005, Nr. 241, S. 18–26. FREY, L. R. (1995): Applied Communications Research on Group Facilitation in Natural Settings, in: FREY, L. R. (Hrsg.), Innovations in Group Facilitations, Cresskill 1995, S. 1–26. FRISCH, B./CHANDLER, L. (2007): So gelingen Strategiekonferenzen, in: Harvard Business Manager, 2007, September 2006, S. 76–88. GÄLWEILER, A. (1987): Strategische Unternehmensführung, zusammengestellt und ergänzt von SCHWANINGER, M., Frankfurt am Main/New York 1987. HAX, A. C./MAJLUF, N. S. (1984): Strategic Management – An Integrative Perspective, Englewood Cliffs 1984. HANS, R. (2006): Netzwerk-Controlling – Systemtheoretisch-kybernetische Lenkung in der TIME-Branche, Berlin 2006. INVESTITIONSBANK BERLIN (2004a): Gesetz zur rechtlichen Verselbstständigung der Investitionsbank Berlin, online: http://www.ibb.de/PortalData/1/Resources/content/download/ ibb_service/IBB-Gesetz_2004.pdf, Stand: 25.05.2004, Abruf: 17.09.2007. INVESTITIONSBANK BERLIN (2004b): Verordnung über die Satzung der Investitionsbank Berlin, online: http://www.ibb.de/PortalData/1/Resources/content/download/ibb_service/ satzung_ibb.pdf, Stand: 14.09.2004, Abruf: 17.09.2007. INVESTITIONSBANK BERLIN (2007a): Geschäftsstrategie 2007, Berlin 2007. INVESTITIONSBANK BERLIN (2007b): Der Weg zur erfolgreichen Landesförderbank – Eine Bilanz der Jahre 2004 bis 2007. ITSMF (2005): IT Service Management basierend auf ITIL – Eine Einführung, Ammersfoort 2005. KEUPER, F. (2001): Strategisches Management, Wiesbaden 2001. KEUPER, F. (2002): Wettbewerbsstrategische Positionierung mit Hilfe der integriert-hybriden Produktionsstrategie – Konzeptualisierung und Operationalisierung, unveröffentlichte Studie, Hamburg 2002. KEUPER, F. (2003): Convergence-based View – Strategieplanung in der TIME-Branche, in: BRÖSEL, G./KEUPER, F. (Hrsg.), Medienmanagement – Aufgaben und Lösungen, München 2003, S. 3–27. KEUPER, F. (2004): Kybernetische Simultaneitätsstrategie – Systemtheoretisch-kybernetische Navigation im Effektivitäts-Effizienz-Dilemma, Berlin 2004. KEUPER, F./HANS, R. (2003): Multimedia-Management, Wiesbaden 2003. KEUPER, F./HANS, R. (2006): Erlösformen in Geschäftsmodellen der Medienbranche, in: SCHOLZ, C. (Hrsg.), Handbuch Medienmanagement, Berlin et. al. 2006, S. 393–415.
124
PUCHTA/RÖDER/KEUPER
KEUPER, F./HINTZPETER, R. (2007): In der Theorie werden richtige Probleme gelöst, in der Praxis werden Probleme richtig gelöst, in: KEUPER, F./GROTEN, H. (Hrsg.), Nachhaltiges Change Management – Interdisziplinäre Fallbeispiele und Perspektiven, Wiesbaden 2007, S. 295–315. KEUPER, F./OECKING, C. (2006): Vorwort, in: KEUPER, F./OECKING, C. (Hrsg.), Corporate Shared Services – Bereitstellung von Dienstleistungen im Konzern, Wiesbaden 2006, S. VII–XIII. KIRBY, D. A. (2003): Entrepreneurship, Berkshire 2003. KLEIN, A./KRCMAR, H. (2003): Electronic Meeting Systems Paradox – Hindernisse für den Einsatz funktionierender Technik und Ansätze zu ihrer Überwindung, in: Wirtschaftsinformatik, 2003, Nr. 45, S. 421–433. KNAESE, B. (1996): Kernkompetenzen im strategischen Management von Banken, Wiesbaden 1996. KRCMAR, H. (2005): Informationsmanagement, München 2005. KRCMAR, H./BÖHMANN, T./KLEIN, A. (2001): Sitzungsunterstützungssysteme, in: SCHWABE, G./ STREITZ, N./UNLAND, R. (Hrsg.), CSCW Kompendium – Lehr- und Handbuch für das computerunterstützte kooperative Arbeiten, Heidelberg 2001, S. 238–251. LAYER, M. (1998): Der Einsatz kommerzieller integrierter Standardsoftware im Rahmen universitärer Ausbildung am Beispiel von R/3 der SAP AG, in: PRESSMAR, D. B./SCHEER, A.-W. (Hrsg.), SAP R/3 in der Praxis – neuere Entwicklungen und Anwendungen, Schriften zur Unternehmensführung, Band 62, Wiesbaden, S. 129–152. LANG, H. R. (2005): Der Vorstandsassistent – Aufgaben und Karrierechancen, Wiesbaden 2005. LEONHARD-BARTON, D. (1988): Implementation Characteristics of Organizational Innovations – Limits and Opportunities for Management Strategies, in: Communication Research, 1988, Nr. 5, S. 603–631. MANSUKHANEY, R. (2007): Fortentwicklung des DV-basierten Gremien- und Sitzungsmanagements, unveröffentlichte Präsentationsunterlage zum Projektabschluss, Berlin 2007. MC KENNA, J. F. (1995): Meeting – Cruel and Usual Punishment, in: Managing Office Technology, 1995, October, S. 16. NAGEL, R./WIMMER, R. (2006): Systemische Strategieentwicklung – Modelle und Instrumente für Berater und Entscheider, Stuttgart 2006. O.
V. (2007): Studie Bank und Zukunft 2007, in: Zeitschrift für das gesamte Kreditwesen, Ausgabe Technik – IT für Finanzdienstleister, 2007, Nr. 2, S. 32.
PICOT, A./FREUDENBERG, H. (1998): Neue organisatorische Ansätze zum Umgang mit Komplexität, in: ADAM, D. (Hrsg.), Komplexitätsmanagement, Schriften zur Unternehmensführung, Band 61, Wiesbaden, S. 239–257. PICOT, A./REICHWALD, R./WIEGAND, R. T. (2001): Die grenzenlose Unternehmung, Wiesbaden 2001. PRAHALAD, C. K./HAMEL, G. (1990): The Core Competence of the Corporation, in: Harvard Business Review, 1990, Nr. 3, S. 79–91. PROUDFOOT CONSULTING (2005): Produktivitätsstudie 2005/06 – Eine internationale Untersuchung der Produktivität auf Unternehmensebene, o. O. 2005.
Der „automatisierte Bankvorstand“
125
REGIERUNGSKOMMISSION DEUTSCHER CORPORATE GOVERNANCE KODEX (2007): Deutscher Corporate Governance-Kodex, online: http://www.corporate-governance-code.de/ger/ kodex/1.html, Stand: 14.06.2007, Abruf: 16.09.2007. ROGERS, P./BLENKO, M. (2006): Wie klare Regeln Entscheidungen verbessern, in: Harvard Business Manager, 2006, September 2006, S. 62–74. ROLLBERG, R. (1996): Lean Management und CIM aus Sicht der strategischen Unternehmensführung, Wiesbaden 1996. ROSE, K. (2000): Sitzungsfrust – Viel schneller auf den Punkt, in: Wirtschaftswoche, 2000, Nr. 37, S. 180–183. RÜEGG-STÜRM, J. (2004): Das neue St. Galler Management-Modell, in: DUBS, R./EULER, D./ RÜEGG-STÜRM, J./WYSS, C. E. (Hrsg.), Einführung in die Managementlehre, Band 1, Bern 2004, S. 65–141. SCHEER, A.-W. (1991): Architektur integrierter Informationssysteme – Grundlagen der Unternehmensmodellierung, Berlin et. al. 1991. SCHMIDT, G./KOCH, H. (1989): Computergestütztes Gremienmanagement (Beispiel Universität), Nürnberg 1989. SCHOLZ, C. (1987): Strategisches Management – Ein integrativer Ansatz, Berlin/New York 1987. STAEHLE, W. H. (1999): Management – Eine verhaltenswissenschaftliche Perspektive, München 1999. STEINBACH, R.-F. (1997): Integratives Qualitäts-, Zeit- und Kostenmanagement – Entwicklung und Implementierung eines ganzheitlichen Management-Konzepts, Frankfurt am Main et. al. 1997. STEINMANN, H./SCHREYÖGG, G. (2005): Management – Grundlagen der Unternehmensführung, Wiesbaden 2005. STERN, G. J. (1998): The Drucker Foundation Self-Assessment Tool – Process Guide, San Francisco 1998. STOCK-HOMBURG, R. (2005): Lehrveranstaltung Organisationsgestaltung, Technische Universität Chemnitz, Wintersemester 2005/2006, Chemnitz 2005. STRAUBHAAR, T. (2006): Die Globalisierung steht erst am Anfang, in: BUNDESVERBAND DEUTSCHER BANKEN (Hrsg.), Bankenbericht 2006, Berlin 2006, S. 38–41. THOMAS, O. (2006): Das Referenzmodellverständnis in der Wirtschaftsinformatik – Historie, Literaturanalyse und Begriffsexplikation, in: LOOS, P. (Hrsg.), IWi – Veröffentlichungen des Institus für Wirtschaftsinformatik im Deutschen Forschungszentrum für Künstliche Intelligenz, 2006, Nr. 187, S. 1–35. VAHS, D. (2007): Organisation – Einführung in die Organisationstheorie und -praxis, Stuttgart 2007. ZIGURS, I./BUCKLAND, B. K. (1998): A Theory of Task/Technology Fit and Group Support Systems Effectiveness, in MIS Quarterly 22, 1998, Nr. 2, S. 313–334. ZIGURS, I./BUCKLAND, B. K./CONNOLY, J. R./WILSON, E. V. (1999): A Test of Task-Technology Fit Theory for Group Support Systems, in: The DATABASE for Advances in Information Systems 30, 1999, Nr. 3 und 4, S. 34–50.
Systemtechnische Unterstützung der Finanzfunktion – Herausforderungen und Perspektiven HANNES EMBERGER Softlab Group 1 2
Problemstellung – Quo vadis Finanz-IT? ...................................................................... 129 Effektivität versus Effizienz von IT-Systemen .............................................................. 130 2.1 Effektivität als Triebfeder des systemtechnischen Umbruchs der Vergangenheit 130 2.2 Effizienz – Optimale Nutzung von Finanzsystemen ............................................ 132 2.3 Flexibilität – Schnelle Anpassung von Finanzsystemen ...................................... 135 3 Beispiele für aktuelle und zukünftige systemtechnische Fragestellungen in der Finanzfunktion ............................................................................................................... 138 4 Fazit ............................................................................................................................... 140 Quellenverzeichnis................................................................................................................ 141
Systemtechnische Unterstützung der Finanzfunktion
1
129
Problemstellung – Quo vadis Finanz-IT?
Die vergangenen Jahrzehnte waren geprägt durch zahlreiche technologische Umbrüche in der Informationstechnologie (IT), die auch starke Auswirkungen auf die Finanzfunktion im Unternehmen hatten. Beispiele hierfür sind der Siegeszug der ERP-Systeme1, die Verbreitung von Business Intelligence sowie Internet-basierter Anwendungen. In der Folge dieses technologischen Wandels wurden zahlreiche große „Implementierungsprojekte“ durchgeführt, die viele interne und externe Ressourcen in den Finanz- und IT-Abteilungen gebunden haben. Die Technologie hat Einzug gehalten in der Finanzfunktion und ihr Gesicht grundlegend verändert. Es stellt sich die Frage, ob diese „Installationsphase des Informationszeitalters“2 vorüber ist und wie das Zusammenspiel von IT und Finanzfunktion zukünftig aussehen wird. Gegenwärtig zeichnet sich eine Entwicklung ab, die mit dem Schlagwort „Business Technology“ charakterisiert wird:3 ¾ Der Technologieschub der vergangenen Jahrzehnte hat es ermöglicht, Geschäftsmodelle und die Prozesse eines Unternehmens grundlegend zu ändern; am radikalsten wird das am Beispiel des Internet sichtbar. ¾ Technologie und Business wachsen zusammen – das betrifft die täglichen Arbeitsprozesse, das erforderliche Know-how und in vielen Unternehmen auch die Organisation; vielfach gibt es z. B. eine eigene „Ressort-IT“ oder der CIO berichtet an den CFO. ¾ In der Folge bewegt sich der Fokus auch im Finanzbereich mehr hin zu betriebswirtschaftlich getriebenen Projekten; innovative Technologie allein ist nicht mehr der Haupttreiber für IT-Investitionen in den Finanzabteilungen, sondern hat unterstützenden Charakter. Was heißt das konkret für die Finanzfunktion? Einen ersten Eindruck soll folgendes typisches Beispiel vermitteln: Viele Unternehmen treiben gegenwärtig die weltweite Harmonisierung ihres Finanz- und Rechnungswesens voran, standardisieren die Controlling-Logik oder zentralisieren das Liquiditätsmanagement. Hintergrund ist die Überlegung, effizient auf ständige Änderungen im Markt reagieren zu können; diese vom Geschäftsmodell her getriebene Entwicklung erfordert zum einen eine Neugestaltung der Finanzprozesse und -logik, andererseits Anpassungen in ERP-, Front-Office- und sonstigen Vorsystemen, im Bereich Business Intelligence und an diversen Schnittstellen.
1
2 3
Unter ERP-Systemen sind integrierte Systeme zu verstehen, die sich mit „Enterprise Resource Planning“ d. h. der Ressourcenplanung im Unternehmen befassen. Prominente Beispiele für solche Anwendungssoftware sind SAP R/3 oder Oracle Financial Management. NAVI (2007), S. 2. Vgl. NAVI (2007), S. 3 ff.
130
2
EMBERGER
Effektivität versus Effizienz von IT-Systemen
Um die vergangene und zukünftige Entwicklung von IT-Systemen im Finanzbereich verstehen zu können, ist es hilfreich, zwischen Effektivität und Effizienz zu unterscheiden. Effektivität beschreibt generell die Zielerreichung eines Vorhabens, im Sinne von „das Richtige tun“. Effektiv sind Finanzsysteme also dann, wenn sie die Anforderungen der Finanzabteilungen, zum Beispiel hinsichtlich Berichtsinhalte, möglichst exakt umsetzen. Die Effizienz berücksichtigt den Aufwand, der zur Erreichung eines Ziels erforderlich ist und zielt im Falle der Finanzfunktion vielfach auf systemgestützte Prozesse ab. Beispiele für Prozesse, die stark von IT-Systemen unterstützt werden, sind Abschlussarbeiten oder Planungsprozesse.
2.1
Effektivität als Triebfeder des systemtechnischen Umbruchs der Vergangenheit
Effektivität von Finanzsystemen hat in vielerlei Hinsicht mit Datenqualität zu tun; als effektiv werden Finanzsysteme dann angesehen, wenn letztlich die Berichtsinhalte richtig sind, wenn die Daten nach verschiedenen Merkmalen bzw. Dimensionen aufgerissen werden können und wenn die Berichtsform den Anforderungen entspricht. Prozesse in der Buchhaltung oder im Controlling dienen bei dieser Sichtweise als Mittel zum Zweck. Die Implementierung von Finanzsystemen in den vergangenen Jahren war geprägt von dieser Zielsetzung. Neben dem oben angesprochenen technologischen Umbruch (Client-ServerTechnologie, ERP, Business Intelligence, etc.) waren es im Finanzwesen vor allem extern vorgegebene Anforderungen, die die Entwicklung beeinflusst haben. Zu letzteren zählen Reportingstandards wie IFRS oder US-GAAP einerseits sowie Compliance-Anforderungen andererseits (z. B. Sarbanes-Oxley Act of 2002, Basel II, Solvency II). Bis dato wurden also entweder neue Technologien implementiert oder es wurden extern vorgegebene Standards in Finanzsystemen umgesetzt. Dort, wo im Rahmen dieser Implementierungsprojekte die Möglichkeit bestanden hat, eigenen Gestaltungsspielraum zu nutzen, wie etwa im Controlling, wurde oftmals der Ist-Zustand ohne größere Anpassungen in die neue Systemlösung übernommen. Im Verlauf der „Installationsphase“ wurde vielfach auch nicht berücksichtigt, welche übergeordneten Ziele erreicht werden sollen. Beispielsweise wird aus Sicht der Finanzsysteme nicht danach gefragt, welchen Wert die Informationen eines Berichts oder einer Kennzahl für die Steuerung eines Unternehmens haben. Die Gelegenheit zu einer grundlegenden Neukonzeption oder Priorisierung von Anforderungen wurde vielfach nicht genutzt. Effektiv in diesem übergeordneten, ganzheitlichen Sinne sind Finanzsysteme noch nicht. Dies erfordert das langwierige kritische Abwägen systemtechnischer Anforderungen und deren Priorisierung, das Einbinden der einzelnen Geschäftsbereiche, das Überwinden fachlicher Widerstände, usw. Dass gegenwärtig die Abbildung der fachlichen Anforderungen noch vor Effizienzthematiken steht, zeigt z. B. die IT-Studie 2007 von CAPGEMINI.4 Als wichtigste Herausforderung im Bereich Business Intelligence (BI) wird hier die Verbesserung der Datenqualität angesehen (siehe auch Abbildung 1). 4
Vgl. CAPGEMINI (2007).
Systemtechnische Unterstützung der Finanzfunktion
131
Wie wichtig werden die folgenden Aspekte im Zusammenhang mit Business Intelligence in den nächsten zwölf Monaten für Sie sein? Mittelwert 2006 2007 Datenqualität 86% 1,67 nicht abgefragt 59%
BI-Services
42% 57% 64%
Analytisches CRM Data-Mart-Konsolidierung
36%
Corporate Performance Management
46% 48% 45% 54% 42% 56% 36% 46% 29% 21%
Regulatorisches Reporting Predictive Intelligence Right Time Analytics RFID Metadaten-Management
24%
Suchmaschinen-Plug-ins für BI-Dokumente
18% 2007 2006
Abbildung 1:
48%
2,21
2,90
2,44
2,32
3,23
3,21
2,87
2,83
2,73
2,79
2,94
2,48
3,06
2,89
3,97
4,18
3,26 nicht abgefragt 3,51 nicht abgefragt
Basis: Befragte, die Business Intellingence für eines der drei wichtigsten Themen halten (n=35) – Top-2-Box, Mittelwerte
Bedeutung verschiedener Aspekte im Zusammenhang mit Business Intelligence5
Dies zeigt, dass diese „effektivitätsgeprägte“ Herangehensweise der Finanzfunktion an ITProjekte sicherlich weiterhin Bestand hat. Die Entwicklung dieser Vorhaben verläuft häufig in Wellen, getrieben durch neue Compliance-Anforderungen. Als zukünftige ComplianceAnforderung sei die achte EU-Richtlinie („Euro-SOX“) genannt, die eine Verschärfung der Vorschriften zur Dokumentation in IT-Systemen vorsieht. Ein weiteres Beispiel hierfür ist das AIS (Audit Information System) von SAP, das Anforderungen der Wirtschaftsprüfer und Revisoren systematisch sammeln soll. Vor dem Hintergrund der obigen Überlegungen kann man sich fragen, welchen Nutzen der enorme Transformationsaufwand in den letzten Jahrzehnten hatte. Doch auch wenn durch ERP- oder BI-Software vielfach kein grundlegendes Redesign der Finanzfunktion oder ein signifikanter Wettbewerbsvorteil durch Effizienzsprünge zu erreichen war, besteht ohne moderne IT-Systeme das Risiko, bestimmte Compliance-Anforderungen oder Steuerungsanforderungen nicht hinreichend oder nicht zeitnah genug erfüllen zu können. Die Konsequenzen, die sich hieraus ergeben, können schwerwiegend sein. Sie reichen von einer Verschlechterung der Fremdkapitalfinanzierung bis hin zum Aussetzen der Börsennotierung. Aktuelle systemtechnische Lösungen sind also heute in der Finanzfunktion zwingend, um zeitnah bestimmte
5
Vgl. CAPGEMINI (2007). Top-2-Box: Werte „1“ und „2“ auf der Skala von „1“ („trifft voll zu“) und „6“ („trifft überhaupt nicht zu“).
132
EMBERGER
Berichtsinhalte liefern zu können, seien sie gesetzlich geregelt oder seien sie intern für die Steuerung des Geschäfts von Bedeutung.
2.2
Effizienz – Optimale Nutzung von Finanzsystemen
Stärkere Orientierung am Shareholder Value und der Druck durch Globalisierung erzwingt zukünftig einen effizienteren Umgang mit Ressourcen, unabhängig von Konjunktur oder individuellem Ergebnis eines Unternehmens. Viele Prozesse des internen und externen Rechnungswesens werden als standardisierbar betrachtet. Darüber hinaus werden sie vielfach nur als Unterstützungsfunktion in einem Unternehmen wahrgenommen und sollen sich den geänderten Geschäftsmodellen rasch anpassen können. Effizienz im Rechnungswesen erfordert in der Regel systemgestützte Prozesse. So laufen z. B. Buchungen, Kalkulationen, Verrechnungen, Abschlussaktivitäten, Planung, Datenaggregation, Datensammlung und Berichtsformatierung über Systeme. Hier gibt es zukünftig viele Hebel, um Effizienzpotentiale von Finanzsystemen zu nutzen. Generelle Ansatzpunkte sind hierbei: ¾ Integration von Applikationen ¾ Automatisierung von Funktionalitäten ¾ Standardisierung von Prozessen ¾ Entfeinerung, Vereinfachung und Bereinigung von Daten und korrespondierender Systemlogik ¾ Outsourcing Die Integration verschiedener Anwendungen hat das Ziel, frühzeitig gegenseitige Abhängigkeiten sichtbar zu machen, d. h. z. B. zum Zeitpunkt einer Warenbestellung schon festzulegen, welche Kontierungen später in der Buchhaltung und Kostenrechnung erforderlich sind. Solche hoch integrierten Systeme sind zwar in der Anwendung komplex, letztlich entfallen aber spätere manuelle Abstimmungsarbeiten und Schnittstellen. Insgesamt werden Systeme und Prozesse dadurch effizienter. Soweit die Prozesse eines Unternehmens innerhalb eines ERP-Systems abgebildet sind, konnten diese Effizienzen bereits gehoben werden. Vielfach ist aber eine vollständige Integration der Prozesse eines Unternehmens noch nicht gegeben. Beispielweise sind in Banken oder Versicherungen Systeme, die die Kernprozesse abbilden, oftmals noch nicht vollständig in das Rechnungswesen integriert. Ähnliches gilt für die Integration von ERP-Systemen mit Applikationen zum Risikomanagement (Basel II, Asset Liability Management, Anforderungen der Finanzdienstleistungsaufsicht). Viele Unternehmen haben auch noch keine hinreichende Integration des Rechnungswesens mit den CRM-Systemen durchgeführt. Noch nicht vollständig ausgeschöpft ist auch das Potenzial zur vertikalen Integration verschiedener Gesellschaften, z. B. hinsichtlich:
Systemtechnische Unterstützung der Finanzfunktion
133
¾ EDI (Electronic Data Interchange) zum Versand elektronischer Rechnungen, ¾ Cash-Pooling oder ¾ konzerninterner Intercompany-Plattformen, um konzerninterne Verrechnungen zu dokumentieren und so im Rahmen der Konsolidierung effizient nutzen zu können. Viele Unternehmen haben auch noch keine hinreichende Integration des Rechnungswesens mit den CRM-Systemen durchgeführt. Diese Beispiele illustrieren, dass viele Prozesse auch heute noch unabhängig voneinander und zum Teil papierbasiert ablaufen. Das Themenfeld Automatisierung grenzt an den ersten Punkt an. Hier geht es darum, vor- und nachgelagerte Systeme anzubinden und so z. B. automatisch Buchungen zu erzeugen. Die oben genannten Beispiele zur vertikalen Integration tragen ebenfalls zur Automatisierung bei. Der Automatisierungsgrad einzelner Funktionalitäten ist unterschiedlich. Während beispielsweise innerbetriebliche Verrechnungen gegenwärtig stark automatisiert sind, erfolgt die Berichtserstellung oder der Planungsprozess in vielen Fällen noch weitgehend manuell. Die Standardisierung systemgestützter Prozesse verfolgt das Ziel, vergleichbare Finanzprozesse in unterschiedlichen Einheiten eines Unternehmens zu etablieren. Voraussetzung für eine Standardisierung ist zunächst eine ausführliche systembasierte Dokumentation. Vielfach werden die Möglichkeiten, standardisierte Prozesse in ERP-Systemen zu implementieren, aber aufgrund von Widerständen oder zu geringer Flexibilität der Software nicht genutzt. Harmonisierung betrifft stärker die betriebswirtschaftlichen Anforderungen. Folgende Beispiele sollen Ansatzpunkte illustrieren: ¾ die Vorgabe der IFRS als führenden Rechnungslegungsstandard für Accounting und Controlling durch die Konzernleitung ¾ Buchung der Werte paralleler Werteansätze in Summe oder nur als Delta zum bestehenden Rechnungslegungsstandard („Adjustment-Ansatz“) ¾ die Vorgabe bestimmter Meldedatenaufrisse für die Tochtergesellschaft im Rahmen der Konsolidierung (im Ist und Plan) ¾ Standards für die Vorgehensweise und Detaillierung bei der Kalkulation eines Produkts, ¾ Vorgaben zum Zusammenspiel und Abstimmung von internem und externem Rechnungswesen ¾ Regelungen zur funktionellen Struktur von Kostenträgern: Kostenträger, die logistische Funktionalitäten aufweisen, Kostenträger, die Projektcharakter haben, Kostenträger, die aggregierte Kostensammler darstellen, usw. All diese Vorgaben können über Systemeinstellungen implementiert und damit vorgegeben werden. In der Praxis spricht man häufig von einem „Global Template“.
134
EMBERGER
In einem Konzern haben die dezentralen Einheiten eigene Anforderungen, die sich aus dem Geschäftsmodell oder dem lokalen Rechnungslegungsstandard ergeben. Weil diese dezentrale Logik aber essenziell ist, um das Geschäft zu steuern, muss es gelingen, die dezentralen Anforderungen mit denen des Konzerns zu vereinbaren. Dies wird am Beispiel der Vereinheitlichung des Kontenplans oder der Planungsprozesse in einem Konzern deutlich. Ähnliches gilt für das Arbeiten mit parallelen Rechnungslegungsstandards. Hier ist denkbar, entweder unterschiedliche Hauptbücher parallel zu führen oder getrennte Konten zu verwenden. In Abhängigkeit von der Bedeutung des Geschäfts und des Informationsnutzens ist zu entscheiden, ob eine vom Standard abweichende Lösung gerechtfertigt ist. Unabhängig von zentralen und dezentralen Anforderungen bestehen aber vielfach Ineffizienzen wie z. B. in der unterschiedlichen Interpretation von Kennzahlen oder des Jahresabschlusses. Es handelt sich um keine systematischen Unterschiede, sondern um historisch gewachsene Differenzen. Um Harmonisierungsvorhaben zu unterstützen, werden verschiedene systemtechnische Lösungen angeboten, die eine Abstimmung erleichtern: Produkte zu Intercompany-Abstimmung oder zum elektronischen Rechnungs-Workflow zwischen Konzerngesellschaften (EDI). Auch das Führen (mehrerer) paralleler Rechnungslegungsstandards und die entsprechende Überleitung werden inzwischen technisch solide unterstützt. Produkte wie SAP New GL oder SEM BCS sind beispielsweise in der Lage, technisch klar getrennt in eigenen Büchern („ledger“) unterschiedliche Sichten oder Rechnungslegungsstandards abzubilden. Der Gedanke der Entfeinerung, der zum Beispiel im Konzept des „Beyond Budgeting“ seinen Ausdruck für die Planung findet, lässt sich auch auf ERP-Systeme und die korrespondierenden Anforderungen anwenden. Es ist oftmals sinnvoll, bereits einige Jahre nach ihrer Einführung ERP- oder BI-Systeme zu reengineeren. Viele Berichte werden zum Beispiel produziert, weil „es sie schon immer gegeben hat“. Weitere Ansatzpunkte: Stammdaten und Stammdatengruppen wachsen in einigen Fällen unkontrolliert, historische Daten können archiviert werden, etc. Im Laufe des Betriebs eines Systems zeigt sich auch vielfach, dass bestimmte Kontierungen oder Einstellungen, die bei der Einführung vorgenommen wurden, in der betrieblichen Praxis gar nicht erforderlich sind. Als eine der zentralen Fragestellungen hat sich hier das Thema Master Data Management erwiesen, bei dem versucht wird, Stammdaten zu zentralisieren und zu konsolidieren (Entfernen von Dubletten). In großen Konzernen bietet sich zum Beispiel eine zentrale Stelle zur Pflege von Stammdaten für operative Kontenpläne, für den Konzernkontenplan oder für Steuerbilanzkonten an. Der finale Schritt für ein effizientes Betreiben von Finance-Systemen ist das Outsourcing bzw. das Betreiben eines Shared-Service-Centers. Für erfolgreiches Outsourcing muss eine Vielzahl von Vorbedingungen erfüllt sein.6 Hierzu zählen die oben genannten Punkte hinsichtlich Harmonisierung, Entfeinerung, etc. Nur wenn die Abläufe im System hinreichend vereinheitlicht und dokumentiert sind, kann eine erfolgreiche Ausgliederung erfolgen. Die Einsparungen, die durch die Zusammenlegung von Finanzfunktionen ermöglicht werden, müssen allerdings den Kosten gegenübergestellt werden, die durch Verhandlungen über ServiceLevel-Agreements entstehen. Dieser Verhandlungsprozess ist im Prinzip ein dauerhafter, weil in einer sich konstant ändernden Finanzfunktion auch die Anforderungen an den internen oder externen Dienstleister ständig angepasst werden. Aus diesem Grund haben konzerninterne Shared-Service-Center kurz- und mittelfristig bessere Chancen auf Erfolg, weil mit einem 6
Vgl. zu den Vorbedingungen des Outsourcing PETERS (2006), S. 94 ff.
Systemtechnische Unterstützung der Finanzfunktion
135
(konzern-)externen Partner die Verhandlungen aufwendiger sind. Eine zur Zeit viel diskutierte Form des Outsourcing ist das so genannte „Offshoring“, d. h. die Auslagerung insbesondere nach Asien. Ob die dramatischen Kostenvorteile in Indien und China langfristig noch bestehen bleiben, ist vor dem Hintergrund der rasanten Entwicklung dieser Volkswirtschaften fraglich. Hinzu kommen im Offshoring noch Kultur- und Sprachbarrieren. Dieses Geschäftsmodell eignet sich nur für Prozesse, die einfach und wenig änderungsintensiv sind und das Kerngeschäft eines Unternehmens nicht stark beeinflussen. Weil bei der Auslagerung generell aber die Einsparpotentiale erheblich sind – die Angaben für die langfristigen Einsparpotenziale schwanken zwischen 30 und 40% – muss man trotz der Schwierigkeiten bei der Umsetzung anerkennen, dass das Thema Shared-Service-Center bzw. Outsourcing zukünftig eine hohe Bedeutung in der Finanzfunktion erhalten wird.7 Ein verwandter Themenkreis ist Software as a Service (SaaS), also die Bereitstellung von Software über das Internet. Hier werden gewissermaßen Betrieb, Wartung und Administration der Software ausgelagert. Die prozessimmanenten Effizienzen, die durch Harmonisierung und Entfeinerung entstehen, können über SaaS nicht besser realisiert werden, als bei einem Inhouse-Betrieb. SAP forciert etwa gegenwärtig für den Mittelstand seine on-demand-Lösung „A1S“, ein Paket, das auch dem Themenkreis Software as a Service zuzuschreiben sein wird.8 Bekanntestes Beispiel und SaaS-Pionier im CRM-Umfeld ist SALESFORCE.COM.
2.3
Flexibilität – Schnelle Anpassung von Finanzsystemen
Im Zeitalter von Internet und Globalisierung ändern sich die Geschäftsmodelle wesentlich schneller als in der Vergangenheit. Idealerweise sollten sich Finanzsysteme diesen Geschäftsmodellen zeitnah anpassen können oder sogar mit Innovationen initiieren. Einen wesentlichen Beitrag zur Erneuerung von Geschäftsmodellen leisten Finanzsysteme gegenwärtig nicht. An mancher Stelle wird sogar behauptet, die „[…] Implementierung von ERP-Systemen ist, als ob man Beton in die Organisation gießt.“9. Auch wenn diese Wahrnehmung übertrieben ist, so lässt sich doch feststellen, dass Finanzsysteme oft mit den sich ständig ändernden Geschäftsmodellen nicht mithalten können. Treiber dieses Trends nach dauerhafter Flexibilisierung von IT-Systemen sind etwa: ¾ Sich ändernde Produkte: Banken entwickeln beispielsweise ständig komplexere Finanzinstrumente und initiieren so Änderungsbedarf in Corebanking-Software sowie den Finanzapplikationen. ¾ Sich ändernde Geschäftsmodelle: Der Vertrieb über das Internet erfordert anpassungsfähige Prozesse zum Beispiel in der Fakturierung und der Debitorenbuchhaltung. ¾ Sich ändernde Organisationsstrukturen: Der Übergang von einer regionalen zu einer produktorientierten Organisationsform bringt z. B. neue Kontierungselemente, Berichte, Verrechnungen und Planungslogik mit sich.
7 8 9
Vgl. READ/SCHEUERMANN (2004), S. 116, und PETERS (2006). Vgl. NIEMANN (2007), S.1 ff. NAVI (2007), S. 7.
136
EMBERGER
¾ Mergers and Acquisitions erfordern eine schnelle Integration neuer Gesellschaften sowohl in die fachliche Logik als auch in die Systeme des neuen Eigentümers. ¾ Sich ändernde regulatorische Vorschriften. Flexibilität von IT-Systemen wird vielfach mit Offenheit (i. S. v. Verfügbarkeit von Sourcecodes) gleichgesetzt, was auf eine rasche technische Anbindung anderer Systeme abzielt. Um flexible IT-Systeme zu haben, braucht es aber mehr. Was heißt das konkret für Finanzsysteme? Flexibilität bedeutet hier z. B. frei wählbare Kontierungsmerkmale in der Buchhaltung, um sich ändernde gesetzliche Anforderungen abbilden zu können, etwa im Rahmen der IFRSSegmentberichterstattung. Die Fragestellung, welche Faktoren eine stärkere Flexibilität von Finanzsystemen fördern können, sollte gesamthaft betrachtet werden, d. h. es muss im Prinzip die gesamte Systemlandschaft eines Unternehmens in Betracht gezogen werden. Ansatzpunkte für eine stärkere Flexibilisierung sind: ¾ Vereinheitlichung von Begriffen, Kontierungselementen sowie Buchungs- und Verrechnungslogik in allen Systemen. Bei einer hohen Durchgängigkeit von Kontenstammdaten entfällt zum Beispiel das aufwendige Überleiten (Mapping) von Konteninformationen in den operativen Systemen über den Kontenplan der Einzelgesellschaft zum Konzernkontenplan: Das bedeutet, dass nicht bei jeder Änderung das Mapping zwischen allen drei Applikationen anzupassen ist. ¾ Aufhebung der organisatorischen Trennung von IT und Finanzfunktion – üblicherweise wird für neue Funktionalitäten eine fachliche Vorgabe erstellt und dann in einem kaskadierenden Prozess in Systemeinstellungen übersetzt: Je besser aber beide Welten organisatorisch und persönlich miteinander vernetzt sind, desto weniger Reibungsverluste entstehen auf diesem Wege. ¾ Verwendung spezieller Transformationsschichten (so genannte „Rule-Engines“) – anders ausgedrückt: Klar identifizierbare Punkte in einer Systemlandschaft, die die Transformation von einer fachlichen Logik zur nächsten beinhalten. ¾ Orientierung der Anforderungen an Best-practice-orientierten Prozessen: Softwarehersteller liefern vielfach vorkonfigurierte Geschäftsprozesse oder Berichte aus („BusinessContent“), die schnell adaptiert werden können. ¾ Schnell anzupassende Migrationstools, die es ermöglichen, den Übergang von einem zum anderen System durchzuführen. Heute werden vielfach für jede Altdatenübernahme neue Migrationsprogramme geschrieben. ¾ Flexibilisierung von Standardsoftware – die generellen Vorteile von Standardsoftware erhaltend, werden zunehmend Funktionalitäten entwickelt, die es ermöglichen, an bestimmten fest definierten Punkten spezielle Kundenanforderungen, die über das Customizing10 hinausgehen, zu realisieren. ¾ Unter dem Stichwort „Beyond ERP“ wird ein Szenario entworfen, in dem Unternehmensprozesse zunächst entbündelt werden, d. h. es werden nicht ganze Module, sondern nur einzelne kleinteilige Prozesse (z. B. Zahlungen) betrachtet und in einem zweiten Schritt über einen so genannten „Integrations-Hub“ miteinander verbunden.11 Beispiel: 10 11
Im Bereich betriebswirtschaftlicher Standardsoftware versteht man unter Customizing alle Anpassungen eines Systems, die ohne Programmierung oder Programmmodifikationen erfolgen können. READ/SCHEUERMANN (2004), S. 61.
Systemtechnische Unterstützung der Finanzfunktion
137
Der Prozess Wareneingang stößt über den Integrations-Hub den getrennten Prozess der korrespondierenden Zahlung an. In diesem Zusammenhang fällt in der gegenwärtigen Diskussion oftmals der Begriff „SOA“ (Service Oriented Architecture). Bei diesem Ansatz handelt es sich darum, innerhalb einer Systemlandschaft einzelne technisch voneinander unabhängige Dienste zu schaffen, die im Idealfall je einen Geschäftsprozess abdecken und über Adapter bzw. zentralisierte Schnittstellen miteinander verbunden sind. Das würde den Einsatz von Diensten unterschiedlicher Anbieter erlauben.12 Aus Sicht der Finanzfunktion ist es wünschenswert, angrenzende Prozesse wie den Bestell-, den Vertriebs- oder Fertigungsprozess standardisierbar anzubinden;13 bei Änderungen, die beispielsweise bei Einführung eines neuen Produkts anfallen, lässt sich so die Anbindung (zumindest technisch) beschleunigen. Innerhalb der Finanzsysteme lässt sich durch den SOAGedanken jedoch mittelfristig keine Flexibilität erreichen; in der Finanzfunktion zeichnen sich gegenwärtig an mehreren Stellen Entwicklungen ab, die eine starke Verzahnung erfordern: Zusammenwachsen des internen und externen Rechnungswesens, Ineinandergreifen der unterschiedlichen Rechnungswesenstandards, Zusammenwachsen von Haupt- und Nebenbüchern in der Buchhaltung, Abstimmung von Ist-Werten und der Planung, usw. Die großen Softwarehersteller haben in den vergangenen Jahren umfassende Anstrengungen unternommen, um diese Integration voranzutreiben. Da man davon ausgehen kann, dass jede Trennung von Systemen, auch wenn sie primär technisch getrieben ist, fachliche oder logische Überleitungen wahrscheinlicher machen, werden Finanzsysteme durch SOA nicht flexibler, sondern komplexer und in der zeitnahen Anpassung schwierig. Nur wenn alle Applikationen, die im Finanzbereich angeboten werden, die gleiche Grundlogik beinhalten würden, ließen sich die mit SOA verbundenen Vorteile realisieren. Das würde konkret bedeuten, dass z. B. Kontonummern und die Logik der Unterkontierungen (Bewegungen, Kontierungen für Controlling und Konsolidierung, Darstellung der parallelen Rechnungslegungsstandards) standardisiert werden müssen. Bis dahin müssen zwischen den einzelnen Applikationen in die oben genannten Adapter komplexe Überleitungs-Logik eingebaut werden. Auch im Zusammenhang mit der Flexibilität von Finanzsystemen zeigt sich also die hohe Bedeutung der Standardisierung von Prozessen.
12 13
Vgl. SAP-KUNDEN STUDIE (2006). Sofern die Integration nicht durch ein integriertes ERP-System gegeben ist.
138
3
EMBERGER
Beispiele für aktuelle und zukünftige systemtechnische Fragestellungen in der Finanzfunktion
Viele der aktuellen und zukünftigen Themen innerhalb der Finanzfunktion sind, wie anfangs erwähnt, primär betriebswirtschaftlich und weniger technologisch getrieben. Einige Beispiele sollen das illustrieren. 1. Beispiel: Im Falle von Business Intelligence zeigt sich, dass der Einzug einer neuen Technologie nicht notwendigerweise effizientere Geschäftsprozesse mitsichbringt. Obwohl Data Warehousing und Business Intelligence als Technologie inzwischen in vielen Unternehmen implementiert sind, verbringen die Mitarbeiter immer noch entschieden zu viel Zeit mit der Recherche von Informationen. Laut einer aktuellen Untersuchung werden 67 Minuten am Tag für Informationssuche verwandt,14 die Potenziale bei der Verbesserung der Datenqualität wurden bereits angesprochen (siehe oben in der IT-Studie von CAPGEMINI ). Dieser Sachverhalt legt die Vermutung nahe, dass ein effizientes Berichtswesen neben der richtigen Technologie auch effiziente fachliche Logik und Prozesse verlangt. Ansatzpunkte hierfür sind: ¾ Systematische Aufnahme und Priorisierung von Berichtsanforderungen ¾ Reduktion der Anzahl dezentraler Berichtslogik – und sofern erforderlich – die Entwicklung standardisierter Überleitungen ¾ Verzicht auf zu stark detaillierte Berechtigungskonzepte bzw. zu starke Einschränkungen ¾ Abbau aufwendiger Datentransformationen innerhalb eines Data Warehouse durch Harmonisierung und Zentralisierung von Stammdaten innerhalb einer Systemlandschaft 2. Beispiel: Business Analytics ist ein angrenzendes Beispiel, das eine Verbindung von innovativer Technologie und effizienter Prozessmodellierung erfordert. Business Analytics geht davon aus, dass es gelingen kann, auf Basis von Rollendefinitionen feste Berichtsinhalte zu generieren, d. h. dass ein Vertriebsmanager, ein Controller oder ein Projektmanager eines Unternehmens gleichartige, gruppierbare Informationsbedürfnisse haben, die im System zentral abgebildet werden. Ergänzt wird die rollenspezifische Informationssammlung durch die Einbettung ausgewählter Transaktionen in die Benutzeroberfläche. So können etwa verschiedene Rahmendaten zur Planung anzeigt werden, und zudem Transaktionen aufgerufen werden, um Planwerte ins System einzugeben. Bislang war transaktionale Welt (z. B. Buchungen oder Planwerte erfassen) von analytischen Anwendungen (Data Warehouse) technisch eindeutig abgegrenzt. 3. Beispiel: Auch im Bereich der ERP-Systeme gibt es zukünftig noch Anpassungsbedarf. Im Rahmen vieler ERP-Einführungen wurde die Chance nicht genutzt, um tief greifende Änderungen der Geschäftsprozesse durchzuführen. Hier ist zu berücksichtigen, dass in der Praxis die Einführung einer neuen Unternehmenssoftware massiv Ressourcen bindet und vielfach auf Vorbehalte und Bedenken bei den Anwendern stößt. In diesem Umfeld parallel Geschäftsprozesse über das zwingend erforderliche Maß hinaus grundlegend neu zu gestalten, war und ist schwierig. Aus diesem Grund wurden im Rahmen von ERP-Einführungen vielfach Workarounds implementiert, die den Ist-Zustand reflektiert haben. In vielen Fällen war es also nicht möglich oder sinnvoll, mit einer neuen Technologie zugleich grundsätzliche 14
Vgl. O. V. (2007).
Systemtechnische Unterstützung der Finanzfunktion
139
fachliche Widerstände zu überwinden. Nach einer erfolgreichen Einführung gehen jetzt aber viele Unternehmen daran, diese Lücke zu schließen und eine Neukonzeption systemgestützter Geschäftsprozesse in Angriff zu nehmen. Die IT-Studie von CAPGEMINI identifiziert deshalb auch die „Bessere Abdeckung der Geschäftsprozesse“ als die wichtigste Aufgabe im ERPUmfeld (siehe Abbildung 2). Was sind Ihre Prioritäten zur Verbesserung der Leistung der ERP-Services im Jahr 2007? Mittelwert 2006 2007
Bessere Abdeckung der Geschäftsprozesse
90% 84%
Bessere Unterstützung der Anwender
76% 69%
Reduzierung der TCO bei gleichem Servicegrad
50% 58%
Flexibler Zugang zu den ERP-Systemen
45% 48%
Verbesserung der SystemPerformance Verbesserung der Sicherheitsmechanismen
29% 36% 12%
2007 2006
Abbildung 2:
28%
1,55
1,76
2,03
2,10
2,62
2,63
2,95
2,85
3,30
3,13
3,37
3,22
Basis: Befragte, die ERP für eines der drei wichtigsten Themen halten (n=42) – Top-2-Box, Mittelwerte
Aktuelle Prioritäten im Umfeld von ERP15
4. Beispiel: Eine besondere Art der Optimierung betriebswirtschaftlicher Anwendungssoftware in der Finanzfunktion wird mit dem Begriff Financial Supply Chain (FSC) zusammengefasst. Hierbei geht es darum, alle finanziellen Werteflüsse innerhalb und zwischen Unternehmen zu analysieren und zu optimieren. Ziele dieses Ansatzes sind eine bessere Nachverfolgung und Kontrolle der Zahlungsströme auf der Absatz- bzw. Beschaffungsseite („order to cash“ bzw. „purchase to pay“) sowie eine bessere Einschätzung von Kunden und Lieferanten. Ferner ist das Ziel einer FSC die schnellere Abwicklung von Zahlungstransaktionen z. B. über EDI (Electronic Data Interchange) oder Web-basierte Zahlungen (so genannte Electronic Bill Presentment and Payment [EBPP]). Diese Technologien stellen eine Abkehr von papierund belegbasierten hin zu digitalisierten Zahlungen dar, insbesondere zwischen Unternehmen.16 Neben systemgestützter Rechnungsstellung (Versand und Präsentation) kann hierbei 15 16
Vgl. CAPGEMINI (2007). Top-2-Box: Werte „1“ und „2“ auf der Skala von „1“ („trifft voll zu“) und „6“ („trifft überhaupt nicht zu“). Vgl. PFAFF/SKIERA/WEISS (2004), S. 217 ff.
140
EMBERGER
auch die Bezahlung der empfangenen Rechnungen erfolgen.17 Über diese Optimierungsansätze soll letztlich die Liquidität erhöht werden. Ein weiterer Ansatz zur Verbesserung der Liquidität ist das Cash-pooling, bei SAP z. B. in Form von In-House-Cash. Hier werden in einem Konzern Zahlungen zentral disponiert und ausgeführt.
4
Fazit
Aus den oben dargestellten Überlegungen und Beispielen lässt sich folgende Schlussfolgerung ziehen: Effiziente, flexible, systemgestützte Geschäftsprozesse in der Finanzfunktion werden das beherrschende Thema der Zukunft sein – auch wenn „[…] das Streben nach Effizienz um der Effizienz willen […] mit Kontrolle und Risikomanagement abgestimmt werden […]“18 muss. In diesem Kontext gehören Standardisierung und Harmonisierung zu den wesentlichen Treibern der Finanzfunktion. Standardisierte Prozesse sind nicht nur effizienter, sondern auch schneller und flexibler in der Anpassung, weil weniger Ausnahmen zu berücksichtigen sind. Auf der anderen Seite müssen unterschiedliche Geschäftsbereiche und Produkte auch im Rechnungswesen unterschiedlich behandelt werden. Standardisierung und Harmonisierung sind also zweischneidige Schwerter. Betrachtet man das Entscheidungsverhalten der Vergangenheit, so wird Folgendes deutlich: Abweichungen vom Systemstandard, unterschiedliche konzeptionelle Ansätze wurden vielfach von den dezentralen Einheiten selbst vorgegeben, häufig von den Endanwendern: Ein Gremium oder eine zentrale Stelle, das – gerade bei weltweit agierenden Konzernen – den Nutzen und die Kosten einer abweichenden Logik abwägt, gibt es in den seltensten Fällen. In den Tochtergesellschaften eines großen Konzerns richtet man sich naturgemäß zunächst an den eigenen Anforderungen aus. Ein ganzheitlicher Ansatz, der die Konzerninteressen oder angrenzende Rechenwerke wie etwa das Controlling berücksichtigt, wird man auf dieser Ebene häufig nicht finden. Die Verantwortlichen in der Finanzfunktion müssen sich also fragen, welche Abweichungen von der Standardlogik vorgenommen werden, weil diese Effizienzverluste und mangelnde Flexibilität nachsichziehen. Das Thema Standardisierung ist aber nicht nur für multinationale Großkonzerne von Bedeutung, sondern auch für mittelständische oder kleinere Unternehmen. Die Nutzung von vorkonfigurierter Standardsoftware wird dann rentabel, wenn die Anzahl individueller Anpassungen möglichst gering ist. Ein weiteres an Bedeutung gewinnendes Thema werden Shared-Service-Center bzw. das Outsourcing sein. Weil trotz der unbestreitbaren Herausforderungen in der Umsetzung umfassende Rationalisierungspotenziale bestehen, ist mit einem weiteren Fortschritt zu rechnen, sowohl was die Anzahl der ausgelagerten Prozesse, als auch was die Anzahl der betroffenen Gesellschaften betrifft. Im erstgenannten Falle muss man sich darauf einstellen, dass zukünf-
17 18
Vgl. KÄMER/KAUPE/EVERS (2006), S. 56 ff. READ/SCHEUERMANN (2004), S. 24.
Systemtechnische Unterstützung der Finanzfunktion
141
tig auch komplexere Prozesse wie das Reporting oder sogar Bestandteile der Planung Gegenstand von Auslagerung oder Zentralisierung in einem Shared-Service-Center werden. Ähnlich wie nach den großen technologischen Entwicklungen zu Anfang des 20. Jahrhunderts stehen die technologischen Innovationen im Bereich betriebswirtschaftlicher Systeme an dem Scheidepunkt, an dem die Kinderkrankheiten ausgestanden sind, der Betrieb reibungslos läuft und die Systeme in praktisch allen mittleren und größeren Unternehmen Einzug gehalten haben. Jetzt werden Finanzsysteme vom Hygiene- zum Wettbewerbsfaktor.
Quellenverzeichnis CAPGEMINI (2007): Studie IT-Trends 2007 – IT ermöglicht neue Freiheitsgrade, o. O. 2007. KÄMER, J./KAUPE, G./EVERS, R. (2006): Performancesteigerung in der Financial Chain der Fraport AG, in: Zeitschrift für Controlling und Management, 2006, Sonderheft 2, S. 56– 65. NAVI, R. (2007): How IT Consultants Can Finally Profit From Clients’ Business Innovation Demands, Forrester Research, o. O. 2007. O. V. (2007):
Sinnlose Informationssuche kostet Unternehmen Millionen, in: Computerwoche, online: http://www.computerwoche.de/produkte_technik/business_intelligence/594212/in dex.html, Stand: 12.06.2007, Abruf: 17.09.2007.
PETERS, P. (2006): Standardisierung im Rechnungswesen – Leistungssprung durch Shared Services, in: Zeitschrift für Controlling & Management, 2006, Sonderheft 2, S. 94–100. PFAFF, D./SKIERA, B./WEISS, J. (2004): Financial Supply Chain Management, Bonn 2004. NIEMANN, F. (2007): Mit A1S leitet SAP einen Stragiewechsel ein, in: Computerwoche, online: http://www.computerwoche.de, Stand: 10.09.2007, Abruf: 10.09.2007. READ, C./SCHEUERMANN, H. D. (2004): CFO – Die integrative Kraft im Unternehmen, Bonn 2004. SAP-KUNDEN STUDIE (2006): Enterprise SOA in Europa 2006, o. O. 2006.
Zweiter Teil Die moderne Finanzfunktion Die strategische Perspektive
Erster Teil
Zweiter Teil Die moderne Finanzfunktion Die strategische Perspektive
Die moderne Finanzfunktion Die organisatorische Perspektive
Dritter Teil Die moderne Finanzfunktion Die Accountingund TreasuryPerspektive
Vierter Die moderne Finanzfunktion Die ControllingPerspektive
Teil
Strategien im Finanzbereich MICHAEL HÄFNER und ALEXANDRA HIENDLMEIER Softlab Group
1 2
Einleitung....................................................................................................................... 147 Definitionen ................................................................................................................... 147 2.1 Begrifflichkeiten .................................................................................................. 148 2.2 Abgrenzung .......................................................................................................... 150 3 Inhalte der formulierten Strategie .................................................................................. 151 4 Betrachtungshorizont der Strategie des Finanzbereichs ................................................ 155 5 Wege zur Ermittlung der Strategie ................................................................................ 155 6 Anforderungen an die Strategie ..................................................................................... 157 6.1 Generelle Anforderungen ..................................................................................... 157 6.2 Organisationsstruktur ........................................................................................... 159 6.3 Grundsätzliches Modell der Zusammenarbeit mit dem „Business“ ..................... 161 6.4 Effizienz und Effektivität von Prozessen ............................................................. 162 6.4.1 Harmonisierung und Standardisierung von Prozessen............................. 162 6.4.2 Prozessgeschwindigkeit ........................................................................... 163 6.5 Einsatz von Personal und IT ................................................................................ 164 6.6 Verhältnis von Eigen- und Fremdfertigung ......................................................... 167 6.7 Flexibilität/Regulierungsdichte ............................................................................ 167 6.8 Harmonisierung von internem und externem Rechnungswesen .......................... 168 6.9 Hinweise für ausgewählte Teilfunktionen der Finanzorganisation ...................... 169 7 Kriterien zur Beurteilung der Strategie .......................................................................... 170 7.1 Das Kriterium der Erwünschtheit/Akzeptierbarkeit ............................................. 170 7.2 Die Kriterien Durchführbarkeit und Angemessenheit in der gegebenen Umwelt................................................................................................................. 172 8 Schlussbemerkung ......................................................................................................... 174 Quellenverzeichnis................................................................................................................ 175
Strategien im Finanzbereich
1
147
Einleitung
Die Suche nach der „richtigen“ Strategie für Unternehmen ist ein Thema, mit dem sich seit vielen Jahren zahllose Wissenschaftler, Berater und Manager von großen und kleinen Unternehmen beschäftigen. Die einschlägige Literatur füllt nicht nur Schränke, sondern ganze Bibliotheken. Dabei verlief die Entwicklung in verschiedenen Wellen oder auch „Modetrends“, die in gewisser Weise den Zeitgeist widerspiegeln. Hierbei wurde der Wert einmal stärker auf den Prozess der Strategieentwicklung, ein anderes Mal stärker auf das finale Ergebnis dieses Prozesses gelegt, und an anderer Stelle stehen die konsequente Umsetzung der Strategie bzw. deren Anpassung an geänderte Umweltbedingungen im Zentrum der Diskussion. Die Autoren dieses Beitrags sind der Ansicht, dass sowohl, was die Inhalte als auch was den Prozess der Strategiefindung betrifft, eine ausgewogene Betrachtung erforderlich ist. Eine Schwerpunktsetzung muss jeweils an der spezifischen Ausgangssituation und an dem konkreten Unternehmensumfeld festgemacht werden. Berücksichtigt man hierbei, dass sich dieses ständig ändert, so wird die Komplexität selbst in diesem Punkt deutlich, denn ein Unternehmen, welches richtigerweise den Schwerpunkt konsequent auf die Erstellung der „richtigen“ Strategie gelegt hat, kann durch eine Dynamisierung der Umwelt gezwungen werden, der permanenten Anpassung der Strategie an Umweltbedingungen die höchste Priorität einzuräumen. Im vorliegenden Beitrag soll aber nicht der Bereich der „Unternehmensstrategie“, d. h. der Strategie des Gesamtunternehmens oder für einzelne Marktsegmente behandelt werden. Vielmehr wird auf eine Strategie für eine spezielle Funktion (im Folgenden auch „Functional Strategy“ genannt) abgestellt. Im Mittelpunkt der Betrachtung steht dabei die Finanzfunktion und die Frage, wie eine Functional Strategy für die Finanzfunktion, die zur Zielerreichung des Gesamtunternehmen beiträgt, gestaltet sein muss. Die Rolle und die Aufgaben des CFO und mit ihm der Finanzfunktion haben sich in den vergangenen Jahren massiv geändert, eine Wandlung, die sich auch in der Strategie des Finanzbereiches niederschlagen muss. So muss der CFO ein kompetenter Ansprechpartner für operative Bereiche, Geschäftsführung, Vorstände sowie für externe Gruppen sein und dabei stets strenger werdende regulatorische Anforderungen mit prozentual kleiner werdenden Budgets erfüllen. Der CFO ist für das Gesamtunternehmen zugleich strategischer Partner, operativer Manager und Risikomanager.
2
Definitionen
Das Wort „Strategie“ ist ein weithin verwendeter Begriff, sowohl in der einschlägigen Literatur als auch im allgemeinen Sprachgebrauch. Man denke nur an „strategische Ziele“, „strategische Planung“, „strategische Interaktion“ oder “Strategieberatung“. Vieles, was heute als sehr wichtig und aktuell erachtet wird, erhält das Prädikat „strategisch“. Diese weite Nutzung hat dazu geführt, dass der Begriff mit mannigfaltigen Bedeutungen besetzt wird. Die Auseinandersetzung mit dem Thema wird dadurch wesentlich erschwert – es drängt sich hier und da der Gedanke auf, dass verschiedene Praktiker bewusst Verwirrung stiften. Man denke hier nur an die in vielen Unternehmen ausgerufenen „strategischen Maßnahmen“, die man durch
148
HÄFNER/HIENDLMEIER
die Verwendung von „strategisch“ aus jeder Wirtschaftlichkeitsbetrachtung und Verantwortlichkeitsdiskussion herausnehmen möchte. Die bislang undifferenzierte bis schlichtweg irreführende Begriffsbesetzung von Softwareherstellern für ihre Software oder deren Komponenten erschwert die Diskussion unter Praktikern – so wird von SAP unter „Strategic Enterprise Management“ verstanden: Konsolidierung, Planung und Balanced Scorecard.1 Was an der Funktion Konsolidierung „strategisch“ ist, bleibt dabei offen. Des Weiteren ist die Vermischung von „Vision“, „Mission“, „Ziel“, „Strategie“, „Plan“ und „Maßnahme“ in der Praxis (und z. T. auch in der Theorie) weit verbreitet und erweist sich als äußerst unproduktiv und als Stolperstein für eine erfolgreiche Strategieentwicklung und -umsetzung.
2.1
Begrifflichkeiten
Um dem babylonischem Sprachgewirr zu entkommen und abzugrenzen, welches Strategieverständnis der Autoren dem Artikel zugrunde liegt, sollen im Rahmen dieses Beitrags die Begrifflichkeiten wie folgt verwendet werden: Vision: „Wenn Du ein Schiff bauen willst, dann trommle nicht die Männer zusammen, um Holz zu beschaffen, Aufgaben zu vergeben und die Arbeit einzuteilen, sondern lehre sie die Sehnsucht nach dem weiten, endlosen Meer.“ (Antoine de Saint-Exépury) Eine Vision ist ein Zukunftsbild, welches beschreibt, was die Organisation in der Zukunft sein möchte bzw. was sie erreicht haben möchte. Eine Vision ist qualitativ (d. h. es gibt keine konkreten zahlenmäßigen Vorgaben) und prinzipiell (d. h. es wird ein grundsätzlicher Zustand beschrieben), und sie soll sinnstiftend, motivierend und handlungsanleitend auf die Organisation wirken. Mission: Die Mission beschreibt den grundsätzlichen Zweck, warum eine Organisation existiert, was sie prinzipiell tut bzw. tun soll. Im Gegensatz zur Vision ist diese nicht zeitlich befristet. Zielposition: Die Zielposition ist ein in der Zukunft liegender angestrebter Zustand. Im Gegensatz zur Vision ist sie quantitativ, d. h. konkret in Zeit und Ausprägung. Strategie: Die etymologische Wurzel des Begriffs Strategie liegt im Griechischen (strategos = Heerführer). Strategie im ursprünglichen Sinne umfasst demnach die Kunst oder Lehre der Führung von Kriegshandlungen. Entsprechend erfolgte zunächst eine intensive Nutzung des Begriffes „Strategie“ im militärischen Bereich.
1
Vgl. http://www.sap.com/germany/solutions/business-suite/erp/financials/beratungsleistungen/index.epx, (Stand: August 2007).
Strategien im Finanzbereich
149
Illustriert wird dies durch den Ausdruck von CLAUSEWITZ: „Die Taktik ist die Lehre vom Gebrauch der Streitkräfte im Gefecht, die Strategie die Lehre vom Gebrauch der Gefechte zum Zweck des Krieges.“2 Der Strategiebegriff wurde im Rahmen der wirtschaftswissenschaftlichen Spieltheorie weiterentwickelt und ca. 1965 durch ANSOFF in das Management eingeführt. Gemäß der Spieltheorie ist die Strategie eine Folge von Einzelschritten, die auf ein bestimmtes Ziel hin ausgerichtet ist. ANSOFF versteht die Strategie als Maßnahmen zur Sicherung des langfristigen Unternehmenserfolgs.3 Seitdem gibt es unzählige Versuche zu erklären, was eine „Strategie“ genau beschreibt. MINTZBERG bspw. definiert Strategie als „ein Muster in einem Strom von Entscheidungen“ („a pattern in a stream of decisions“).4 Am besten greift nach Ansicht der Autoren folgende Definition: Die Strategie beschreibt den grundsätzlichen Weg und beabsichtigte oder sich ergebende erforderliche Verhaltensweisen einer Organisation zur Erreichung grundlegender Ziele. Strategische Ziele: Strategische Ziele sind aktionsorientierte Aussagen, die die aus der Strategie ableitbaren strategischen Stoßrichtungen mit Blick auf unterschiedliche Perspektiven (Finanzen, Kunden, Prozesse, Mitarbeiter) konkretisieren. Sie haben eine hohe Relevanz und eine hohe Handlungsnotwendigkeit. Plan: Ein Plan ist ein beabsichtigter Weg, um durch aktive Gestaltung von einem Zustand der Gegenwart zu einem Ziel in der Zukunft zu gelangen, und somit die gedankliche Vorwegnahme der betrieblichen Ziele und der Prozesse, die zur Errichtung dieser Ziele erforderlich sind. Maßnahme: Unter einer Maßnahme wird ein Bündel von Aktivitäten verstanden. In Abbildung 1 sind die im Laufe des vorliegenden Beitrags verwendeten Begrifflichkeiten noch einmal übersichtlich in den Zusammenhang eingebettet.
2 3 4
V.OETTINGER/VON GHYCZY/BASSFORD
Vgl. ANSOFF (1990). MINTZBERG (1978).
(2003), S. 106.
150
HÄFNER/HIENDLMEIER
Vision (Was wollen wir sein?)
Werte (Woran glauben wir?)
Geschäftsmodell (Wie sind wir aufgestellt?)
Mission (Was bezwecken wir?)
Zielposition (Welche Position streben wir an?) Ausrichtung am Umfeld (Märkte, Regulatorien, Trends)
Ausrichtung am Umfeld Strategien und Pläne (Wie erreichen wir unser Ziel?)
(Märkte, Regulatorien, Trends)
Maßnahmen (Welche Aktivitäten müssen wir zur Umsetzung ergreifen?)
Abbildung 1:
Einbettung der definierten Begriffe in den Zusammenhang
Im Folgenden wird der Begriff „Finanzfunktion“ oder „Bereich des CFO“ häufiger verwendet. Dabei wird die Finanzfunktion hier als diejenige Unternehmensfunktion begriffen, die die Aufzeichnung, Aggregation, Interpretation und Steuerung finanzwirtschaftlicher Vorgänge in einem Unternehmen, die Gewährleistung einer angemessenen Liquidität sowie die entsprechende Kommunikation innerhalb und außerhalb des Unternehmens verantwortet. Dies umfasst die Gesamtheit der klassischen Bereiche Controlling, Accounting (Buchhaltung), Treasury und der angrenzenden Themenbereiche im Einflussbereich des CFO (Chief Finance Officer) bzw. des kaufmännischen Geschäftsführers.
2.2
Abgrenzung
Aufgrund einer semantischen Ähnlichkeit kann die Strategie des Finanzbereichs leicht mit der Finanzstrategie bzw. Finanzierungsstrategie verwechselt werden. Die „Finanzstrategie“ beschreibt, welche Strategie ein Unternehmen hat, um die optimale Kapitalstruktur, Finanzierung und Liquiditätsversorgung sicherzustellen. Hingegen beschreibt die „Strategie des Finanzbereiches“ den Weg zur Zielerreichung des Finanzressorts, d. h. z. B. dessen grundsätzliche Aufstellung, seine Arbeitsweise und seine Interaktionen. An dieser Stelle kann man sich die Frage stellen, ob für eine spezifische Unternehmensfunktion überhaupt eine eigene Strategie erforderlich ist und sinnvoll definiert werden kann. Was spricht nach Ansicht der Autoren dafür? Wenn man die Strategie, wie oben beschrieben, als grundsätzlichen Weg zur Zielerreichung definiert, dann wird dieser auch für die Erreichung der Ziele einer einzelnen Unternehmensfunktion benötigt. Strategien können daher auf jeder Ebene der Organisation gebildet und beliebig differenziert werden. Dies zeigen Begriffe wie Beschaffungsstrategie, Marketingstrategie, Geschäftsbereichsstrategie oder Verhandlungsstrategie. Eine eigene Strategie des Finanzbereichs hat somit durchaus ihre Daseinsberechtigung, zumal die Finanzfunk-
Strategien im Finanzbereich
151
tion eine vitale und stetig wachsende Bedeutung für den Unternehmenserfolg hat. Dabei ist die Strategie des Finanzbereichs nicht isoliert zu betrachten, sondern sollte in Bezug auf die grundsätzlichen Verhaltensweisen eine Konkretisierung der Unternehmensstrategie darstellen.
Strategische Ebene Unternehmen bzw. Segment:
Aufgabe von Randgeschäften
Geschäftsbereich:
Best Product
3
System-Lock-In
Aufbau und Erhalt von Wettbewerbsvorteilen und Kundennutzen
Wettbewerbsstrategie Total Customer Solution
Funktionale Strategien
Marketing/ Produktion Logistik Vertrieb
Abbildung 2:
Aufbau neuer Geschäfte
Shareholder Value, Balanced Portfolio, Parenting Advantage, Synergiemanagement, Kernkompetenzen
Unternehmensstrategie
Konzentration auf Kerngeschäfte
Funktionen:
Strategischer Fokus
F+E
Einkauf
Personal/ Organisation
Finanzen
Funktionaler Beitrag zur Wettbewerbsstrategie, Effizienzverbesserung, Kostenoptimierung, etc.
Einbettung der Funktionalstrategien in die Unternehmensstrategie
Inhalte der formulierten Strategie
Die Festlegung der Strategie wird in der Regel mit der Formulierung einer Vision und Mission der entsprechenden Einheit beginnen. Diese werden benötigt, um die beteiligten Personen auf die gemeinsame Richtung einzuschwören und eine klare Vorstellung davon zu haben, wo man hin will und was der Grund der Existenz der Organisation ist. In der Praxis werden Vision und Mission häufig mit den definierten Werten in Form eines Leitbildes zusammengefasst. Die Werte sind bei bestehenden Organisationen i. d. R. tief verwurzelt und manifestieren sich eher indirekt und subtil, zum Teil, ohne dass es den Beteiligten bewusst ist. In jungen Organisationen (z. B. neu gegründeten Geschäftseinheiten) sind die Werte naturgemäß noch nicht so stark gefestigt und man wird es vorziehen, diese explizit zu formulieren. Hierdurch gibt man den Beteiligten eine bessere Orientierung, weil sie sich ja naturgemäß weniger an den „gelebten Werten“ orientieren können. Aber auch bei schon lange bestehenden Einheiten wird man gelegentlich danach greifen, die Werte transparent zu machen, sei es zur externen Darstellung oder als Erinnerungsfunktion für Mitarbeiter und Führungskräfte. Auf jeden Fall sollte man das Thema der Werte bei der Strategiefindung und -umsetzung auf keinen Fall unterschätzen, weil diese tief sitzende und begrenzende Faktoren darstellen (siehe Abschnitt 7).
152
HÄFNER/HIENDLMEIER
Als nächster Schritt erfolgt die Bestimmung der Zielposition, die im Gegensatz zur Vision auch ein quantitatives Ziel benennt: „Innerhalb von xxx Jahren wollen wir … sein“. Neben der Klärung des strategischen Rahmens in Form der zuvor beschriebenen Vision, Mission und Werte müssen auch die für die Strategieentwicklung relevanten Umfeldfaktoren und Treiber identifiziert werden. Einer der wesentlichen Einflussfaktoren für die Strategieentwicklung ist die Umwelt, in der sich ein Unternehmen bzw. die betreffende Funktion befindet und die Aggressivität der Maßnahmen, mit denen das Unternehmen den sich verändernden Bedingungen der Umwelt stellt. ANSOFF kommt zu dem Schluss, dass die Unternehmensperformance dann optimal ist, wenn:5 ¾ die Aggressivität der vom Unternehmen unternommenen Maßnahmen zum Level der Turbulenzen ihrer Umwelt passt, ¾ die Reaktionsfreudigkeit der Fähigkeiten des Unternehmens zur Aggressivität der Maßnahmen passt sowie ¾ sich die einzelnen Elemente der Fähigkeiten des Unternehmens gegenseitig unterstützen bzw. verstärken. Analog zur Strategieentwicklung auf Gesamtunternehmensebene sind diese Prinzipien auch bei der Entwicklung der Functional Strategies zu berücksichtigen. Wiederum bezogen auf die Unternehmensstrategie lassen sich folgende sinnvolle Kombinationen von Umwelt und Aggressivität der Maßnahmen festhalten (siehe Abbildung 3). Nr.
Umwelt
Aggressivität
1
repetitiv
stabil
2
expandierend
reaktiv
3
ändernd
antizipativ
4
diskontinuierlich
unternehmerisch
5
überraschend
kreativ
Abbildung 3:
Anpassungsfähigkeit/ Reaktionsfreudigkeit beispielorientiert – unterdrückt Änderungen produktionsorientiert – effizienzgetrieben und passt sich Änderungen an marketingorientiert – marktgetrieben und sucht bekannte Änderungen strategisch – umweltgetrieben und sucht neue Änderungen flexibel – versucht, die Umwelt zu kreieren und sucht nach Neuheiten
Sinnvolle Kombinationsmöglichkeiten von Umwelt und Aggressivität
Überträgt man diese Kombinationen auf den Finanzbereich, bedeutet dies beispielhaft: Nr. 1 – Dieser Fall stellt eine prinzipiell nicht dynamische Umwelt dar. Hier sollte die Strategie nicht oder nur wenig aggressiv sein. Änderungen werden kritisch betrachtet, und die Strategie orientiert sich prinzipiell an der Erhaltung des aktuellen Status. Im Finanzbereich würde man hier möglichst wenige Änderungen vornehmen und eine hohe Regelungsdichte anstreben. Beispiele hierfür sind im Rahmen der Jahresabschlusserstellung zu finden.
5
Vgl. ANSOFF (1990).
Strategien im Finanzbereich
153
Nr. 2 – In einer sich wenig ändernden Umwelt, aber in einer prinzipiellen Wachstumsumgebung, ist eine eher weniger aggressive Strategie anzuwenden, die stark outputorientiert ist, nach Effizienzen strebt und Änderungen eher reaktiv annimmt. Dies wäre durchaus mit Kostenoptimierungsprogrammen vereinbar. Mögliche Prozesse, die von einer solchen Entwicklung betroffen sind, sind „Standardprozesse“, wie z. B. die Kreditoren- oder Debitorenbuchhaltung oder die Absicherung von Risiken. Nr. 4 – Dies könnte z. B. ein Szenario sein, in dem die Unternehmensstrategie ein aktives Eindringen in neue, bisher unbekannte Märkte vorsieht. Hier wird auch die Finanzfunktion ein eher hohes Maß an Aggressivität zeigen müssen und neben einer aktiven Beschäftigung mit den auf den neuen Märkten geltenden Vorschriften, Regelungen und Üblichkeiten auch aktiv neue Konzepte entwickeln, die z. B. die Finanzierung und Kollektionsprozesse unter neuen rechtlichen Rahmenbedingungen sicherstellen. In diesen Kontext fallen z. B. auch neuere Aufgaben aus dem Zuständigkeitsbereich des CFO, wie z. B. die Erstellung von Business Cases als Grundlage von Investitions- und Desinvestitionsentscheidungen auf Gesamtunternehmensebene sowie die Abwicklung von Mergers & Acquisitions. Die oben genannte ANSOFF´sche Logik hat eine (implizite) Annahme, die gleichzeitig eine wesentliche Schwäche darstellt. ANSOFF geht vom Primat der Umwelt aus und leitet daraus die optimale Reaktion das Unternehmens ab. Dies stellt zwar sicherlich in den meisten Fällen einen guten Eingangsparameter für die Strategieentwicklung dar. Allerdings werden hier die Möglichkeiten der Beeinflussung der Umwelt und ihrer Dynamik nicht beachtet. So kann es durchaus sein, dass ein Unternehmen sich in einer sehr stabilen Umwelt bewegt, jedoch durch die bewusste Veränderung von verschiedenen Parametern plötzlich eine hohe Dynamik erzeugt. Die Möglichkeit zur Beeinflussung in die andere Richtung, d. h. zur Erzeugung von weniger Dynamik, ist in der Praxis kaum vorstellbar. Doch welche Treiber aus dem Umfeld lassen sich für die Finanzfunktionen identifizieren? In der folgenden Abbildung sind die nach Ansicht der Autoren wichtigsten Treiber dargestellt, welche je nach Unternehmenssituation unterschiedlich intensiv ausgeprägt sind.
154
HÄFNER/HIENDLMEIER
Enforce Corporate Governance
Improve Access to Capital & Resources
Improve Business Control
Enable High-Level Portfolio Management
Prepare for Listings
CORPORATE FINANCE BEST PRACTICE
Manage Mergers & Acquisitions
Improve CF efficiency
DRIVERS
Enable Cost optimization
Improve Global Rating Manage Risks
Abbildung 4:
Treiber im Finanzbereich
Auf der Basis der festgelegten Zielposition wird das „Geschäftsmodell“ des Finanzbereichs definiert, d. h. es werden die relevanten strukturellen Parameter beschrieben, die die Organisation ausmachen. Dabei sollten (mindestens) die folgenden Bereiche adressiert werden: ¾ Organisationsstruktur (z. B. (De-)Zentralisierung, Shared-Service-Center) ¾ Interne und externe Kommunikation ¾ Grundsätzliches Modell der Zusammenarbeit mit dem „Business“ ¾ Effizienz und Effektivität von Prozessen (z. B. Harmonisierung, Standardisierung, Prozessgeschwindigkeit) ¾ Einsatz von Personal und IT ¾ Verhältnis von Eigen- und Fremdfertigung (z. B. Einsatz von Outsourcing) ¾ Flexibilität und Regulierungsdichte ¾ Harmonisierung von internem und externem Rechnungswesen ¾ Umgang mit Risiken Die aufgeführten Themen sowie die einzelnen zugehörigen Punkte sind dabei stark miteinander verzahnt und voneinander abhängig, so dass eine isolierte Betrachtung weder möglich noch ratsam ist. Im Abschnitt 6 werden die genannten Anforderungen detailliert betrachtet und hinsichtlich ihrer Bedeutung für den Finanzbereich entsprechend definiert.
Strategien im Finanzbereich
4
155
Betrachtungshorizont der Strategie des Finanzbereichs
Es sollte nicht der Fehler gemacht werden, die Strategie auf einen kurzen oder mittleren Zeithorizont zu begrenzen, nur weil es sich um die Strategie für einen einzelnen Funktionsbereich handelt. Dies wäre fatal, weil auch hier sehr grundsätzliche Entscheidungen getroffen werden müssen. Eine Strategie für den Finanzbereich sollte somit grundsätzlich für einen vergleichbaren Zeithorizont wie die Gesamtunternehmensstrategie angelegt sein, weil sie ja von dieser abhängt. Dies trifft jedoch auf Grenzen, wenn die Unternehmensstrategie extrem lange Zeiträume umfasst (z. B. bei Versorgungsunternehmen) oder wenn aufgrund der Umweltdynamik die Unternehmensstrategie nur auf einen extrem kurzen Zeitraum abzielt. In diesen Fällen verhindern in den Finanzfunktionen inhärente Begrenzungen (z. B. Zwang zur Einhaltung regulatorischer Vorgaben und deren Änderungsrhythmus) einen kompletten Gleichklang. Hier empfiehlt es sich, den Zeithorizont auf drei bis fünf Jahre anzulegen. Bei längerfristigen Unternehmensstrategien wird man dabei verstärkt auf Stabilität achten, bei kürzer angelegten wird man den Zyklus des Reviews der Strategie des Finanzbereiches stark verkürzen (z. B. auf neun bis zwölf Monate) und all zu starke lang- und mittelfristige Bindungen vermeiden.
5
Wege zur Ermittlung der Strategie
Innerhalb eines Unternehmens gibt es i. d. R. ganz klare Hierarchien – auch im Bereich der Strategie. Es existiert zwar die prinzipielle Möglichkeit, dass in einem Teil einer großen Organisation so viel Entscheidungsspielraum vorhanden ist, dass dieser Teil der Organisation einfach seine eigene Strategie verfolgen kann („Unverbundene Strategie“), aber durch die enge Verbindung der Finanzfunktion mit allen anderen Unternehmensfunktionen erscheint dies hier unmöglich. Hieraus folgert, wie bereits in Abschnitt 2.2 kurz skizziert, dass die Strategie des Finanzbereiches aus der Gesamtunternehmensstrategie abgeleitet werden muss. Im Bereich der Planung wird – unabhängig von der „Richtung“ des Planungsprozesses, TopDown oder Bottom-Up, von einer strengen Hierarchie ausgegangen. STACEY schreibt hierzu: „The result is a hierarchy of long-term objectives and plans, the corporate creating the framework for the business unit, and the business unit creating the framework for the functional“.6 Diese Richtung der Ableitung gilt nicht nur für die Planung, sondern ebenso für die Ermittlung der Strategie. Vor diesem Hintergrund empfiehlt es sich, zur Festlegung der Strategie des Finanzbereiches zunächst die Unternehmensstrategie zu definieren und verständlich zu beschreiben. Die hiermit verbundenen Prinzipien haben KAPLAN/NORTON wie folgt beschrieben:7
6 7
STACEY (2000), S. 43. Vgl. KAPLAN/NORTON (2001).
156
HÄFNER/HIENDLMEIER
¾ Translate the Strategy to Operational Terms ¾ Strategy Maps ¾ Balanced Scorecards ¾ Mobilize Change trough Executive Leadership ¾ Mobilization ¾ Governance Process ¾ Strategic Management System ¾ Make Strategy a Continual Process ¾ Link Budgets and Strategies ¾ Analytics and Information Systems ¾ Strategic Learning ¾ Make Strategy Everyone´s Everyday Job ¾ Strategic Awareness ¾ Personal Scorecards ¾ Balanced Paychecks ¾ Align the Organization to the Strategy ¾ Corporate Role ¾ Business Unit Synergies ¾ Shared Service Synergies Streng genommen sollte die Ableitung der Strategie für den Finanzbereich Rückwirkungen auf die Formulierung der Gesamtunternehmensstrategie bzw. auf die oben genannten Punkte haben (gleiches gilt auch für die Einbindung anderer Unternehmensfunktionen wie Einkauf, Vertrieb, etc. sowie für die Geschäftsbereiche). Idealerweise haben wir es also mit einem iterativen Prozess zu tun, der auf oberer Ebene die Möglichkeiten und Limitationen der untergeordneten Ebene berücksichtigt und sowohl die Unternehmensfunktionen als auch die geschäftsführenden Bereiche optimal miteinander verkettet. Auf die Möglichkeiten und Methoden zur Verkettung der Functional Strategies mit der Gesamtunternehmensstrategie soll an dieser Stelle nicht weiter eingegangen werden.
Strategien im Finanzbereich
6
157
Anforderungen an die Strategie
Wie bereits dargelegt, kann im Rahmen dieses Beitrags keine generische und für alle Unternehmen „richtige“ Strategie des Finanzbereiches vorgestellt werden, weil es eine solche nicht gibt. An dieser Stelle soll jedoch der Versuch unternommen werden, die an eine Strategie im Finanzbereich anzulegenden Anforderungen darzulegen und einige Hinweise zu geben, wie diese in generische Strategien umgesetzt werden können. Ein Einpassen in den spezifischen unternehmerischen Kontext bleibt dem jeweiligen Anwender überlassen, weil dies auf einer generellen Ebene nicht möglich ist. Es sei darauf hingewiesen, dass hieraus im Extremfall Optima abgeleitet werden können, die im Einzelfall stark von den hier vorgestellten Beispielen abweichen.
6.1
Generelle Anforderungen
Im operativen Tagesgeschäft muss sich die Finanzorganisation an die spezifischen Gegebenheiten des Business anpassen – z. B. optimales „Andocken“ an logistische Prozesse. Dies gilt prinzipiell auch für die strategische Ausrichtung, aber hier reicht dieses reaktive Vorgehen alleine nicht aus. Vielmehr müssen die geplanten oder erwarteten prinzipiellen Änderungen im Business und in der generellen Umgebung sowie deren Timing proaktiv und antizipierend berücksichtigt werden – z. B. langfristige Ressourcenverfügbarkeit oder Änderungen im Business-Modell. Abbildung 4 zeigt anhand des dargestellten House of Finance einige Beispiele für derartige Anforderungen. Der Finanzbereich weist zudem einige Spezifika auf, die es bei der Strategieformulierung zu berücksichtigen gilt. So handelt es sich z. B. im Rechnungswesen um in ihrem Inhalt und ihrer Form stark regulierte Informationen. Auch die (minimale) Periodizität des Reporting wird bei den meisten Unternehmen hier vorgeschrieben – sei es durch den Gesetzgeber (Steuerrecht, Handelsrecht) oder durch Bestimmungen des Kapitalmarktes. Diese Anforderungen müssen unbedingt erfüllt werden und jede Strategie muss dies sicherstellen. Insofern erscheinen einige strategische Optionen, wie z. B. das radikale Kostensparen zu Lasten eines höheren Risikos der Nichterfüllung der Anforderungen als nicht akzeptabel.
158
Abbildung 5:
HÄFNER/HIENDLMEIER
The House of Finance
Die Finanzfunktion als unterstützender Bereich steht in der Regel unter einem hohen Druck, die Kosten zu begrenzen bzw. eine Optimierung der für den erforderlichen Output benötigten Inputfaktoren zu erreichen. Hier ergeben sich prinzipiell die folgenden, im Idealfall miteinander kombinierten Punkte: ¾ Reduktion der Prozesskosten ¾ Reduktion von Fehlerkosten ¾ Minimierung der Kapitalkosten, u. a. durch schnelle Rechnungsstellung ¾ Präzise Zahlung von Verbindlichkeiten (Skontonutzung, kein „vorzeitiges“ Zahlen) ¾ Minimierung der Finanzierungskosten, u. a. durch eine optimierte Kapitalstruktur ¾ Wenn möglich: Generieren von Wertbeiträgen aus Finanzierung (z. B. durch Anlegen von überschüssiger Liquidität) – dabei aber klare Risikovermeidung ¾ Optimierte Absicherung zur Vermeidung von Kosten durch Währungsschwankungen, Schwankungen bei Rohstoffpreisen und Zinskosten Die geforderte Kostendisziplin darf aber nicht zu Lasten der erforderlichen Qualität gehen. Im Bereich der Erfüllung von regulatorischen Anforderungen oder der Treasury-Funktionen ist dies leicht nachzuvollziehen. Aber auch für das klassische Reporting gilt dies, wie der in Abbildung 6 dargestellte Zusammenhang erahnen lässt. Dabei wurde bewusst die Unterscheidung zwischen „guten Zahlen“ (d. h. angemessene Ergebnisse aus der Geschäftstätigkeit) und „richtigen Zahlen“ bzw. „gutem Reporting“ (d. h. einer effizienten, korrekten und zeitgerech-
Strategien im Finanzbereich
159
ten Berichterstattung) gemacht. Für ersteres ist – einmal auf die Spitze getrieben – der CEO verantwortlich, für letzteres der CFO.
1 Business Performance ¾ Good reporting is the basis for value detection & realization ¾ Good reporting is the basis for improved business intelligence and analysis ¾ Unlocking of value creation
Only good reporting makes management truly accountable for the business performance
2 Room for Maneuver ¾ Good reporting is the basis for
business control and widens managements flexibility ¾ Improvement of strategic, tactical and operative opportunity space in organizational as well as in product market dimensions ¾ Enables Management to think about future development rather than explaining past performance to upper level
Abbildung 6:
Strategic Steering
Only good reporting enables management to enact a proactive and investive management behaviour
3 „Capital Market“ Performance ¾ Communication with stakeholders
requires a solid & sound platform of financial figures ¾ Good reporting is the basis for improved communication with internal capital market in order to present and market the business case 4
Reduction of investor risks
¾ Good Reporting supports a precise
prediction of future performance and of potential capital needs – credibility is eroded by missed expectations ¾ Good reporting increases business transparency for internal investors and decreases risk of investments
Bedeutung von „gutem“ Reporting
Für die mittel- und langfristige Ausrichtung ist zu berücksichtigen, dass der Trend zu extern und auch intern induzierten Berichten von umfangreicheren und detaillierteren Finanzinformationen in immer höheren Frequenzen anhält. Auch wird die Verknüpfung von Finanzinformationen mit operativen Daten immer wichtiger. Dies hat Auswirkungen auf die erforderliche Ausstattung mit personellen und materiellen Ressourcen. So muss etwa die IT stets mächtiger werden und die Fähigkeiten zur Verarbeitung und Auswertung der wachsenden Datenmengen ausbauen. Eine weitere, an dieser Stelle nicht weiter vertiefte Forderung, ist die nach der Ermöglichung von weitestgehend flexiblen Investitionen und Desinvestitionen (z. B. im Sinne einer „Plug& Play“-Integration von Unternehmenseinheiten oder der Erwerb von Beteiligungen).
6.2
Organisationsstruktur
Im Fokus einer Strategie bezüglich der Organisationsstruktur stehe zunächst die Frage nach dem Zentralisierungsgrad im Raum. Hierbei ist zu berücksichtigen, dass zum einen möglichst keine Strukturen doppelt vorgehalten werden, zum anderen aber die Flexibilität und auch die Motivation von dezentralen Einheiten gewahrt bleiben soll.
160
HÄFNER/HIENDLMEIER
Durch Zentralisierung von Tätigkeiten kann man Skaleneffekte erreichen und die hiermit verbundenen „Stückkosten“ (z. B. Kosten für die Bearbeitung einer Rechnung) deutlich senken. Grenzen ergeben sich durch Kommunikationskosten, den Zwang zur Einhaltung von lokalen regulatorischen Anforderungen, der Zeitzonenproblematik in globalen Unternehmen und der Akzeptanz bei den dezentralen Einheiten. Generell ist festzustellen, dass durch eine Zentralisierung einerseits die Reaktions- und Entscheidungsgeschwindigkeit reduziert wird – z. B. durch erforderliche Rücksprachen mit der Zentrale – und andererseits schwache Signale für erforderliche Veränderungen weniger gut wahrgenommen werden können, was in einer Nichtausnutzung von lokalen Optimierungsmöglichkeiten mündet. Eine solche Strategie ist also nicht für die in Abschnitt 3 erläuterten Umweltszenarien 4 und 5 angemessen und für Szenario 3 nur bedingt anwendbar. Generell wird angenommen, dass eine geographische Expansion am ehesten durch eine dezentrale Organisationsform unterstützt werden kann. Dies ist in vielen Bereichen auch richtig, allerdings gibt es auch genau gegenteilige Effekte. So kann zum Beispiel die Notwendigkeit des Aufbaus von eigenen Strukturen im Finanzbereich gerade für eine neue und kleine Einheit ein entscheidender Nachteil sein, denn hierdurch werden nicht nur Investitionsmittel, sondern auch die oft noch knappere Managementkapazität gebunden. Plant man also strukturiert organisch zu wachsen, so ist es sehr sinnvoll, für die neuen Einheiten Services anzubieten, die sie von Routineaufgaben oder auch von der Ausführung komplexer Prozesse entbindet. Hierzu kann beispielsweise ein Shared-Service-Center aufgebaut werden, welches vorübergehend oder auch dauerhaft diese Dienstleistungen anbietet. Wenn die Schnittstellen einfach gestaltet sind und das Shared-Service-Center auch die für eine neue Einheit wichtige Flexibilität mitbringt, so wird die Unterstützung i. d. R. sehr bereitwillig angenommen und kann ein echter Wettbewerbsvorteil sein. Wenn also laut Business-Stategie ein wesentliches organisches Wachstum mit der Eröffnung von dezentralen Niederlassungen vorgesehen ist, sollte der Finanzbereich eine Analyse vornehmen, welche Tätigkeiten für die neuen Einheiten einfach und kostengünstig zentral angeboten werden können und ein entsprechendes SharedService-Center einrichten. Dieses kann später als Keimzelle zum Anbieten dieser Services auch für „ausgewachsene“ Einheiten dienen oder auch Startpunkt für ein Outsourcing sein. Abbildung zeigt ein Beispiel für ein CFO-Shared-Service-Center. Eine weitere organisationsstrategische Entscheidung ist die einer potenziellen Zusammenlegung von (Teilen des) Rechnungswesen(s) und Controlling(s). Die Entscheidung wird man wesentlich von der unter Abschnitt 6.8 diskutierten Harmonisierung abhängig machen. Je stärker die inhaltliche Harmonisierung vorangeschritten ist, umso größer ist auch die Sinnhaftigkeit einer organisatorischen Verbindung.
Strategien im Finanzbereich
161
Controlling
Finance, Accounting, Treasury
Abbildung 7:
6.3
Back Office 1
Back Office 2
Management Reporting
Front Office
„Customer“ of the CFO Services
CFO-SSC
Controlling tasks: ¾ Operational Controlling ¾ Planning ¾ Forecasting ¾ Reporting ¾ Investment Controlling ¾ Management Accounting ¾ Product Controlling
Finance and Accounting Tasks: ¾ Treasury ¾ General Accounting ¾ Tax
Finance and Accounting Tasks: ¾ Incoming Payments ¾ Outgoing Payments ¾ Asset Management ¾ Cash Management ¾ Bank
Beispiel für ein CFO-Shared-Service-Center
Grundsätzliches Modell der Zusammenarbeit mit dem „Business“
In diesem Zusammenhang hat der CFO zum einen bezüglich des Grades der Proaktivität bzw. Reaktivität des Finanzbereiches zu entscheiden. Zum anderen wird festgelegt, wie stark Mitarbeiter des Finanzbereiches in die operativen Prozesse integriert werden sollen. So hat z. B. bei einem Unternehmen mit der Strategie der Komplettlösung der Finanzbereich wohl die beste Möglichkeit, einen hervorragenden Wertbeitrag zu leisten. Neben der „normalen“ Unterstützungsfunktion kann er hier einen aktiven Part spielen, denn ein Teil der Komplettlösung können auch Finanzierungsmöglichkeiten und die spezifische Gestaltung von Abrechnungsbedingungen sein. Hier wird der Finanzbereich z. T. bereits in den Verkaufsprozess einbezogen werden und kann – etwa bei ansonsten vergleichbaren Angebotsalternativen – durchaus den Ausschlag zum Gewinn des Auftrages geben. Im projektorientierten Business (z. B. Großanlagenbau) ist zu entscheiden, ob ein „Projektkaufmann“ etabliert und dann in das Projektteam integriert werden soll – ggf. sogar in der Rolle eines kaufmännischen bzw. stellvertretenden Projektleiters. Wie stark akzeptieren es die Business-Verantwortlichen von Vertreten des Controllings (heraus-)gefordert zu werden? Hierbei spielen neben den objektiven Erfahrungen, den Kenntnissen und dem Verständnis für das Business durch die Controller auch die bisherigen Erlebnisse eine Rolle. Soll hier eine wesentliche Änderung der Rolle herbeigeführt werden, so kann man z. B. die „alte“ Controlling-Abteilung splitten in ein „Reporting“ (dieses nimmt die Routineaufgaben wahr und ist für die pünktliche Bereitstellung der Information zuständig) und in ein „Performance Controlling“, das mit den Aufgaben der Analyse der Geschäftssituation, deren Kommentierung sowie der Initiierung von Maßnahmen und deren Nachverfolgung betraut ist.
162
HÄFNER/HIENDLMEIER
Durch diese organisatorische Trennung macht man zum einen die geänderte Rolle deutlich und zum anderen begegnet man der Tatsache, dass die beiden beschriebenen Aufgaben ganz unterschiedliche Anforderungen an Ausbildung, Neigung und Persönlichkeit der entsprechenden Mitarbeiter stellen. Abbildung 8 zeigt ein Projektbeispiel für eine entsprechend diesen Kriterien vorgenommene Untergliederung.
Leitung Controlling/ Finanzen
Performance Controlling/ M&A
Reporting
Aufgabe: Unterstützung bei der Steuerung des operativen Geschäfts
Aufgabe: Bereitstellung der erforderlichen Datenbasis für die Steuerung des operativen Geschäfts
Ziel: “gute” Zahlen
Ziel: “richtige” Zahlen
Abbildung 8:
Funktionstrennung im Controlling (Projektbeispiel)
6.4
Effizienz und Effektivität von Prozessen
6.4.1
Harmonisierung und Standardisierung von Prozessen
Ein standardisierter Prozess ist einer, der bei (mehr oder weniger) gleichen Randbedingungen immer gleich abläuft. An verschiedenen Stellen wird vorgeschlagen, die Standardisierung entlang von Kern- und Commodity-Prozessen auszurichten. Commodity-Prozesse sollten so weit wie möglich standardisiert und an einem Branchen-Standard ausgerichtet werden, die Kernprozesse sollen dies nicht sein.8 Nach Auffassung der Autoren sollte diese Einteilung zugunsten folgender Unterscheidung: aufgegeben werden: a)
Prozesse mit einer hohen Flexibilität
b) Prozesse mit einer geringen Flexibilität
8
Vgl. SCHIMANK/WEHRLI (2006), S. 14 f.
Strategien im Finanzbereich
1.
Prozesse, bei denen das Unternehmen effizienter ist als der Branchenschnitt.
2.
Prozesse, bei denen das Unternehmen ineffizienter ist als der Branchenschnitt.
163
Eine Unterscheidung nach Kern- und Commodity-Prozessen ist hierbei überflüssig. Für den Fall a) sollte keine Standardisierung angestrebt werden. Unternehmen arbeiten hier besser mit generellen Leitplanken, Management by Objective oder vergleichbaren Modellen. Wesentlich ist hier ein relativ hoher Freiheitsgrad für die beteiligten Mitarbeiter, was wiederum den Bedarf nach Mitarbeitern bewirkt, die mit diesen Freiheitsgraden umgehen können. Beispiele hierfür sind: Performance Controlling, Forschung & Entwicklung. Liegt der Fall b1) vor, so soll eine Standardisierung angestrebt werden, um die hiermit verbundenen Vorteile wie höhere Sicherheit, höhere Berechenbarkeit, Reduktion der Anforderungen an die beteiligten Mitarbeiter, etc. zu generieren. Grundlage sollte hier ein Unternehmensstandard sein, da dieser ja den Branchenstandard schlägt. Im Fall b2) birgt die Einführung eines Branchenstandards eine Produktivitätsreserve, die gehoben werden sollte. Auch für die Standardisierungen nach b1) und für b2) gelten selbstverständlich Grenzen, die sich vor allem in Großunternehmen aus rechtlichen Rahmenbedingungen (v. a. in verschiedenen Ländern), kulturellen Besonderheiten und den Besonderheiten von verfügbaren Ressourcen ergeben. So ist die Vorteilhaftigkeit bzw. Notwendigkeit von Prozessstandardisierung auch von der Qualifikation und den Arbeitsgewohnheiten der verfügbaren Mitarbeiter abhängig. Neben der Verbesserung der Automatisierbarkeit der Prozesse bringt eine Standardisierung positive Effekte im Bereich der Verkürzung der Einarbeitungszeit für neue Mitarbeiter, der Stabilität, der Fehlerreduzierung und der Nachvollziehbarkeit mit sich. 6.4.2
Prozessgeschwindigkeit
Im Bereich der Prozessgeschwindigkeit kann keine einheitliche Aussage getroffen werden, sondern es muss eine differenzierte Betrachtung erfolgen: Periodische Berichterstattung und Abschlusserstellung: In diesem Bereich sehr gute Unternehmen haben einen Status erreicht, der es ihnen ermöglicht, innerhalb von wenigen Tagen, manchmal von Stunden nach dem Stichtag, alle erforderlichen Informationen in einer sehr guten Qualität vorliegen zu haben. Hier ist eine weitere Prozessverkürzung mit unverhältnismäßig hohen Anstrengungen verbunden und der tatsächliche Nutzen von „ein paar Stunden früher“ ist marginal. Insofern in einem Unternehmen jedoch das Monatsreporting dem Management nicht spätestens zum 6. Arbeitstag des Folgemonats und ausgewählte Kennzahlen bis zum 4. Arbeitstag vorliegen, sollten hier noch erhebliche Anstrengungen unternommen werden.
164
HÄFNER/HIENDLMEIER
Spezifische kunden-, produkt- und projektbezogene Informationen: Diese Art von Informationen wird auch häufig außerhalb der periodischen Standardzyklen benötigt, etwa um bei einem großen Angebot die Gesamtkundenprofitabilität festzustellen oder während einer Werbekampagne Zwischeninformationen zur Feinsteuerung zur Verfügung zu haben. In diesem Bereich sind die meisten Unternehmen noch ein gutes Stück von einem Optimum entfernt, was nicht immer nur an suboptimalen Prozessen liegt. Vielmehr ist die zugrunde liegende Datenbasis lückenhaft, inkonsistent und auf zu viele Systeme verteilt. Wenn hier also Defizite vorzufinden sind, so kann neben der prinzipiellen Verbesserung der Ausstattung mit technischer Unterstützung auch eine Strategie der Datenharmonisierung und der Systemkonsolidierung Erfolg versprechend sein. Transaktionale Prozesse: In diesem Bereich dienen Prozessoptimierungen und -automatisierungen vorwiegend der Kostenreduktion und in zweiter Linie der Fähigkeit dazu, gegebene Termine präziser einzuhalten (z. B. optimiertes Ausnutzen von Zahlungszielen, schnelleres Versenden von Rechnungen).
6.5
Einsatz von Personal und IT
Der Kostendruck im Finanzbereich zwingt in der Regel dazu, auch die Personalkosten stets kritisch zu betrachten. Dabei gibt es zwei Optionen, die beide auf eine Optimierung der Personalkosten zielen. Aufgrund der Heterogenität des Finanzbereiches muss hier keine Entscheidung für nur eine Strategie fallen, sondern es empfiehlt sich, beide Ansätze miteinander zu kombinieren, je nach Anforderungsprofil der einzelnen Tätigkeit: 1.
Beschäftigung von überwiegend gering qualifizierten und gering entlohnten Mitarbeitern. Diese werden durch ein klares und engmaschiges Korsett von eindeutigen Regeln und hoher Automatisierung unterstützt, um die erforderliche Qualität zu halten. Begleitet wird dies durch ein hohes Maß an Überwachung und einen kleinen Stamm an erfahrenen Mitarbeitern, die für das Anlernen und Betreuen der häufiger wechselnden Kollegen sowie zur Abdeckung von Sonderfällen bzw. Aufnahmen vom Standard sowie der Bearbeitung von Themen eingesetzt werden, die eine hohe Qualifikation erfordern.
2.
Einsatz eines relativ kleinen eingeschworenen Teams von sehr gut qualifizierten Mitarbeitern, die sehr flexibel einsetzbar sind und somit zum einen ineffiziente Kapazitätsüberhänge vermeiden und zum anderen die anfallenden Aufgaben sehr effektiv und schnell erledigen. Ein wesentlicher Hintergrund ist die Einsparung der mit dem vorgenannten Ansatz verbundenen Bürokratiekosten. Dieses Modell wird zwar i. d. R. nicht mit einer strengen Kostenoptimierung in Verbindung gebracht. Die Praxis hat jedoch gezeigt, dass man mit einer schlanken „Qualifizierungsstrategie“ erstaunlich gute Ergebnisse erzielen kann.
In den meisten Unternehmen fließt immer noch zu viel Zeit und Energie in die Aufbereitung von Daten. Es gilt, die in den meisten Fällen bestehenden Erfordernisse und Spielräume zur nachträglichen Manipulation von Daten zu eliminieren. Es muss eine „Single Source of Truth“ geben. Aus dieser werden alle Berichte bis hin zur Vorstandsvorlage generiert. Mit
Strategien im Finanzbereich
165
ihrer Hilfe sprechen alle Beteiligten global über die gleichen Zahlen. Die Grundlage dafür bildet eine harmonisierte Datenstruktur. Kennzahlen und Stammdaten werden einheitlich definiert und beschrieben sowie in allen relevanten Quellsystemen durchgängig abgebildet. Das ist erfahrungsgemäß besonders in großen und international tätigen Unternehmen sehr aufwändig. Dafür sind dort die positiven Effekte, die sich erzielen lassen, am größten. Dieses Vorgehen erscheint zunächst sehr operativ, erfordert aber eine ganz klare strategische Positionierung für Einheitlichkeit (auch und vor allem, wenn dies hier und da einmal zu Komplikationen bei „Eilsachen“ führt) und ein Durchhalten der Prinzipien auch auf höchster Managementebene. Man sollte hier nicht unterschätzen, welche Widerstände es erzeugen kann, wenn man individuelle Inseln abschafft, und welche kraftvolle Botschaft gesendet wird, wenn nicht mehr die jeden Monat anders gestaltete und individuell erstellte Präsentation eines Regionalverantwortlichen als Basis für die Monatsdurchsprache dient, sondern ein standardisierter Bericht, der aus der zentralen Datenquelle gezogen wird. Das Mittel der Standardisierung auch in Prozessabläufen sollte zu einem hohen Grad genutzt werden, vor allem wenn im Personalbereich die unter Punkt 1. beschriebene Niedriglohnstrategie gefahren wird. Dieser hohe Standardisierungsgrad ermöglicht die erforderliche Automatisierung. Hierdurch können dann manuelle Schritte sowie Zeit und Aufwand zur Beseitigung von Fehlern entfallen. Der Fokus diesbezüglich liegt dabei auf den transaktionalen Systemen, weil hier die größten Effekte zu erzielen sind. In aller Regel erweist sich dabei der Einsatz von Standardsoftware als optimal, weil hier die geringsten Einführungs- und Betreuungskosten zu erwarten sind. Ein weiterer positiver Effekt von (teilweiser) Automatisierung und dem Einsatz von elektronischen Workflows ist die Erhöhung der Dokumentierbarkeit und damit Nachvollziehbarkeit von Geschäftsvorfällen. Sie erhöhen zudem die Qualität im Standardfall und sind ein wesentlicher Schritt für die Erfüllung der Compliance-Anforderungen – sei es nach amerikanischem oder europäischem Standard. Der Einsatz von Standardsoftware ist im Finanzbereich auch deshalb so weit verbreitet, weil viele Vorgänge – vor allem im Rechnungswesen und in Teilen auch im Treasury – über Unternehmen und sogar über Branchen hinweg sehr einheitlich ablaufen. Daher ist es in den seltensten Fällen sinnvoll, im transaktionalen Bereich unternehmensindividuelle Lösungen zu entwickeln und einzusetzen. Ein aktueller Fokus bei der Umgestaltung der IT-Landschaften im nicht-transaktionalen Bereich wird auf Entscheidungsmodelle, Simulationen, Data Mining und den Einsatz von Business-Intelligence-Anwendungen gelegt. Eine besonders spannende Herausforderung ist die Gewährleistung systemischer Unterstützung für nicht-strukturierte Informationen (z. B. Anhangsangaben im Rechnungswesen oder die Integration von Kunden- und Marktinformationen in Risikomanagement und Unternehmensplanung).
Abbildung 9:
SYSTEM
x
Planning
»Financia l
»Mgmt. Reporting
»Fo recasting
Reports
»Actua l Opera tio ns
x
x
x
x
»Actual Financial Repo rts
x
x
x
x x
x
x
x
x
x
x
Einflussfaktoren und Anforderungen an die Finanz-IT
Intangible assets
Intellectual capital
Talent
Brand
People
Net-
CLTV
works
Cash Flow
Value Chain Margin
Patents
Mgmt
PLTV
Relations
Customers
Knowledge Reputation.
Processes
Portfolio
Business Intelligence Tangible assets Production capital
Processes
»Actual Business Area
»Ma nag ement Reports
Groups/Subsidiaries
»Current Report
»Operational Pla nning
»Fina ncial Planning
x
»Operatio nal Planning
x
x
ting
»Budg e-
x
»Fo reca sting
»Pla nning Gro up
x
dation
ting
x
»Conso li-
»Accoun-
»Planning Business Area
PROCESS
Systems
Reporting Integration
Strategy
Yearly
Monthly
rolling
rolling
Quarterly
SERVICE
HARMONIZATION
Weekly
QUALITY
FLEXIBILITY
EFFECTIVENESS
MAINTAINABILITY
EFFICIENCY
System Capability
Legal Reporting
Mgmt. Reporting
Planning
Budgeting
Mgmt. Rep. Flash
Risk Reporting
F’Cast Full
F’Cast Flash
F’Cast Sales only
Mktg. Controlling
Customer Reports
Market Reports
Frequency
Reporting Granularity Daily
166 HÄFNER/HIENDLMEIER
Content
Strategien im Finanzbereich
6.6
167
Verhältnis von Eigen- und Fremdfertigung
Eine ganz klar strategische Entscheidung ist die Festlegung des Mix zwischen Eigen- und Fremdfertigung – kurz gesagt die Entscheidung, ob und in welchem Umfange Outsourcing eingesetzt werden soll. Es soll an dieser Stelle die Vorteilhaftigkeit der einen oder anderen Variante nicht diskutiert werden, sondern nur einige wenige Punkte kurz skizziert werden. Eine in Abschnitt 6.5 beschriebene Option, eine gemischte Strategie im Bereich der Personalqualifikation zu fahren, führt früher oder später zu Komplikationen beim Managen des dann sehr heterogenen, unterschiedlich bezahlten und motivierten Personalstamms in der gleichen Unternehmensfunktion. Ein Ausweg könnte dann das Outsourcen dieser Aktivitäten sein. Eine Entscheidung für Outsourcing ist eine schwer umkehrbare Entscheidung. Daher sollte sie gut überlegt sein und möglichst in einem kleineren Rahmen „ausprobiert“ werden. So eignen sich zum Beispiel für die erste Umsetzungsstufe i. d. R. kleinere und weniger kritischere Einheiten oder Aktivitäten. Bei der Entscheidung für Outsourcing treffen ohnehin zwei Firmenkulturen aufeinander. Wird dies weiter kompliziert, indem z. B. gleich zu Anfang auch noch eine andere Umgebungskultur einbezogen wird (z. B. durch die Verlagerung von Europa nach Asien) sinkt die Erfolgschance erheblich. Sprachbarrieren und die Zeitzonenproblematik machen das Problem nicht kleiner. Daher empfiehlt es sich, zunächst im Kulturraum zu bleiben und die üblicherweise versprochenen massiven Einsparungen beim „echten“ Offshoring etwas später zu realisieren. Schließlich ist man ja in einem Marathon und muss nicht auf den ersten hundert Metern gewinnen. Wenn anders der Business Case nicht zu rechnen ist, sollte man es wahrscheinlich lieber lassen. Eine selbstverständliche Erkenntnis sollte sein, dass ein Outsourcing dann die höchste Erfolgswahrscheinlichkeit aufweist, wenn es für den bestimmten Bereich bereits ein SharedService-Center gibt.
6.7
Flexibilität/Regulierungsdichte
Der Finanzbereich ist aufgrund seiner Nähe zum Kapitalmarkt, den Steuer- und Handelsgesetzen sowie zu verschiedenen Banken-rechtlichen Themen ohnehin schon verhältnismäßig stark reguliert. Die Entscheidung der Regulierungsdichte, die hier zu treffen ist, bezieht sich vorwiegend auf den Bereich der Prozesse und die Inhalte des Management Reporting. Dabei ist die Entscheidung selber jedoch weniger durch die Diskussion der Sinnhaftigkeit von einheitlichen Definitionen und Vorgehensweisen geprägt, sondern spiegelt oft die strategische Entscheidung zwischen Zentralisierung und Dezentralisierung wieder. Dies ist jedoch nur teilweise sinnvoll, denn die einzelnen Punkte lassen sich durchaus isolieren und dadurch etwas weniger emotional betrachten.
168
HÄFNER/HIENDLMEIER
So ist die Forderung nach konzerneinheitlich definierten Kennzahlen an und für sich kein Angriff auf die Autonomie, solange sich diese nicht in bewusstem Verschleiern und Verwirren widerspiegeln möchte. Bei einem gewünschten höheren Autonomiegrad kann dann viel lieber dem zuständigen Manager überlassen werden, nach welchen spezifischen, aber konzerneinheitlich definierten Kennzahlen er sein Geschäft steuern möchte. In abgemilderter Form gilt dies auch für die allgemeinen Prozesse, wobei man hier auch ganz bizarre Situationen erleben kann. So können in einigen Ländern durchaus Barzahlungen in verstärktem Maße üblich sein oder man trifft auf einmal auf „Tauschgeschäfte“, die als letztes Mittel zur Hereinholung von Verbindlichkeiten akzeptiert werden. Angesichts derartiger interkultureller Besonderheiten ist dann sicher das Ende einer sinnvollen Prozessharmonisierung erreicht. Die Forderung nach hoher Flexibilität im Business zieht sich auch in den Finanzbereich hinein. So können z. B. ganz operativ neue Produkte neue Abrechnungsbedingungen erfordern. Am deutlichsten ist dies vielleicht im sehr dynamischen Sektor der Mobilfunkanbieter gegeben. Beim Mobilfunk sind die neuen Produkte im Wesentlichen neue Tarife. Diese unterscheiden sich vorwiegend durch die Abrechnungsbedingungen, die für jeden Kunden hinterlegt werden müssen. Die Abteilungen zur Produktentwicklung sind dabei sehr kreativ, stetig neue Kombinationen zu finden, die dann den Kunden angeboten werden sollen. Hierbei ergeben sich für den Finanzbereich zwei Probleme: Es wird erstens erwartet, dass eine Aussage getroffen werden kann, welche Ergebniswirkung das neue Produkt haben wird. Hierfür sind die korrekte Segmentierung der Kunden, das Feststellen der richtigen Parameter (z. B. zum Umsteigeverhalten auf den neuen Tarif, das Nutzungsverhalten, etc.) sowie extensive Simulationen erforderlich. Zum anderen muss man überhaupt in der Lage sein, die entsprechende Abrechnung vornehmen zu können – d. h. mit den erfassten Daten eine korrekte Berechnung des Kundenumsatzes vorzunehmen. Das vorgenannte Beispiel mag für die meisten Industrieunternehmen kaum in dieser Heftigkeit anzutreffen sein, aber auch hier sind prinzipiell ähnliche Anforderungen nach der Integration von Kundendaten und Business Intelligence gegeben. Der Qualitätsanspruch der Produkte muss sich auch in der Betreuung der Kunden nach dem Kauf widerspiegeln.
6.8
Harmonisierung von internem und externem Rechnungswesen
Im Finanzbereich sind zwei Informationsstränge entstanden – neben dem Rechnungswesen (externes Reporting) das Controlling (internes oder Management-Reporting). Diese Zweiteilung birgt das Risiko des Auseinanderlaufens von Informationen und damit der Nichtvergleichbarkeit und der Konfusion von Berichtsempfängern. Daher kann die Forderung aufgestellt werden, dass beide prinzipiell aus denselben Quellen gespeist werden und mittelfristig zusammenwachsen. So sollten die Basis-Informationen keinerlei Differenzen aufweisen, weil der objektive Nutzen für die Steuerung des Unternehmenserfolges von Anpassungen des grundsätzlichen Zahlenwerkes des Rechnungswesens durch das Controlling (etwa „kalkulatorischen Abschreibungen“) auch beim besten Willen kaum gesehen werden kann. Vielmehr sollte man die durch eine Harmonisierung freiwerdenden Ressourcen zur Verbesserung der Aussagefähigkeit und der Nutzung von Kunden-, Produkt- und Projektinformationen einsetzen. Die Entwicklung hin zu einem harmonisierten Rechnungswesen wird durch die Internationalisierung der Rechnungswesens (IFRS) begünstigt.
Strategien im Finanzbereich
6.9
169
Hinweise für ausgewählte Teilfunktionen der Finanzorganisation
In den obigen Abschnitten wurden Ansätze für einzelne Themenbereiche beschrieben. Hier sollen kurz und selbstverständlich unvollständig Hinweise gegeben werden, die für die in den meisten Unternehmen vorhandenen Funktionen Rechnungswesen, Controlling, Treasury und Risikomanagement gelten. ¾ Rechnungswesen ¾ Automatisiere Regeltätigkeiten. ¾ Stelle sicher, dass Fehler nicht entstehen. ¾ Begrenze die Anzahl der Reporting-Standards. ¾ Buche operativ führend nach dem Konzernstandard. ¾ Controlling ¾ Basiere die Zahlen auf dem externen Reporting und vermeide dabei Überleitungen, Umrechnungen, etc. wo irgend möglich (Harmonisierung zwischen internem und externem Rechnungswesen). ¾ Schaffe Transparenz. ¾ Vermeide Information Overkill. ¾ Vermeide einen zu hohen Anteil von Zeit für Datensammlung, Aufbereitung, etc. ¾ Standardisiere und möglichst automatisiere das Monatsreporting. ¾ Investiere in Analysen und „echte Intelligenz“. ¾ Stelle sicher, dass das Controlling auf die „richtigen“ Punkte fokussiert, d. h. dass es die wesentlichen und für den Geschäftserfolg kritischen Dinge unterstützt. ¾ Treasury ¾ Optimiere Kapitalstrukturen. ¾ Sichere ein günstiges Rating und optimiere die Laufzeiten und Konditionen der Kredite. ¾ Optimiere das Hedging, wenn keine Natural Hedges möglich oder sinnvoll sind. ¾ Optimiere Zahlungsvorgänge und -wege. ¾ Zentralisiere die Finanzierung und Liquidität (ggf. nach Währungsräumen) oder schaffe zumindest eine zentrale Übersicht und Steuerung. ¾ Ermögliche eine optimierte Liquiditätsvorschau und -planung, die die Informationen möglichst automatisiert aus den operativen Systemen zieht. ¾ Risk Management ¾ Stelle sicher, dass das Risikomanagement mehr Werte schafft, als dass es das Business behindert. ¾ Implementiere ein gestaffeltes System, welches den unterschiedlichen Risiken auf unterschiedlichen Ebenen begegnet.
170
HÄFNER/HIENDLMEIER
¾ Implementiere Kontrollen, die die erfolgskritischen Risiken mit einem angemessenen Kosten-Nutzen-Verhältnis abdecken. ¾ Integriere Frühindikatoren in das Reporting. ¾ Steigere das Risikobewusstsein aller Mitarbeiter.
7
Kriterien zur Beurteilung der Strategie
Unabhängig von der gewählten Strategie selber muss diese einige grundlegende Kriterien erfüllen, um erfolgreich sein zu können. Dabei ist Folgendes zu berücksichtigen:9 ¾ Erwünschtheit/Akzeptierbarkeit ¾ Für die Eigentümer und Kapitelgeber akzeptierbare finanzielle Performance ¾ Für einflussreiche interne Gruppen akzeptierbare Ergebnisse (inklusive Nebeneffekte und indirekte Effekte) ¾ Für einflussreiche externe Gruppen akzeptierbare Ergebnisse (inklusive Nebeneffekte und indirekte Effekte) ¾ Durchführbarkeit ¾ Angemessenheit (Anpassung an die Umwelt)
7.1
Das Kriterium der Erwünschtheit/Akzeptierbarkeit
Das erste Kriterium der Erwünschtheit/Akzeptierbarkeit – die finanzielle Performance – stellt darauf ab, dass de facto alle profitorientierten Unternehmen einen Mindestanspruch an die aus einer Investition erwarteten Kapitalrückflüsse stellen. Zwar sind der Betrachtungshorizont, die Höhe der erwarteten Rückflüsse und auch die Berechnung derselben durchaus unterschiedlich, aber im spezifischen Kontext i. d. R. recht spezifisch. Diesen spezifischen Anforderungen muss auch die mit der Umsetzung einer Strategie verbundene Investition (z. B. in Projekte, Maßnahmen) genügen. Zwar wird von Managern oft die Bezeichnung „strategische Maßnahme“ verwendet, um deren Bedeutung herauszustellen und das entsprechende Objekt aus der sonst üblichen Wirtschaftlichkeitsbetrachtung herauszulösen. Doch dies ist als unredlich zu betrachten, denn auch eine Strategie und die Umsetzung derselben müssen sich messen und mit anderen Alternativen vergleichen lassen. Diese Forderung ist grundsätzlich zu stellen, allerdings stellt sich insbesondere im Finanzbereich oft die Schwierigkeit, wie die „Returns“ von verschiedenen Maßnahmen (monetär) bewertet werden können. Unabhängig davon ist Wert auf die Anwendung der Wirtschaftlichkeitsbetrachtung auch bei „strategischen“ Unterfangen zu legen. Insbesondere „echte“ strategisch orientierte Maßnahmen sind oft durchaus messbar.
9
Vgl. STACEY (2000), S. 44 ff.
Strategien im Finanzbereich
171
Ein scheinbar simples Beispiel ist die strategische Entscheidung zur Zentralisierung von Buchhaltungsfunktionen. Hier lassen sich die direkten Kosten der Maßnahme (z. B. ein Projekt zur Implementierung einer geeigneten Software) recht leicht feststellen. Indirekte Kosten, wie z. B. die Kosten für eine erhöhte Fluktuation oder zu erwartende steigende Kommunikationskosten sind etwas schwerer zu determinieren. Aber es kann hier häufig auf Vergleichswerte zurückgegriffen und somit zumindest ein Näherungswert ermittelt werden. Bei der Ermittlung des Nutzens kann der direkte Nutzen, wie z. B. mittelfristig sinkende Personalkosten, recht gut abgeschätzt werden. Oft kommt jedoch der „echte“ Nutzen aus nicht direkt monetär messbaren Verbesserungen, wie z. B. der Erhöhung der Transparenz, der Reduktion von Durchlaufzeiten, der Reduktion von prinzipiellen Risiken und der Verbesserung der Prozessqualität (weniger Fehler). Diese indirekten Effekte sind z. T. schwer in Euro oder Dollar messbar. Typischerweise werden hierfür Verfahren zur Quantifizierung angewendet, wie z. B. die Bewertung von Risiken nach ihrer Eintrittswahrscheinlichkeit und ihrer monetären Auswirkung (Schadensausmaß). Erscheint ein solches Vorgehen erheblich zu ungenau oder ist der Aufwand hierfür deutlich zu hoch, so empfiehlt es sich, zumindest die „Deckungslücke“ zu errechnen. Gemeint ist hierbei ein Verfahren, bei dem die monetarisierbaren Effekte errechnet werden und mit ihnen eine ganz gewöhnliche Wirtschaftlichkeitsbetrachtung vorgenommen wird. Sehr häufig bleibt eine negative Deckungslücke übrig, weil die positiven Effekte – vor allem auch die indirekten (z. B. Verbesserung der Arbeitsleistung durch erhöhte Motivation in operativen Einheiten aufgrund eines verbesserten Serviceniveaus der Finanzabteilung) i. d. R. sehr viel schwerer zu monetarisieren sind als die erwarteten Aufwendungen. Diese Deckungslücke stellt man dann den nicht monetarisierbaren Effekten gegenüber. Hierdurch hat man den Vorteil, dass man nur noch über einen geringeren Teil des Investitionsvolumens diskutieren muss (dem nicht gedeckten) und man diesem auch nur noch die nichtmonetarisierbaren Effekte entgegenstellt. Dies kann dann z. B. mit der Frage: „Ist uns die frühere Verfügbarkeit dieser spezifischen Information um zwei Tage x Euro wert?“ oder „Glauben wir, dass der verbesserte Service für unsere Geschäftsbereiche die Investition von x Euro rechtfertigt?“ Diese Fragen muss man dem (Top-)Management stellen und etwaige Alternativen diskutieren. Das ist nicht perfekt. Aber es ist eine pragmatische Lösung, die an das Unternehmertum der Manager appelliert und ein Commitment erwartet und erzeugt. Im Rahmen einer Strategieformulierung geht es zwar i. d. R. um wesentlich höhere zu investierende Summen, um längere Zeiträume und um erheblich komplexere Vorgänge als in den obigen Beispielen illustriert, aber das Prinzip ist anwendbar. Bei den beiden anderen genannten Kriterien zur Erwünschtheit/Akzeptierbarkeit (für einflussreiche interne bzw. externe Gruppen akzeptierbare Ergebnisse) lassen sich – neben anderen – jeweils zwei Punkte unterscheiden: a)
Vereinbarkeit mit der Kultur und Werten Auch in einer scheinbar rationalen Welt darf dieser Punkt nicht unterschätzt werden, weil Werte und Kultur identitätsstiftend sind und einen ganz wesentlichen Einfluss auf das Verhalten sowohl von Individuen als auch von großen Gruppen haben. So muss man sich z. B. fragen, ob ggf. mit einer Kostenoptimierungsstrategie via Outsourcing verbundene Entlassungen für das Unternehmen akzeptabel sind. Dabei sind natürlich die Reaktion der Öffentlichkeit (Akzeptierbarkeit für externe Gruppen), aber auch die direkte (z. B. Arbeitsniederlegungen) und indirekte (Absinken der Moral, mittelfristiges Abwandern von weiteren Ressourcen) Reaktionen von internen Gruppen zu berücksichtigen.
172
HÄFNER/HIENDLMEIER
b) Veränderungen in der Machtstruktur Strategische Entscheidungen haben generell sehr häufig eine Verschiebung von internen Machtverhältnissen zur Folge, und dies stellt wahrscheinlich einen der Gründe für ein mögliches Scheitern dar. Dies gilt auch für strategische Entscheidungen im Finanzbereich. So werden z. B. eine Zentralisierung von Funktionen und die Erhöhung der Ergebnistransparenz oft als ein Verlust von Macht und Einfluss der dezentralen Einheiten empfunden. Zum einen gehen einige Manager immer noch nach dem Motto „viel Mitarbeiter, viel Ehr“ vor. Zum anderen sinkt im gewählten Beispiel auch der Spielraum für Manipulationen im positiven wie im negativen Sinne. Kommunikation und die Hoheit über Kommunikationskanäle und Informationen sind als ein ganz wesentlicher Machtfaktor zu betrachten. Auch hier ergeben sich oft Änderungen – sei es direkt wie bei der Veränderung von Reportingprozessen oder indirekt wie bei der Erhöhung des Standardisierungsgrades. Als letzter aber mindestens so bedeutender Punkt sollen Veränderung genannt werden, die sich für Performance-Beurteilungen ergeben. Dies ist zwar generell ein „Business-Thema“, aber verschiedenste Entscheidungen im Finanzbereich haben einen z. T. signifikanten Einfluss hierauf. Erinnert sei hier z. B. an Änderungen in der Berechnung der Vorteilhaftigkeit für Investitionen, der Zurechnung von Umlagen, der Aufnahme von neuen Kennzahlen in das Reporting. Diese durch eine geänderte Strategie ausgelöste oder auch bei den Beteiligten nur „eingebildete“ Veränderung von Macht und Einfluss muss bei der Formulierung, Kommunikation und Umsetzung berücksichtigt werden. Ansonsten kann durch direkte Intervention oder auch indirekter „Sabotage“ von „Verlierern“ der neuen Strategie selbige schnell zunichte gemacht werden.
7.2
Die Kriterien Durchführbarkeit und Angemessenheit in der gegebenen Umwelt
Eine in aller Regel leicht eingängige Forderung ist, dass man sich eine Strategie auch „leisten“ können muss. Dies zielt auf die Forderung nach der Ausstattung mit ausreichenden finanziellen Mitteln und ist verständlich, weil mit Änderungen in der Strategie oft erhebliche Investitionen verbunden sind. Man denke z. B. an Projektkosten für die Einführung eines internen Shared-Service-Centers. Selbst wenn die Investition prinzipiell wirtschaftlich sinnvoll ist, so kann es doch sein, dass die zur Verfügung stehenden Geldmittel nicht in ausreichender Menge zur Verfügung stehen und es andere, höher priorisierte Investitionen gibt. Neben der Verfügbarkeit von finanziellen Mitteln ist die Verfügbarkeit von Human Resources, d. h. qualifiziertem und motiviertem Personal, entscheidend. Diese scheinbar triviale Botschaft hat sich in den letzten Jahren zunehmend zum Engpass entwickelt und auch beim letzten Unternehmen dürfte mittlerweile der aktuell tobende „War for Talent“ angekommen sein. Zwar sollte sich nach der volkswirtschaftlichen Theorie die Knappheit eines Produktionsfaktors im Preis niederschlagen, aber weil diese Anpassungsvorgänge immer Zeit brauchen, ist dies nicht das alleinige Problem. Hin und wider bekommt man einfach benötigte
Strategien im Finanzbereich
173
Fachkräfte nicht, oder es herrscht eine solch hohe Fluktuation, dass verschiedene Optionen daran scheiten. Hier sei ein aktuelles praktisches Beispiel genannt: Eine Firma expandiert auf den russischen Markt. Man hat prinzipiell die Strategie, die dezentralen Einheiten mit einer sehr hohen Autonomie und viel Entscheidungskompetenz auszustatten und möglichst viele Prozesse lokal ablaufen zu lassen. Dies gilt auch für den Finanzbereich. Nun trifft diese Strategie auf eine Umwelt, in der die Verfügbarkeit von potenziellen Mitarbeitern, die den konzernweit verwendeten Standard IFRS verstehen, sehr begrenzt ist. Auch ist die durchschnittliche Verweildauer so kurz, dass Manager dies intern auch als „Durchlauferhitzer“ bezeichnen und intern ausgebildetes Personal oft unmittelbar aggressiv abgeworben wird. Zwar ist die ausführende Zuverlässigkeit der Mitarbeiter recht gut, die Proaktivität, das Problembewusstsein und die Bereitschaft, „die letzte Meile zu gehen“, ist jedoch kaum vorhanden. Hier trifft die bevorzugte Dezentralisierungs- und Autonomie-Strategie auf eine Umwelt, die dies extrem erschwert. Würde man an ihr festhalten, droht ein kostspieliges Scheitern. Also ist dem Unternehmen anzuraten, eine (partielle) Zentralisierung vorzunehmen, die Prozesse stärker als üblich zu standardisieren und einen starken Support durch die europäische Zentrale bereitzustellen (z. B. beim Investitionscontrolling). Ein Unterpunkt des Themas Human Resources und eine leider oft übersehene Limitation ist die Verfügbarkeit von Management-Ressourcen. So haben verschiedene Unternehmen z. T. schmerzhaft feststellen müssen, dass eine spezifische Strategie ungeplante und massive Anforderungen an die Zeit des Top-Managements stellen kann. Ein Beispiel hierfür sind Expansionen, die „plötzlich“ die persönliche Vor-Ort-Anwesenheit mehrerer Vorstandsmitglieder bzw. zu einem erheblichen Teil deren Arbeitszeit über Jahre benötigen. Diese Risiken existieren auch im Finanzbereich. So benötigt eine grundlegende Umgestaltung von Rechnungswesen und Controlling oder ein Wechsel des Accounting-Standards eine sehr hohe persönliche Involvierung des CFO und seiner Top-Manager. Die Forderung nach der Prüfung der Angemessenheit der Strategie in der gegebenen Umwelt wird zum einen durch die klare Ausrichtung an der Business-Strategie abgesichert (wenn unterstellt werden kann, dass diese auch die externen und internen Faktoren des Gesamtunternehmens in Betracht gezogen hat). Zum anderen müssen aber auch spezifische Gegebenheiten des Finanzsektors berücksichtigt werden: Extern sind dies zum Beispiel die Erfüllung regulatorischer Anforderungen und deren voraussichtliche Änderungen. Dabei sind explizit auch zukünftige Tätigkeiten in neuen Märkten zu berücksichtigen. Weitere externe Faktoren sind die „Üblichkeit“ von Verfahren, d. h. die Durchdringung, Nutzung und die (gesellschaftliche) Akzeptanz von Vorgehensweisen. So ist bei einer Strategie der engeren Anbindung der Lieferanten und Kunden im Finanzbereich z. B. durch DFÜ zu prüfen, ob dies überhaupt zulässig ist und ob die Partner dies akzeptieren. Für Letzteres ist auch wichtig, wie dort die internen Prozesse gestaltet sind und wie die Ausstattung mit IT ist. Eine engere Anbindung in der Planung (z. B. gegenseitiger Austausch von Vorschau-Daten) kann daran scheitern, dass sich die Beteiligten misstrauen und sich daher durch eine Offenlegung von Informationen zu verletzlich fühlen würden.
174
HÄFNER/HIENDLMEIER
Weitere Fragen, die zu stellen sind, sind z. B.: Wie Technik-affin ist die Umwelt? Wie lernbereit und dynamisch sind meine Mitarbeiter? Wie hoch ist ihr Sicherheitsbedürfnis? All diese Fragen haben unmittelbare Auswirkungen darauf, wie Veränderungen in der Strategie und damit in der Arbeitsweise und der verwendeten Methoden und Tools aufgenommen werden, und determinieren daher wesentlich den Erfolg einer gewählten Strategieoption. Zusammenfassend soll festgehalten werden: Die Strategie für den Finanzbereich muss den Logiktest bestehen: Sie muss in sich konsistent, logisch mit den Zielen der Organisation verbunden sein. Sie muss zu den Fähigkeiten der Organisation und zu seinen Umweltbedingungen passen, denn sonst kann sie nicht erfolgreich sein.
8
Schlussbemerkung
Es ist festzustellen, dass die Finanzfunktion mitten in einem gravierenden Wandel steckt. In vielen Unternehmen ist das bereits in Ansätzen zu beobachten, denn neben die klassischen Tätigkeitsfelder sind weitere gewichtige Aufgaben getreten. Das liegt besonders an der zunehmenden Orientierung am Shareholder Value. Die permanente Vorgabe, den Unternehmenswert weiter zu steigern, bestimmt die CFO-Agenda maßgeblich und führt dazu, dass sich das Wesen der Finanzfunktion signifikant ändert. Es geht hier also nicht nur um ein „Job Enlargement“, sondern auch um ein stetiges „Job Enrichment“. Durch die zunehmende Aufgabenvielfalt und die wachsenden Einflussmöglichkeiten auf strategische Entscheidungen in den Unternehmen wird die Rolle des CFO immer globaler und entscheidender für den Unternehmenserfolg und letztlich für die Steigerung des Unternehmenswertes. Der CFO hat die Möglichkeit, unternehmensweit Veränderungen herbeizuführen und umzusetzen. Daher ist er in Best-Practice-Unternehmen bereits heute der wichtigste Partner der einzelnen Wertschöpfungsbereiche. Zudem ist er die entscheidende Instanz in puncto Portfolio-Steuerung. Das führt dazu, dass sich der CFO in allen Unternehmen und Branchen zunehmend zum Business Partner und Value Manager entwickelt. Die Finanzfunktion hat sich damit von der grauen Maus zur zentralen Entscheidungsfunktion gemausert. Diese neue Rolle bringt es allerdings auch mit sich, dass sich das Anforderungsprofil an den CFO und die Finanzfunktion insgesamt ändert. Mit dem Agieren als „graue Eminenz“ im Hintergrund ist es vorbei. Einen hohen Stellenwert bekommen interne und externe Kommunikation sowie die aktive Beteiligung an Unternehmensentscheidungen. Der CFO muss nicht nur Informationen für Managemententscheidungen bereitstellen. Er ist vielmehr aktiv in die Entscheidungsfindung eingebunden und muss diese an der Seite des CEO verkaufen – intern an Führungskräfte und Mitarbeiter und extern an die Share- und Stakeholder. Letztlich ist der Shareholder Value nichts anderes als der reale Unternehmenswert, der durch zielgerichtete Kommunikation sowie die persönliche Wahrnehmung des Shareholders bewertet und relativiert wird. Künftig sind also besonders die Fähigkeiten des CFO in puncto Marketing, Kommunikation sowie als Entrepreneur gefragt. Anforderungen, die definitiv zu einem „Enrichment“ der CFO-Funktion führen.
Strategien im Finanzbereich
175
Die Geschwindigkeit von Veränderungen nimmt weiter zu. In Verbindung mit Globalisierung, neuen Kooperationsmodellen und Technologien wachsen die Zentrifugalkräfte, die nicht nur die Global Player, sondern zunehmend auch mittelständische Unternehmen bedrohen. Um diese zu bändigen, müssen starke Zentripetalkräfte aufgebaut werden. Die Finanzfunktionen sind hierbei die drittstärkste Kraft nach Branding und Unternehmenskultur. Insofern wächst der Druck auf die Finanzfunktionen, Veränderungen nicht nur abzubilden, sondern proaktiv zu gestalten. Der CFO muss aufhören, nur nach Effizienzgesichtspunkten zu handeln. Er muss lernen, dass es sinnvoll und wertschöpfend sein kann, gewisse Einsparpotenziale nicht zu heben, wenn dafür strategische Optionen schnell umgesetzt werden können. Das Erfolgsgeheimnis besteht darin, mit bewusst geschaffenen Spielräumen flexibel umzugehen und dynamisch auf entstehende Optionen zu reagieren. Diese gestärkte Rolle bedingt, dass der CFO in seiner ureigensten Domäne – dem Finanzbereich das Feld gut bestellt und hierzu zählen auch die strategisch richtige Ausrichtung und die angemessene Steuerung entsprechend der gewählten Strategie. Hierfür hat der vorliegende Beitrag einige Anregungen gegeben und es soll zur weiteren Diskussion des Themas eingeladen werden.
Quellenverzeichnis ANSOFF, I. (1990): Implanting Strategic Management, New York 1990. FINANCIAL TIMES (2000): Mastering Strategy – The Complete MBA Companion in Strategy, London 2000. HOPE, J./FRASER, R. (2003): Beyond Budgeting, Stuttgart 2003. HORVATH & PARTNERS (2006): Performance Management in der Praxis, Zürich 2006. KAPLAN, R. S./NORTON, D. R. (2001): The Strategy Focused Organization, Boston 2001. MINTZBERG, H. (1978): Patterns of Strategy Formulation, in: Management Science, 1978, S. 934– 948. OETTINGER, B./VON GHYCZY, T./BASSFORD, C. (2003): Clausewitz – Strategie denken, München 2004.
VON
PORTER, M. E. (1998): The Competitive Advantage of Nations, New York 1998. SCHIMANK, C./WEHRLI, H. P. (2006): Performance Management – Bestandteil einer Gesamtarchitektur, in: Performance Management in der Praxis, 2006, S. 14–15. STACEY, R. D. (2000): Strategic Management & Organisational Dynamics, London 2000.
Operationelle Herausforderungen von Mergers & Acquisitions in China und Indien MAREK T. WOLEK, STEFAN KNECHT und FRANK BOROWICZ Unternehmensberater und Berufsakademie Karlsruhe
1
Wirtschaftliche Bedeutung Süd- und Ost-Asiens und Agenda westlicher Unternehmen ................................................................................................ 179 2 Strukturierte Betrachtung bei Investitionen in Emerging Markets ................................ 182 3 Ausgewählte Handlungsfelder des M&A-Managements............................................... 185 3.1 Compliance Management .................................................................................... 185 3.2 Intellectual Property und Technologietransfer ..................................................... 187 3.3 Human Resources ................................................................................................ 190 4 Zusammenfassung ......................................................................................................... 192 Quellenverzeichnis................................................................................................................ 193
Mergers & Acquisitions in China und Indien
1
179
Wirtschaftliche Bedeutung Süd- und Ost-Asiens und Agenda westlicher Unternehmen
Indien und China hatten um 1820 zusammen einen geschätzten Anteil am weltweiten Bruttoinlandsprodukt von 48% Prozent.1 Im Jahr 1952 lag dieser Anteil bei nur noch 9%. Bis 2050 sollen nach einer Prognose von PRICEWATERHOUSECOOPERS sowohl China als auch Indien wieder zu den vier größten Weltwirtschaften gehören.2 Angestoßen durch die wirtschaftlichen Reformen von Deng Xiaoping seit Ende der 1970er wuchs Chinas Bruttosozialprodukt mit einer durchschnittlichen Rate von 9,4% p.a.3 Die „günstige Produktion“ ist das Markenzeichen Chinas geworden und weckt seit Jahren das Interesse der Investoren. Indien verfolgte eine etwas andere, aber nicht weniger erfolgreiche Entwicklung. Wirtschaftsreformen, angestoßen in 1991, sorgten dort für eine neue Dynamik. Positive externe Schocks – wie beispielhaft das „Jahr-2000-Problem“ – führten zusätzlich dazu, dass Indien eine in vielen Theorien als „normal“ betrachtete Entwicklung der Volkswirtschaft nicht nachvollzogen hat. Vielmehr wurde der Übergang von der Agrar- über eine Industrie- zur Dienstleistungswirtschaft mehr oder weniger übersprungen. Indien hat sich mit einem ausprägten Dienstleistungssektor am Weltmarkt positioniert. Der Staat wird heute als globaler Standort für Informationstechnologie (IT) und IT-unterstützte Dienstleistungen, Ingenieurdienstleistungen und Pharmazie in der globalen Wirtschaft angesehen.4 China und Indien werden häufig als globale Werkbank bzw. globales Backoffice bezeichnet. Doch ist das „Sourcing“ nicht mehr der einzige Grund, um in Richtung Asien zu schauen. Die lokalen Absatzmärkte wachsen mit einer bis dato unbekannten Geschwindigkeit und “gieren“, seien es Konsum- oder Industriegüter, geradezu nach fortschrittlichen Produkten. Schaut man auf die führenden deutschen Unternehmen, so sind die beiden Wirtschaftsregionen bereits seit Jahren ganz oben auf der Agenda der Unternehmenslenker. Mit dem Abbau von Wirtschaftsbarrieren dringen Unternehmen aus der ganzen Welt in hoher Geschwindigkeit in die asiatischen Märkte. Mit der wachsenden Bedeutung der beiden Märkte wachsen zudem auch Anzahl und Volumen von Mergers & Acquisitions (M&A) in den Ländern. Abbildung 1 und 2 zeigen die Bedeutung von M&A in Indien bzw. China auf, wobei die Balken die Anzahl und die Linien das Volumen der Transaktionen widerspiegeln. In den letzten Jahren konnte eine starke Zunahme der Transaktionen festgestellt werden, was nicht zuletzt durch breite Deregulierung, höhere Informationstransparenz und technologischen Fortschritt ermöglicht wurde.
1 2 3 4
Vgl. MADDISON (1998). Vgl. HAWKSWORTH (2006). Vgl. GOLDMAN SACHS (2007). Vgl. AUSWÄRTIGES AMT (2007).
180
WOLEK/KNECHT/BOROWICZ
Transaktionshöhe in Millionen $
Anza hl
4.000 3.500 3.000 2.500 2.000 1.500 1.000 500 0
140 120 100 80 60 40 20 0
1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 Abbildung 1:
M&A Transaktionen von Amerika und Europa nach Indien5
Transaktionshöhe in Millionen $
Anzahl
160 140 120 100 80 60 40 20 0
12.000 10.000 8.000 6.000 4.000 2.000 0 1996 1997 1998 2000 2001 2002 2003 2005 2006
Abbildung 2:
M&A-Transaktionen von Amerika und Europa nach China6
Viele der M&A-Transaktionen in China und Indien haben besondere strategische Hintergründe. PORTER7 beschreibt, dass Firmen ihre Wertschöpfungsketten kontinuierlich den Marktgegebenheiten anpassen müssen, um erfolgreich zu sein. Eine Veränderung der Wertschöpfungskette kann dadurch erzielt werden, dass neue, bisher nicht vorhandene Ressourcen akquiriert oder erzeugt werden und mit den „Alt-Ressourcen“ auf eine neue bzw. andere Art und
5 6 7
Vgl. THOMSON ONEBANKER (2007). Vgl. THOMSON ONEBANKER (2007). Vgl. PORTER (1991).
Mergers & Acquisitions in China und Indien
181
Weise verknüpft werden.8 Gerade internationale Unternehmen akquirieren, um Zugang zu Ressourcen zu erhalten, die sie über andere Wege nicht effizient erhalten würden.9 Akquisitionen in China und Indien sind insbesondere dadurch motiviert, schnell Zugang zu spezifischen Ressourcen zu erhalten, die für eine erfolgreiche Durchdringung des jeweiligen Marktes notwendig sind. Mittlerweile hat die schnelle Marktdurchdringung einen wichtigen Stellenwert eingenommen. Schließlich werden in China und Indien heute die Marken und Kundenbeziehungen von morgen aufgebaut. Durch M&A-Transaktionen werden aber nicht nur notwendige Ressourcen, sondern auch überflüssige oder sogar „schädliche“ Ressourcen erworben.10 Es wird auch die Historie des Unternehmens und dessen Organisationsstruktur erstanden. Und hier besteht das Kernproblem: Die lokalen, in China oder Indien relevanten Geschäftspraktiken und -prozesse, unterscheiden sich häufig deutlich von denen in den europäischen Heimatländern der Unternehmen. Daher müssen Unternehmen, die in diesen Ländern tätig sind oder es werden wollen, ein entsprechendes internes System aufbauen, in welchem die lokalen „Business Practices“ und Prozesse mit den globalen Standards der Unternehmen abgestimmt werden.11 Um dies zu garantieren, müssen sich Unternehmen bereits vor den Transaktionen auf eine entsprechende mögliche Integration vorbereiten und nicht erst wie so häufig in der Unternehmenspraxis am Ende der Due Diligence. So können vor und in der Due Diligence gezielt – mit Blick auf die spätere Integration – Unterschiede in den Geschäftspraktiken und -prozessen detailliert analysiert werden. Hohe derartige Unterschiede werden bei „Käufern“ mit langjähriger asiatischer Erfahrung sogar als „Deal Breaker“ eingestuft. M&A in China und Indien bedürfen somit hoher Aufmerksamkeit, weil diese neben den Chancen auch erhebliche Risiken und Pflichten nachsichziehen. Für den nachfolgenden Beitrag wird die Grundannahme getroffen, dass ein Engagement in China und Indien für die Unternehmen unabdingbar ist. Es wird somit keine Diskussion und Analyse der Chancen vorgenommen. In Abschnitt 2 werden anhand eines strukturierten Ansatzes die wichtigsten Faktoren für M&A in Wachstumsmärkten beschrieben. Und in Abschnitt 3 werden sodann drei besonders wichtige Faktoren bzw. Handlungsbereiche vor dem Hintergrund der Besonderheiten von M&A in Emerging Markets, insbesondere China und Indien, näher untersucht.
8 9 10 11
Vgl. CAPRON/MITCHELL (1998). Vgl. WERNERFELT (1984), HENNART PARK (1993) und MITCHELL/CAPRON (2002). Vgl. CHATTERJEE (1986). Vgl. JEMISON/SITKIN (1986).
182
2
WOLEK/KNECHT/BOROWICZ
Strukturierte Betrachtung bei Investitionen in Emerging Markets
Investitionen in sich schnell ändernden Märkten wie China und Indien benötigen ein besonders strukturiertes Vorgehen. Die zu beachtenden Schritte bei M&A-Transaktionen unterscheiden sich dabei zwar nicht wesentlich von Investitionen in anderen, weniger dynamischen Märkten, doch die Priorisierung der wichtigsten Werttreiber fällt unterschiedlich aus. Das SMILE-Framework von PRICEWATERHOUSECOOPERS12 (siehe Abbildung 3) zeigt zusammenfassend die wichtigsten zu beachtenden Schritte während einer Investition in Wachstumsmärkten. Eine passende Strategie als auch ausreichend hohe Marktchancen vorausgesetzt, muss bei M&A in China und Indien besonderes Augenmerk auf die operationellen Risiken einer Transaktion gelegt werden. Diese operationellen Bereiche sind im SMILEFramework als „Layout & Infrastructure“ und als „Entity Operations“ beschrieben. Die besondere Bedeutung, die die beiden operationellen Bereiche bei einer Transaktion einnehmen, ist hauptsächlich damit begründet, dass chinesische und indische Unternehmen Prozessstrukturen haben, die sich meist substantiell von denen europäischer Unternehmen unterscheiden. Dies wirkt sich nicht nur bei der Integration dieser Prozesse sondern auch bereits während der Due Diligence in der Transaktion aus. Um Transaktionen jedoch schnell durchführen zu können, ist es zudem auch notwendig, die Unternehmensprozesse im Vorfeld auf eine Expansion vorzubereiten. Diese Schritte werden jedoch von Unternehmen oftmals unterschätzt. Häufig werden im täglichen „Kampf“ um Kunden, Märkte und Absatzzahlen nur die Möglichkeiten, die China und Indien bieten, gesehen, nicht aber deren Risiken adäquat analysiert und diesen entsprechend entgegengewirkt. Der Erfolg eines Unternehmens hängt in China oder Indien maßgeblich davon ab, inwieweit es gelingt, die Faktoren Unternehmensstrategie, Mission und Vision, Ziele, Risikoneigung, interne Ressourcen und Geschäftsoptionen in sich stimmig zu vereinen („Strategic Assessment“). Doch ist es insbesondere notwendig, um auch in neuen und unbekannten Märkten konkurrenzfähig zu bleiben, diese Teilbereiche so früh wie möglich erneut zu hinterfragen und so umzubauen, dass eine optimale Verzahnung in der neuen Umgebung gewährleistet werden kann.
12
Vgl. PRICEWATERHOUSECOOPERS (2006).
Mergers & Acquisitions in China und Indien
183
Business model
Strategic Assessment
Strategic objectives
Mission & Vision
Economy
Market Assessment
Legal & Regulations
Internal capabilities
Risk appetite
Competition Social & environment Supply chain
Taxation
Culture Customers
Restructure Tax optimisation
Investment Structurering Acquisition
Exit strategy Joint ventures
Outsourcing/ Start-up Off-shoring
Monitoring & Control Office premises & Reporting Plant sites
Layout & Infrastructure Contracts
Organisational structure
Support & Recruitment Utilities
Technology
Entity Operations
Ethics & Integrity
Security
Abbildung 3: 13
SMILE-Framework13
Vgl. PRICEWATERHOUSECOOPERS (2006).
Financials
Business processes
People
184
WOLEK/KNECHT/BOROWICZ
Verknüpft hierzu ist jedoch eine detaillierte Marktanalyse („Market Assessment“), bei der es vordergründig darum geht, sich einen möglichst breiten und tiefen Markteinblick zu verschaffen. Das Verständnis für kulturelle, politische, rechtliche, soziale und technologische Rahmenbedingungen und Entwicklungen steht dabei im Vordergrund. Zusätzlich sollten zudem direkt betriebswirtschaftlich relevante Aspekte beleuchtet werden. Diese beinhalten die wirtschaftlichen Rahmenbedingungen, Kunden und Wettbewerber des Unternehmens auf dem neuen Markt sowie die Wertschöpfungskette und Besteuerungsaspekte. Dabei ist zu beachten, dass sich diese Faktoren insbesondere in China und Indien permanent verändern. Der lokale CEO eines der erfolgreichsten deutschen Unternehmen hat dies einmal mit den Worten „Indien – das Land gilt es jedes Jahr neu zu entdecken“, entsprechend aussagekräftig zusammengefasst. Dies gilt zum Beispiel auch für die Investitionsstrukturierung („Investment Structuring“), die eine zusätzliche Herausforderung für die Unternehmen dargestellt, weil diese oft von starken Veränderungen der lokalen politischen Trends bestimmt wird. Wie eingangs erwähnt, müssen die lokalen Prozesse eine besondere Berücksichtigung finden. In vielen Emerging Markets, darunter auch in China und insbesondere Indien, sind Infrastrukturen und lokale Ressourcen nur unzureichend vorhanden, unzuverlässig oder einfach „anders“. Unternehmen, die in diese Märkte eintreten wollen, müssen frühzeitig Wege finden, auftretende Infrastruktur-, Personal- und Logistikprobleme zu überwinden bzw. mit den bisherigen Prozessen des Unternehmens zu verbinden. Kritisches Know-how oder kritische ITKomponenten zu sichern sowie rechtlich einwandfreie Verträge zu gestalten, sollte für Unternehmen in Zeiten von Industrie-Spionage und Verletzungen gewerblicher Schutzrechte von größter Bedeutung sein. Hier hilft es, über die Bereiche Organisationsstruktur, Personalmanagement, Support & Utilities, Vertragswesen, Berichterstattung, Controlling sowie Geschäftsund Produktionsstätten intensiv nachzudenken („Layout & Infrastructure“). Die spezifischen und oft unvertrauten Risiken in den Emerging Markets machen eine permanente Betriebsüberwachung und ein umfassendes Controlling unabdingbar. Daher sollten Unternehmen vor allem den folgenden Geschäftsbereichen in ihrem täglichen Geschäft besondere Beachtung zukommen lassen und diese permanent überwachen: Finanzen, Geschäftsprozesse, Personalwesen, Sicherheit, Ethik und Integrität sowie Technologie („Entity Operations“). Bekannte Probleme aus Märkten wie China und Indien sind u. a. die Akquisition und Bindung von hoch qualifizierten Personal, Sicherheitslücken und der mangelnde Schutz geistigen Eigentums sowie Probleme mit der Einhaltung lokaler wie internationaler Vorschriften und Standards. Der Umgang mit diesen Problemen ist zentraler Bestandteil des Risikomanagements für eine Transaktion und hat sowohl Einfluss auf Vorbereitung und Durchführung einer Transaktion wie auch auf die anschließende Integration und die Gestaltung von Prozessen. Als besonders wichtige Handlungsfelder ergeben sich das Compliance-Management, das Management von gewerblichen Schutzrechten und der Technologietransfer sowie das Human-Resources-Management bei M&A.
Mergers & Acquisitions in China und Indien
185
3
Ausgewählte Handlungsfelder des M&A-Managements
3.1
Compliance Management
Die Aktivitäten ausländischer Unternehmen in China und Indien – in welcher Form diese auch umgesetzt werden – müssen alle Anforderungen erfüllen, die sich aus dem externen regulatorischen Umfeld ergeben. Dies beinhaltet sowohl diejenigen, die aus dem lokalen, also chinesischen oder indischen Umfeld, resultieren, als auch solche, die aus der Einbindung in den Konzern bzw. den Heimatstandort folgen. Darüber hinaus sind die Anforderungen zu beachten, die sich aus internen Richtlinien der Gruppe ergeben oder die die Gruppe freiwillig erfüllen will, beispielsweise ISO-Zertifizierungen oder freiwilligen Standards zum Umweltschutz. Unabhängig davon, ob die Aktivitäten in Form einer Eigengründung, der Akquisition eines existierenden Unternehmens oder eines Joint Ventures erfolgt, die Einhaltung der externen wie internen Vorschriften, Standards und Richtlinien („Compliance“) ist ein zentraler Faktor für den langfristigen Erfolg des Engagements. Mangelnde Compliance hat nicht nur das Potenzial große wirtschaftliche Erfolge zunichte zu machen, sondern kann auch schwerwiegende Konsequenzen für das Mutterunternehmen haben, die bis zur Existenzgefährdung reichen können. Daher muss dem Compliance Management bei der Planung und Umsetzung eines Engagements in China und Indien eine ähnlich hohe Aufmerksamkeit beigemessen werden wie den anderen Aspekten, die normalerweise bei einem solchen Vorhaben im Vordergrund stehen, z. B. Strategie, Gestaltung der Wertschöpfungsketten, Steueroptimierung, etc. Hierbei sind die regulatorischen Anforderungen sehr vielfältig und können im Folgenden nur beispielhaft kurz angesprochen werden: ¾
Anforderungen aus dem lokalen Umfeld: Hier sind u. a. Regelungen aus so unterschiedliche Themengebieten wie lokales Steuerrecht und Rechnungslegungsvorschriften, Import& Exportregelungen, Einwanderungs- sowie Umwelt- und Arbeitsschutzbestimmungen zu beachten. Mögliche Konsequenzen bei fehlender Compliance sind u. a. Steuernachzahlungen, gegebenenfalls auch für Zeiträume vor der Übernahme eines lokalen Unternehmens, Strafen für das Unternehmen, das lokale Management und die entsandten Mitarbeiter, die neben Geldstrafen auch in Haftstrafen oder Ausweisung umfassen, (partielle) Untersagung des Geschäftsbetriebs, Ausschluss aus bestimmtem Märkten (z. B. öffentlicher Sektor) bis hin zum „Totalverlust“ des Engagements.
¾ Anforderungen, die sich aus der Regulierung ergeben, der das Mutterunternehmen unterliegt: 1.
Rechnungslegungsvorschriften: Die lokale Einheit muss in den Konzernabschluss der Gruppe integriert werden, d. h. sie hat zusätzlich zu den regionalen Rechnungslegungsvorschriften auch nach den für die Konzernobergesellschaft geltenden Vorschriften zu bilanzieren (in Deutschland meist HGB oder IFRS) und muss die konsolidierungsrelevanten Zusatzinformation erfassen. Diese Informationen sind zumeist im Rahmen eines sehr engen Zeitrahmens und in kurzen Abständen, quartals- oder monatsweise, zu liefern. Kann die lokale Einheit diese Anforderungen nicht zuverlässig erfüllen, so sind fehlerhafte und/oder verzögerte Konzernabschlüsse die Folge. Bei börsennotierten Unternehmen kann dies zu empfindlichen Strafen bis hin zum
186
WOLEK/KNECHT/BOROWICZ
zwangsweisen De-Listing führen. Unternehmen, deren Wertpapiere an einer Börse in den Vereinigten Staaten von Amerika registriert sind, unterliegen darüber hinaus den Regelungen des Sarbanes-Oxley Act of 2002. Dieser erfordert u. a. die Einrichtung eines umfassenden internen Kontrollsystems zur Sicherstellung einer richtigen und vollständigen Finanzberichterstattung. Fehlerhafte Konzernabschlüsse, beispielsweise aufgrund mangelhafter Rechnungslegung einer Tochtergesellschaft in Emerging Markets, ziehen erhebliche Sanktionen bis hin zur persönlichen Haftung der Konzernvorstände nach sich.14 Aber auch bei nicht-börsennotierten Unternehmen sind die Folgen gegebenenfalls erheblich. So wird oft auch von Fremdkapitalgebern ein regelmäßiges Reporting auf Konzernebene gefordert. Eine Nichteinhaltung solcher Bestimmungen der Kreditvereinbarung kann eine Verschlechterung der Konditionen oder auch die Kündigung der Vereinbarung nachsichziehen. 2.
14 15 16 17 18 19
Internationale Antikorruptionsvorschriften: Diese in Deutschland bis vor kurzem vernachlässigten Regelungen haben in den vergangenen zwei Jahren durch einige öffentlichkeitswirksame Fälle größere Aufmerksamkeit erlangt.15 Zusätzlich zu den jeweiligen lokalen Regelungen existieren verschiedene Vorschriften, die die Bestechung von Staatsbediensteten und zum Teil auch von Mitarbeitern von Privatunternehmen im Ausland unter Strafe stellen. Für Deutschland von besonderer Relevanz ist erstens die OECD-Konvention zur "Bekämpfung der Bestechung ausländischer Amtsträger im internationalen Geschäftsverkehr", die von vielen Staaten, darunter auch Deutschland, ratifiziert und in nationales Recht umgesetzt wurde.16 Zweitens ist der „Foreign Corrupt Practices Act“ (FCPA) beachtenswert. Dieser betrifft Unternehmen, deren Wertpapiere an einer Börse in den Vereinigten Staaten von Amerika registriert sind. Ausländische Unternehmen unterliegen allerdings nur einem Teil der Vorschriften, sofern das Korruptionsvergehen keinen Bezug zu den Vereinigten Staaten aufweist.17 Die möglichen Konsequenzen für Verstöße gegen diese Regelungen, die in anderen Ländern begangen werden, umfassen u. a. Strafen für verantwortliche Manager, Strafen für das Unternehmen, Steuernachzahlungen aufgrund des in vielen Ländern geltenden Abzugsverbotes für „Schmiergeldzahlungen“, Korrektur von Jahresabschlüssen und einen Ausschluss von öffentlichen Aufträgen.18 Unter bestimmten Umständen werden den Unternehmen auch Korruptionsvergehen von Geschäftspartnern in den jeweiligen Ländern zugerechnet. Zusätzliche Brisanz gewinnt das Thema, wenn berücksichtigt wird, dass die meisten der zu den Emerging Markets gezählten Länder eine sehr schlechte Beurteilung hinsichtlich des Korruptionsumfeldes aufweisen. Der „Corruption Perception Index“ weist für 2006 u. a. folgende Werte aus:19 Brasilien: 3,3; China: 3,3; Indien: 3,3; Ukraine: 2,8; Russland: 2,5; Indonesien: 2,4. Zum Vergleich: Das Land mit der höchsten Wertung war in 2006 Finnland mit 9,6 von 10 möglichen Punkten.
Vgl. MENZIES (2004). Vgl. O. V. (2006) und O. V. (2007a). Vgl. BUNDESMINISTERIUM FÜR WISSENSCHAFTLICHE ZUSAMMENARBEIT UND ENTWICKLUNG (2006). Vgl. O’MELVENY & MYERS LLP (2005). Vgl. O’MELVENY & MYERS LLP (2005). Vgl. TRANSPARENCY INTERNATIONAL (2007).
Mergers & Acquisitions in China und Indien
187
Aus diesen Ausführungen, die nur einen kleinen Einblick in die Komplexität des Themas Compliance und die potenziellen schwerwiegenden Konsequenzen geben können, ist klar geworden, dass die Sicherstellung von Compliance auch für die lokalen Einheiten einer Gruppe in China oder Indien ein zentraler Erfolgsfaktor ist, und zwar nicht nur für das Engagement vor Ort, sondern auch für den gesamten Konzern. Bei durch M&A erworbenen Unternehmen ist die Sicherstellung von Compliance tendenziell mit größeren Schwierigkeiten behaftet als bei selbst aufgebauten Einheiten, weil die Prozesse nicht selbst gestaltet, sondern übernommen wurden. Compliance-Aspekte sind in allen Phasen einer Transaktion zu berücksichtigen. Im Vorfeld einer Akquisition ist eine grobe, Compliance-orientierte Risikoanalyse für das Target und sein Geschäftsumfeld vorzunehmen. Dabei sind je nach Ausgangslage auch deren Geschäftspartner, z. B. Intermediäre im Vertriebsbereich, einzubeziehen. Im Rahmen der Due Diligence ist zum einen die Compliance in der Vergangenheit intensiv zu untersuchen. Des Weiteren ist auch einzuschätzen, inwiefern vorhandene Prozesse, Strukturen und Mitarbeiter geeignet sind, die sich aus der Transaktion zusätzlich ergebenden Anforderungen in der erforderlichen Zeit umzusetzen.20 Mangelnde Compliance in der Vergangenheit eines Targets oder fehlende Voraussetzungen, um die sich aus der Aufnahme in die Gruppe zusätzlich ergebenden Compliance-Anforderungen in der erforderlichen Frist erfüllen zu können, sind Deal Breaker. Die Kaufverträge sollten Garantien des Verkäufers für die Compliance in der Vergangenheit enthalten. Allerdings ist sicherzustellen, dass der Verkäufer den Garantien im Zweifelsfall auch tatsächlich nachkommen kann. Nach der Übernahme bildet die fristgerechte Herstellung der Compliance einen zentralen Bestandteil des Integrationsprogramms. Von besonderer Bedeutung ist hierbei insbesondere in Ländern mit anderem „Geschäftsumfeld“ und kulturellem Hintergrund, dass die Notwendigkeit für diese Maßnahmen erläutert wird und die entsandten Mitarbeiter sowie das lokale Top-Management die Philosophie vorleben.
3.2
Intellectual Property und Technologietransfer
Die Strategie zum Schutz des geistigen Eigentums (Intellectual Property, IP) sowie Umfang und Umgang mit möglichem Technologietransfer in das Zielland ist eines der existenziellen Themen, das bereits bei der Planung des Engagements in Emerging Markets zu behandeln ist. Diese Überlegungen haben entscheidenden Einfluss auf die Auswahl der Markteintrittsstrategie, die Wahl möglicher Partner oder Zielunternehmen, die Gestaltung der Verträge sowie insbesondere die Gestaltung der Prozesse und der Wertschöpfungskette. Mit der zunehmenden Entwicklung von China und Indien und der steigenden Inlandsnachfrage sind diese nicht mehr nur als verlängerte "Werkbank" für einfache Produktionsschritte interessant, sondern auch für die Herstellung komplexerer Produkte. Darüber hinaus werden diese Länder auch für Forschungs- und Entwicklungstätigkeiten zunehmend interessant. KAUFMANN ET AL. zeigen auf, dass erst die produktnahe Entwicklung, aber sehr bald schon die produktfernere Forschung in China deutlich zunehmen werden: Kaum eine Branche wird sich dem 20
Vgl. O’MELVENY & MYERS LLP (2005).
188
WOLEK/KNECHT/BOROWICZ
verschließen können.21 Solche Aktivitäten haben die Konsequenz, dass auch Teile des IP des Unternehmens in diese Märkte transferiert bzw. dort generiert wird. Die Kehrseite dieser interessanten Möglichkeiten ist allerdings, dass sich die attraktivsten Märkte durch einen sehr schlechten Schutz des IP auszeichnen. So schätzten bei einer durch PRICEWATERHOUSECOOPERS unter Führungskräften von Technologieunternehmen durchgeführten Umfrage 63% aller Befragten das Schutzniveau als ungenügend ein. Unter den asiatischen Teilnehmern waren es sogar 75%.22 Diese Einschätzung hat auch erheblichen Einfluss auf das Investitionsverhalten der Unternehmen. Je nach Region gaben zwischen 30% und 75% der Befragten an, aufgrund von Bedenken bzgl. des mangelnden Schutzes von IP schon Investitionsvorhaben in Emerging Markets zurückgestellt oder aufgegeben zu haben. Auch die Erwartungen hinsichtlich einer zukünftigen Verbesserung der Situation sind eher moderat. Rund 50% der Befragten erwarteten sogar eine Zunahme der Verstöße gegen IP-Schutzrechte. Als besonders schlecht wird die Lage in China eingeschätzt. Strategien, die sich in anderen Ländern bereits als erfolgreich erwiesen, haben im Reich der Mitte oftmals versagt.23 Beispiele von Unternehmen, die mit Ideen- und Technologiediebstahl zu kämpfen hatten, gibt es genug: General Motors, Volkswagen, Audi und Siemens sind nur einige davon.24 Gründe für dieses gravierende Problem sind vor allem ineffektive Gesetze und deren schwache Durchsetzung sowie lokaler Protektionismus. Wie kann ein Unternehmen mit dieser Situation umgehen? Ein Verzicht auf ein Engagement und die Möglichkeiten, die diese Märkte bieten, ist häufig die schlechteste Lösung, zumal auch dies nicht zuverlässig davor schützt, dass in diesem Ländern Kopien hergestellt und auf dem Weltmarkt angeboten werden. Auch der Ansatz, in Ländern wie China oder Indien lediglich veraltete Technologien einzusetzen und/oder alle "technologietragenden" Komponenten zu importieren, wird angesichts der Fortschritte und der Wettbewerbssituation in beiden Ländern weitgehend entfallen. Darüber hinaus sind dem Import oftmals gesetzliche Grenzen gesetzt und teilweise wird – insbesondere in China – Technologietransfer auch als Voraussetzung behördlicher Genehmigung gefordert. Ein Patenrezept für den Schutz von IP in diesen Ländern gibt es nicht. Die Situation ist von Land zu Land und von Branche zu Branche unterschiedlich. Erfolgversprechend ist daher, ein Bündel von Maßnahmen zur Sicherung heranzuziehen. Dieses kann folgende Elemente enthalten:25 ¾ Kritisches IP identifizieren: Von zentraler Bedeutung ist eine Bestandsaufnahme des im Unternehmen vorhandenen IP und die Identifizierung der Technologien und des ProzessKnow-how, die zentral für den Wettbewerbsvorteil des Unternehmens sind. Diese "Inventarisierung" des IP ist nicht nur wichtig für die Entscheidung darüber, welche Technologie in das Zielland transferiert werden kann, sondern auch die Voraussetzung für ei21 22 23 24 25
Vgl. KAUFMANN ET AL. (2005). Vgl. hierzu und folgend PRICEWATERHOUSECOOPERS (2007). Vgl. PRICEWATERHOUSECOOPERS (2005a). Vgl. O. V. (2007b). Vgl. PRICEWATERHOUSECOOPERS (2005b) und PRICEWATERHOUSECOOPERS (2007).
Mergers & Acquisitions in China und Indien
189
ne optimale Ausnutzung des IP-Portfolios des Unternehmens. In der von PRICEWATERHOUSECOOPERS durchgeführten Umfrage gaben 62% der befragten Manager von Technologieunternehmen an, dass bei einem besseren Management des IP-Portfolios ihres Unternehmens wesentlicher Mehrwert geschafften werden könnte.26 Für das Engagement in Emerging Markets bedeutet dies, dass Kernbereiche definiert werden müssen, die nicht in unsicheren Umfeldern eingesetzt oder weiterentwickelt werden sollten.27 Eine solche im Vorfeld erfolgte Identifizierung von „No go areas“ ist auch eine wertvolle Hilfe für die Verhandlungsstrategie mit Partnern und lokalen Behörden. Können hier die eigenen Vorstellungen nicht durchgesetzt werden, ist ein Verzicht auf das Engagement ernsthaft zu erwägen. ¾ IP rechtlich schützen und Verstöße konsequent verfolgen: Trotz der öffentlichkeitswirksamen Fälle haben viele Unternehmen ihre Patente und anderen Schutzrechte in den Emerging Markets nicht angemeldet. Der Prozess ist aufwändig und die Durchsetzbarkeit von Ansprüchen lässt derzeit noch sehr zu wünschen übrig. Jedoch wird durch die Anmeldung ein Zeichen gesetzt, dass man sein IP konsequent schützt und die Option, zukünftig bei einer Besserung der Lage im Rechtssystem gegen Verletzungen vorgehen zu können, bleibt bestehen. Darüber hinaus können auch eine konsequente Anmeldung von Schutzrechten in anderen Absatzmärkten und die konsequente Verfolgung von Verstößen die Auswirkungen von IP-Verletzungen reduzieren. Dadurch kann zumindest erschwert werden, dass ein Unternehmen aus dem Zielland mit dem gestohlenen IP auch auf anderen Märkten auftritt. Darüber hinaus vergrößert sich dadurch letztendlich auch die Verhandlungsmacht gegenüber dem Patentverletzer und mittelfristig der Druck auf China und andere Länder der Emerging Markets, weil es sich diese als stark exportorientierte Volkswirtschaften nicht dauerhaft leisten können, dass ihre Exporteure auf den Absatzmärkten verklagt werden. ¾ Adäquate Gestaltung der Wertschöpfungskette und der Produktionsprozesse: Das Risiko des Diebstahls von IP und der Produktion von Plagiaten oder zumindest die Geschwindigkeit, mit der diese auf den Markt gelangen, lässt sich durch eine adäquate Gestaltung der Prozesse und der Wertschöpfungskette reduzieren. Denkbar ist hier beispielsweise eine – auch geografische – Segmentierung der Prozesskette im Zielland, um zu vermeiden, dass einzelne Personen einen Überblick über den Gesamtprozess erhalten. Ebenso denkbar ist eine im Vergleich zur Produktion im Heimatland restriktivere Nutzung von Lieferanten, d. h. es werden wesentlich weniger Prozessschritte an Externe ausgelagert Auch kann versucht werden, die Vertriebskanäle stark zu kontrollieren. ¾ Hohe Innovationsgeschwindigkeit: Eine weiteres Element einer möglichen Strategie ist eine hohe Innovationsgeschwindigkeit, so dass Nachahmer Schwierigkeiten haben, aktuelle Versionen eines Produktes zu kopieren und dadurch ein Wettbewerbsvorteil gegenüber diesen gehalten werden kann, wobei gleichzeitig das Auftreten von Nachahmern durch andere Maßnahmen soweit wie möglich verzögert werden sollte. ¾ Zusätzliche Unterscheidungsmerkmale aufbauen: Ein weiterer Ansatz besteht darin, in Bereichen, die wesentlich schwieriger zu kopieren sind als das eigentliche Produkt, zusätzlichen Wert für den Kunden zu bieten. Hierzu zählt sicherlich der Aufbau einer Marke. Aber auch Serviceleistungen, etwa die Fähigkeit, flexibel – z. B. mit Variantenferti26 27
Vgl. PRICEWATERHOUSECOOPERS (2007). “If it's core technology, you don't ship it to an offshore […] partner of any kind. You just don't do it. It will be stolen” – Aussage eines Managers eines großen US-Technologieunternehmen in der Studie von PRICEWATERHOUSECOOPERS (2007).
190
WOLEK/KNECHT/BOROWICZ
gung – auf Kundenwünsche eingehen zu können und natürlich auch die Qualität der Produkte und die Zuverlässigkeit der Lieferung eignen sich zur Differenzierung. ¾ M&A und Partnerschaften: Eine weitere Möglichkeit besteht darin, gezielt M&A zu nutzen, um die Fähigkeit, Nachahmerprodukte herzustellen, aus dem Markt zu nehmen. Dabei ist im Einzelfall genauestens zu prüfen, ob durch einen solchen Schritt wirklich dauerhaft Abhilfe geschaffen werden kann oder nicht das Risiko besteht, dass das Problem einige Monate später unter einem anderen Namen wieder auftritt. ¾ Kooperation mit und Lobbyarbeit bei Behörden und „Opinion Leaders“: Auch wenn oder gerade weil das Rechtssystem und die Verwaltung in vielen Ländern noch entwicklungsfähig ist, können durch gute Beziehungen zu den örtlichen Behörden, Unternehmensvertretern, Universitäten und sonstigen „Opinion Leaders“ Verbesserungen der Situation erreicht werden. Der Aufbau entsprechender Beziehungen und stete Lobbyarbeit für einen besseren Schutz von IP sollte daher auch Bestandteil der Strategie sein. Ein weiterer wichtiger Aspekt, dem in der Diskussion des Problemkreises IP weniger Aufmerksamkeit gewidmet wird, ist, dass eine Gefahr für das Unternehmen nicht nur durch den Missbrauch des eigenen IP ausgeht. Große Probleme können auch entstehen, wenn Lieferanten bei der Herstellung die Schutzrechte anderer Unternehmen verletzen. Werden dann Komponenten dieser Lieferanten verwendet, so macht sich auch der Abnehmer angreifbar. Dieser Aspekt zeigt – neben Themen wie Qualität, Zuverlässigkeit, Einhaltung von Arbeits- und Umweltschutzstandards, usw. – einmal mehr die große Bedeutung, die der Auswahl der Geschäftspartner und dem Controlling der Wertschöpfungskette bei einem Engagement in China oder Indien zukommt.
3.3
Human Resources
In dem Maße, in dem ein Engagement in China oder Indien nicht nur als „verlängerte Werkbank“ mit der Auslagerung einfacher Tätigkeiten dienen soll, steigt die Bedeutung des Themas Human Resources sowohl bei Planung und Durchführung einer Transaktion als auch der folgenden Integration. Die Bindung und Gewinnung von qualifiziertem und zuverlässigem Personals in China und Indien stellen einen wesentlichen Erfolgsfaktor dar, wenn auch komplexere Produkte vor Ort hergestellt oder Beiträge zur Forschungs- und Entwicklungstätigkeit des Konzerns geleistet werden sollen. Auch ist die Bedeutung von Loyalität und Integrität des Personal vor dem Hintergrund der Problematik des Schutzes des geistigen Eigentums (siehe Abschnitt 3.2) und den Folgen mangelnder Compliance (siehe Abschnitt 3.1) nicht hoch genug einzuschätzen. Aufgrund des hohen Wachstums ist der Bedarf an entsprechendem Personal stark gestiegen. Die Ausbildungsleistung hält dieser Nachfragesteigerung in den meisten Ländern nicht stand oder die Qualität der Absolventen entspricht nicht dem erforderlichen Standard. So ist in China und Indien ein harter Wettbewerb um die besten Talente im Gange.28 Dieser schlägt sich in steigenden Gehältern sowie einer hohen Fluktuationsrate nieder.
28
Vgl. HECKER (2006).
Mergers & Acquisitions in China und Indien
191
Für ein Unternehmen, das eine Akquisition plant und vorbereitet, beutet dies zum einen, sich im Rahmen der Due Diligence auch intensiv mit dem Personal des Zielunternehmens zu beschäftigen, das Qualifikationsniveau zu analysieren und vor allem Abhängigkeiten von Schlüsselmitarbeitern zu identifizieren (Human Resources Due Diligence). Darüber hinaus ist es aber auch erforderlich, schon im Vorfeld der Transaktion Strategien auszuarbeiten, um mit der Herausforderung des Mangels an qualifiziertem Personal umzugehen. Dies hat Auswirkungen auf die Anforderung an das Personalmanagement sowie Gestaltung der Prozesse und der Organisation, sowohl im Mutterhaus als auch in der lokalen Einheit. Unternehmen bieten sich u. a. folgende Möglichkeiten, auf den Mangel an qualifiziertem Personal zu reagieren: ¾ Ein Ansatz stellt darauf ab, die Prozesse des Unternehmens an die Personalsituation anzupassen. Dies bedeutet, Prozesse so in Einzelschritte zu zerlegen, dass diese auch durch gering qualifiziertes Personal bearbeitet werden können und der Bedarf an gut ausgebildeten Fachkräften niedrig gehalten werden kann. Im Hinblick auf eine Sicherung des geistigen Eigentums weist eine solche Zersplitterung Vorteile auf. Einheimische Kräfte haben keinen oder nur beschränkten Überblick über das Gesamtprodukt und seine Herstellung. Andererseits steigt der Koordinationsaufwand und die Flexibilität sinkt. Prozesse, die im Mutterhaus eingespielt sind, müssen aufwendig neu strukturiert werden. Darüber hinaus sind mit dieser Strategie der Herstellung komplexerer, höherwertiger Produkte und der Erbringung von Forschung- und Entwicklungsleistungen sehr enge Grenzen gesetzt. ¾ Eine übliche Vorgehensweise ist der Einsatz von so genannten Expatriates, also Personal aus dem Heimatmarkt. Hier muss langfristig geplant werden. Unternehmen sollten frühzeitig vor einem Markteintritt den Mitarbeiterbedarf antizipieren, um potenzielle Kandidaten rechtzeitig auswählen und auf ihren Einsatz vorbereiten zu können. Nur zu oft hat sich gezeigt, dass die Suche nach potenziellen Expatriates in der Belegschaft schwer ist, es jedoch noch schwerer fällt, Expatriates in China bzw. Indien dauerhaft zu halten. Mangelnde subjektive Lebensqualität außerhalb der interessanten Standorte wie Hong Kong, die sich in der Andersartigkeit der Kultur, geringeren Sicherheits- und Umweltstandards und Unklarheiten über Karrierepfade (Reintegration des Expatriates im Ursprungsland) äußern, veranlassen Expatriates und ihre Angehörigen häufig schon nach wenigen Monaten das Land zu verlassen. Das Personalmanagement kann diese Probleme durch entsprechende Vorbereitungs- und Betreuungsmaßnahmen mildern, beispielsweise durch gezielte Anwerbung von Mitarbeitern mit dem nötigen kulturellen Hintergrund zur späteren Verwendung in diesen Ländern oder ein konsequentes Karrieremodell, das sicherstellt, dass ein Auslandsaufenthalt kein Karrierenachteil sondern ein Karrierevorteil ist. Allein schon im Hinblick auf die zahlenmäßigen Verhältnisse können Expatriates jedoch nicht die einzige Antwort auf das Problem sein, zumal der Einsatz von Expatriates in der Regel sehr kostenintensiv ist. ¾ Eine weitere Möglichkeit besteht darin, das Unternehmen für lokales Personal attraktiv zu machen. Neben einer entsprechenden Vergütungsstruktur bedeutet dies die Durchführung von Personalmarketingmaßnahmen, wie sie auch aus den Heimatländern bekannt sind. Hierzu gehören etwa der Ausbau von Beziehungen zu Universitäten im jeweiligen Land und das Auftreten bei Messen. Darüber hinaus sind Angebote zur Weiterqualifizierung ein wesentliches Unterscheidungsmerkmal. Dies erfordert in der Konsequenz den Aufbau einer umfassenden Recruiting, Personalmanagement- und Aus- und Fortbildungsorganisation, die auf die lokalen Verhältnisse zugeschnitten ist. Attraktive Ein-
192
WOLEK/KNECHT/BOROWICZ
stiegs- und Qualifizierungsangebote reichen jedoch insbesondere vor dem Hintergrund der hohen Wechselbereitschaft nicht aus. Die Personalstrategie muss auch die Bindung des Personals umfassen. Gerade für potenzielle Führungskräfte bietet sich hier die Einbindung in das Personalentwicklungsprogramm des Konzerns an, das auch eine eventuelle Entsendung in das Mutterhaus in Aussicht stellen kann, um einen reinen Vergütungswettbewerb zu vermeiden. Je nach Zielsetzung des Engagements in China oder Indien sowie den lokalen Verhältnissen wird eine Personalstrategie mehrere dieser Elemente umfassen.
4
Zusammenfassung
China und Indien sind aus den Vorstands-Etagen der deutschen Unternehmen sind mehr wegzudenken. Zu groß sind die Ertrags-Chancen in beiden Regionen. Zu groß ist das Risiko, wichtige Markttrends zu verpassen, wenn man nicht vor Ort tätig ist. Und zu groß ist der Druck entsprechend schnell lokale Ressourcen zur Marktbedienung aufzubauen. M&A nehmen dabei aufgrund ihrer Eigenschaft, den raschen Zugang zu Ressourcen zu ermöglichen, eine ganz besondere Stellung in China und Indien ein. Die Entwicklung eines rasanten Anstieges der Cross-Border-Transaktionen aus Europa und Amerika bestätigt dieses Bild. Doch durch die Übernahme eines chinesischen oder indischen Unternehmens erwirbt man nicht nur wertvolle Ressourcen, sondern auch die Unternehmensstrukturen des jeweiligen Targets, welche eine erfolgreiche Integration schwierig machen und sogar unter Umständen eine große Zahl von Risiken mit sich bringen können. Drei Bereiche stechen dabei besonders hervor: Compliance Management, Intellectual Property und Technologietransfer, und Human-Resources-Management. Das Compliance-Management hat die Aufgabe, die Einhaltung der lokalen und heimischen, verpflichtenden und freiwilligen Vorschriften herzustellen und zu überwachen. Schon während der Transaktion sind hier entsprechende Analysen durchzuführen. Nach der Transaktion sind eventuelle Mängel schnellstmöglich zu beheben, um nicht Gefahr zu laufen, Sanktionen von Behörden oder „Pressure Groups“ zu erleiden. Das Management von kodifiziertem und nicht-kodifiziertem Wissen ist das nächste, zentrale Handlungsfeld. Hier bieten sich keine Standardlösungen an. Vielmehr ist hier von Region zu Region, Branche zu Branche und Unternehmen zu Unternehmen (Macht bzw. Einfluss auf Behörden) eine individuelle „Handlungsmixtur“ zu verfolgen. Während es sich für ein Unternehmen anbieten kann, Prozesse möglichst intransparent zu gestalten, können andere Unternehme ihre Technologien so „einkapseln“, dass eine Öffnung zu deren Zerstörung führen würde. Bei einer M&A-Transaktion sind der Umgang und Schutz von Prozess- und ProduktKnow-how frühzeitig zu prüfen. Eng mit den oben genannten Handlungsfeldern hängt das Human-Resources-Management zusammen. Der Erfolg von M&A in China und Indien hängt davon ab, ob relevante Mitarbeiter in Unternehmen gebunden werden und sie sich einen Ruf als „exzellenter Arbeitgeber“ erwerben. Auch hierbei kann eine Human Resources Due Diligence hilfreich sein. Grundlage
Mergers & Acquisitions in China und Indien
193
hierfür ist jedoch eine Personalstrategie, die auf die spezifischen regionalen Anforderungen ggf. anzupassen ist. Der Erfolg zeigt sich in der Integration der erworbenen Einheit. Misslingt diese, sind die wichtigsten Mitarbeiter schneller bei der Konkurrenz zu finden als dies in Europa der Fall ist.
Quellenverzeichnis AUSWÄRTIGES AMT (2007): Indien, online: http://www.auswaertiges-amt.de/diplo/de/Laenderinformationen/Indien/Wirtschaft.html, Stand: März 2007, Abruf: 07.09.2007. BUNDESMINISTERIUM FÜR WISSENSCHAFTLICHE ZUSAMMENARBEIT UND ENTWICKLUNG (2006): Korruption vorbeugen, Transparenz fördern – Was tut die deutsche Entwicklungspolitik?, o. O. 2006. CAPRON, L./MITCHELL W. (1998): Bilateral resource redeployment and capabilities improvement following horizontal acquisitions, in: Industrial and Corporate Change, 1998, Nr. 3, S. 453–484. CHATTERJEE, S. (1986): Types of Synergy and Economic Value – The Impact of Acquisitions on Merging and Rival Firms, in: Strategic Management Journal, 1986, S. 119–139. GOLDMAN SACHS (2007): China, online: www.goldman-sachs.de/brics/Countryprofiles/China/ nav_ id,213, Stand: August 2007, Abruf: 13.08.2007. HAWKSWORTH, J. (2006): The World in 2050 – How big will the major emerging market economies get and how can the OECD compete?, o. O. 2006. HECKER, B. (2006): Recruitment of Chinese human resources for a German/European enterprise located in China – Interview mit Prescilla Leung, online: http://www.karrierefuehrer. de/arbeitswelt/china-recruiting-basf.html, Stand: 12.11.2006, Abruf: 07.09.2007. HENNART, J.-F./PARK, Y.-R. (1993): Greenfield vs. Acquisitions – The Strategy of Japanese Investors in the United States, in: Management Sciences, 1993, Nr. 9, S. 1054–1070. JEMSION, D. B./SITKIN, S. B. (1986): Acquisitions – The process can be a problem, in: Harvard Business Review, 1986, S. 107–116. KAUFMANN, L./PANHANS, D./POOVAN, B./SOBOTKA, B. (2005): China Champions – How German companies can successfully integrate China into their global strategies, Wiesbaden 2005. MADDISON, A. (1998): Chinese Economic Performance In The Long Run, Paris 1998. MENZIES, C. (2004): Sarbanes-Oxley Act – Professionelles Management interner Kontrollen, Stuttgart 2004. MITCHELL, W./CAPRON, L. (2002): Managing acquisitions to change and survive, in: European Business Forum, 2002, S. 51–55. O'MELVENY & MYERS LLP (2005): Foreign Corrupt Practices Act Handbook, o. O. 2005. O. V.
(2006): DaimlerChrysler – Ein Star im Zwielicht, in: Focus, 2005, Nr. 36, S. 39.
194
WOLEK/KNECHT/BOROWICZ
O.
V. (2007a): Why Siemens Bribery Probe Slogs On, in: The Wall Street Journal, 16.08.2007, S. 3.
O.
V. (2007b): Autobauer in China – Täuschungsmanöver, online: http://www.stern.de/sportmotor/autowelt/515318.html?nv=cb, Stand: 08.11.2003, Abruf: 07.09.2007.
PORTER, M. E. (1991): Towards a Dynamic Theory of Strategy, in: Strategic Management Journal, 1991, Special Issue – Fundamental Research Issues in Strategy and Economics, S. 95–117. PRICEWATERHOUSECOOPERS (2005a): Investing in China’s next wave – Finding opportunities, building value, Highlights of a PricewaterhouseCoopers Transaction Services Forum, o. O. 2005. PRICEWATERHOUSECOOPERS (2005b): Technology Center – Redefining Intellectual Property Value – The Case of China, o. O. 2005. PRICEWATERHOUSECOOPERS (2006): BRICs & Mortar, o. O. 2006. PRICEWATERHOUSECOOPERS (2007): Technology Executive Connections, Volume 4 – Exploiting Technology in a complex world, o. O. 2007. TRANSPARENCY INTERNATIONAL (2007): online: www.transparency.org, Stand: ohne Angabe, Abruf: 14.08.2007. WERNERFELT, B. (1984): A Resource-Based View of the Firm, in: Strategic Management Journal, 1984, Nr. 2, S. 171–180.
Authorized Economic Operator – Nachhaltige Sicherung der Wettbewerbsfähigkeit im grenzüberschreitenden Warenverkehr? TIM ECKMANN und RACEL MAALEJ Softlab Group
1 2 3 4
Einleitung....................................................................................................................... 197 Reformen des Zollrechts ................................................................................................ 198 Umbruch des Rollenverständnisses zwischen Unternehmen und Behörden .................. 201 Der zugelassene Wirtschaftsbeteiligte ........................................................................... 204 4.1 Zertifizierungsvarianten ....................................................................................... 204 4.1.1 Zugelassener Wirtschaftsbeteiligter – Zollvereinfachungen (AEO-C) .... 204 4.1.2 Zugelassener Wirtschaftsbeteiligter – Sicherheit (AEO-S) ..................... 206 4.1.3 Zugelassener Wirtschaftsbeteiligter – Zollrechtliche Vereinfachungen/ Sicherheit (AEO-F).................................................................................. 207 4.2 Zertifizierungsprozess .......................................................................................... 207 4.2.1 Compact-Modell ...................................................................................... 209 4.2.1.1Methode der Risikoabbildung ...................................................... 209 4.2.1.2Einblick gewinnen ....................................................................... 210 4.2.1.3Ziele klären .................................................................................. 210 4.2.1.4Risiken identifizieren ................................................................... 210 4.2.1.5Risiken bewerten ......................................................................... 211 4.2.1.6Auf Risiken reagieren .................................................................. 212 4.2.2 Leitlinien zu Standards und Kriterien ...................................................... 213 4.2.2.1Informationen über das Unternehmen ......................................... 213 4.2.2.2Bisherige Einhaltung der Zollvorschriften................................... 215 4.2.2.3Buchführungs- und Logistiksystem ............................................. 215 4.2.2.4Zahlungsfähigkeit ........................................................................ 218 4.2.2.5Sicherheitsanforderungen ............................................................ 218 4.2.3 Bewilligung des Status eines zugelassenen Wirtschaftsbeteiligten ......... 219 4.2.4 Prüfungszyklen ........................................................................................ 219 5 Schlussbetrachtung ........................................................................................................ 220 Quellenverzeichnis................................................................................................................ 222
Authorized Economic Operator
1
197
Einleitung
Ein erheblicher Teil der Umsätze der deutschen Wirtschaft wird durch den Export von Waren und Dienstleistungen erzielt. Abhängig von der Branche und dem Unternehmen betragen die Exportumsätze häufig zwischen 60% und 80% des Gesamtunternehmensumsatzes. Das Außenhandelsvolumen betrug nach Angaben des Statistischen Bundesamts allein im Jahr 2006 893,6 Mrd. Euro.1 Der Außenhandelssaldo erreichte den „Rekordüberschuss“ von 162,2 Mrd. Euro. Abbildung 1 zeigt die positive Entwicklung des Außenhandelssaldos insbesondere im Jahr 2006 und der ersten Jahreshälfte des Jahres 2007.
Tatsächliche Werte in Mrd. EUR
Originalwert
Trend-Konjunktur-Komponente Zeitliche Entwicklung
Abbildung 1:
Entwicklung des Außenhandelssaldos2
Die zunehmende Globalisierung der Weltwirtschaft bietet international tätigen Unternehmen eine Vielzahl von Chancen. Wachstumsstrategien in überregionalen Märkten tragen zur Verbesserung der Wettbewerbsfähigkeit bei und unterstützen „Global Player“ bei der Realisierung ehrgeiziger monetärer Ziele. Zugleich stellt die Globalisierung der Weltwirtschaft aber auch eine der größten Herausforderungen der nächsten Jahre dar, weil nicht zuletzt aufgrund zahlreicher terroristischer Anschläge die gesetzlichen Rahmenbedingungen für den internationalen Handel stark verschärft wurden. Der Hintergrund dieser Reformen ist, dass international agierende Unternehmen oftmals schon die Prozesse in ihren ausländischen Tochtergesellschaften nicht kennen. Prozesse werden zumeist ohne tiefgehende Fachkenntnis nach besten Wissen und Gewissen manuell durchgeführt. Neben dem Abbruch der Prozesskenntnis an Schnittstellen (häufig schon Landesgrenzen benachbarter Staaten) tritt die schwierige Beeinflussbarkeit dieser Prozesse, weil nicht nur geographische Distanzen überwunden werden müssen, sondern auch kulturelle Barrieren.
1 2
Vgl. hierzu und folgend STATISTISCHES BUNDESAMT (2007a). Vgl. STATISTISCHES BUNDESAMT (2007b).
198
ECKMANN/MAALEJ
Genau an diesen Schwachstellen setzen die Änderungen des Außenwirtschafts- und Zollrechts auf. Wirtschaftsbeteiligte werden zu einer besseren Kenntnis ihrer eigenen Prozesse über die eigenen Landesgrenzen hinaus gedrängt, um darauf aufbauend ein außenhandelsspezifisches Risikomanagement im Geschäftsalltag zu implementieren, so dass die Wirtschaftsbeteiligten in Eigenverantwortung einen erheblichen Anteil zur Sicherung der Wertschöpfungskette leisten. Insofern müssen globale Wertschöpfungsketten transparent abgebildet werden, um die damit zusammenhängenden Risiken identifizieren und steuern zu können. Die Wettbewerbsfähigkeit kann nur von Wirtschaftsbeteiligten aufrechterhalten werden, die den betriebswirtschaftlichen Fokus vom Einzelunternehmen hin zur Wertschöpfungskette verschieben und sowohl die Koordination als auch die Kontrolle der Material-, Informationsund Werteflüsse sicherstellen, um überdies auch gesetzeskonform zu handeln. Die Vernachlässigung der Wertschöpfungskette wird für „Global Player“ zukünftig mit der Erhöhung von Handelshemmnissen und der Verschlechterung der Wettbewerbsfähigkeit einhergehen, weil diese nicht in den Genuss von z. B. bevorzugter Behandlung bei Zollkontrollen oder mehr Flexibilität durch eine einfachere und schnellere Beantragung von Bewilligungen kommen. Der Grund für die strenge Behandlung solcher Wirtschaftsbeteiligten besteht darin, dass eine untransparente und nicht kontrollierbare Wertschöpfungskette mit einer Vielzahl von unkalkulierbaren Risiken im internationalen Handel einhergeht. Solche organisatorischen Mängel sollten jedoch nicht nur vor dem Kontext einer schlechten Risiko-Einstufung reflektiert werden, vielmehr bedingen diese auch, dass international tätige Unternehmen ihre Wertschöpfungsketten nicht kosten- und zeitoptimiert steuern können. Eine erfolgreiche Sicherung und Koordination der Warenströme ist nämlich nur möglich, wenn diese abbildbar und bewertbar sind. Das Ziel dieses Beitrags ist die Umsetzung der angestoßenen Reformen am Beispiel des zugelassenen Wirtschaftsbeteiligten (engl. Authorized Economic Operator) aufzuzeigen. Aufgrund der Tatsache, dass das Konzept des zugelassenen Wirtschaftsbeteiligten lange Zeit nur anhand englischer Texte diskutiert wurde, hat sich im deutschen Sprachgebrauch die Abkürzung „AEO“ durchgesetzt, welche für „Authorized Economic Operator“ steht. Im Zentrum der Betrachtung stehen der Fluss der Waren-, Informations- und Werteströme über interne und externe Schnittstellen sowie der Aufbau eines außenhandelsspezifischen Risikomanagements, weil diese Aspekte eng mit dem Zertifizierungsprozess zum zugelassenen Wirtschaftsbeteiligten verbunden sind. Abschließend erfolgt eine Bewertung der neu geschaffenen Rechtsfigur vor dem Ziel der nachhaltigen Stärkung der Wettbewerbstätigkeit.
2
Reformen des Zollrechts
Die wesentlichsten Reformen des Welthandelsrechts, des US-amerikanischen und europäischen Rechtsraums sind Abbildung 2 zu entnehmen. Es sei angemerkt, dass asiatische Rechtsentwicklungen ebenfalls einen beträchtlichen Einfluss auf den Welthandel haben. Aus Praktikabilitätsgründen werden sie im Rahmen dieses Beitrags jedoch nicht berücksichtigt.
Authorized Economic Operator
199
In diesem Zusammenhang ist zu beachten, dass die Regelwerke der Weltzollorganisation die Rahmenbedingungen für alle Mitgliedstaaten der World Customs Organization (WCO) und World Trade Organization (WTO) und somit auch für den US-amerikanischen und europäischen Rechtsraum bilden.
World Customs Organisation Customs Guidelines for Integrated Supply Chain Management Risk Management Guide Framework of Standards to Secure and Facilitate Global Trade
USA
Europäische Gemeinschaft ¾EG VO 648/2005
¾Container Security Initiative (CSI)
¾EG VO 1875/2006
¾Customs Trade Partnership against Terrorism (C-TPAT)
¾AEO-Compact-Modell ¾AEO-Leitlinien zu Standards und Kriterien ¾Customs 2013
¾International Ship and Port Safty Code ¾Public Health Security Bioterrorism Act ¾10 plus 2
¾Zentrale Zollabwicklung
Abbildung 2:
Wesentliche Reformen des Zoll- und Außenwirtschaftsrechts
Die wichtigsten Ziele dieser Reformen sind: ¾ Terrorismusbekämpfung ¾ Eine bessere Überwachung der Verbote und Beschränkungen im Außenwirtschaftsverkehr ¾ Unterbindung des illegalen internationalen Waffenhandels ¾ Aufdeckung von Rechnungsfälschungen (Verrechungspreisproblematik) im internationalen Wirtschaftsverkehr ¾ Unterbindung des internationalen Drogenhandels ¾ Unterbindung des illegalen Handels von Gold, Diamanten, etc. ¾ Protektion von Märkten vor gefälschten Waren zum Schutz der finanziellen Interessen von Wirtschaftsgemeinschaften (Produkt-Piraterie) ¾ Verbesserte Kontrollen von Lebensmitteln und Tierprodukten
200
ECKMANN/MAALEJ
Als Gesamtziel der Reformen kann somit die durchgängige Sicherung internationaler Wertschöpfungsketten („End-to-end-supply-chain“) konstatiert werden, welches sich teilweise konfliktär zur Vereinfachung globaler Material-, Informations- und Werteflüsse verhält. Die zentrale Maßnahme zur Sicherung der internationalen Wertschöpfungsketten ist eine effiziente Durchführung von Zollkontrollen, welche auf einem Risikomanagement-System zwischen Behörden und Unternehmen basieren. Darüber hinaus wird eine gegenseitige Anpassung und Anerkennung der noch unterschiedlichen Reformen zwischen den wichtigsten Wirtschaftsräumen und Märkten angestrebt, um ein einheitliches globales Sicherheitsniveau zu erreichen. Die Schaffung einheitlicher Standards und Kriterien führt dann im Ergebnis zu einer ganzheitlichen und gleichwertigen Sicherung globaler Wertschöpfungsketten. Hinzu eröffnet die Abstimmung der Reformen und Initiativen unterschiedlicher Wirtschaftsräume die Möglichkeit der gegenseitigen Anerkennung von Sicherheitszertifizierungen wie der des zugelassenen Wirtschaftsbeteiligten. Dies erspart den Antragstellern die Wiederholung komplizierter und lang andauernder Zertifizierungsprozesse und befähigt zu einem einfacheren Zugang zu überregionalen Märkten. Dass eine Nichteinhaltung der neuen globalen Rahmenbedingungen zu empfindlichen Folgen führen kann, haben die jüngsten Verlautbarungen der Securities and Exchange Commission (SEC) gezeigt, welche Unternehmen (auch namenhafte deutsche Unternehmen) anprangerte, die Handel mit kritischen Ländern (so genannten Schurkenstaaten) betreiben. Dies führte dazu, dass einige der gerügten Unternehmen starke Kursverluste hinnehmen mussten. Neben die Diffamierung solcher Unternehmen gegenüber ihren Fremdkapitalgebern können insbesondere die nachfolgend aufgezählten Konsequenzen treten, wenn Wirtschaftsbeteiligte von einer Partizipation an den Programmen zur Sicherung globaler Wertschöpfungsketten absehen: ¾ Verlust von zollrechtlichen Vereinfachungen ¾ Verzögerungen oder Unterbrechungen der Lieferkette, welche zu Produktionsstillständen führen können ¾ Steigende Logistikkosten ¾ Häufigere Kontrollen durch Behörden an Ausfuhr- und Ausgangszollstellen ¾ Häufigere und tiefgehende Betriebsprüfungen ¾ Geld- und Haftstrafen ¾ Kundenunzufriedenheit ¾ Imageverlust aufgrund schlechter Risikoeinstufung durch Behörden ¾ Konterkarieren von Corporate Governance ¾ Aufnahme in so genannte „Black lists“ wie z. B. die US-amerikanische „Denied Persons List“ ¾ Verlust von ISO-Zertifizierungen ¾ Möglicher Zwang zum Rückzug aus überregionalen Märkten ¾ Eingeschränkter Zugang zu überregionalen Märkten ¾ Keine Zertifizierung als sicherer oder zuverlässiger Wirtschaftsbeteiligter
Authorized Economic Operator
3
201
Umbruch des Rollenverständnisses zwischen Unternehmen und Behörden
Die Erhöhung des Wettbewerbs unter „Global Playern“ bedingt, dass diese ihre Fertigungstiefe verringern und sich zunehmend auf ihre Kernkompetenzen konzentrieren. Die größten Erfolgspotenziale bestehen gegenwärtig in einer intelligenten Koordination der Waren-, Werte- und Informationsflüsse entlang der Wertschöpfungskette. Eine aktuelle Studie des Instituts für Supply Chain Management (ISCM) und der Management Beratung McKinsey die mit 40 der 74 größten Konsumgüterhersteller in Deutschland durchgeführt wurde, zeigt die Unterschiede zwischen Best-Practice-Unternehmen und dem Durchschnitt auf.3 Logistikkosten, Fertigwarenbestand, Servicelevel und Lieferzeiten sind bei Best-Practice-Unternehmen erheblich besser.4 Gemäß dieser Studie stellen folgende Aspekte im Supply-Chain-Management relevante Erfolgsfaktoren dar: ¾ Supply-Chain-Kooperationen ¾ Flexible Produktion ¾ Integrierte Supply-Chain-Organisationen ¾ Segmentierungsstrategie ¾ Supply-Chain-Planung ¾ Supply-Chain-Controlling5 Von Bedeutung ist vorwiegend, in welchem Verhältnis wirtschaftlich handelnde Unternehmen und staatliche Behörden zueinander stehen, weil die Verbesserung des Informationstransfers zwischen diesen Prozesspartnern die Wettbewerbsfähigkeit erheblich steigern kann. Aus der Sichtweise wirtschaftlich organisierter und unter Wettbewerbsdruck stehender Unternehmen besteht das Verlangen nach einer Kooperation mit staatlichen Behörden, weil diese im Rahmen der Außenhandelsprozesse mehrere entscheidende, unternehmensexterne Schnittstellen in der Wertschöpfungskette besetzen. Sowohl die Geschwindigkeit bei der Bearbeitung von Anmeldungen und Genehmigungen als auch die Durchführung der eigentlichen Zollkontrollen entscheiden über die Beantwortung der Fragen: ¾ Wie schnell kann ein Markt oder ein Kunde bedient werden? ¾ Wie reibungslos erfolgt der Fluss von Waren, Informationen und Werten durch die Wertschöpfungskette? Unternehmen sind bestrebt, ihre Import- und Exportgeschäfte schnell und kostengünstig abzuwickeln, weil ihr Handeln stets von Gewinn- und Umsatzmaximierung sowie der Steigerung von Marktanteilen geleitet wird. Sicherlich besteht dieses Bedürfnis schon seit dem Beginn des Außenhandels der Hansestädte im Jahr 1590. Dem steht jedoch gegenüber, dass das Schutzbedürfnis vieler Staaten und damit auch das Schutzbedürfnis von Unternehmen 3 4 5
Vgl. GROSSPIETSCH/THONEMANN (2003), S. 34. Vgl. GROSSPIETSCH/THONEMANN (2003), S. 35. Vgl. RICHERT (2006), S. 15.
202
ECKMANN/MAALEJ
nicht zuletzt aufgrund der terroristischen Anschläge in New York, Bali, Madrid und London enorm gestiegen ist, so dass Reformen und eine damit einhergehende Komplexitätszunahme des Außenwirtschafts- und Zollrechts zur Sicherung internationaler Wertschöpfungsketten unabdingbar gewesen sind. Der gestiegene Komplexitätsgrad ist neben der weiteren Zunahme der außenhandelsrelevanten Rechtsmaterie unter anderen auch auf das immer größer werdende Volumen international gehandelter Waren zurückzuführen. Fraglich ist hier, wie der Komplexitätszunahme effektiv im Verhältnis von Unternehmen und Behörden entgegengewirkt werden kann. Grundsätzlich können zwischen Trägern hoheitlicher Gewalt und privatwirtschaftlichen Unternehmen nicht die üblichen betriebswirtschaftlichen Strategien zur Harmonisierung von Schnittstellen angewandt werden. Typisch wäre die Integration der externen Organisation durch Zukauf, Anteilserwerb oder Abschluss eines Beherrschungsvertrags, um die Schnittstellen aus der Wertschöpfungskette zu beseitigen oder die Organisationsstruktur erfolgsorientiert anzupassen. Eine solche Verfahrensweise kommt hier jedoch nicht Betracht. Vielmehr muss die Zusammenarbeit zwischen Unternehmen und Behörden im Rahmen einer Partnerschaft gestaltet werden, um unnötigen Verzögerungen oder sogar Unterbrechungen der Waren- und Werteflüsse vorbeugen zu können. Gemäß dem Duden-Fremdwörterbuch ist ein Partner „jemand, der mit anderen etwas gemeinsam zu einem bestimmten Zweck unternimmt“.6 Wesentliches Element ist dabei das Wort gemeinsam, welches beinhaltet, dass die Interessen beider Partner gleichberechtigt berücksichtigt werden. Dies ist zunächst grotesk, weil im Bereich hoheitlicher Tätigkeit eine gemeinsame Interessenlage nicht gegeben zu sein scheint. Indessen muss als gemeinsames Ziel von Wirtschaft und der von dem internationalen Warenverkehr betroffenen Behörden jedoch die Schaffung eines möglichst hohen Maßes an Sicherheit auf der gesamten Kette des Warenhandels festgehalten werden. Sicherheit bedeutet in diesem Zusammenhang: 7 ¾ Vorprodukte müssen von „sicheren“ Lieferanten gekauft werden. ¾ Der Ursprung einer Ware muss festgestellt werden können. ¾ Das Produkt eines Herstellers muss in einem anerkannt „sicheren“ Umfeld produziert werden, ¾ an einen anerkannt „sicheren“ Spediteur weitergegeben werden, ¾ in einem anerkannt gesicherten Lagerhaus zwischengelagert werden und ¾ von einem anerkannt „sicheren“ Transporteur exportiert werden sowie ¾ an einen „sicheren“ Kunden verkauft werden. ¾ Der Verbleib und die Verwendung des Produkts muss sichergestellt werden.
6 7
Vgl. DUDEN (2006). Vgl. STÄHR (2005), S. 34.
Authorized Economic Operator
203
Für die Gewährleistung der Sicherheit im internationalen Warenverkehr sind wiederum die Zollbehörden zuständig. Traditionell obliegen diesen die Sicherheitskontrollen am Ausgangspunkt der Gemeinschaft (Ausgangszollstelle) und am Eingangspunkt in die Gemeinschaft (Eingangszollstelle). Konkreter formuliert haben die Zollverwaltungen dafür Sorge zu tragen, dass Waren, die in ein Land eingeführt werden, keine Gefährdung für die Bevölkerung darstellen. Genau an dieser Stelle, wo das Verlangen nach der Sicherung der Wertschöpfungsnetzwerke und die Aufgaben der Zollverwaltungen aufeinander treffen, bestehen große Erfolgspotenziale zur Harmonisierung externer Unternehmensschnittstellen, weil zu einem großen Teil die Kommunikation mit Zollbehörden nach wie vor formulargestützt erfolgt und ein gemeinsames Risikomanagement basierend z. B. auf Voranmeldefristen gegenwärtig noch nicht existiert. Angesichts des großen Handelsvolumens von Waren müssen Zollkontrollen, um effektiv zu sein, zielgerichtet erfolgen. Grundlage für die Einstufung einer Sendung als verdächtig oder sicherheitskritisch ist die Auswertung der durch die Wirtschaftsbeteiligten an das Importland übermittelten Waren- und Transportdaten.8 Im Zusammenhang mit dem Informationstransfer von Unternehmen zu staatlichen Behörden entwickelt die Weltzollorganisation im Rahmen des „Framework of Standards to Secure and Facilitate Global Trade“ gemeinsam mit der Wirtschaft einen globalen Mechanismus zur Sicherheit der Wertschöpfungskette, der die wesentlichen Elemente der EU-US-Vereinbarungen enthält. Dazu gehören die durch die EUKommission im Rahmen der Überarbeitung des Zollkodex` vorgesehenen Instrumentarien des „Authorized Economic Operator“ zur Vorabübermittlung warenbezogener Daten sowie der Transfer der wichtigsten Risikoindikatoren zum Erstellen einer Risikoanalyse. Das Pendant zum AEO stellt auf U. S.-amerikanischer Seite das „U. S. Customs Trade Partnership against Terrorism“ dar. Das Ziel dieser Initiativen ist die Schaffung eines einheitlichen Sicherheitsniveaus auf allen Ebenen der Wertschöpfungskette und gleichzeitig die Verhinderung von Verzögerungen im weltweiten Warenhandel. Mit der Aufnahme des zugelassenen Wirtschaftsbeteiligten in den Zollkodex und der Initiierung des „Trade Partnership against Terrorism“ kommt erstmals das Verständnis von internationalen Organisationen, regionalen Freihandelszonen und staatlichen Verwaltungen zum Ausdruck, welches das Handeln der Zollbeteiligten Auswirkungen auf die Sicherheit und Geschwindigkeit der Wertschöpfungsketten von Wirtschaftsbeteiligten hat. Durch dieses Selbstverständnis und die Initiative zur Optimierung dieser Schnittstellen in Wertschöpfungsnetzwerken werden partnerschaftliche Aspekte zwischen den beteiligten Parteien ersichtlich. Es wird versucht, ein ausgewogenes Verhältnis zwischen Zollkontrollen, Sicherheit und Verfahrenserleichterungen zu schaffen. Freilich ist die Schaffung des zugelassenen Wirtschaftsbeteiligten noch keine abschließende Lösung der Schnittstellenproblematik zwischen Wirtschaft und staatlichen Behörden, jedoch kommt das Bewusstsein der Ausfuhr- und Zollbehörden über die eigene Stellung in der Wertschöpfungskette und der Wille zur Lösung der Schnittstellenprobleme durch die Initiative zum zugelassenen Wirtschaftsbeteiligten zum Ausdruck (z. B. durch den massiven Ausbau der ITInfrastruktur). Es kann festgehalten werden, dass ein noch nicht abgeschlossener Bewusstseinswandel auf staatlicher Seite vollzogen wird, dessen Ziel die Hebung des Sicherheitsniveaus sowie die Optimierung der internationalen Wertschöpfungsnetzwerke durch verstärkten Einsatz von Informationstechnologie und einem bipolaren Risikomanagement-System (Privilegierung zuverlässiger Wirtschaftsbeteiligter) ist. 8
Vgl. STÄHR (2005), S. 35.
204
4
ECKMANN/MAALEJ
Der zugelassene Wirtschaftsbeteiligte
Die Europäische Kommission entwickelte die Rechtsfigur des zugelassenen Wirtschaftsbeteiligten, um der zunehmenden Globalisierung sowie der veränderten Sicherheitslage Rechnung zu tragen. Durch die Schaffung dieses Status` werden in den Zollverwaltungen moderne Methoden zur Risikoanalyse und auditgestützte Kontrollen implementiert, durch welche unter anderem die Kosten, die den Wirtschaftsbeteiligten durch eine gesetzeskonforme Strukturierung ihrer Außenhandelsprozesse entstehen, verringert werden sollen. Der zugelassene Wirtschaftsbeteiligte dokumentiert die besondere Zuverlässigkeit und die Vertrauenswürdigkeit von Unternehmen. Die rechtliche Grundlage für den Status des zugelassenen Wirtschaftsbeteiligten bildet Art. 5a der EG VO 648/2005, welcher die Grundverordnung (den Zollkodex) ändert. Grundsätzlich hat diese Rechtsfigur für alle international tätigen Unternehmen eine große Bedeutung, weil dieser Status einen starken Einfluss auf die Wertschöpfungskette hat.
4.1
Zertifizierungsvarianten
Grundsätzlich ist die Zertifizierung zum zugelassenen Wirtschaftsbeteiligten unbeschadet der Inanspruchnahme anderer Vereinfachungen des Zollrechts gemäß Art. 5a EG VO 648/2005 möglich. Vereinfachte Verfahren können nach wie vor auch ohne den Status des zugelassenen Wirtschaftsbeteiligten beantragt werden. Inhaltlich kann sich die Beantragung des Status auf unterschiedlichen Varianten gemäß Art. 14a EG VO 1875/2006 beziehen. Formelle Voraussetzung für die Inanspruchnahme des Status ist zunächst, dass der Begünstigte als eine Personen- oder Kapitalgesellschaft nach Art. 4 Nr. 1 ZK qualifiziert werden kann. Ferner muss das Unternehmen gem. Art. 4 Nr. 2 ZK in der Europäischen Gemeinschaft ansässig sein. Der Antrag auf Verleihung des Status als zugelassener Wirtschaftsbeteiligter ist nach Art. 6 Abs. 1 ZK 2005 bei der zuständigen Zollbehörde zu stellen.9 4.1.1
Zugelassener Wirtschaftsbeteiligter – Zollvereinfachungen (AEO-C)
Die Zertifizierungsvariante zollrechtliche Vereinfachungen ist in Art. 14a Abs. 1 a) EG VO 1875/2006 normiert. Diese Variante sieht einen vereinfachten Zugang für zugelassene Wirtschaftsbeteiligte zu zollrechtlichen Vereinfachungen vor. Allerdings steht es den Wirtschaftsbeteiligten offen, die im gegenwärtigen Zollkodex der Gemeinschaft existierenden Verfahrensvereinfachungen weiter isoliert zu beantragen.10 Gegenwärtige Vorteile dieser Zertifizierungsvariante sind:
9 10
Vgl. SUMMERSBERGER (2005) S. 83. Vgl. EUROPÄISCHE KOMMISSION (2005), S. 5.
Authorized Economic Operator
205
¾ Bei der Beantragung von Bewilligungen werden von den Zollbehörden nur noch die Voraussetzungen geprüft, die nicht bei der Erteilung des AEO-Zertifikats geprüft worden sind. ¾ Weniger Zollkontrollen gemäß Art. 14b Abs. 4 ZK-DVO. Die geringere Kontrolldichte betrifft auch nachträgliche Zollkontrollen bis hin zu Außenprüfungen. ¾ Die Beantragung von Vereinfachungen in anderen Mitgliedstaaten wird einfacher, weil durch die Erfüllung der Voraussetzungen für den AEO generell Schnittmengen mit den Voraussetzungen für spezielle Verfahrensvereinfachungen in anderen Mitgliedstaaten gegeben sind.11 Vorteile die voraussichtlich zukünftig an den AEO-C gekoppelt werden: ¾ Die zu leistende Gesamtsicherheit könnte zukünftig vom AEO-C abhängig sein. Denkbar ist sogar eine Befreiung von der Leistung der Gesamtsicherheit wie es sie schon gegenwärtig beim zugelassenen Versender gemäß Art. 380 ZK-DVO gibt. ¾ Verschmelzung von vereinfachter Zollanmeldung und vereinfachten Anmeldeverfahren. ¾ Kopplung der zentralen Zollabwicklung an den AEO-C. Entsprechend der Konzeption der zentralen Zollabwicklung könnte somit für Inhaber des Zertifikats AEO-C die Steuerung des EU-weiten Außenhandels vom Niederlassungsort des Antragsstellers mit reduzierten Datensätzen möglich sein (also Ballung von Kompetenzen an einem Ort) sowie die Konsolidierung der EU-weiten Zollabgaben bei der Einfuhrzollstelle des Niederlassungsorts des Antragstellers. Ferner sollen Einfuhrwaren ohne die Zwischenschaltung eines Versandverfahrens direkt zum Empfänger verbracht werden können. Unternehmen, die nicht die Zertifizierung zum zugelassenen Wirtschaftsbeteiligten für zollrechtliche Vereinfachungen anstreben, müssen hingegen mit den folgenden Auswirkungen rechnen: ¾ Der Zugang zu ausländischen Märkten verzögert sich, weil zollrechtliche Verfahrensvereinfachungen nicht kurzfristig in Anspruch genommen werden können und mit langen Wartezeiten an den Ausgangszollstellen zu rechnen ist. ¾ Aufgrund langer Wartezeiten an den Ausgangszollstellen erhöhen sich die Logistikkosten. ¾ Es besteht das latente Risiko der Verzögerung oder Unterbrechung der Wertschöpfungskette, weil die Wartezeiten an den Aus- und Eingangszollstellen nicht kalkulierbar sind. Demgemäß besteht auch das Risiko von Produktionsstillständen. ¾ Unternehmen ohne AEO-Zertifizierung besitzen nicht die nötige Flexibilität, um zukünftige zollrechtliche Gestaltungsspielräume in Anspruch nehmen zu können. Wirtschaftsbeteiligte mit AEO-C werden prioritär behandelt und unterliegen weniger umfangreichen Prüfungen.
11
Vgl. AIGNER (2006b), S. 48.
206
4.1.2
ECKMANN/MAALEJ
Zugelassener Wirtschaftsbeteiligter – Sicherheit (AEO-S)
Gemäß Art. 14 Abs. 1 b) EG VO 1875/2006 werden dem Inhaber dieses AEO-Zertifikats Erleichterungen bei sicherheitsrelevanten Zollkontrollen für Waren gewährt, die in das oder aus dem Zollgebiet der Gemeinschaft verbracht werden. Die Zertifizierung zum AEO-S ist von der Risikoanalyse abhängig, die im Rahmen des Zertifizierungsprozesses durchgeführt wird. Die Risikoeinstufung der Wirtschaftsbeteiligten basiert auf dem von der Europäischen Kommission veröffentlichten Compact-Modell, nach welchem die Bewertung der mit den Wirtschaftsbeteiligten verbundenen Risiken erfolgt. Als Risiko werden solche Faktoren bezeichnet, die sich nachteilig auf die Ziele des Zolls auswirken. Ziele des Zolls sind eine Rationalisierung und Steigerung der Effizienz der Kontrollen an den Außengrenzen, die z. B. im Falle der Einfuhr in folgender Weise erreicht werden soll: ¾ Sicherheitskontrollen zum Schutz der Bevölkerung werden grundsätzlich am Ort des Eingangs in die Gemeinschaft durchgeführt. ¾ Sonstige Kontrollen – insbesondere zum Schutz der steuerlichen, wirtschaftlichen und finanziellen Interessen der Gemeinschaft und der Mitgliedstaaten – finden in der Regel bei einer Binnenzollstelle oder in den Räumlichkeiten des Beteiligten statt.12 Das Compact-Modell berücksichtigt einerseits die von den Wirtschaftsbeteiligten selbst ergriffenen Maßnahmen und konzentriert sich auf die Risiken, die nicht angemessen von dem Risikomanagement des Wirtschaftsbeteiligten berücksichtigt werden. Demgemäß besteht die Notwendigkeit der Zollbehörden, sich ein umfassendes Bild von dem Wirtschaftsbeteiligten zu machen, indem sie seine Geschäftstätigkeit vor den Maßnahmen reflektieren, die der Wirtschaftsbeteiligte ergriffen hat, um die Risiken bei fiskalischen und nicht-fiskalischen Vorgängen einschließlich der dazu parallel verlaufenden logistischen Prozesse zu verringern. Im Zentrum der Risikoanalyse und -bewertung stehen somit die Verwaltungsorganisation und das interne Kontrollsystem. Ein Unternehmen gilt als sicher, wenn es die Systeme und Verfahren eingeführt hat, die im Zollkodex und die in den Leitlinien zu Standards und Kriterien genannten Anforderungen und Bedingungen erfüllt. Auf diese Aspekte wird im Rahmen des Zertifizierungsprozesses in Abschnitt 4.2 tiefer eingegangen. Unternehmen, die nicht die Zertifizierung zum zugelassenen Wirtschaftsbeteiligten für Sicherheit anstreben, müssen mit folgenden Auswirkungen rechnen, welche teilweise eine Schnittmenge mit den Auswirkungen des AEO-C haben: ¾ Die Häufigkeit von Betriebsprüfungen wird zunehmen. ¾ Betriebsprüfungen werden länger andauern und einen größeren Unterlagenumfang erfassen. ¾ Wettbewerbern mit AEO-S Zertifikat wird eine summarische Anmeldung mit geringeren Datensätzen ermöglicht (Wettbewerber mit AEO-S haben weniger Verwaltungsaufwand). ¾ Die Implementierung der Zollsoftware „ATLAS Ausfuhr“ fällt umfangreicher aus, weil Unternehmen ohne AEO-S größere Datensätze bei der Ausfuhr von Waren melden müssen. 12
Vgl. LUX (2005), S. 39.
Authorized Economic Operator
207
¾ Wettbewerber mit AEO-S können ihre Just-in-time-Lieferung oder Just-in-sequenceLieferung wesentlich zuverlässiger planen, weil ihnen eine vorzeitige Mitteilung über weitergehende Warenkontrollen übermittelt wird. ¾ Unternehmen ohne die Zertifizierung AEO-S müssen mit langen Wartezeiten an den Ausgangszollstellen rechnen, so dass aufgrund nicht kalkulierbarer Standzeiten das latente Risiko von Unterbrechungen der Lieferkette und Produktionsstillständen besteht. ¾ Lange Wartezeiten an den Ausgangszollstellen gehen mit erhöhten Logistikkosten einher. 4.1.3
Zugelassener Wirtschaftsbeteiligter – Zollrechtliche Vereinfachungen/ Sicherheit (AEO-F)
Art. 14 Abs. 1 c) EG VO 1875/2006 gewährt sowohl die unter Buchstabe a) bezeichneten zollrechtlichen Vereinfachungen als auch die unter b) genannten sicherheitsrelevanten Erleichterungen bei Zollkontrollen. Voraussetzung dafür ist, dass die im Zollkodex und die in den Leitlinien zu Standards und Kriterien gestellten Anforderungen und Bedingungen für beide Zertifizierungsvarianten erfüllt werden, auf welche später noch konkreter eingegangen wird.13 Mit der Zertifizierungsvariante AEO-F können sicherlich die beträchtlichsten Erfolgspotenziale hinsichtlich der Sicherung und Optimierung der Wertschöpfungskette freigesetzt werden und die Wettbewerbsfähigkeit durch die Ausnutzung rechtlicher und informationstechnologischer Gestaltungsmöglichkeiten nachhaltig gesichert werden.
4.2
Zertifizierungsprozess
Das AEO-Pilot-Projekt hat gezeigt, dass die Prüfung der Zertifizierungskriterien ca. 200–300 Arbeitsstunden in Anspruch nimmt.14 Die Prüfungsdauer ist von den in Abbildung 3 aufgeführten Faktoren abhängig.15 Darüber hinaus ist davon auszugehen, dass eine Vielzahl im Rahmen der Prüfung zu verwendenden Information für die Zollbehörden zugänglich ist: ¾ Informationen, die den Zollbehörden für die Bewilligung anderer zollrechtlicher Verfahrensvereinfachungen bereits zur Verfügung gestellt wurden ¾ Informationen aus früheren Zollprüfungen ¾ Informationen über die alltägliche Nutzung von Zollverfahren, welche den aktuell genutzten IT-Systemen zu entnehmen sind (z. B. ATLAS)
13 14 15
Vgl. EUROPÄISCHE KOMMISSION (2005), S. 5. Vgl. EUROPÄISCHE KOMMISSION (2006b), S. 8. Vgl. EUROPÄISCHE KOMMISSION (2006b), S. 8 f.
208
ECKMANN/MAALEJ
Bedürfnis des Informationsaustauschs mit anderen Behörden (z. B. Nachrichtendiensten)
Abhängigkeit des
Größe des Unternehmens und die damit einhergehende Komplexität der Organisation und Prozesse sowie der dazugehörigen Dokumentation
Prüfungsumfangs Bedürfnis des Informationsaustausches zwischen den Zollbehörden
Abbildung 3:
Bereits vorhandene Informationen über den Antragssteller bei den Zollbehörden
Abhängigkeit des Prüfungsumfangs
Prüfungsumfang und -zeit können weiter reduziert werden, wenn der Antragsteller bereits im Besitz anderer Sicherheitszertifizierungen ist, wie z. B.: ¾ Internationale Sicherheitszertifizierungen, welche auf internationalen Konventionen basieren ¾ Sicherheitszertifizierungen der Europäischen Union ¾ ISO-Zertifizierungen (z. B. ISO/PAS 2800 ff.) Tochtergesellschaften, die ebenfalls die Zertifizierung zum zugelassenen Wirtschaftsbeteiligter begehren, müssen einen eigenen Antrag bei der zuständigen Zollbehörde stellen. Ausgehend von dem Fall, dass eine Tochtergesellschaft die gleichen Zollverfahren und Sicherheitsstandards wie ihre Muttergesellschaft verwendet, kann die Muttergesellschaft den Fragebogen des Arbeitsdokuments TAXUD/2006/1450, erschienen am 07. Mai 2007, stellvertretend für ihre Töchter ausfüllen.16 Die Zollbehörde erhält dann mehrere Anmeldungen von Gesellschaften eines Konzerns und lediglich einen ausgefüllten Fragebogen der Muttergesellschaft, deren Angaben auch für die Tochtergesellschaften zutreffend sind. Voraussetzung ist jedoch, dass die Tochtergesellschaften im gleichen Mitgliedstaat gegründet wurden wie die Konzernmutter. Andernfalls haben angebundene Gesellschaften, die in einem anderen Mitgliedstaat ansässig sind, sowohl einen eigenen Antrag zu stellen, als auch den Fragebogen des Arbeitsdokuments TAXUD/2006/1450 auszufüllen. Der eigentliche Zertifizierungsprozess zum zugelassenen Wirtschaftsbeteiligten besteht aus der Risikoanalyse des Unternehmens, welche anhand der im Compact-Modell vorgeschriebenen Methodik durchgeführt wird. Die Risikoanalyse umfasst inhaltlich das Vorliegen der einzelnen Tatbestandsmerkmale von Art. 5a Abs. 2 EG VO 648/2005, welche durch die Leitlinien zu Standards und Kriterien der Arbeitsunterlage TAXUD/2006/1450 weiter konkretisiert werden. Bewilligungsvoraussetzungen gemäß Art. 5a Abs. 2 EG VO 648/2005 sind: 16
Vgl. EUROPÄISCHE KOMMISSION (2006b), S. 12.
Authorized Economic Operator
209
¾ die bisher angemessene Einhaltung der Zollvorschriften ¾ ein zufriedenstellendes System der Führung der Geschäftsbücher und gegebenenfalls der Beförderungsunterlagen, die angemessene Zollkontrollen ermöglichen ¾ gegebenenfalls die nachweisliche Zahlungsfähigkeit ¾ gegebenenfalls angemessene Sicherheitsstandards 4.2.1
Compact-Modell
Im Rahmen des Zertifizierungsprozesses besteht eine der wichtigsten Aufgaben des Zolls darin, die mit den Warenströmen verbundenen Risiken zu identifizieren und zu bewerten. Risiken im Sinne des Compact-Modells sind alle Faktoren, die sich nachteilig auf die Ziele des Zolls auswirken.17 Dieses Modell bietet insbesondere den Vorzug, dass die Zollbehörden die Maßnahmen berücksichtigen, welche die Wirtschaftsbeteiligten selbst getroffen haben, um Risiken in ihren Geschäftsprozessen zu vermeiden. Ein weiterer wesentlicher Vorteil dieser Methode besteht darin, dass die Zollbehörden ihre Kapazitäten auf jene Risiken konzentrieren können, die nicht oder nicht in ausreichendem Maße durch Maßnahmen der Wirtschaftsbeteiligten gesteuert werden.18 Bestandteil des Compact-Modells sind die Methode der Risikoabbildung sowie die Leitlinien zu Standards und Kriterien. Der Zweck der Leitlinien besteht in der Unterstützung des Antragstellers, falls dieser sich dazu entscheidet eine Selbstbewertung vorzunehmen. Das durch die Selbstbewertung entstehende Profil des Wirtschaftsbeteiligten wird dann von den Zollbehörden mit dem tatsächlichen Profil verglichen. Diese Art der Nutzung ist jedoch nur gestattet, wenn der Wirtschaftsbeteiligte über das erforderliche Know-How und die notwendigen Fähigkeiten verfügt.19 Außerdem können die Leitlinien im Rahmen der Vorprüfung von den Zollbehörden verwendet werden, wenn der Wirtschaftsbeteiligte keine Selbstbewertung vornimmt. Die Kriterien und Standards werden dann vom Prüfer auf ihr Vorliegen hin überprüft.20 4.2.1.1 Methode der Risikoabbildung Durch den Einsatz der Methode der Risikoabbildung sollen Risiken entsprechend ihrer Eintrittswahrscheinlichkeit und ihrer Auswirkungen auf die Ziele des Zolls gewichtet werden. Die Methode lässt sich in die folgende Verfahrensschritte aufgliedern: ¾ Einblick gewinnen ¾ Ziele (des Zolls) klären ¾ Risiken identifizieren (die einen Einfluss auf die Ziele des Zolls haben) ¾ Risiken bewerten (Welche Risiken stellen die größte Gefahr dar?)
17 18 19 20
Vgl. EUROPÄISCHE KOMMISSION (2006d), S. 2. Vgl. EUROPÄISCHE KOMMISSION (2006d), S. 2 f. Vgl. EUROPÄISCHE KOMMISSION (2006d), S. 6. Vgl. EUROPÄISCHE KOMMISSION (2006d), S. 6.
210
ECKMANN/MAALEJ
¾ Auf Risiken reagieren 4.2.1.2 Einblick gewinnen Die Zollbehörden müssen einen Einblick in die Geschäftstätigkeit des Wirtschaftsbeteiligten gewinnen. Ein wesentlicher Bestandteil dieses Schritts besteht in der Analyse der Geschäftsprozesse des Antragstellers sowie einer Analyse des Geschäftsumfelds.21 Geeignete Indikatoren für die Erhebung von Informationen über die Geschäftstätigkeit des Wirtschaftsbeteiligten können überwiegend dem ersten Abschnitt der Leitlinien entnommen werden. Weitere Informationen, die einen tiefen Einblick in das Unternehmen gewähren, können durch Gespräche oder durch schriftliche Belege aus der Verwaltung des beantragenden Unternehmens generiert werden. 4.2.1.3 Ziele klären Unter diesem Aspekt erfolgt eine Validierung konkreter Risiken in Abhängigkeit von der Art der Erleichterungen und Vereinfachungen, die der Wirtschaftsbeteiligte beantragt hat, weil bestimmte Risiken nicht pauschal auf jeden Wirtschaftsbeteiligten zutreffen.22 Auf diese Weise wird sichergestellt, dass die Erwartungen der Wirtschaftsbeteiligten mit den Anforderungen und Vorteilen des AEO-Programms übereinstimmen. In diesem Zusammenhang kann als Beispiel ein Produktportfolio eines antragstellenden Unternehmens betrachtet werden, dass keine genehmigungsbedürftigen Güter enthält. Entsprechend dem Produktportfolio ist das Risiko, dass ein genehmigungsbedürftiges Gut aufgrund mangelhafter interner Prozesse zufällig in die Hände von Terroristen fällt gleich Null. Folglich bedingt die Validierung der Risiken bewusst eine Asynchronität bei der Gewichtung bestimmter Anforderungen. 4.2.1.4 Risiken identifizieren Ein Risiko im Sinne des Compact Modells bezeichnet die Wahrscheinlichkeit des Eintretens eines Vorfalls im Zusammenhang mit dem Eingang, dem Ausgang, dem Versand und der besonderen Verwendung von Waren, die zwischen dem Zollgebiet der Europäischen Gemeinschaft und Drittländern befördert werden, sowie im Zusammenhang mit dem Vorhandensein von Waren ohne Gemeinschaftsstatus, sofern dieser Vorfall ¾ die ordnungsgemäße Durchführung von Gemeinschafts- oder nationalen Maßnahmen verhindert oder ¾ den finanziellen Interessen der Gemeinschaft und ihrer Mitgliedstaaten schadet oder ¾ die Sicherheit der Gemeinschaft, die öffentliche Gesundheit, die Umwelt und die Verbraucher gefährdet.23
21 22 23
Vgl. EUROPÄISCHE KOMMISSION (2006d), S. 8. Vgl. EUROPÄISCHE KOMMISSION (2006d), S. 9. Vgl. EUROPÄISCHE KOMMISSION (2006d), S. 10.
Authorized Economic Operator
211
Durch die Klärung der Ziele im vorherigen Schritt ist das Handlungsfeld für die Prüfung abgesteckt worden. Im Rahmen dieses Handlungsfeldes erfolgt die konkrete Identifikation von Risiken durch die Zollbehörden. Die eigentliche Identifikation der Risiken resultiert aus der detaillierten Analyse der Geschäftsprozesse. Von wesentlicher Bedeutung für die Analyse der Geschäftsprozesse ist die Beantwortung folgender Fragen: ¾ Von wem werden Waren eingeführt? ¾ An wen werden Waren ausgeführt? ¾ Welche Waren werden ein- bzw. ausgeführt? ¾ Wer sind die Geschäftspartner und an welcher Stelle der Lieferkette sind diese tätig?24 Für die Prüfungspraxis bedeutet dies, dass für einen sachverständigen unabhängigen Dritten eine nachvollziehbare Dokumentation der Außenhandelsprozesse abrufbar sein muss. Existieren keine adäquaten Informationsquellen über Prozesse, dann ist ein wesentlicher Bestandteil der Risikoabbildung nicht durchführbar. 4.2.1.5 Risiken bewerten Identifizierte Risiken werden bewertet, indem die Auswirkungen der Risiken auf die Ziele des Zolls und ihre Eintrittswahrscheinlichkeit gewichtet werden (siehe Abbildung 4). Ein zentraler Bestandteil dieser Phase besteht in der Klärung, inwiefern der Wirtschaftsbeteiligte selbst Maßnahmen zur Bewältigung identifizierter Risiken ergriffen und wie er diese nach bestimmten Risikotypen gewichtet hat.25 Nach der Bewertung der Risiken werden diese von der prüfenden Zollbehörde in einem Risikoprofil zusammengefasst, um ein umfassendes Bild aller wesentlichen Risiken zu erhalten. Die verschiedenen Risiken werden entsprechend ihrer Auswirkungen und der Wahrscheinlichkeit ihres Eintretens abgebildet.26 Die Abbildung der Risiken wird in der Praxis in zwei Schritten vorgenommen. Zunächst wird durch die Zollverwaltung eine interne Abbildung vorgenommen. In einem zweiten Schritt erfolgt eine gemeinsame Abbildung mit dem Wirtschaftsbeteiligten, um die Richtigkeit der Bewertung sicherzustellen. Die abschließende Bestimmung der Risiken und Maßnahmen, mit denen auf diese zu reagieren ist, liegt allerdings bei den Zollbehörden. Für die Wirtschaftsbeteiligten ist an dieser Stelle von Bedeutung, dass die Risikobewertung durch die Zollbehörden weitaus effizienter verläuft, je besser die Außenhandelsprozesse dokumentiert sind. Ein weiterer wichtiger Aspekt für eine erfolgreiche Risikobewertung im Rahmen des Zertifizierungsprozesses ist das Bestehen eines kohärenten außenhandelsspezifischen Risikomanagements. Die dadurch geschaffene Transparenz und Sicherheit bedingt nicht nur einen kürzen Zertifizierungsprozess für die Erlangung des Status zum zugelassenen Wirtschaftsbeteiligten, sondern bewirkt zugleich eine einfachere Steuerung globaler Warenströme und senkt eigene finanzielle und sicherheitsrelevante Risiken.
24 25 26
Vgl. EUROPÄISCHE KOMMISSION (2006d), S. 10 f. Vgl. EUROPÄISCHE KOMMISSION (2006d), S. 12. Vgl. EUROPÄISCHE KOMMISSION (2006d), S. 13.
212
Abbildung 4:
ECKMANN/MAALEJ
Determinanten und Ausprägungen von Risiken
4.2.1.6 Auf Risiken reagieren Der Status des zugelassenen Wirtschaftsbeteiligten kann bewilligt werden, wenn alle Risiken gesteuert (beherrscht) werden können. Ist das Unternehmen nicht in der Lage, alle latenten Risiken zu steuern, wird von der prüfenden Zollbehörde bewertet, ob der Status zu verweigern ist oder ob der Wirtschaftsbeteiligte Anpassungen oder Verbesserungen vornehmen sollte mit dem Ziel, das betreffende Risiko zu beseitigen oder auf ein akzeptables Niveau zu begrenzen. Einige Risiken können aufgrund ihrer Natur nicht vollständig beseitigt werden, sondern lediglich innerhalb bestimmter Grenzen annehmbar gesteuert werden. Die Steuerung solcher Risiken wird als „Akzeptanz“ bezeichnet.27 Diesbezüglich muss beachtet werden, dass die Akzeptanz bestimmte Ausmaße nicht überschreiten darf. In diesem Fall muss analysiert werden, inwiefern die Steuerungsmaßnahmen ausreichend sind. Zusätzlich muss eine Genehmigung der zuständigen Zollbehörde eingeholt werden. Unter Risikobewältigung ist eine aktive Reaktion auf ein identifiziertes Risiko zu verstehen. Ziel der Risikobewältigung ist die Beeinflussung der Eintrittswahrscheinlichkeit und Auswirkungen, so dass die Ziele des Zolls nicht beeinträchtigt werden.28 Maßnahmen zur Risikobewältigung können sowohl vom Wirtschaftsbeteiligten als auch von den Zollbehörden ausgehen. Z. B. können Unternehmen dem Risiko der falschen Verwendung von Bewilligungen durch ein adäquates Verwaltungssystem der Bewilligungen entgegenwirken. Zollbehörden 27 28
Vgl. EUROPÄISCHE KOMMISSION (2006d), S. 15. Vgl. EUROPÄISCHE KOMMISSION (2006d), S. 15 f.
Authorized Economic Operator
213
können diesem Risiko wiederum durch spezifische Audit-Maßnahmen gegensteuern, welche in einem festgeschriebenen Kontroll-/Auditplan dokumentiert werden müssen. Partiell ist auch die Weitergabe von Risiken möglich. So kann z. B. das Risiko des unbefugten Zugangs an ein Überwachungsunternehmen weiter gegeben werden. In diesem Fall werden jedoch die Vereinbarungen überprüft und bewertet, die zwischen dem Unternehmen des Wirtschaftsbeteiligten und dem Dritten geschlossen wurden.29 Abschließend besteht noch die Möglichkeit des Risikoausschlusses durch intensive und regelmäßige Audits oder durch die Verweigerung des Status. Abbildung 5 stellt die Verfahrensschritte der Risikoabbildung in ihrer zeitlichen Abfolge nochmals zusammengefasst dar.
Einblick gewinnen
Ziele klären
Detaillierte Analyse der Geschäftsprozesse
Abbildung 5: 4.2.2
Risiken identifizieren
Validierung konkreter Risiken/ Abstecken des Handlungsfeldes
Geschäftsfeld- und Prozessanalyse
Risiken bewerten
Auf Risiken reagieren
Gewichtung der Risiken
Prozess der Risikoabbildung Leitlinien zu Standards und Kriterien
Die Leitlinien enthalten Erläuterungen zu den Anforderungen der in Art. 5a Abs. 2 EG VO 648/2005 festgelegten Bewilligungsvoraussetzungen sowie zu den einschlägigen Artikeln der Durchführungsverordnung, die für die Zertifizierung zum zugelassenen Wirtschaftsbeteiligten erfüllt sein müssen. Die Standards und Kriterien werden vor dem Hintergrund der Selbstbewertung und der Risikoabbildung durch die Zollbehörden angewendet und gewährleisten so die Ganzheitlichkeit des Zertifizierungsprozesses. Die Leitlinien können inhaltlich in fünf Abschnitte unterteilt werden, auf die nachfolgend eingegangen wird. 4.2.2.1 Informationen über das Unternehmen Dieser Abschnitt der Leitlinien umfasst Kriterien für die Generierung von Informationen über die Organisation des Unternehmens, das Geschäftsvolumen und statistische Angaben. Organisatorische Merkmale sind für die Risikoanalyse von Bedeutung, da z. B. die Rechtsform eines Unternehmens, die Höhe des gezeichneten Kapitals, die Anzahl der Anteilseigner und der gesetzlichen Vertreter dazu dienen, die Richtigkeit der an die Zollbehörden übermittelten 29
Vgl. EUROPÄISCHE KOMMISSION (2006d), S. 16.
214
ECKMANN/MAALEJ
Informationen zu überprüfen. Denkbar ist z. B., dass die Sicherheitsleistung nicht durch die Höhe des Eigenkapitals und der liquiden Mittel gedeckt ist. Ferner ist für einzelne Wirtschaftszweige eine transparente Darstellung der Abhängigkeiten von Warenstrom und Geldstrom nicht immer gewährleistet. Dies ist z. B. dann der Fall, wenn ein Wirtschaftsbeteiligter Inhaber einer einzigen Bewilligung ist. Die Bewilligung ermöglicht dem Wirtschaftsbeteiligten, seine gesamte Buchführung und die Zahlung der Zölle für alle Transaktionen im Erteilungsmitgliedstaat zusammenzufassen, auch wenn die Überführung einer Ware in ein bestimmtes Zollverfahren in einem anderen Mitgliedstaat erfolgt.30 Folglich divergieren Warenstrom und Geldstrom. Dementsprechend ist für die Zollbehörden die Kenntnis der Art des Unternehmens (Dienstleistungsunternehmen, Fertigungsunternehmen oder Handelsunternehmen) erforderlich, um die verschiedenen Ströme von Waren und Kapital nachvollziehen zu können. Aufgrund des legislativen Drucks, der durch die Zertifizierungsvoraussetzungen zum zugelassenen Wirtschaftsbeteiligten erzeugt wird, werden international tätige Unternehmen faktisch in eine Win-Win-Situation gedrängt, weil diese häufig selbst keine konkreten Angaben zum Verlauf ihrer Waren- und Kapitalströme geben können, was bedingt, dass die Wertschöpfungskette nicht kosten- und zeitoptimiert gesteuert werden kann. Schließlich ist eine Validierung und Steuerung der Wertschöpfungskette erst durch eine transparente Darstellung der Supply Chain selbst möglich. Ähnliches gilt für das Erfordernis der Darstellung der internen Unternehmensorganisation. Eine Analyse der internen Organisation des Unternehmens lässt z. B. Rückschlüsse über die Kontrolle der Unternehmenstätigkeit, eine klare Trennung der Aufgaben zwischen einzelnen Abteilungen oder angemessene Abwesenheitsregelungen zu. Ist diesbezüglich keine Transparenz gewährleistet, ist das Risiko von Verletzungen des Zollrechts entsprechend hoch. Die Wirtschaftsbeteiligten werden dazu angehalten, klare interne Strukturen zu schaffen. Dieses Erfordernis ist nicht nur als eine Hürde auf dem Weg zum zugelassenen Wirtschaftsbeteiligten zu sehen, sondern vielmehr auch als eine Chance zu werten, weil durch eine effiziente und nachvollziehbare Gestaltung der internen Organisation zusätzliche Synergien freigesetzt werden können. Beispielsweise kann die Implementierung eines integrierten IT-Systems das Risiko möglicher Rechtsverstöße durch einen verbesserten internen und externen Informationsfluss sowie eine klare Aufgabenverteilung bedingen. Ein weiterer Aspekt des ersten Abschnitts der Leitlinien zu Standards und Kriterien stellt die Informationsgenerierung hinsichtlich der Geschäftsvolumina dar. Große Geschäftsvolumen können sowohl zu finanziellen als auch nicht-finanziellen Risiken führen kann. Gibt z. B. ein Wirtschaftsbeteiligter den Handel von großen Geschäftsvolumen an, dann ist davon auszugehen, dass die Finanz- und Logistikprozesse des Unternehmens weitaus komplexer und weniger transparent als jene von kleinen und mittleren Unternehmen (KMU) sind. Finanz- und Logistikprozesse mit hohem Komplexitätsgrad bedingen wiederum, dass z. B. Waren im Rahmen eines Anmeldeverfahrens nicht berücksichtigt werden oder in ein falsches Zollverfahren überführt werden. Die Auswirkungen solcher Fehler können z. B. zu einer zu hohen oder einer zu niedrigen Abgabenbelastung, zur Ausfuhr genehmigungsbedürftiger Güter ohne Lizenz, zum Verlust von Verfahrensvereinfachungen oder sogar zu Strafen führen.
30
Vgl. EUROPÄISCHE KOMMISSION (2006a), S. 5.
Authorized Economic Operator
215
Daraus folgt, dass bei Unternehmen mit großem Geschäftsvolumen insbesondere die Finanzund Logistikprozesse auf dem Prüfstand stehen, weil nur transparente und nachhaltig designte Prozesse zur Vermeidung von Rechtsverletzungen führen. Weiter sind die Organisation der zolltariflichen Einreihung von Waren sowie der Handel mit präferenzberechtigten Gütern im Rahmen des Zertifizierungsprozesses von Interesse. Die explizite Ausdehnung der Risikoanalyse auf diese Tätigkeitsfelder in Unternehmen ist plausibel, weil in diesem Umfeld eine Vielzahl von latenten Risiken auftreten. Die Angabe einer falschen Zolltarifnummer kann z. B. zu einem zu hohen oder niedrigen Zollsatz oder einem falschen Steuersatz führen. Vor diesem Kontext ist davon auszugehen, dass im Rahmen der Prüfung der Fokus der Zollbehörden auf die Nutzung von adäquaten IT-Tools gerichtet sein wird. Auch dieser Aspekt sollte von den Wirtschaftsbeteiligten als Chance verstanden werden, weil auch sie ein Interesse an der richtigen zolltariflichen Einreihung von Waren haben sollten. 4.2.2.2 Bisherige Einhaltung der Zollvorschriften Unter diesem Themenblock der Leitlinien wird durch die Zollbehörde überprüft, ob der Antragsteller, die Personen, die das Unternehmen leiten oder die Kontrolle über die Unternehmensleitung ausüben und gegebenenfalls der gesetzlicher Vertreter des Antragstellers in Zollangelegenheiten und die Person, die im Unternehmen für Zollfragen zuständig ist, in den letzten drei Jahren vor Einreichung des Antrags keinen ernsthaften Verstoß oder wiederholte Verstöße gegen Zollvorschriften begangen haben.31 Die Einhaltung der Zollvorschriften wird bei Unternehmen, die erst seit weniger als drei Jahren bestehen, anhand vorliegender Informationen und Berichte geprüft. 4.2.2.3 Buchführungs- und Logistiksystem Die Geschäftsbücher des Antragstellers sollten nach den Grundsätzen ordnungsgemäßer Buchführung geführt werden, wie sie in den Mitgliedstaaten, in denen die Bücher geführt werden, allgemein anerkannt sind.32 Die Geschäftsbücher sollten zudem Zollprüfungen ermöglichen. Um den Zollbehörden so genannte Audits zu gestatten, muss ein Wirtschaftsbeteiligter den prüfenden Behörden entweder den physischen oder elektronischen Zugriff auf die Zollunterlagen und gegebenenfalls auf die Beförderungsunterlagen erlauben. An dieser Stelle ist hervorzuheben, dass der elektronische Zugriff keine Voraussetzung für die Einhaltung dieser Anforderung ist. In Bezug auf die Buchführungs- und Logistiksysteme ist eine wesentliche Zertifizierungsvoraussetzung, dass diese einen Prüfpfad aufweisen sollten. Unter einem Prüfpfad ist ein Verfahren zu verstehen, mit dem man jede Eintragung über einen ganzen Lebenszyklus hinweg (Fluss von Waren und Produkten, die in das Unternehmen eingehen, verarbeitet werden und das Unternehmen wieder verlassen) bis zu ihrer Quelle zurückverfolgen kann, um deren Richtigkeit zu überprüfen.33
31 32 33
Vgl. EUROPÄISCHE KOMMISSION (2006c), S. 14. Vgl. WITTE (2007), S. 25. Vgl. EUROPÄISCHE KOMMISSION (2006c), S. 16.
216
ECKMANN/MAALEJ
Ferner ist den Zollbehörden das Buchführungssystem so zu erläutern, dass keine illegalen Transaktionen verdeckt werden können. Von konkretem Interesse ist diesbezüglich der Aufbau der EDV-Abteilung sowie Angaben zur Art und Funktionalität des Finanz- und Materialbuchhaltungssystems. Regelmäßig sollte die Erfüllung dieser Kriterien kein Problem darstellen, weil es sich hierbei um die Weitergabe von Standardinformationen handelt. Vor dem Kontext der Voraussetzung einer zufrieden stellenden Führung der Geschäftsbücher ist für die Zollbehörden weiterhin das Bestehen eines internen Kontrollsystems von Bedeutung. In diesem Zusammenhang sind Verfahrensabläufe von Interesse, welche illegale oder irreguläre Transaktionen aufdecken. Zur Analyse des internen Kontrollsystems sind den Zollbehörden folgende Informationen zu gewähren: ¾ betriebsinterne Richtlinien die von Mitarbeitern des Einkaufs, Lagers, Fertigungsbereichs und Verkaufs beachtet werden müssen ¾ Art der verwendeten ISO-Zertifizierungen ¾ Aktualisierungszyklen ¾ Verfahren zur Bewertung der Verwaltungsorganisation und internen Kontrolle der betrieblichen Materialflüsse ¾ Prozess zur Änderung von Stammdaten34 Neben einem generellen internen Kontrollsystem sind für die Prüfung eines zufrieden stellenden Systems der Geschäftsbücher interne Kontrollverfahren für den Produktionsbereich erforderlich. Für die Unterbindung von illegalen Aktivitäten während des Produktionsprozesses überprüfen die Zollbehörden insbesondere folgende Aspekte: 35 ¾ klare Trennung der Unternehmensbereiche und eine möglicherweise damit einhergehende Festlegung des Verwendungszwecks ¾ Wann werden durch wen Neukalkulationen durchgeführt? ¾ Verfahren bei Kalkulationsdifferenzen zwischen ursprünglicher und alter Kalkulation ¾ Wer gibt welche Daten bei Neukalkulationen in das System ein? ¾ Verarbeitung der Produktionsergebnisse in der Finanzbuchhaltung Des Weiteren wird überprüft, ob der Wirtschaftsbeteiligte Maßnahmen zur Kontrolle von Bestandsbewegungen getroffen hat. Die möglicherweise getroffenen Maßnahmen müssen dazu geeignet sein, unregistrierte Bestandsbewegungen zu identifizieren. Sinn und Zweck dieser Maßnahmen ist das unbefugte Entfernen von Waren auf allen Ebenen des Materialflusses (Wareneingang, Lagerung, Fertigung und Warenausgang) zu verhindern, um die gesamte Wertschöpfungskette vor Einwirkungen Dritter (Terroristen, Schmuggler) zu schützen. Auf diese Voraussetzung bezogen, wird von den Wirtschaftsbeteiligten Folgendes erwartet:
34 35
Vgl. EUROPÄISCHE KOMMISSION (2006c), S. 21 f. Vgl. EUROPÄISCHE KOMMISSION (2006c), S. 22.
Authorized Economic Operator
217
¾ Erfassung innerbetrieblicher Warenbewegungen mit Registrierung der Mengen und Wertbeträge ¾ Analyse der Warenbewegungen ¾ festgelegte Verfahrensweise bei Materialdifferenzen Insbesondere an diesen Maßnahmen ist zu erkennen, dass von einem zugelassenen Wirtschaftsbeteiligten ein hohes Maß an Eigeninitiative zur Sicherung der Supply Chain erwartet wird. Es wird verlangt, dass er seine Materialflüsse eigenständig und zuverlässig kontrolliert und im Falle von Abweichungen entsprechende Maßnahmen zur Klärung der Fehler einleitet. Nicht zertifizierte Unternehmen müssen hingegen davon ausgehen, dass besonders an den Außenzollstellen die physische Kontrolle der Waren massiv verstärkt wird, um eine Sicherung der Wertschöpfungskette gewährleisten zu können. Folglich müssen nicht zuverlässige Unternehmen mit längeren Wartezeiten an den Ein- und Ausgangszollstellen, steigenden Logistikkosten sowie mit der Gefährdung von Just-in-time- und Just-in-sequence-Produktion rechnen. Eine weitere Bedingung für die Erfüllung der Voraussetzung „zufrieden stellendes System der Führung der Geschäftsbücher und ggf. der Beförderungsunterlagen“ ist die rechtmäßige Verwendung von Zollverfahren sowie die Berücksichtigung von Verboten und Beschränkungen.36 Der Antragsteller hat diesbezüglich gegenüber den prüfenden Zollbehörden die Verwendung von Zollanmeldungen, Begleitdokumenten und interner Verfahren für die Überprüfung von Zolltransaktionen darzulegen. Hinzu ist offen zu legen, ob der Wirtschaftsbeteiligte mit genehmigungsbedürftigen Gütern handelt und ob er über geeignete Maßnahmen und Verfahren verfügt, um Ein- und Ausfuhrgenehmigungen zu verwalten. Diese Betrachtung dient zum einen der Identifikation finanzieller Risiken, indem überprüft wird, inwiefern die unternehmensinternen Verfahren die Überführung von Waren in die rechtmäßigen Zollverfahren sicherstellen. Zum anderen dient die Analyse der Sicherung der Wertschöpfungskette, indem die Verfahrensweisen im Umgang mit genehmigungsbedürftigen Gütern auf Risiken überprüft werden. Das Ziel der Zollbehörden ist es einschätzen zu können, wie groß die Wahrscheinlichkeit ist, dass genehmigungsbedürftige Güter in den Verfügungsbereich nicht-berechtigter Parteien gelangen können. Auch hier sollte ein natürliches Interesse der Wirtschaftsbeteiligten bestehen, Waren in das richtige Zollverfahren zu überführen oder Verstöße gegen das Außenwirtschaftsrecht zu vermeiden. Schließlich können solche Rechtsverstöße zum Verlust von Bewilligungen, Imageverlust, Geldstrafen und sogar zu Freiheitsstrafen führen. Überdies werden unter das Kriterium „zufrieden stellendes System der Führung der Geschäftsbücher und ggf. der Beförderungsunterlagen“ Maßnahmen zur Sicherung der DatenBack-ups, Wiederherstellung von Dateien sowie Fallback-Einrichtung und Archivoptionen subsumiert.37 Zusammenfassend kann zu diesem Kriterium festgehalten werden, dass der Wirtschaftsbeteiligte über zufrieden stellende Verfahren für die Archivierung der Geschäftsbücher und Unterlagen sowie für den Schutz vor dem Verlust von Informationen verfügen
36 37
Vgl. EUROPÄISCHE KOMMISSION (2006c), S. 25. Vgl. EUROPÄISCHE KOMMISSION (2006c), S. 27 ff.
218
ECKMANN/MAALEJ
muss.38 Des Weiteren muss der Antragsteller über geeignete Maßnahmen zum Schutz seiner Informationssysteme verfügen (Firewalls, Virenschutzprogramme), die vor unbefugten Zugriffen schützen. Regelmäßig sollte sowohl der Schutz der IT-Systeme als auch der Schutz von Arbeitsunterlagen für die meisten Wirtschaftsbeteiligten kein Problem darstellen. 4.2.2.4 Zahlungsfähigkeit Die in Art. 5a Abs. 2, dritter Gedankenstrich normierte Voraussetzung der Zahlungsfähigkeit gilt als erfüllt, wenn die Zahlungsfähigkeit für die letzten drei Jahre nachgewiesen werden kann. Zahlungsfähigkeit im Sinne des Art. 5a Abs. 2 bezeichnet eine Finanzlage, die es dem Antragsteller ermöglicht, seinen Verpflichtungen nachzukommen, unter gebührender Berücksichtigung der Geschäftstätigkeit.39 Wenn ein Unternehmen erst seit weniger als drei Jahren auf dem Markt ist, ist die Zahlungsfähigkeit anhand der vorliegenden Geschäftsbücher und Informationen zu beurteilen. 4.2.2.5 Sicherheitsanforderungen Sinn und Zweck der in Art. 5a Abs. 2, vierter Gedankenstrich normierten Kriterien ist die Abgrenzung des Prüfungsumfangs, welcher z. B. anhand der durch den Wirtschaftsbeteiligten vorzunehmenden Selbstbewertung festgelegt werden kann. Hinzu stellen die in diesem Abschnitt festgelegten Kriterien Leitlinien für die Gefährdungseinschätzung der Wertschöpfungskette dar, welche sowohl den Wirtschaftsbeteiligten im Rahmen der Selbstbewertung als auch die Zollbehörden im Rahmen der Vorprüfung unterstützen soll. Anknüpfungspunkte der Risikoanalyse sind alle Schnittstellen der Wertschöpfungskette des Unternehmens, welche Nichtberechtigten (z. B. Terroristen) die Möglichkeit bieten, Beförderungsmittel und Lade-Einheiten zu manipulieren oder Waren zu entwenden. Von besonderer Bedeutung sind in diesem Zusammenhang die folgenden Punkte: ¾ Zutritt zum Firmengelände ¾ Physische Sicherheit ¾ Lade-Einheiten ¾ Wareneingang ¾ Warenlagerung ¾ Fertigung ¾ Warenausgang ¾ Sicherheitsanforderungen an ausländische Zulieferer Darüber hinaus ist auch die interne Organisation Gegenstand der Überprüfung der Sicherheitsanforderungen. Ein Aspekt ist z. B. die Prüfung des Umgangs mit Waren, die Verboten und Beschränkungen unterliegen. In diesem Zusammenhang hat der Wirtschaftsbeteiligte eine interne Organisation aufzuweisen, die sicherstellt, dass z. B. Dual-Use-Güter nicht ohne 38 39
Vgl. WITTE (2007), S. 40. Vgl. EUROPÄISCHE KOMMISSION (2006c), S. 32.
Authorized Economic Operator
219
Genehmigung exportiert werden. Ausgehend von dem zuvor genannten Beispiel weist der Wirtschaftsbeteiligte eine adäquate interne Organisation auf, wenn z. B. genehmigungsbedürftige Waren getrennt von anderen Waren gelagert werden und diese Organisation das Risiko des Exports von genehmigungsbedürftigen Waren ohne Lizenz kompensiert. Hervorzuheben ist weiterhin der Aspekt der „Sicherheitsanforderungen an ausländische Zulieferer“.40 Insbesondere durch dieses Kriterium kommt der Willen zum Ausdruck, Wertschöpfungsketten ganzheitlich zu sichern. Es wird von den Antragstellern erwartet, dass nicht nur sie selbst die Anforderungen, welche an einen zugelassenen Wirtschaftsbeteiligten gestellt werden, erfüllen müssen, sondern dass die Erfüllung der Kriterien auch von angebundenen Unternehmen wie z. B. Logistikdienstleistern oder Zulieferern gefordert wird. Entwickelt sich der Status des AEO zum Qualitätsmerkmal im internationalen Handel, dann ist davon auszugehen, dass eine Wertschöpfungskette in Zukunft ausschließlich aus vertrauenswürdigen Unternehmen besteht. 4.2.3
Bewilligung des Status eines zugelassenen Wirtschaftsbeteiligten
Nach der Durchführung des Prüfverfahrens sind folgende Ergebnisse denkbar: ¾ Der Status eines zugelassenen Wirtschaftsbeteiligten wird bewilligt, weil es keine verbleibenden Risiken gibt oder die verbleibenden Risiken effizient und wirksam durch zusätzliche Kontrollmaßnahmen gesteuert werden können. ¾ Der Status des zugelassenen Wirtschaftsbeteiligten kann gegenwärtig nicht bewilligt werden, weil die Anzahl verbleibender Risiken zu groß ist und diese nicht effizient und wirksam gesteuert werden können. Eine Zertifizierung ist jedoch möglich, wenn der Wirtschaftsbeteiligte Verbesserungen an seiner Verwaltungsorganisation und dem internen Kontrollsystem vornimmt. ¾ Der Status des zugelassenen Wirtschaftsbeteiligten kann nicht bewilligt werden, weil die Anzahl der verbleibenden Risiken nicht durch zusätzliche Kontrollmaßnahmen steuerbar ist. 4.2.4
Prüfungszyklen
Der Status des zugelassenen Wirtschaftsbeteiligten wird regelmäßig dahingehend überprüft, ob er weiterhin gerechtfertigt ist. Die Abstände zwischen den erneuten Bewertungen hängen von unterschiedlichen Faktoren ab: ¾ Die Ergebnisse der im Auditplan beschriebenen Kontrollmaßnahmen weisen auf Umstände hin, dass Risiken vom Wirtschaftsbeteiligten nicht mehr ausreichend gesteuert werden. Dies könnte Anpassungen des Auditplans oder der in Anspruch genommenen Verfahrensvereinfachungen zur Folge haben. ¾ Aufgrund der gesetzlichen Verpflichtung des Wirtschaftsbeteiligten muss dieser auf Änderungen innerhalb seiner Geschäftstätigkeit, Organisation oder Verfahren hinweisen, die eine Auswirkung auf seine Zertifizierung haben. 40
Vgl. EUROPÄISCHE KOMMISSION (2006c), S. 48.
220
ECKMANN/MAALEJ
¾ Sonstige allgemeine oder spezifische Informationen (Nachrichtendienste), die eine Auswirkung auf die dem Wirtschaftsbeteiligten gewährten Zollerleichterungen haben können. ¾ Durch regelmäßige Prüfungen der Zollbehörden wird festgestellt, ob der Wirtschaftsbeteiligte die identifizierten Risiken weiter beherrscht. Im Ergebnis können alle nachträglich festgestellten Mängel dazu führen, dass der Status des zugelassenen Wirtschaftsbeteiligten ausgesetzt oder widerrufen wird.
5
Schlussbetrachtung
Grundsätzlich kann festgehalten werden, dass die rechtlichen Änderungen und Sicherheitsinitiativen nicht zur Behinderung des internationalen Handels führen, wenn Unternehmen die Zertifizierung zum zugelassenen Wirtschaftsbeteiligten erfüllen und dies auch in der gebotenen Form nachweisen können. Durch die Schaffung der Rechtsfigur des zugelassenen Wirtschaftsbeteiligten wird Unternehmen die Möglichkeit eröffnet, mit einem Minimum an Verwaltungsaufwand und Kontrollmaßnahmen am internationalen Handel zu partizipieren. Dies ist jedoch nur möglich, wenn durch eine adäquate interne Organisation und dem Aufbau eines außenhandelsspezifischen Risikomanagements die Wertschöpfungskette abgesichert wird. Dies bedeutet für global agierende Unternehmen, dass Investitionen zur Absicherung der Wertschöpfungskette getätigt werden müssen, um die Zertifizierungsvoraussetzungen für den zugelassenen Wirtschaftsbeteiligten zu erfüllen. Diesem Aufwand stehen allerdings auch die Sicherung und Stärkung der Wettbewerbsfähigkeit gegenüber. Der bedeutendste Vorteil für zugelassene Wirtschaftsbeteiligte ist, dass sie an den Ausgangszollstellen nicht oder nur geringfügig kontrolliert werden und im Falle von Kontrollen über diese vorab informiert werden. Daraus folgt, dass zugelassene Wirtschaftsbeteiligte gegenüber anderen Wettbewerbern ohne Zertifizierung schneller überregionale Märkte bedienen und erschließen sowie das Risiko der Unterbrechung der Wertschöpfungskette besser steuern können. Als logische Konsequenz ergibt sich daraus, dass Inhaber dieser Rechtsfigur auch ihre Logistikkosten senken können. Ein weiterer Vorteil den der Status des AEO bietet, ist der Gewinn von Flexibilität. Zollrechtliche Bewilligungen können schnell und unkompliziert beantragt werden, weil eine Vielzahl der Bewilligungsvoraussetzungen bereits durch die Anforderungen, die an einen AEO gestellt werden, abgedeckt sind. Mit dem AEO-Status wird überdies angestrebt, ein Qualitätssiegel im internationalen Handel zu prägen, so dass zukünftig Wertschöpfungsketten ausschließlich aus zuverlässigen Unternehmen bestehen. Mit der Zertifizierung zum zugelassenen Wirtschaftsbeteiligten können sich Unternehmen schon heute an absehbaren Trends ausrichten, um zukünftig nicht von sicheren Wirtschaftsbeteiligten vom internationalen Handel ausgeschlossen zu werden. Im Extremfall kann dies bedeuten, dass unsichere Glieder der Wertschöpfungskette (also nicht zertifizierte Unternehmen) ausgegrenzt werden und ausländische Märkte faktisch nicht mehr bedient werden können. In diesem Zusammenhang gilt es auch zu beachten, dass infolgedes-
Authorized Economic Operator
221
sen das Unternehmens-Image und damit auch die Wettbewerbsfähigkeit nachhaltig geschädigt werden kann. Ein in Zukunft weiterer wichtiger Vorteil wird die gegenseitige Anerkennung des AEO im Rahmen von internationalen Abkommen mit wichtigen Handelspartnern sein. Gegenwärtig werden Verhandlungen mit der Schweiz, den USA und China geführt, um die gegenseitige Anerkennung von Sicherheitsstandards, Kontrollergebnissen sowie von AEO und gleichartigen Programmen zu erreichen.41 Das heißt insbesondere für die Rechtsfigur des AEO, dass Unternehmen, die diesen Status verliehen bekommen haben, die gleichen Vorteile in Drittländern gewährt werden (z. B. niedrigerer Risikowert) wie in der Europäischen Gemeinschaft und auf diesem Weg ihre Wettbewerbsfähigkeit nicht nur in Europa stärken können, sondern weltweit. Neben den offensichtlichen Vorteilen, die unmittelbar mit der Zertifizierung zum zugelassenen Wirtschaftsbeteiligten verbunden sind, dürfen Synergie-Effekte, die im Zusammenhang mit der Zertifizierung stehen, nicht verkannt werden. Voraussetzung für die Zertifizierung zum AEO ist z. B. die transparente Abbildung der Materialflüsse, welche erfahrungsgemäß in der Praxis insbesondere bei Großunternehmen in den seltensten Fällen transparent dargestellt werden können. Eine solche Abbildung ist nicht nur hinsichtlich des Zertifizierungsprozesses wertvoll, sondern versetzt Unternehmen darüber hinaus in die Lage, ihre Wertschöpfungskette bewerten und steuern zu können. Demgemäß können international tätige Unternehmen, die im Rahmen des Zertifizierungsprozesseses gewonnene Transparenz zur intelligenten Lenkung ihres „Global Sourcing“ anhand von Zollsätzen nutzen. Konkret bedeutet dies, dass der Einkauf von Waren in nicht-präferenzberechtigten Ländern in präferenzberechtigte Länder verlagert werden kann, insofern alternative Lieferanten dort verfügbar sind. Auf diese Weise kann das Abgabengefälle zwischen präferenzberechtigten und nicht-präferenzberechtigten Ländern ausgenutzt und der Unternehmenserfolg sehr wahrscheinlich gesteigert werden. Es empfiehlt sich daher, im Rahmen der Zertifizierung nicht nur die minimalen Anstrengungen zu unternehmen, sondern diese Gelegenheit zur Sammlung und Strukturierung von wichtigen Daten, zur Dokumentation und Optimierung von Prozessen aktiv zu nutzen und hierdurch weitere z. T. erhebliche positive ökonomische Effekte zu generieren. Nachteilig ist, dass sich die Geltung der Bewilligung als AEO grundsätzlich auf das Gebiet des bewilligungserteilenden Mitgliedsstaats beschränkt. Erst durch die Anerkennung von Zollbehörden anderer Mitgliedsstaaten kann die Geltung auf deren Hoheitsgebiet erstreckt werden. Wie zukünftig diesbezüglich von den Zollbehörden der einzelnen Mitgliedsstaaten verfahren wird, bleibt abzuwarten. Darüber hinaus herrscht keine Rechtssicherheit darüber, welche zollrechtlichen Vereinfachungen an die Zertifizierungsvariante AEO-C gekoppelt sind. Absehbar ist lediglich ein einfacherer Zugang zu Bewilligungen und Erleichterungen bei Zollkontrollen. Inwiefern zugelassene Wirtschaftsbeteiligte zukünftig noch von der Rechtsfigur profitieren, z. B. im Rahmen einer zentralen Zollabwicklung, ist unklar. Ferner scheint die im Rahmen des sicherheitsrelevanten Teils der Leitlinien zu Standards und Kriterien festgelegte Forderung nach der Überprüfung des persönlichen Umfelds von Mitarbeitern überzogen, weil diese den Schutzbereich des allgemeinen Persönlichkeitsrechts insbesondere das Recht auf Privat- und Intimsphäre verletzt. Sicherlich kann die Prüfung, ob der 41
Vgl. AIGNER (2006a), S. 195 f.
222
ECKMANN/MAALEJ
Arbeitnehmer auf einer Sanktionsliste gelistet ist, gerechtfertigt werden, jedoch darüber hinausgehende Maßnahmen scheinen unverhältnismäßig. Abschließend ist festzuhalten, dass die Rechtsfigur des AEO grundsätzlich den Erhalt der Wettbewerbsfähigkeit von in Europa ansässigen Unternehmen bei einer gleichzeitigen Hebung des Sicherheitsniveaus gewährleistet. Wirtschaftsbeteiligte die von einer Zertifizierung absehen, müssen mit deutlichen Einbußen der Wettbewerbsfähigkeit rechnen. Die Relevanz dieser Rechtsfigur wird insbesondere vor dem Kontext der gegenseitigen Anerkennung im Rahmen internationaler Abkommen mit wichtigen Handelspartnern weiter wachsen. Folglich sollten international tätige Unternehmen, die mit ihrer strategischen Ausrichtung der zunehmenden Globalisierung des Welthandels Rechnung tragen wollen, den Fokus auf ihre Wertschöpfungskette richten und mit der Zertifizierung zum zugelassenen Wirtschaftsbeteiligten ihre Wettbewerbsfähigkeit nachhaltig sichern und ausbauen. Dabei geht es nicht nur um die Ausnutzung rechtlicher Gestaltungsmöglichen, vielmehr muss der Weg zum AEO als Chance verstanden werden, um weitere damit einhergehende Synergien freisetzen zu können und um das eigene Unternehmen frühzeitig auf eine globaler werdende Weltwirtschaft vorzubereiten.
Quellenverzeichnis AIGNER, S. (2006a): Aktuelles zum Status des zugelassenen Wirtschaftsbeteiligten – Der Zwischenstand der Dinge, in: Außenwirtschaftliche Praxis – Zeitschrift für Außenwirtschaft in Recht und Praxis, 2006, S. 195. AIGNER, S. (2006b): Der Status des zugelassenen Wirtschaftsbeteiligten – Sicherheit der internationalen Versorgungskette und EG Vorschriften, in: HENKE, R. (Hrsg.), Neue Chancen und Risiken für die Europäische Wirtschaft – Zugelassener Wirtschaftsbeteiligter – Zoll und Umsatzsteuer – Neues Energiesteuergesetz – Neuer Präferenzursprung, Tagungsband des 18. Europäischen Zollrechtstags des EFA, Schriftenreihe des Europäischen Forums für Außenwirtschaft, Verbrauchssteuern und Zoll e. V., Band 28, Bonn 2005, S. 45–51. DUDEN (2006): Das Fremdwörterbuch, Band 5, Mannheim 2006. EUROPÄISCHE KOMMISSION (2005): TAXUD/C4 (2005) 1432 – Der zugelassene Wirtschaftsbeteiligte, Brüssel 2005. EUROPÄISCHE KOMMISSION (2006a): TAXUD 1284/2005, Rev.1 – Einzige Bewilligung für vereinfachte Verfahren – Leitlinien, Brüssel 2006. EUROPÄISCHE KOMMISSION (2006b): TAXUD 2006/1450 – Authorized Economic Operators – Guidelines, Brüssel 2006. EUROPÄISCHE KOMMISSION (2006c): TAXUD 2006/1450 – Zugelassene Wirtschaftsbeteiligte – Leitlinien zu Standards und Kriterien, Brüssel 2006. EUROPÄISCHE KOMMISSION (2006d): TAXUD 2006/1452 – Zugelassene Wirtschaftsbeteiligte – Das Compact-Modell, Brüssel 2006. GROSSPIETSCH, J./THONEMANN, U. (2003): Wertvolle Wertschöpfung, in: Logistik heute, 2003, Nr. 9, S. 34–35.
Authorized Economic Operator
223
LUX, M. (2005), Der zugelassene Wirtschaftsbeteiligte und zentrale Zollabwicklung, in: HENKE, R. (Hrsg.), Partnerschaft oder Subordination – Das Verhältnis von Wirtschaft und Zoll nach dem modernisierten Zollkodex, Tagungsband des 17. Europäischen Zollrechtstags des EFA, Schriftenreihe des Europäischen Forums für Außenwirtschaft, Verbrauchssteuern und Zoll e. V., Band 25, Bonn 2005, S. 39–55. RICHERT, J. (2006): Performance Measurement in Supply Chains – Balanced Scorecard in Wertschöpfungsnetzwerken, Wiesbaden 2006. STÄHR, H.J (2005): Der Zoll als Partner der Wirtschaft – immer noch? , in: HENKE, R. (Hrsg.), Partnerschaft oder Subordination – Das Verhältnis von Wirtschaft und Zoll nach dem modernisierten Zollkodex, Tagungsband des 17. Europäischen Zollrechtstags des EFA, Schriftenreihe des Europäischen Forums für Außenwirtschaft, Verbrauchssteuern und Zoll e. V., Band 25, Bonn 2005, S. 33–39. STATISTISCHES BUNDESAMT (2007a): Außenhandel, online: http://www.destatis.de/jet speed/ portal/cms/Sites/destatis/Internet/DE/Navigation/Statistiken/Zeitreihen/WirtschaftAktuell/ Aussenhandel/Tabellenuebersicht__nk.psml, Stand: 14.05.2007, Abruf: 04.09.2007. STATISTISCHES BUNDESAMT (2007b): Außenhandelssaldo, online: http://www.destatis.de/jet speed/portal/cms/Sites/destatis/Internet/DE/Content/Statistiken/Zeitreihen/WirtschaftAktuell /Aussenhandel/Content100/kah613graf0,templateId=renderPrint.psml, Stand: 08.08.2007, Abruf: 04.09.2007. SUMMERSBERGER, W. (2005): Die rechtliche Stellung des zugelassenen Wirtschaftsbeteiligten, in: HENKE, R. (Hrsg.), Partnerschaft oder Subordination – Das Verhältnis von Wirtschaft und Zoll nach dem modernisierten Zollkodex, Tagungsband des 17. Europäischen Zollrechtstags des EFA, Schriftenreihe des Europäischen Forums für Außenwirtschaft, Verbrauchssteuern und Zoll e. V., Band 25, Bonn 2005, S. 81–95. WITTE, P. (2007): Praxishandbuch Export- und Zollmanagement – Zugelassener Wirtschaftsbeteiligter – Integration und Organisation im Unternehmen, Köln 2007.
Dritter Teil Die moderne Finanzfunktion Die Accounting- und Treasury-Perspektive
Erster Teil
Zweiter Teil Die moderne Finanzfunktion Die strategische Perspektive
Die moderne Finanzfunktion Die organisatorische Perspektive
Dritter Teil Die moderne Finanzfunktion Die Accountingund TreasuryPerspektive
Vierter Die moderne Finanzfunktion Die ControllingPerspektive
Teil
Intangible Assets – Management des Unfassbaren PETER LEIBFRIED und ANDREAS FASSNACHT Universität St. Gallen (HSG)
1 2 3
Auf dem Weg in die Intangible Economy ..................................................................... 229 Die wichtigsten Intangibles ........................................................................................... 230 Messung von Intangibles ............................................................................................... 232 3.1 Monetäre Bewertung von Intangibles .................................................................. 232 3.1.1 Marktpreisorientiertes Verfahren ............................................................. 232 3.1.2 Kapitalwertorientiertes Verfahren ........................................................... 233 3.1.3 Kostenorientiertes Verfahren ................................................................... 234 3.2 Index- und kennzahlenbasierte Messung von Intangibles .................................... 234 3.2.1 Balanced Scorecard ................................................................................. 235 3.2.2 Skandia-Navigator ................................................................................... 236 3.2.3 Intangible Assets Monitor........................................................................ 237 4 Reporting von Intangibles .............................................................................................. 238 4.1 Selbst erstellte immaterielle Werte ...................................................................... 239 4.2 Erworbene immaterielle Werte ............................................................................ 240 5 Management von Intangibles ......................................................................................... 242 5.1 Grundsätzliche Herausforderungen ...................................................................... 242 5.2 Performance Management mittels Balanced Scorecard ....................................... 243 6 Ein Blick nach vorn ....................................................................................................... 244 Quellenverzeichnis................................................................................................................ 245
Intangible Assets – Management des Unfassbaren
1
229
Auf dem Weg in die Intangible Economy
„In society, accounting performs a service function. This function is put in jeopardy unless accounting remains above all technically and socially useful. Thus, it must respond to everchanging needs of society and must reflect the cultural, economic, legal, social, and political conditions within which it operates. Its technical and social usefulness depends on its ability to mirror those conditions.”1 Zumindest bei Massenfertigung gilt, dass die Bedeutung der Produktionsleistung für unternehmerischen Erfolg zunehmend rückläufig ist. Zwar haben nach dem „Absturz“ der New Economy in den letzten Jahren auch die glühendsten Verfechter der „Knowledge Economy“ eingesehen, dass auch eine Wissens- und Informationsgesellschaft nicht ohne eine produzierende Basis auskommt. Durch zunehmende Standardisierung und Automatisierung wird diese aber zwischen verschiedenen Anbietern zunehmend austauschbar. In vielen Fällen unterscheiden sich die Produkte verschiedener Hersteller in technischer Hinsicht praktisch nicht; sie kommen aus denselben Fabriken in China oder Indien, und den Konsumenten ist dies nicht selten sogar bekannt, oder man vermutet es zumindest. Damit kommt es zu einem Auseinanderfallen der Wertschöpfungskette: Produktinnovation, Marketing/Vertrieb sowie Distribution und Service können noch einen Wettbewerbsvorteil bewirken, eine Differenzierung durch die Produktion ist kaum mehr möglich. In der internationalen Arbeitsteilung senkt der Preiswettbewerb den Anteil der Produktionskosten auf ein für alle Anbieter mehr oder weniger ähnliches Niveau, das als gegeben hingenommen werden muss (vergleichbar der Preisentwicklung auf dem Markt für Rohöl für den Wettbewerb zwischen Tankstellenketten). Als Folge dieser Entwicklung nimmt die Bedeutung immaterieller Werte für die unternehmerische Wertschöpfung ständig zu. Wirtschaftlicher Erfolg oder Misserfolg beruht nicht mehr länger auf den größten, neuesten Produktionsanlagen. Diese kann jeder Anbieter im Rahmen einer Lohnfertigung für sich in Anspruch nehmen. Wettbewerbsvorteile – und damit die unserem gesamten Wirtschaftssystem zugrunde liegenden Anreize höherer Gewinne als bei unternehmerischem Nichtstun – resultieren aus anderen Faktoren: nach den Bedürfnissen des Marktes entwickelten innovativen Produkten, einem auf die Zielgruppe zugeschnittenen Image, einer leichten Verfügbarkeit und einer herausragenden Servicequalität vor und nach dem Kauf. Im Unterschied zu leicht in monetären Größen erfassbaren physischen Produktionsanlagen und Kostenstrukturen im Herstellungsbereich sind diese immateriellen Werte der traditionellen finanziellen Steuerung bislang nur schwer zugänglich. Dies hat einerseits mit schlichter methodischer Hilflosigkeit zu tun („Wie sollen Intangibles gemessen und bewertet werden?“). Andererseits ist es auch das Ergebnis eines tief verwurzelten Misstrauens zwischen den schon von Berufs wegen vorsichtigen Charakteren in Finanzfunktionen und den eher kreativen Geistern in Bereichen wie Forschung und Entwicklung, Marketing oder Personalmanagement.
1
CHOI/MUELLER (1992), S. 26.
230
LEIBFRIED/FASSNACHT
In der Überwindung dieser Lücke zwischen moderner unternehmerischer Wertschöpfung und derzeitigem Instrumentarium finanzieller Steuerung liegt eine der zentralen Herausforderungen für die Weiterentwicklung der Finanzfunktion in den kommenden Jahren. Denn wer hier auch nur einen Schritt voraus ist, kann seine Wettbewerbsvorteile wesentlich besser nutzen als die Konkurrenz.
2
Die wichtigsten Intangibles
Arten und Erscheinungsformen immaterieller Werte sind fast so vielfältig wie die der Unternehmen selbst. Je nachdem, welches Geschäftsmodell im konkreten Einzelfall verfolgt wird, unterscheidet sich die Bedeutung der einzelnen Intangibles für den unternehmerischen Erfolg: Während Lizenzen und Patente z. B. für ein Unternehmen des Lebensmitteleinzelhandels in der Regel von geringer Bedeutung sind, spielen Standortfaktoren hier eine große Rolle. Umgekehrt ist die Frage des Standortes in wissensbasierten Unternehmen häufig weniger von Bedeutung, Wettbewerbsvorteile werden mit leicht transferierbaren Rechten am vorhandenen Know-how gesichert. Allerdings sind allgemein gültige Aussagen kaum zu treffen: So ist gerade im High-Tech-Bereich immer wieder von der hohen Bedeutung einer regionalen Clusterbildung die Rede, d. h. Unternehmen sind dann besonders erfolgreich, wenn sie in einer Region ansässig sind, die im Hinblick auf ausgebildetes Personal und Anschluss an Universitäten besonders gut ausgestattet ist. Grundsätzlich können die folgenden Gruppen immaterieller Werte unterschieden werden:2 ¾
Marketingbezogene immaterielle Werte ¾ Warenzeichen wie Worte, Namen, Symbole oder andere unterscheidende Elemente ¾ Handelsmarken, Konsummarken, Einzelmarken, Dachmarken ¾ Marktauftritte ¾ Internet-Domain-Namen
¾
Kundenbezogene immaterielle Werte ¾ Kundenlisten ¾ Auftragsbestände ¾ Kundenverträge (z. B. Wartungsverträge) ¾ Laufkundschaft
2
In Anlehnung an IFRS 3.
Intangible Assets – Management des Unfassbaren
¾
231
Sonstige vertragsbezogene immaterielle Werte ¾ Lizenzen ¾ Stillhaltevereinbarungen ¾ Werbe-, Konstruktions-, Management-, Service-, Dienstleistungs- oder Versorgungsverträge ¾ Leasingverträge ¾ Wege-, Nutzungs- und Duldungsrechte ¾ Franchisevereinbarungen ¾ Sende- und Fernsehrechte ¾ Wettbewerbsverbote oder Konkurrenzklauseln ¾ Vorteilhafte Lieferbeziehungen
¾
Technologiebasierte immaterielle Werte ¾ Patentierte und unpatentierte Technologien ¾ Forschungs- und Entwicklungspipeline ¾ Geschäftsgeheimnisse bezüglich Formeln, Prozessen oder Rezepturen ¾ Software ¾ Datenbanken
¾
Kunstbezogene immaterielle Werte: Rechte an Theaterstücken, Balletten, Operninszenierungen, Musikstücken, Kompositionen, Songtexten, Werbemelodien, Bildern, Fotografien, Videos, Fernsehprogrammen
¾
Personenbezogene immaterielle Werte ¾ Eingearbeiteter Mitarbeiterstamm ¾ Gute Beziehungen zu Gewerkschaften und anderen Tarifpartnern ¾ Attraktivität als Arbeitgeber
¾
Organisationsbezogene immaterielle Werte ¾ Effiziente Aufbau- und Ablauforganisation ¾ Günstige Standortfaktoren ¾ Günstige rechtliche Rahmenbedingungen ¾ Erleichterter Zugang zu Kapitalgebern
Die genaue Separierung dieser immateriellen Werte fällt gelegentlich schwer: So sind z. B. bestehende Kundenlisten nur schwer von einer starken Markenbildung zu unterscheiden, weil beide zu positiven Effekten bei der Marktbearbeitung führen. Als Folge ergeben sich Herausforderungen für Messung, Reporting und Steuerung dieser Werte, auf die nachfolgend einzugehen ist.
232
3
LEIBFRIED/FASSNACHT
Messung von Intangibles
Unternehmerische Führung besteht in ihrem Kern aus einer Bestimmung des aktuellen Standorts, einer wünschenswerten Zielvorgabe und der Entwicklung und Umsetzung von Maßnahmen zur Überwindung des Grabens zwischen Soll und Ist. Der nahe liegende Vergleich mit einer Landkarte macht klar: Man kann nur das wirklich steuern, was man auch messen kann. Die der traditionellen Finanzfunktion nahe liegende Lösung für dieses Problem ist eine Bewertung von Intangibles in monetären Größen. Alternative Ansätze verwenden nicht-finanzielle Indizes und Kennzahlen.
3.1
Monetäre Bewertung von Intangibles
Für die monetäre Bewertung von Intangibles steht eine Reihe von Verfahren zur Verfügung, die – sofern verfügbar – auf beobachtbaren Marktpreisen, im Wesentlichen aber auf verauslagten Kosten oder zukünftigen Zahlungsströmen, basieren. Diese werden im Folgenden näher vorgestellt.3 3.1.1
Marktpreisorientiertes Verfahren
Dem marktpreisorientierten Verfahren („Market approach“) liegt die Überlegung zugrunde, dass sich der faire Wert eines Vermögenswertes (zumindest indirekt) aus Marktpreisen ableiten lässt. Der faire Wert des Vermögenswertes wäre somit der Betrag, der aufgrund von Angebot und Nachfrage zwischen sachverständigen, unabhängigen Parteien für diesen Vermögenswert gezahlt würde. Existiert ein aktiver Markt für einen immateriellen Vermögenswert, so lässt sich dessen Wert folglich unmittelbar aus den beobachteten Marktpreisen ableiten. Ist dies nicht möglich, so kann der Wert auch indirekt ermittelt werden: Dazu werden möglichst zeitnahe Transaktionen betrachtet, bei denen vergleichbare Intangibles gekauft bzw. verkauft wurden. Unter Berücksichtigung möglicher fallspezifischer Besonderheiten werden diejenigen Transaktionen ausgewählt, welche die größte Vergleichbarkeit mit dem zu bewertenden Vermögenswert aufweisen. Die beiden diesen Transaktionen gezahlten Preise werden dann als Bewertungsmaßstab für den immateriellen Vermögenswert herangezogen.4 Ein wesentlicher Nachteil des marktpreisorientierten Verfahrens besteht darin, dass für Intangibles meist kein aktiver, liquider Markt existiert bzw. Bewertungsdetails aus vergleichbaren Transaktionen nicht öffentlich zugänglich sind. Somit lassen sich aussagekräftige Marktpreise nur schwer herleiten. Hinzu kommt die mangelnde Vergleichbarkeit von Intangibles, d. h. ein gezahlter Preis für eine bestimmte Marke oder einen Kundenstamm lässt sich nicht ohne weiteres auf andere Marken oder Kundenstämme übertragen.5 Aus diesen Gründen kommt der
3
4 5
Vgl. hierzu ausführlich REILLY/SCHWEIHS (1999), S. 95 ff., SMITH/PARR (2000), S. 163 ff., sowie BEYER (2005), S. 141 ff. Das INSTITUT DER WIRTSCHAFTSPRÜFER (IDW) arbeitet derzeit an einem Entwurf für einen IDWStandard zur Bewertung immaterieller Vermögenswerte, vgl. IDW (2006). Vgl. IDW (2006), S. 1308, Rdn. 20. Vgl. SCHMIDLI/VASALLI (2006), S. 146 f.
Intangible Assets – Management des Unfassbaren
233
Anwendung des marktpreisorientierten Verfahrens in der Praxis im Vergleich zu den beiden anderen Bewertungsverfahren eine eher untergeordnete Bedeutung zu. 3.1.2
Kapitalwertorientiertes Verfahren
Im Rahmen des kapitalwertorientierten Verfahrens („Income approach“) wird der Wert eines immateriellen Vermögenswertes als Barwert der erwarteten zukünftigen Zahlungsströme ermittelt, die sich für das Unternehmen aus dem immateriellen Vermögenswert ergeben. Die erwarteten Zahlungsströme werden dabei mit einem risikoadjustierten Zinssatz diskontiert. Hierzu stehen eine Reihe unterschiedlicher Bewertungsmethoden zur Verfügung:6 ¾
Mehrgewinnmethode („Incremental cash flow method“)
¾
Methode der Lizenzpreisanalogie („Relief-from-royalty method“)
¾ Residualwertmethode („Multi-period excess earnings method“). Die Mehrgewinnmethode ermittelt den zusätzlichen Cash Flow, der sich für das Unternehmen aus der Existenz eines immateriellen Vermögenswerts ergibt. Beispielsweise lassen sich aufgrund eines vereinbarten Wettbewerbsverbotes zugunsten des Unternehmens möglicherweise höhere Produktpreise aufrechterhalten und so – im Vergleich zu einer Situation ohne Wettbewerbsverbot – höhere Cash Flows erzielen. Der Cash-Flow-Vorteil errechnet sich als Differenz der erwarteten Cash Flows des Unternehmens mit und ohne den immateriellen Vermögenswert. Um den Wert des immateriellen Vermögenswertes zu ermitteln, ist dieser CashFlow-Vorteil schließlich mit einem vermögenswertspezifischen Kapitalkostensatz zu diskontieren.7 Die Methode der Lizenzpreisanalogie untersucht, welche Lizenzgebühren das Unternehmen zu zahlen hätte, wenn es nicht Eigentümer eines immateriellen Vermögenswertes (wie beispielsweise einer Marke oder von Verlagsrechten) wäre, sondern diesen von einem Dritten in Lizenz beziehen müsste. Die Höhe der Lizenzgebühren orientiert sich dabei an marktüblichen Lizenzgebühren für vergleichbare Vermögenswerte.8 Die durch das Eigentum am immateriellen Vermögenswert gesparten zukünftigen Lizenzgebühren werden nach Abzug von Steuern wiederum mit einem vermögenswertspezifischen Kapitalkostensatz diskontiert, woraus sich der Wert des immateriellen Vermögenswertes ergibt.9 Im Rahmen der Residualwertmethode werden zunächst die einem immateriellen Vermögenswert direkt zurechenbaren erwarteten Erlöse und Kosten ermittelt. Da zur Generierung der relevanten Erlöse in der Regel aber auch andere Vermögenswerte des Unternehmens beitragen, sind auch deren Kosten anteilsmäßig zu berücksichtigen. Dies geschieht über so genann6
7 8
9
Im Rahmen dieses Beitrags sollen die wichtigsten Bewertungsmethoden im Rahmen des kapitalwertorientierten Verfahrens vorgestellt werden, die Liste möglicher Bewertungsmethoden ist jedoch nicht abschließend. Für eine Kategorisierung der verschiedenen Ansätze und Methoden vgl. REILLY/SCHWEIHS (1999), S. 114. Ein ausführliches Fallbeispiel zu diesen Bewertungsmethoden findet sich bei LEIBFRIED/FASSNACHT (2007). Vgl. REILLY/SCHWEIHS (1999), S. 192 f. Falls diese nicht direkt beobachtbar sind, stehen entsprechende Datenbanken kommerzieller Anbieter zur Verfügung. Alternativ kann auch auf Erfahrungswerte innerhalb des Unternehmens zurückgegriffen werden, sofern regelmäßig entsprechende Lizenzvereinbarungen getroffen werden. Vgl. IDW (2006), S. 1309, Rdn. 31.
234
LEIBFRIED/FASSNACHT
te „Contributory asset charges“: Diese stellen sozusagen Miet- oder Leasingraten für die zur Nutzung des immateriellen Vermögenswertes in Anspruch genommenen anderen Vermögenswerte des Unternehmens dar. Auch hier wird wieder ein fiktiver Fremdbezug dieser Vermögenswerte unterstellt, d. h. die Höhe der „Contributory asset charges“ wird so festgelegt, dass der fiktive Eigentümer der unterstützenden Vermögenswerte eine angemessene Verzinsung seines eingesetzten Kapitals erhält („Return on asset“) und auch für den Werteverzehr der Vermögenswerte entschädigt wird („Return of asset“).10 3.1.3
Kostenorientiertes Verfahren
Als drittes grundsätzliches Verfahren zur Bewertung immaterieller Vermögenswerte kommt das kostenorientierte Verfahren in Betracht. Diesem Verfahren liegt die Überlegung zugrunde, den Wert eines immateriellen Vermögenswertes als denjenigen Betrag zu definieren, der aufgewendet werden müsste, um den gleichen zukünftigen Nutzen zu erhalten.11 Dies kann mittels der so genannten Reproduktionskostenmethode oder der Wiederbeschaffungskostenmethode geschehen. Die Reproduktionskostenmethode zieht zur Ermittlung des Wertes eines immateriellen Vermögenswertes die Kosten heran, welche notwendig wären, um den immateriellen Vermögenswert exakt zu replizieren. Hingegen wird bei Anwendung der Wiederbeschaffungskostenmethode versucht, den Wert über die Kosten zu schätzen, welche für die Beschaffung eines vergleichbaren Vermögenswertes mit gleichwertigem zukünftigen Nutzen entstehen würden.12 Beispielsweise könnte der Wert eines Mitarbeiterstammes über die Rekrutierungs- und Ausbildungskosten ermittelt werden, die eingegangen werden müssten, um vergleichbar qualifizierte Mitarbeiter zu erhalten. In der Praxis wird auf das kostenorientierte Verfahren aufgrund seiner Vergangenheitsorientierung meist nur zurückgegriffen, wenn weder das marktpreisorientierte noch das kapitalwertorientierte Verfahren anwendbar sind.13
3.2
Index- und kennzahlenbasierte Messung von Intangibles
Neben den vorgestellten Verfahren zur monetären Bewertung immaterieller Vermögenswerte besteht auch die Möglichkeit, solche Werte bzw. deren Werttreiber über Indizes oder nichtfinanzielle Kennzahlen zu messen. Dies geschieht häufig unternehmensintern als Grundlage für das Management und die Steuerung immaterieller Vermögenswerte (siehe Abschnitt 5). Als Beispiele werden im Folgenden drei Konzepte vorgestellt.14
10 11 12 13 14
Vgl. MARD et al. (2002), S. 25. Vgl. SMITH/PARR (2000), S. 164. Vgl. IDW (2006), S. 1311, Rdn. 48. Vgl. BEYER (2005), S. 164. Eine umfassende Übersicht über weitere Konzepte findet sich bei GÜNTHER/KIRCHNER-KHAIRY/ZURWEHME (2004), S. 169 f.
Intangible Assets – Management des Unfassbaren
3.2.1
235
Balanced Scorecard
Das wohl prominenteste Konzept in dieser Hinsicht ist die von KAPLAN/NORTON entwickelte Balanced Scorecard.15 Sie versucht, die traditionelle finanzielle Perspektive („Financial perspective“) um nicht-finanzielle Werttreiber zu ergänzen (siehe Abbildung 1). Hierzu sollen Unternehmen relevante Werttreiber in den Dimensionen Kunden („Customer perspective“), interne Prozesse („Internal business perspective“) und Innovation und Lernen („Innovation and learning perspective“) definieren.16 Beispiele solcher Werttreiber wären u. a. Marktanteile, Umsatzanteil neu eingeführter Produkte, oder Kundenzufriedenheit. Ziel ist dabei, der Unternehmensführung einen umfassenden Überblick über relevante finanzielle und nicht-finanzielle Steuerungsgrößen und deren Zusammenwirken zu geben. Auch wenn KAPLAN/ NORTON im Zusammenhang der nicht-finanziellen Werttreiber von operativen Kennzahlen („Operational measures“17) sprechen, so haben die vorgeschlagenen Perspektiven doch einen deutlichen Bezug zur Schaffung immaterieller Vermögenswerte wie Humankapital, Kundenbeziehungen oder Technologie- und Prozess-Know-how.
Finance
Customers Goals
Measures
New products
% of sales from new products
Responsive supply
On-time delivery (defined by customer)
Preferred supplier
Share of key accounts‘ purchases
Abbildung 1:
15 16 17 18
Goals
Measures
Survive
Cash flow
Succeed
Quarterly sales growth and operating income by division
Prosper
Increased market share and ROE
Innovation & Learning Goals
Measures
Technology leadership
Time to develop next generation
Manufacturing learning
Process time to maturity
Time to market
New product introduction vs. competition
Balanced Scorecard18
Vgl. KAPLAN/NORTON (1992). Vgl. KAPLAN/NORTON (1992), S. 72. KAPLAN/NORTON (1992), S. 71. Vgl. KAPLAN/NORTON (1992).
Internal Business Goals
Measures
Technology capability
Manufacturing design vs. competition
Manufacturing excellence
Cycle time, unit cost, yield
New Actual product introduction introduction schedule vs. plan
236
LEIBFRIED/FASSNACHT
Eine Besonderheit der Balanced Scorecard im Vergleich zu den beiden nachfolgend vorgestellten Konzepten ist, dass KAPLAN/NORTON ihre Anwendung nicht auf die Messung und Kommunikation von relevanten Kennzahlen beschränken, sondern explizit auch dazu auffordern, für jede Perspektive – und innerhalb der einzelnen Perspektiven für jede Kennzahl – Ziele und Maßnahmen zu deren Erreichung festzulegen.19 Damit eignet sie sich auch als Instrument zum aktiven Management von Intangibles (siehe Abschnitt 5). Andererseits fehlt es bei der Balanced Scorecard an einer monetären Bewertung von Intangibles. 3.2.2
Skandia-Navigator
Als ein Pionier bei der Implementierung nicht-finanzieller Kennzahlen zur Erfassung immaterieller Vermögenswerte kann der schwedische Finanzdienstleister Skandia bezeichnet werden. In einem mittlerweile vielzitierten Projekt wurde Anfang der 1990er Jahre ein sowohl für die interne Steuerung als auch die externe Berichterstattung gedachter Skandia-Navigator entwickelt (siehe Abbildung 2). Dieser besteht in seiner ursprünglichen Version aus 91 Kennzahlen, welche – ähnlich der Balanced Scorecard – in den Dimensionen Finanzen, Kunden, Prozesse, Erneuerung und Entwicklung sowie Humankapital die Wertentwicklung des Unternehmens abzubilden versuchen.20
Dial: Dial is Europe’s second-largest telemarketing insurance company and provides insurance for automobiles, homes, vacation homes, boats, and mopeds. 1996(6) 1995 1994 FINANCIAL FOCUS Premium income (MSEK) 475 880 667 Premium income/employee (SEK 000s) 1,955 3,592 3,586 CUSTOMER FOCUS Telephone accessibility (%) 96 93 90 Number of individual policies 296,206 275,231 234,741 Satisfied customer index (max. value =5) 4,36 4,32 4,15 Sweden’s Customer Barometer (max. value =100) n. a. 69 n. a. HUMAN FOCUS Average age 40 40 37 Number of employees 243 245 186 Time in training (days/year) 7 6 3,5 PROCESS FOCUS IT-employees/total number of employees (%) 7,4 7,3 8,1 RENEWAL & DEVELOPMENT FOCUS Increase in premium income (%) 2,7 31,9 28,5 Number of values in claims assessment system (%) 18,5 9 n. a. Number of ideas filed with Idea Group 90 n. a. n. a.
Abbildung 2: 19 20 21
Skandia-Navigator21
Vgl. KAPLAN/NORTON (1992), S. 73. Vgl. hierzu ausführlich EDVINSSON/BRÜNIG (2000). Beispiele für verwendete Kennzahlen sind u. a. Kundenzufriedenheit, Weiterbildungstage je Mitarbeiter und Jahr, und die Anzahl eingereichter Verbesserungsideen. Vgl. SKANDIA (1996), S. 10.
Intangible Assets – Management des Unfassbaren
237
Der Skandia-Navigator bezieht dabei auch die Bewertung mit ein, indem aus den Kennzahlen zunächst Indizes gebildet werden, welche dann gegen ein Idealmaß oder einen Branchendurchschnitt normalisiert werden. Ein gewichteter Wert aller so ermittelter Indizes liefert einen Gesamtwert dafür, wie effektiv ein Unternehmen sein immaterielles Kapital pflegt: Ausgehend von der Annahme, dass das gesamte immaterielle Kapital eines Unternehmens als Differenz zwischen Marktwert und Buchwert angesehen werden kann, lassen sich einzelnen Indexwerten dann konkrete monetäre Werte zuordnen.22 3.2.3
Intangible Assets Monitor
Ein weiteres Beispiel für ein kennzahlenbasiertes Konzept zur Messung von Intangibles ist der beim schwedischen Lernsoftware-Unternehmen Celemi eingesetzte Intangible Assets Monitor von SVEIBY.23 Dieser definiert Intangibles-bezogene Kennzahlen in einer Matrix mit neun Feldern (siehe Abbildung 3). In der horizontalen Achse werden die Kennzahlen dabei in die Kategorien Externe Struktur („Unsere Kunden“), Interne Struktur („Unsere Organisation“) und Kompetenz („Unsere Mitarbeiter“) eingeteilt. Auf der vertikalen Achse erfolgt eine Unterteilung in die Perspektiven Wachstum/Erneuerung, Effizienz und Stabilität: Damit sollen – insbesondere im Zeitablauf – Fortschritte beim Management immaterieller Vermögenswerte aufgezeigt werden. Die Wahl der konkreten Kennzahlen innerhalb der Matrix erfolgt aufgrund der spezifischen Bedürfnisse des jeweiligen Unternehmens. Allerdings liegt auch hier das Augenmerk auf der Messung von Intangibles bzw. deren Werttreibern, eine Verknüpfung zur finanziellen Sichtweise wie bei der Balanced Scorecard erfolgt nicht. Auch eine monetäre Bewertung von Intangibles sieht der Intangible Assets Monitor nicht vor.
22 23
Vgl. EDVINSSON/BRÜNIG (2000), S. 126 ff. Vgl. SVEIBY (1998), S. 263 f.
238
LEIBFRIED/FASSNACHT
Stabilität
Effizienz
Wachstum/ Erneuerung
Unsere Kunden (Externe Struktur)
Abbildung 3:
4
Unsere Organisation (Interne Struktur)
Unsere Mitarbeiter (Kompetenz)
¾ Umsatzsteigerung ¾ Anteil imageverbessernder Kunden in % vom Umsatz
¾ IT-Investitionen in % der Wertschöpfung ¾ Anteil organisationsverbessernder Kunden in % vom Umsatz ¾ F&E in % der Wertschöpfung ¾ Gesamtinvestitionen in % der Wertschöpfung
¾ Durchschnittliche Berufserfahrung ¾ Anteil kompetenzverbessernder Kunden in % vom Umsatz ¾ Gesamtkompetenz der Experten in Jahren ¾ Durchschnittlicher Ausbildungsstand (Index)
¾ Veränderung des Durchschnittsumsatzes pro Kunde
¾ Veränderung des Anteils der Verwaltungsmitarbeiter ¾ Veränderung des ProKopf-Umsatzes pro Verwaltungsmitarbeiter
¾ Wertschöpfung pro Experte ¾ Wertschöpfung pro Mitarbeiter
¾ Wiederholungsaufträge ¾ Umsatzanteil der fünf größten Kunden
¾ Fluktuation der Verwaltungsmitarbeiter ¾ Betriebszugehörigkeit der Verwaltungsmitarbeiter ¾ Anteil neuer Mitarbeiter
¾ Fluktuation der Experten ¾ Betriebszugehörigkeit der Experten ¾ Durchschnittsalter aller Mitarbeiter
Intangible Assets Monitor24
Reporting von Intangibles
Ausgehend von der Messung von Intangibles ist die Berichterstattung hierüber der zweite Schritt hin auf dem Weg zu einer aktiven Steuerung des immateriellen Kapitals eines Unternehmens. Traditionell unterscheidet die Finanzfunktion hierbei zwischen interner Berichterstattung (Controlling) und externer Rechnungslegung (Accounting). Während für interne Zwecke das gesamte vorstehend erläuterte Instrumentarium an Messmethoden als Rohmaterial für die Berichterstattung zur Verfügung steht, ist die externe Rechnungslegung hier weitaus zurückhaltender. Aus Angst vor allzu tiefen Einblicken durch Wettbewerber, Kunden oder Lieferanten wird regelmäßig die Frage aufgeworfen, wie viel interne Informationen überhaupt nach außen gegeben werden sollen. Die zukünftig weltweit vorherrschende Berichterstattung nach den International Financial Reporting Standards (IFRS) hat sich daher auf ein sehr überschaubares Instrumentarium geeinigt.
24
Vgl. SVEIBY (1998), S. 263 f.
Intangible Assets – Management des Unfassbaren
4.1
239
Selbst erstellte immaterielle Werte
Der wesentliche Teil der immateriellen Werte eines Unternehmens besteht in der Regel aus selbst geschaffenen Intangibles. Den Umfang des hierbei möglichen Ansatzes in der Bilanz bestimmen die hierfür in den Bereichen Forschung bzw. Entwicklung getätigten Aufwendungen. Dazu wird der Erstellungsprozess eines Vermögenswertes in eine Forschungs- und eine Entwicklungsphase unterteilt:25 ¾
Forschung umfasst „die eigenständige und planmäßige Suche mit der Aussicht, zu neuen wissenschaftlichen oder technischen Erkenntnissen zu gelangen“26. Unter Forschung fallen bspw. Aktivitäten, die auf das Finden neuen Wissens ausgerichtet sind oder die allgemeine Suche nach Alternativen für Materialien oder Produkte.
¾ Entwicklung stellt im Gegensatz dazu „die Anwendung von Forschungsergebnissen oder von anderem Wissen auf einen Plan oder Entwurf für die Produktion von neuen oder beträchtlich verbesserten Materialien, Vorrichtungen, Produkten, Verfahren, Systemen oder Dienstleistungen“27 dar. Im Rahmen von Entwicklungsaktivitäten werden bspw. Prototypen und Modelle entworfen oder Alternativen für Materialien oder Produkte getestet. Aufwendungen, die dem Forschungsbereich zuzuordnen sind, sind in der Periode des Anfalls zwingend als Aufwand zu berücksichtigen.28 Somit sind nur Entwicklungsaufwendungen überhaupt einer Aktivierung zugänglich. Darüber hinaus setzt eine Aktivierung noch die kumulative Erfüllung der folgenden sechs Kriterien voraus:29 ¾
Die Fertigstellung des immateriellen Vermögenswertes bzw. die Vollendung des Projekts ist technisch machbar.
¾
Das Unternehmen verfolgt die Absicht, das Projekt zu vollenden und den immateriellen Vermögenswert anschließend intern zu nutzen oder zu veräußern.
¾
Das Unternehmen verfügt über die Fähigkeit, den immateriellen Vermögenswert zu nutzen oder zu veräußern.
¾
Der voraussichtliche künftige wirtschaftliche Nutzen kann nachgewiesen werden (z. B. durch den Nachweis eines Marktes für den Vermögenswert).
¾
Adäquate technische, finanzielle und sonstige Ressourcen sind vorhanden, um die Entwicklung abzuschließen und den Vermögenswert zu nutzen oder zu veräußern.
¾ Die dem Vermögenswert während seiner Entwicklung zurechenbaren Kosten können zuverlässig ermittelt werden.
25 26 27 28 29
Vgl. IAS 38.52 i.V.m. IAS 38.8. IAS 38.8. IAS 38.8. Vgl. IAS 38.54. Vgl. IAS 38.57.
240
LEIBFRIED/FASSNACHT
Kosten der Entwicklungsphase sind, sofern vorstehende Kriterien kumulativ erfüllt sind, verpflichtend zu aktivieren. Ein Wahlrecht zur Aktivierung selbst erstellter immaterieller Vermögenswerte besteht somit nicht. Dennoch scheinen in der Praxis die vorstehenden Regelungen dazu zu führen, dass ein Großteil der für Forschung und Entwicklung aufgewendeten Beträge ohne weitere Information für den Anleger an der Bilanz vorbei direkt in den Aufwand genommen wird: Eine empirische Untersuchung bei den DAX-100-Unternehmen hat ergeben, dass nur rund ein Viertel aller Aufwendungen für Forschung und Entwicklung zu einer Bilanzierung führt.30 Darüber hinaus ist zu bemängeln, dass nur solche selbst geschaffenen immateriellen Werte überhaupt einer Aktivierung zugänglich sind, die aus einer (in der Regel technologiebezogenen) Entwicklungstätigkeit des Unternehmens resultieren. Die oft viel wesentlicheren Intangibles aus markt-, personen- oder organisationsbezogenen Faktoren bleiben unberücksichtigt und sind nach IFRS sogar explizit von einer Bilanzierung ausgenommen: ¾
selbst geschaffener Goodwill,31
¾
selbst geschaffene Markennamen, Kundenlisten und ihrem Wesen nach ähnliche Werte,32
¾ Ausgaben für die Gründung und Anlauf eines Geschäftsbetriebs, Aus- und Weiterbildung, Werbeaktivitäten und Reorganisationen.33
4.2
Erworbene immaterielle Werte
Im Unterschied zu selbst erstellten immateriellen Werten hat beim Erwerb von Intangibles eine Transaktion über den Markt stattgefunden, die nach dem Verständnis der IFRS zur Objektivierung der anzusetzenden Werte beiträgt. Daher sind bei selbständigem Erwerb auch solche Intangibles anzusetzen und damit für den Abschlussleser erkennbar, die bei eigener Herstellung von einer Aktivierung ausgeschlossen sind. Eine zentrale „Quelle“ vielfältiger erworbener immaterieller Werte sind so genannte Kaufpreisallokationen beim Unternehmenserwerb. Hierunter versteht man die Aufteilung eines eventuellen Unterschiedsbetrages zwischen Kaufpreis und dem Buchwert des Eigenkapitals des erworbenen Unternehmens auf bestehende Vermögenswerte und Schulden, bisher nicht bilanzierte Vermögenswerte und Goodwill.
30 31 32 33
Vgl. LEIBFRIED/PFANZELT (2004), S. 494. Vgl. IAS 38.48. Vgl. IAS 38.63. Vgl. IAS 38.69.
Intangible Assets – Management des Unfassbaren
241
Dabei ist zunächst zu prüfen, ob bei den bilanzierten Vermögenswerten und Schulden stille Reserven bestehen, die aufzudecken sind.34 Als nächster Schritt der Kaufpreisallokation ist zu prüfen, ob beim erworbenen Unternehmen möglicherweise noch zu aktivierende immaterielle Vermögenswerte existieren, die wegen mangelnder Aktivierbarkeit derartiger originärer (selbst geschaffener) Werte in der Übernahmebilanz bislang nicht angesetzt sind. Dabei sind immaterielle Vermögenswerte des erworbenen Unternehmens nur dann zu aktivieren, wenn sie die Definition eines immateriellen Vermögenswertes nach IAS 38 erfüllen und ihr beizulegender Zeitwert verlässlich ermittelt werden kann.35 IAS 38 definiert einen immateriellen Vermögenswert als identifizierbaren, nicht monetären Vermögenswert ohne physische Substanz.36 Identifizierbar bedeutet in diesem Zusammenhang, dass der Vermögenswert entweder ¾
vom Unternehmen separierbar ist, d. h. verkauft, übertragen, lizenziert, vermietet oder getauscht werden kann, oder
¾ auf vertraglichen oder anderen gesetzlichen Rechten beruht, unabhängig davon, ob diese selbst übertragbar oder separierbar sind.37 Als weitere Ansatzkriterien verlangt IAS 38, dass dem Unternehmen aus dem Vermögenswert voraussichtlich ein künftiger wirtschaftlicher Nutzen zufließen wird und dass das Unternehmen den Vermögenswert beherrscht, d. h. die Verfügungsmacht über den künftigen wirtschaftlichen Nutzen hat.38 Bei der Bewertung zu aktivierender immaterieller Vermögenswerte ist nach IFRS 3 im Sinne einer hierarchischen Ordnung vorrangig auf das marktpreisorientierte Verfahren abzustellen, und nur falls dieses aufgrund der Nichtverfügbarkeit von Marktpreisen ausscheidet, soll auf das kapitalwertorientierte Verfahren zurückgegriffen werden. Ist auch dieses nicht anwendbar, darf schließlich das kostenorientierte Verfahren verwendet werden.39 Erwähnenswert ist in diesem Zusammenhang, dass selbst IAS 38 die Anwendbarkeit des marktpreisorientierten Verfahrens zur Bewertung immaterieller Vermögenswerte eher als Ausnahme denn als Regelfall betrachtet, da für solche Vermögenswerte meist kein aktiver Markt existiert. Somit kommt in der Praxis für die Bewertung immaterieller Vermögenswerte dem kapitalwertorientierten Verfahren die größte Bedeutung zu.40 Verbleibt nach der Aufdeckung stiller Reserven und der Aktivierung immaterieller Vermögenswerte immer noch ein Restunterschiedsbetrag zwischen Kaufpreis und dem (um die aufgedeckten stillen Reserven, neu aktivierten Vermögenswerte und latenten Steuern hierauf) angepassten Eigenkapital des Zielunternehmens, so ist dieser verbleibende Unterschiedsbetrag als Goodwill zu aktivieren.41
34 35 36 37 38 39 40 41
Vgl. IFRS 3.36. Vgl. IFRS 3.45 i. V. m. IFRS 3.37. Vgl. IAS 38.8. Vgl. IAS 38.12. Vgl. IAS 38.8 i. V. m. IAS 38.13 ff. Vgl. IFRS 3.B16 und IDW (2005), S. 1418, Rdn. 19. Vgl. IAS 38.78 sowie CASTEDELLO/KLINGBEIL/SCHRÖDER (2006), S. 1030. Vgl. LEIBFRIED/FASSNACHT (2007) für eine Fallstudie zur Kaufpreisallokation.
242
LEIBFRIED/FASSNACHT
5
Management von Intangibles
5.1
Grundsätzliche Herausforderungen
Angesichts der Bedeutung von Intangibles für die Wettbewerbsfähigkeit eines Unternehmens und der substantiellen Investitionen in solche Vermögenswerte stellt sich die Frage nach der angemessenen Steuerung von Intangibles. Hierfür sind traditionelle Controlling-Instrumente nicht oder nur bedingt geeignet, da sie zur sehr auf die Steuerung physischer Ressourcen ausgerichtet sind. Hinsichtlich des Managements von Intangibles ergeben sich für Unternehmen eine Reihe grundsätzlicher Herausforderungen: ¾
Integration unterschiedlicher funktionaler Sichtweisen zu einer umfassenden Berücksichtigung und Steuerung von Intangibles. Häufig werden diese im Unternehmen von vielen unterschiedlichen Stellen gesteuert, zwischen denen keine ausreichende Koordination besteht: Die Personalabteilung ist für das Humankapital verantwortlich, die Marken werden aus der Marketingabteilung gesteuert, Kundenzufriedenheit wird von der Qualitätssicherung ermittelt, und die Verantwortung für die Bewertung und externe Berichterstattung von Intangibles liegt schließlich im Finanzcontrolling und Rechnungswesen.42
¾
Verständnis von Ursache-Wirkungs-Beziehungen zwischen (vermeintlichen) Werttreibern, den daraus – möglicherweise – resultierenden Intangibles und dem Wert des Unternehmens insgesamt: Zwar erfassen Konzepte wie der in Abschnitt 3.2 vorgestellte Skandia-Navigator eine Vielzahl von Kennzahlen mit Bezug zu Intangibles; häufig fehlt es dabei jedoch an einem theoretisch oder empirisch begründbaren Ursache-WirkungsZusammenhang.43
¾
Nur wenn diese Zusammenhänge bekannt sind, können solche Kennzahlensysteme auch zur Steuerung von Intangibles eingesetzt werden. Dazu müssen die entsprechenden Kennzahlen auch in das Zielvereinbarungs- und Leistungsbeurteilungssystem des Unternehmens eingebunden werden, um entsprechende Anreize für das effektive Management und die Schaffung von Intangibles zu setzen.
¾ Schließlich ist auch für Intangibles ein „Investitionscontrolling“ erforderlich, das sich jedoch wiederum aufgrund der nicht-physischen Natur von Intangibles und den unklaren Ursache-Wirkungs-Beziehungen als schwierig erweist.44 Dies betrifft einerseits die Ermittlung des „Outputs“, d. h. des zukünftigen Nutzens eines Intangibles und damit die in Abschnitt 3.1 vorgestellten Verfahren zu dessen monetärer Bewertung, die nicht frei von subjektiven Schätzungen sind. Zum anderen gestaltet sich aber auch die Bestimmung des „Inputs“, d. h. des zur Schaffung des Intangible tatsächlich investierten Betrages alles andere als einfach: Welche entstandenen Kosten sollen einer erfolgreichen Marke zugerechnet werden (z. B. nur Marketingausgaben oder auch Personalkosten für wertvolle Mitarbeiter, die durch ihre Arbeit zum Erfolg der Marke beigetragen haben)? Die Rentabilität einer Investition in Intangibles bleibt daher bisher häufig unklar.
42 43 44
Vgl. BLACHFELLNER/BORNEMANN (2004), S. 31. Vgl. GÜNTHER (2005), S. 68. Vgl. STOI (2004), S. 193.
Intangible Assets – Management des Unfassbaren
5.2
243
Performance Management mittels Balanced Scorecard
Anhand des in Abschnitt 3.2.1 vorgestellten Konzeptes der Balanced Scorecard soll im Folgenden beispielhaft aufgezeigt werden, wie die genannten Herausforderungen adressiert werden können. Zunächst ist die Balanced Scorecard gut geeignet, um verschiedene funktionale Sichtweisen über die vier Perspektiven Finanzen, Kunden, interne Prozesse sowie Innovation und Lernen miteinander zu kombinieren. Damit wird der Unternehmensführung und den involvierten funktionalen Bereichen aufgezeigt, welche Auswirkungen eine Veränderung bestimmter funktionaler Werttreiber auf andere Funktionen hat. Dies fördert eine integrative Sichtweise. Sollten unternehmens- oder branchenspezifische Besonderheiten es erfordern, können die einzelnen Perspektiven auch durch andere ersetzt werden. Dabei sollte jedoch stets zumindest die finanzielle Perspektive beibehalten werden, da diese letzten Endes der Maßstab ist, an dem der Erfolg des Unternehmens seitens seiner Investoren gemessen wird. Da die Balanced Scorecard nicht ausschließlich zur Steuerung von Intangibles konzipiert wurde, sind die Ziele, Kennzahlen und Maßnahmen zur Zielerreichung innerhalb der verschiedenen Perspektiven entsprechend auszuwählen bzw. anzupassen.45 Dies setzt wie oben erwähnt ein detailliertes Verständnis von Ursache-Wirkungs-Beziehungen voraus, um wirklich nur relevante Werttreiber als Kennzahlen auszuwählen. Als Ausgangspunkt für ein besseres Verständnis von Intangibles und deren Werttreibern gilt es zunächst, die vorhandenen Intangibles überhaupt zu identifizieren und ihre Rolle im Wertschöpfungsprozess des Unternehmens zu untersuchen. Die Analyse sollte dabei sämtliche Schritte innerhalb des betrieblichen Wertschöpfungsprozesses – von den Kundenbeziehungen über die operativen und unterstützenden Prozesse hin zu den Forschungs- und Entwicklungsaktivitäten – abdecken und schließlich auch die Brücke zur finanziellen Perspektive schlagen, indem die finanziellen Implikationen von Veränderungen einzelner Werttreiber modelliert werden.46 Im Ergebnis sollte eine überschaubare Anzahl der relevantesten Kennzahlen ausgewählt werden, wobei eine ausgewogene Mischung von Frühindikatoren und (Zwischen-)Ergebnisgrößen empfehlenswert erscheint.47 Hervorzuheben ist, dass die Balanced Scorecard in ihrer Anwendung nicht auf die Sichtweise des Gesamtunternehmens und damit der obersten Unternehmensführung beschränkt ist, sondern auch auf tieferen hierarchischen Ebenen eingesetzt werden kann. Somit kann die Gesamtsichtweise auf Unternehmensteilbereiche heruntergebrochen werden und eine Balanced Scorecard mit individuellen Kennzahlen für den betreffenden Bereich oder die hierarchische Ebene definiert werden. Dies ist insbesondere von Bedeutung, um die Balanced Scorecard über hierarchische Ebenen hinweg in den Zielvereinbarungs- und Leistungsbeurteilungsprozess einbinden zu können. Nur so kann ein ausreichender Anreiz zu zielkonformem Verhalten der Mitarbeiter sichergestellt werden (im Sinne der Redensart „what gets measured gets done“). Ausgehend von der Strategie und den Gesamtunternehmenszielen werden daher Teilziele für die einzelnen Werttreiber vereinbart und in der Balanced Scorecard festgehalten. Periodische Zeitvergleiche der Kennzahlen erlauben Abweichungsanalysen und können als Maßstab der Zielerreichung bei der Beurteilung eines Mitarbeiters herangezogen werden. Dies setzt voraus, dass die verwendeten Kennzahlen auch für die Zielerreichung relevant sind und vom Mitarbeiter beeinflusst 45 46 47
Vgl. BECKER/STEINER (2005), S. 25. Vgl. DAUM (2005), S. 14 f. Vgl. BECKER/STEINER (2005), S. 25.
244
LEIBFRIED/FASSNACHT
werden können. Auch vor diesem Hintergrund sind die in der Balanced Scorecard verwendeten Kennzahlen regelmäßig zu hinterfragen.48 Nicht geeignet ist die Balanced Scorecard allerdings für die Untersuchung von Kosten-Nutzen-Zusammenhängen von Investitionen in Intangibles im Sinne eines Investitionscontrollings: Sie zeigt zwar Veränderungen einzelner Werttreiber von Intangibles auf, sieht aber keine monetäre Bewertung der resultierenden Intangibles vor und misst auch nicht die zu deren Schaffung verursachten Kosten. Daher sind vorhandenen Intangibles regelmäßig separat mittels der in Abschnitt 3.1 vorgestellten Verfahren zu bewerten. Dennoch erweist sich in der Regel die zur Ermittlung der Kennzahlen durchgeführte Analyse von Ursache-Wirkungs-Beziehungen als hilfreich, um die zurechenbaren Kosten sinnvoll abgrenzen zu können. Auf Basis dieser Analyse ist gegebenenfalls auch das interne Reporting-System anzupassen, um sicherzustellen, dass die relevanten Kostengrößen auch erfasst werden und verfügbar sind.49
6
Ein Blick nach vorn
Der Anfang ist gemacht: Spätestens seit den Jahren der „New Economy“ hat die betriebswirtschaftliche Praxis verstanden, dass immaterielle Werte auf dem Weg in eine Wissens- und Informationsgesellschaft eine zentrale Rolle einnehmen werden. Um unternehmerische Erfolge auch in diesem Umfeld steuern zu können, müssen Messung und Berichterstattung immaterieller Werte zu einem festen Bestandteil des laufenden Managements werden. In vielerlei Hinsicht ist hierbei der Finanzbereich gefordert, und zwar schon aus ganz eigenem Interesse: Seine bisherige Haupttätigkeit der rein finanziellen Berichterstattung wird aufgrund zahlreicher regulatorischer Anforderungen einerseits immer aufwändiger, andererseits ist jedoch der dabei entstehende Beitrag zum operativen Erfolg eines Unternehmens in vielen Fällen fraglich. Zwar hat die Internationalisierung der Rechnungslegung in vielen Unternehmen zu einer Verbesserung der lange zweifelhaften Transparenz nationaler Systeme (wie z. B. des HGB) geführt. Dies geschah allerdings häufig um den Preis der Übernahme hochkomplexer, dynamischer Regelwerke. Diese treiben – nach dem Motto „Schwanz wedelt mit Hund“ – häufig Unternehmensleitungen mehr vor sich her, als dass sie der Entscheidungsunterstützung dienen: Während von einem Unternehmer „alter Schule“ zunächst auf Basis operativer Überlegungen gehandelt wurde und der Finanzbereich die operativen Handlungen hinterher „irgendwie“ abbilden musste, werden heute oftmals zunächst die bilanziellen Konsequenzen verschiedener Alternativen überlegt und dann unter Einbeziehung dieses Kriteriums eine operative Entscheidung gefällt. Nicht anders lassen sich beispielsweise viele hochkomplexe Leasing-Konstruktionen erklären, die zwar Off-Balance-Sheet sind und damit oberflächlich von Analysten ermittelte Kennzahlen nicht beeinträchtigen, in wirtschaftlicher Betrachtung aber nichts anderes als langfristige Zahlungsverpflichtungen darstellen, die wie passivierte Verbindlichkeiten in der Zukunft eben auch zu bedienen sind. Der Finanzbereich tut gut daran, durch eine Einbeziehung der immer wichtigeren immateriellen Werte wieder einen größeren Beitrag zum Unternehmenserfolg zu leisten.
48 49
Vgl. BECKER/STEINER (2005), S. 25. Vgl. DAUM (2005), S. 12.
Intangible Assets – Management des Unfassbaren
245
Insbesondere gefordert ist der Finanzbereich in methodischer Hinsicht. Zwar sind die in diesem Beitrag dargestellten Ansätze zur Messung und Berichterstattung durchaus geeignet, etwas Licht ins Dunkel zu bringen. Auf dem aktuellen Stand ist dies aber sicherlich nicht mehr als ein rein komparativer Vorteil zur praktisch völligen Ignoranz von Intangibles in der Vergangenheit. Gefordert ist vielmehr eine Leistung, die vergleichbar ist der Erfindung der doppelten Buchführung durch Luca Pacioli im 15. Jahrhundert – eine völlig neue Rechnungslegung, die mehr ist, als nur das Hinterherrennen einer monetär greifbaren Vergangenheit. Die dazu notwendigen Ideen und Konzepte sind bis heute noch nicht einmal in Ansätzen entwickelt. Sicher scheint nur eines: Es braucht mehr, als die von der modernen Rechnungslegung derzeit betriebene verzweifelte Suche nach dem Fair Value aller möglichen immateriellen Elemente eines sich an leidlich effizienten Märkten herausbildenden (und ständig verändernden) Unternehmenswerts. Nach derart volatilen Größen kann kein Unternehmer eine Organisation steuern; es wäre ein ständiges Hin und Her. Möglicherweise muss man sich auch im Finanzbereich daran gewöhnen, im Rahmen der Unternehmenssteuerung für Dinge mitverantwortlich zu sein, die sich nicht in monetären Größen ausdrücken lassen – operatives Controlling im besten und eigentlichen Sinne, und nicht als Ausfluss einer in buchhalterischen Größen ausgedrückten Welt. Mindestens ebenso gefordert ist der Finanzbereich in „emotionaler“ Hinsicht. Nach der Jahrzehnte alten Tradition einer geradezu übermäßig vorsichtigen Bilanzierung sind die meisten Finanzabteilungen nicht gerade als ausgewiesene Freunde der „weicheren“ Bereiche eines Unternehmens wie Marketing, Personal oder Forschung und Entwicklung bekannt. Im Gegenteil, oftmals liegen in der Praxis regelrechte Gräben vor. Ein Teil der vorgebrachten Skepsis mag durchaus berechtigt sein: Schließlich gibt es gerade in diesen Unternehmensbereichen immer wieder mit blumigen Worten angekündigte hochfliegende Pläne und Projekte, die sich nach erheblichen Investitionen als Misserfolge herausstellen und abgeschrieben werden müssen. Andererseits steckt gerade in diesen Bereichen das Potenzial für zukünftigen Erfolg, und unternehmerisches Engagement bedeutet nun auch einmal das Eingehen von Risiken. Sicherlich wäre es auch nicht klug, ein Unternehmen von Buchhaltern und Kostenrechnern führen zu lassen – wenn diese überhaupt den mutigen Schritt ins Unternehmertum wagen würden. Nachdem die Internationalisierung der Rechnungslegung zumindest in den großen Unternehmen in den letzten zehn Jahren weitgehend bewältigt wurde, steht nun die Herausforderung für die nächsten Jahre an. Eine Alternative dazu hat der Finanzbereich eigentlich nicht: „Keeping pace with change is the only way to ensure accountants do not become irrelevant”.50
Quellenverzeichnis BECKER, D./STEINER, A. (2005): Immaterielles Vermögen erfolgreich managen – Status Quo und Entwicklung, in: HACHMEISTER, D. (Hrsg.), Controlling und Management von Intangible Assets, Zeitschrift für Controlling & Management, Sonderheft 3, 2005, S. 20–28. BEYER, S. (2005): Fair Value-Bewertung von Vermögenswerten und Schulden, in: BALLWIESER, W./BEYER, S./ZELGER, H. (Hrsg.), Unternehmenskauf nach IFRS und US-GAAP – Purchase Price Allocation, Goodwill und Impairment-Test, Stuttgart 2005, S. 141–189. 50
IFAC, 16th World Congress of Accountants, Hong Kong, November 2002.
246
LEIBFRIED/FASSNACHT
BLACHFELLNER, M./BORNEMANN, M. (2004): Studie zum Management von Intangible Assets, Internationaler Controller Verein, online: http://www.controllerverein.com/_cmsdata/_file /file_351.pdf, Abruf: 12.08.2007. CASTEDELLO, M./KLINGBEIL, C./SCHRÖDER, J. (2006): IDW RS HFA 16 – Bewertungen bei der Abbildung von Unternehmenserwerben und bei Werthaltigkeitsprüfungen nach IFRS, in: Die Wirtschaftsprüfung, 2006, S. 1028–1036. CHOI, F./MUELLER, G. (1992): International Accounting, Englewood Cliffs 1992. DAUM, J. (2005): Intangible Asset Management – Wettbewerbskraft stärken und den Unternehmenswert nachhaltig steigern – Ansätze für das Controlling, in: HACHMEISTER, D. (Hrsg.), Controlling und Management von Intangible Assets, Zeitschrift für Controlling & Management, Sonderheft 3, 2005, S. 4–18. EDVINSSON, L./BRÜNIG, G. (2000): Aktivposten Wissenskapital, Wiesbaden 2000. GÜNTHER, T. (2005): Unternehmenssteuerung mit Wissensbilanzen – Möglichkeiten und Grenzen, in: HACHMEISTER, D. (Hrsg.), Controlling und Management von Intangible Assets, Zeitschrift für Controlling & Management, Sonderheft 3, 2005, S. 66–75. GÜNTHER, T./KIRCHNER-KHAIRY, S./ZURWEHME, A. (2004): Measuring Intangible Resources for Managerial Accounting Purposes, in: HORVÁTH, P./MÖLLER, K. (Hrsg.), Intangibles in der Unternehmenssteuerung, München 2004, S. 159–185. INSTITUT DER WIRTSCHAFTSPRÜFER (IDW) (2005): IDW Stellungnahme zur Rechnungslegung – Bewertungen bei der Abbildung von Unternehmenserwerben und bei Werthaltigkeitsprüfungen nach IFRS (IDW RS HFA 16), in: Die Wirtschaftsprüfung, 2005, S. 1415–1426. INSTITUT DER WIRTSCHAFTSPRÜFER (IDW) (2006): Entwurf IDW Standard – Grundsätze zur Bewertung immaterieller Vermögenswerte (IDW ES 5), in: Die Wirtschaftsprüfung, 2006, S. 1306–1314. KAPLAN, R./NORTON, D. (1992): The Balanced Scorecard – Measures that drive Performance, in: Harvard Business Review, 1992, Nr. 1, S. 71–79. LEIBFRIED, P./FASSNACHT, A. (2007): Unternehmenserwerb und Kaufpreisallokation – Eine Fallstudie zur Anwendung von IFRS 3 und IAS 38, in: Zeitschrift für internationale und kapitalmarktorientierte Rechnungslegung (KoR), 2007, S. 48–57. LEIBFRIED, P./PFANZELT, S. (2004): Praxis der Bilanzierung von Forschungs- und Entwicklungskosten gemäß IAS/IFRS, in: Zeitschrift für internationale und kapitalmarktorientierte Rechnungslegung (KoR), 2004, S. 419–497. MARD, M./HITCHNER, J. R./HYDEN, S. D. (2002): Valuation for Financial Reporting – Intangible Assets, Goodwill, and Impairment Analysis, SFAS 141 and 142, New York 2002. REILLY, R./SCHWEIHS, R. (1999): Valuing Intangible Assets, New York 1999. SCHMIDLI, M./VASALLI, P. (2006): Immaterielle Vermögenswerte – Bedeutung und kritische Faktoren der Bewertung, in: Der Schweizer Treuhänder, 2006, S. 144–148. SKANDIA (1996): Power of Innovation – Supplement to Skandia’s 1996 Interim Report, online: http://www.skandia.com/en/includes/documentlinks/annualreport1996/e9606Power.pdf, Abruf: 12.08.2007.
Intangible Assets – Management des Unfassbaren
247
SMITH, G./PARR, R. (2000): Valuation of Intellectual Property and Intangible Assets, 3. Auflage, New York 2000. STOI, R. (2004): Management und Controlling von Intangibles auf Basis der immateriellen Werttreiber des Unternehmens, in: HORVÁTH, P./MÖLLER, K. (Hrsg.), Intangibles in der Unternehmenssteuerung, München 2004, S. 187–201. SVEIBY, K. (1998): Wissenskapital – das unentdeckte Vermögen, Landsberg/Lech 1998.
Immaterielle Vermögensgegenstände als Kreditsicherheiten – Ein Potenzial für die Mittelstandsfinanzierung in Deutschland? CLAUDIA BITTELMEYER, NICK EHRHART, KLAUS MARK und VOLKER ZIMMERMANN KfW Bankengruppe
1 2
Einführung ..................................................................................................................... 251 Potenzial des Einsatzes immaterieller Vermögenswerte für die Unternehmensfinanzierung ............................................................................................ 253 2.1 Gesamtwirtschaftliche Bedeutung von immateriellem Vermögen ....................... 253 2.2 Intellectual Property als Kreditsicherheit im deutschen Mittelstand? .................. 256 2.3 Einsatz von Rechten über Intellectual Property heute – Einige empirische Indikationen............................................................................ 264 3 Voraussetzungen für den Einsatz immateriellen Vermögens als Kreditsicherheit......... 269 3.1 Besondere Bewertungsprobleme bei immateriellen Vermögensgegenständen am Beispiel von Patenten ..................................................................................... 270 3.2 Entstehung von bank- bzw. fondsbasierten Intermediären und Auktionsmärkten zur Erleichterung des Handels mit Intellectual Property ...................................... 271 3.2.1 Erste Entwicklungen bei bank- bzw. fondsbasierten Intermediären ........ 272 3.2.2 Erste Auktionen für Intellectual Property ................................................ 272 4 Fazit ............................................................................................................................... 274 Quellenverzeichnis................................................................................................................ 275
Immaterielle Vermögensgegenstände als Kreditsicherheiten
1
251
Einführung
In vielen modernen Volkswirtschaften nimmt die Bedeutung wissensbasierter Wertschöpfungsprozesse zu. Damit geht ein struktureller Wandel hinsichtlich der von Unternehmen eingesetzten Aktiva einher. Immaterielle Wirtschaftsgüter oder so genanntes Intellectual Property (IP) spielen als Produktivfaktoren eine immer wichtigere Rolle, während materielle Assets wie Maschinen und Anlagen relativ hierzu an Gewicht verlieren. Dies gilt insbesondere für Unternehmen, die in Forschung und Entwicklung (F&E) investieren und innovative Geschäftsprojekte voranbringen wollen – oder müssen. Auch die deutsche Volkswirtschaft steht vor den Herausforderungen eines solchen Strukturwandels. Immer mehr deutsche Unternehmen werden Innovationen hervorbringen müssen, um bei hohen Lohnkosten im globalen Wettbewerb bestehen zu können. Die Realisierung wissensintensiver und innovativer Geschäftsprojekte ist jedoch mit besonderen Finanzierungsproblemen verbunden. Die Erfolgsentwicklung kann bei solchen Projekten extrem volatil verlaufen und ist zudem im Vorhinein schwer abschätzbar. Neben diesen, durch die Umfeldbedingungen gegebenen Risiken müssen Financiers auf der Seite der unmittelbar in die zugehörigen Innovationsprozesse involvierten Führungs- und Fachkräfte mit Verhaltensrisiken rechnen. Die Projektträger verfügen im Hinblick auf zentrale Qualitätseigenschaften der Projekte sowie im Hinblick auf ihr eigenes Verhalten über einen erheblichen Informationsvorsprung, den sie zum eigenen Vorteil und gleichzeitig zum Nachteil der Financiers nutzen können. Hieraus entstehen so genannte Prinzipal-Agenten- oder Agency-Konflikte. Diese werden bei der Finanzierung innovativer Projekte durch die hohe Bedeutung immaterieller Assets als Produktivfaktoren verschärft. Denn für Kapitalgeber ist es zum Beispiel schwierig, sich bei Scheitern eines Projekts oder im Fall erheblicher Unstimmigkeiten mit den Projektträgern Zugriff auf zentrale immaterielle Assets zu verschaffen und diese verlustmildernd zu veräußern. Auf die Lösung der besonderen Finanzierungsprobleme bei der Umsetzung von Innovationen haben sich Venture-Capital-Gesellschaften spezialisiert. Venture-Capital-Gesellschaften betreiben bei den Unternehmen, in die sie als Eigenkapitalgeber investieren, einen hohen Kontrollaufwand und nutzen komplexe Finanzierungsverträge, um Umfeldrisiken rechtzeitig zu erkennen und die angesprochenen Verhaltensprobleme zu reduzieren. Der Aufwand, der beim Einsatz dieser Finanzierungstechnologie betrieben wird, erweist sich in der Regel nur bei Unternehmen als lohnenswert, bei denen einerseits extreme Umwelt- und Verhaltensrisiken vorliegen, die sich jedoch andererseits durch ein außerordentliches Wachstumspotenzial auszeichnen. Venture Capital eignet sich zumeist nicht bei vielen der rund 3,5 Mio. deutschen mittelständischen Unternehmen. Bezüglich externer Quellen dominiert im Mittelstand die Kreditfinanzierung, damit verbunden das so genannte Hausbankprinzip, das ein intensiveres Engagement der Bank im Bereich der Unternehmensführung und -kontrolle bei ihren Firmenkunden nur in Krisenfällen vorsieht. Die Verbreitung dieser Koordinationsform zwischen Unternehmen und Financier ist darauf zurückzuführen, dass sich die deutschen Mittelständler in der Vergangenheit in einem weniger risikobehafteten Umfeld bewegt haben, als dies bei Portfolio-Unternehmen von Venture-Capital-Gesellschaften der Fall ist. Außerdem zeichnen sich Geschäftsmodelle der Mittelständler zwar oft durch gute, aber insgesamt als „moderat“ zu bezeichnende Wachstumsaussichten aus. Unter diesen Bedingungen gehen Kreditfinanzierungen mit günstigeren Steuerungseigenschaften für die Interaktion zwischen Financier und Unternehmer einher als Venture-Capital-Ansätze. Ein wichtiges Element, das zur Vorteilhaftigkeit von Kreditfinanzierungen beitrug, waren dabei werthaltige Sicherheiten, die mittel-
252
BITTELMEYER/EHRHART/MARK/ZIMMERMANN
ständische Unternehmer ihrer Hausbank in Form von Immobilien oder Maschinen und Anlagen bieten konnten. Der eingangs angesprochene Strukturwandel hin zu wissensbasierten innovativen Geschäftsmodellen, bei denen vermehrt immaterielle Assets als Produktivfaktoren zum Einsatz kommen, findet auch im deutschen Mittelstand statt. Dies führt zu größeren Ertragsrisiken und einer zunehmenden Bedeutung von Intellectual Property und in einen weiteren Schritt dazu, dass die traditionellen kreditbasierten Finanzierungsmodelle im Mittelstand auf dem Prüfstand stehen. Bei vielen Mittelständlern wird sich allerdings das finanzierungsrelevante Umfeld jedoch nicht so stark wandeln, dass sie auf Kreditfinanzierungen verzichten, ihre bewährte Hausbankbeziehung aufgeben und stattdessen zu eigenkapitalbasierten Finanzierungsformen wie Venture Capital wechseln sollten. Vor diesem Hintergrund befasst sich der vorliegende Beitrag mit der Thematik, inwieweit durch den Einsatz immaterieller Vermögensgegenstände als Kreditsicherheiten ein Beitrag zur Lösung der „neuen Konstellation an Finanzierungsproblemen“ bei vielen Mittelständlern geleistet werden kann. Die Grundidee ist dabei, dass Sicherheiten aus immateriellen Assets, bislang eingesetzte materielle Kreditsicherheiten, die angesichts zunehmend wissensbasierter Geschäftsmodelle nicht mehr in ausreichendem Maße verfügbar sind, teilweise ersetzen können. Eine über zusätzliche Besicherungen erreichte Reduktion der Risiken von Kreditengagements aus Sicht der Bank führt dazu, dass man die Grundmuster der Hausbankbeziehung, die sich im Mittelstand als effektiv erwiesen haben, auch bei einem Schwenk hin zu stärker innovationsbezogenen Geschäftsschwerpunkten nicht verlassen muss. Der vorliegende Beitrag zeigt empirische Indikationen dafür auf, dass Kredite, die durch immaterielle Assets besichert werden, ein erhebliches Potenzial zur Erweiterung der Finanzierungsspielräume deutscher Mittelständler bieten. Zum heutigen Zeitpunkt erweist sich jedoch der Einsatz immaterieller Vermögensgegenstände etwa in der Form von Patenten oder Marken als Sicherheiten aufgrund nicht abschließend gelöster Bewertungsprobleme und dem Mangel an effektiv arbeitenden Handelsplattformen als schwierig. Diese Probleme könnten durch allgemein akzeptierte Bewertungsstandards und liquide Märkte für Intellectual Property reduziert werden. Der Beitrag ist wie folgt gegliedert: Abschnitt 2 befasst sich mit dem Potenzial von Kreditfinanzierungen, die durch immaterielle Vermögensgegenstände besichert werden können, für die Unternehmensfinanzierung – insbesondere mit Blick auf den Mittelstand. Abschnitt 2.1 hebt zunächst auf die gesamtwirtschaftliche Bedeutung von Intellectual Property ab. In Abschnitt 2.2 werden die angesprochenen speziellen Finanzierungsprobleme bei innovativen Projekten noch einmal aufgegriffen, in den Kontext der Mittelstandsfinanzierung eingeordnet und die Rolle immaterieller Assets als Sicherheiten dargelegt. In Abschnitt 2.3 wird anhand eines aktuellen Datensatzes analysiert, inwieweit immaterielle Vermögenswerte heute schon von Unternehmen als Sicherheiten bei Kreditfinanzierungen eingebracht werden und durch welche Eigenschaften sich solche Unternehmen auszeichnen. Abschnitt 3 befasst sich mit dem zentralen Bewertungsproblem bei Intellectual Property sowie empirischen Indikationen zu der Frage, inwieweit heute bereits liquide Märkte für den Handel mit solchen Assets existieren. Abschnitt 4 fasst die Ergebnisse des Beitrags zusammen.
Immaterielle Vermögensgegenstände als Kreditsicherheiten
2
Potenzial des Einsatzes immaterieller Vermögenswerte für die Unternehmensfinanzierung
2.1
Gesamtwirtschaftliche Bedeutung von immateriellem Vermögen
253
Wie eingangs angesprochen, entsteht Wertschöpfung in den Unternehmen hoch entwickelter Volkswirtschaften heute zunehmend in wissensbasierten Produktions- und Dienstleistungsprozessen. Damit verbunden ist eine zunehmende Bedeutung wissensbasierter und daher zunächst immaterieller Wirtschaftsgüter. Abbildung 1 zeigt, dass im Verlauf der 90er-Jahre bis Anfang dieses Jahrzehnts in den modernen Industrieländern die Investitionen in immaterielle Vermögenswerte relativ zum Bruttoinlandsprodukt (BIP) zugenommen haben.1 Im OECD-Durchschnitt ist der Anteil der immateriellen Investitionen am BIP zwischen 1994 und 2002 um knapp einen Prozentpunkt gestiegen. Demgegenüber hat sich der BIP-Anteil der materiellen Investitionen um einen halben Prozentpunkt reduziert. Besonders stark ausgeprägt ist diese Bedeutungsverschiebung zugunsten immaterieller Assets in den USA und in Japan. In Deutschland fiel der relative Anstieg der Investitionen in immaterielle Assets geringer aus als im OECD-Durchschnitt. Daneben ist auffällig, dass sich hierzulande anders als im OECDDurchschnitt die Investitionen in materielle Assets in Relation zum BIP erhöht haben.2 Dieser Anstieg fiel sogar stärker aus als der korrespondierende relative Anstieg bei Investitionen in Intellectual Property. Ein geringes Wachstum bei Investitionen in immaterielle Wirtschaftsgüter ist darüber hinaus in Frankreich festzustellen. In Frankreich kam es zudem sogar bei Investitionen in materielle Assets in Relation zum BIP zu einem Rückgang.
1 2
Vgl. OECD (2005). Bei der Interpretation dieser Daten ist zu berücksichtigen, dass die von der OECD verwendete Definition materieller und immaterieller Investitionen nicht alle Untergruppen enthalten, die den jeweiligen Investitionsarten zugerechnet werden könnten. Zum Beispiel werden Bauinvestitionen oder Lizenzgebühren nicht berücksichtigt. Die OECD definiert Investitionen in immaterielle Vermögenswerte als F&E-Ausgaben sowie Ausgaben für Software und tertiäre Bildung. Als Investitionen in materielle Vermögenswerte werden Ausrüstungsinvestitionen verstanden; vgl. OECD (2005).
BITTELMEYER/EHRHART/MARK/ZIMMERMANN
254
Frankreich
Deutschland
OECD
Japan
USA -2%
-1%
0%
1%
2%
3%
4%
5%
Veränderung des Anteils am BIP Veränderung der Ausrüstungsinvestitionstätigkeit 1994-2002 Veränderung der IP-Investitionstätigkeit 1994-2002
Abbildung 1:
Bedeutungszuwachs immaterieller Investitionstätigkeit3
Abbildung 2 zeigt die Höhe der Investitionen in materielle oder immaterielle Assets relativ zum BIP gemessen am Niveau des Jahres 2002. Im OECD-Durchschnitt sind Investitionen in Intellectual Property 2002 bereits ähnlich bedeutsam wie Investitionen in materielle Assets.4 In den USA sind die Investitionen in Intellectual Property zu diesem Zeitpunkt bereits höher. Hinsichtlich des Niveaus zeigt sich, dass die Bedeutung von Investitionen in Intellectual Property in Deutschland (und in Frankreich) geringer ist als im OECD-Durchschnitt. Dies kann als Indiz dafür angesehen werden, dass in Deutschland ein guter Teil des Strukturwandels weg von materiellen, kapitalintensiven Wertschöpfungsketten hin zu ausgeprägt wissensintensiven Wertschöpfungsketten noch zu leisten ist. Gleichwohl muss sicherlich berücksichtigt werden, dass Deutschland traditionell ein starker Industriestandort ist, der tendenziell durch höhere Investitionen in materielle Produktivfaktoren wie Maschinen und Anlagen geprägt ist.
3 4
Vgl. OECD (2005). Vgl. OECD (2005).
Immaterielle Vermögensgegenstände als Kreditsicherheiten
255
9% 8%
[Anteil am BIP, 2002]
7% 6% 5% 4% 3% 2% 1% 0% USA
Japan IP-Investitionen
Abbildung 2:
OECD
Deutschland
Frankreich
Ausrüstungsinvestitionen
Aktuelle Bedeutung materieller und immaterieller Investitionen5
Unabhängig von der Frage der relativen Bedeutung des industriellen Sektors in Deutschland im Vergleich zu anderen hoch entwickelten Volkswirtschaften dürften von einer Erhöhung von Investitionen in „Wissen“ in Deutschland positive Impulse auf die Beschäftigung ausgehen. Untersuchungen des Niedersächsischen Instituts für Wirtschaftsforschung zeigen, dass neue Arbeitsplätze hierzulande (per Saldo) vornehmlich in den Bereichen forschungsintensive Industrien sowie wissensintensive Dienstleistungen entstehen. In Abbildung 3 sind die jährlichen Veränderungsraten bei den Beschäftigungszahlen in wissensintensiven und nichtwissensintensiven Branchenzweigen dargestellt. Danach ist die Zahl der sozialversicherungspflichtig Beschäftigten in Deutschland im Zeitraum von 1980 bis 2004 in den gesamten wissensintensiven Branchen pro Jahr um rund 0,9% gestiegen. Demgegenüber ist die Beschäftigtenzahl in den gesamten nicht-wissensintensiven Branchen im gleichen Zeitraum jährlich um etwa 0,6% zurückgegangen. Besonders stark sind Unterschiede in der Beschäftigungsentwicklung bei einem Vergleich zwischen dem Bereich wissensintensive Dienstleistungen (+2,5% p. a.) und dem nicht-wissensintensiven produzierenden Gewerbe (–1,9% p. a.).
5
Vgl. OECD (2005).
BITTELMEYER/EHRHART/MARK/ZIMMERMANN
256
Abbildung 3:
2.2
Langfristige Beschäftigungsentwicklung in den wissensintensiven und nichtwissens-intensiven Branchen im Vergleich6
Intellectual Property als Kreditsicherheit im deutschen Mittelstand?
Wie in Abbildung 2 im vorangegangenen Abschnitt dargestellt, flossen 2002 Investitionen in Höhe von rund 4% des Bruttoinlandsprodukts in Intellectual Property. Dies entspricht etwa 86 Mrd. EUR und deutet insoweit auf ein beachtliches Potenzial für Finanzierungen von Investitionsprojekten hin, bei denen Intellectual Property einen zentralen wertschaffenden Faktor darstellt. Einleitend wurde allerdings schon darauf hingewiesen, dass die Finanzierung innovativer und wissensintensiver Investitionsprojekte mit besonderen Problemen behaftet ist. Diese Probleme resultieren zunächst aus „exogenen Risiken“, die direkt mit den Umfeldbedingungen zusammenhängen, in denen Innovationsprojekte anzusiedeln sind.7 Hinzu kommen Verhaltensrisiken, die auf Zielkonflikte zwischen den Financiers innovativer Projekte und den handelnden, in die Innovationsprozesse unmittelbar involvierten Personen, zurückzuführen sind. Diese Zielkonflikte sind grundsätzlich bei jeder Art von Finanzierungsbeziehung anzutreffen.8 Jedoch sind sie bei der Finanzierung innovativer Projekte aufgrund der besonde6 7 8
Vgl. OECD (2005). Vgl. etwa MARK (2005) und ANTONCZYK/BREUER/MARK (2007). Vgl. grundlegend JENSEN/MECKLING (1976), LELAND/PYLE (1977) und MYERS (1977). Übersichtsbeiträge zu Verhaltenskonflikten zwischen Kapitalgeber und -nehmer liefern beispielsweise SHLEIFER/VISHNY (1997), HART (2001) oder MYERS (2001).
Immaterielle Vermögensgegenstände als Kreditsicherheiten
257
ren Umfeldbedingungen stärker ausgeprägt. Somit gehen bei Innovationsprojekten vom Umfeld sowohl direkte als auch indirekte, über Verhaltenskonflikte transportierte Risikoeffekte und damit Belastungen auf Finanzierungsbeziehungen aus.9 Innovationsprojekte sind typischerweise durch eine sehr hohe Streuung der möglichen Ergebnisrückflüsse gekennzeichnet. Bereits im Vorfeld muss die Abschätzung entsprechender Wahrscheinlichkeitsverteilungen oft auf der Basis relativ vager Prämissen erfolgen. Aufgrund der Innovationen naturgemäß inhärenten „Neuartigkeit“ ist es schwierig, für eine Erfolgskalkulation auf stabile Erfahrungsgrößen zurückzugreifen. Wie bereits angesprochen wurde, ist der für innovative Projekte besonders wichtige Produktionsfaktor „Wissen“ intangibel. Intangibilität erschwert den rechtlichen Zugriff auf Vermögenswerte. Beispielsweise ist ein rechtlicher Zugriff auf das „bloße Wissen“ der Mitarbeiter einer F&E-Einheit kaum möglich. Dies kann sich aus Kapitalgebersicht bei einem Scheitern des Projekts oder bei Zielkonflikten zwischen den beteiligten Parteien als extrem nachteilig erweisen. Darüber hinaus sind die im Zusammenhang mit Innovationsprozessen eingesetzten Aktiva – ob intangibel oder physisch greifbar wie etwa Maschinen und Anlagen – als hoch spezifisch anzusehen. Das bedeutet, diese Kapitalbestände sind bei einem Scheitern des Projekts kaum mehr rentabel wieder verwertbar.10 Intangibilität und Spezifität zentraler Produktivfaktoren sind als wesentliche Ursachen dafür anzusehen, dass bei Innovationen und F&E-Projekten stets auch mit der Möglichkeit extrem schlechter Ergebnisrealisationen gerechnet werden muss. Wie angesprochen, wird die Finanzierung von Innovationen darüber hinaus durch Verhaltensrisiken belastet, insbesondere aufgrund so genannter Prinzipal-Agenten- oder AgencyKonflikten. Zwischen derjenigen Partei, die bei einem Innovationsprojekt nur die Rolle des Financiers übernimmt, und den aktiv in F&E-Aktivitäten involvierten Akteuren besteht ein erhebliches Informationsgefälle. Hierbei wird von einem Prinzipal-Agenten-Verhältnis gesprochen. Die unmittelbar involvierten Projektträger werden als „Agenten“ oder „Handlungsbeauftragte“ stets wesentlich besser über Projektqualitäten sowie über ihr eigenes Verhalten informiert sein als die Financiers in der Rolle der „Prinzipale“ oder „Auftraggeber“. Letztere müssen daher mit Verhaltensrisiken auf Agentenseite rechnen. Denkbar ist zunächst, dass die Projektträger vor Vertragsschluss, also vor Begründung einer Finanzierungsbeziehung zur Umsetzung eines innovativen Vorhabens, unter Nutzung ihres Informationsvorsprungs bei der Darstellung der Erfolgsaussichten übertreiben, um so für sich günstigere Konditionen durchzusetzen. Nach Abschluss des Finanzierungsvertrags und der Übertragung der Mittel besteht weiterhin die Gefahr, dass die Agenten in Ermangelung der Beobachtbarkeit ihrer Handlungen durch die Prinzipale versuchen, auf die Projektrückflüsse bzw. zugehörige Wahrscheinlichkeitsverteilungen zum eigenen Vorteil und zum Schaden ihrer Auftraggeber Einfluss zu nehmen. Stehen wissensintensive, durch komplexe Innovationsprozesse geprägte Projekte im Vordergrund, sind informationsbedingte Handlungsspielräume der Agenten besonders ausgeprägt. Weiterhin werden hier Agency-Konflikte durch die hohe Bedeutung intangibler sowie hoch spezifischer Ressourcen verschärft. Ein wichtiges Sanktionspotenzial, das aus Prinzipalsicht zur Verhaltenssteuerung eingesetzt werden kann, resultiert aus den Zugriffsmöglichkeiten im Hinblick auf Projekt- bzw. Unternehmensaktiva. Dieses Anreizinstrument verliert bei intangiblen und hoch spezifischen Wissensressourcen oft erheblich an Wirkung. 9 10
Vgl. ausführlich MARK (2005). Vgl. KLEIN/CRAWFORD/ALCHIAN (1978) und WILLIAMSON (1988).
258
BITTELMEYER/EHRHART/MARK/ZIMMERMANN
In diesem Kontext kommt den mit verschiedenen Finanzierungsformen bzw. den dahinter stehenden Vertragswerken verbundenen Allokations- und Steuerungsfunktionen besondere Bedeutung zu. Zum einen erfolgt über die Finanzierungsform die Verteilung der aus innovativen Projekten resultierenden Zahlungssalden und damit der zugehörigen Risiken auf die beteiligten Parteien. Wären beispielsweise einzelne Wissensträger mit geringerer Risikotragfähigkeit in Innovationsprojekten gezwungen, sehr hohe Risiken zu übernehmen, kämen derartige Projekte aufgrund resultierender Prämienforderungen der entsprechenden Personen nur zu ungünstigeren Bedingungen oder möglicherweise gar nicht mehr Zustande.11 Des Weiteren stellen Finanzierungsverträge Steuerungsmechanismen zur Reduktion von AgencyKonflikten zur Verfügung. Je größer der Teil der finanziellen Konsequenzen der Handlungen der Projektträger ist, der nicht von diesen selbst, sondern von externen Finanziers zu tragen ist, desto größer werden Fehlanreize auf der Seite der Projektträger ausfallen. Daneben gehen auch von der mit Finanzierungen verbundenen Allokation von Entscheidungsrechten auf Projektträger und externe Financiers Steuerungseffekte aus. Im Zusammenhang mit wissensintensiven innovativen Investitionsprojekten ist dabei insbesondere zu berücksichtigen, dass die Verfügbarkeit von Interventionsrechten der Kapitalgeber zwar zunächst aus deren Sicht vorteilhaft erscheinen mag, um zum Schutz des eigenen Investments das Verhalten der Projektträger kontrollieren zu können. Jedoch ist hierbei immer auch zu berücksichtigen, dass umfangreiche Eingriffsmöglichkeiten externer Financiers und eine damit einhergehende allgemeine Schwächung der Verhandlungsposition der Projektträger deren Bereitschaft mindert, spezifisches – mithin auf das aktuelle Innovationsvorhaben fokussiertes – Wissenskapital aufzubauen. Spezifische Investitionen führen zu einem Lock-in-Effekt – also einer umfassenden Bindung an den aktuellen Vertragspartner. In Antizipation einer schwachen Position in künftigen Verhandlungen werden die Projektträger daher eher daran interessiert sein, eine zu enge Bindung zu vermeiden. Dies führt gerade bei innovativen Projekten, bei denen noch nicht da gewesene Kenntnisse aufzubauen sind, zu erheblichen Effzienzverlusten.12 Vor diesem Hintergrund gilt es, Finanzierungsverträge so auszugestalten, dass eine günstige Risikoallokation und gleichzeitig geeignete Anreizstrukturen für die beteiligten Parteien resultieren. Dies ermöglicht die Umsetzung schwierigerer Projekte, die ansonsten an Friktionen im Verhältnis zwischen Financier und Projektträger scheitern würden. Kreditfinanzierung bietet im Kontext ihrer Steuerungsfunktionen den Vorteil, dass die Projektträger Anspruch auf den gesamten Residualanspruch aus den Projektüberschüssen erhalten. Ist ein Kredit nicht ausfallbedroht, ist er mit optimalen zahlungsstrukturbedingten Anreizeffekten verbunden, weil die im Innovationsprojekt handelnden Personen die finanziellen Konsequenzen ihres Handelns voll internalisieren. Aus Kapitalgebersicht haben diese unmittelbar aus der Zahlungsteilung resultierenden Anreizeffekte den Vorteil, dass man hier idealerweise ohne kostspielige Kontrollmaßnahmen auskommt. Dies kann sich gerade bei wissensbasierten Projekten als günstig erweisen, weil hier der Informationsvorsprung der Projektträger typischerweise besonders groß ist. Darüber hinaus eröffnet Kreditfinanzierung bei Solvenz des Schuldners – bis auf im Kreditvertrag gegebenenfalls festgelegte Ausnahmen (Covenants) – den Kapitalgebern keinerlei Interventionsspielräume. Damit kann die Bereitschaft auf der Seite der Projektträger, spezifische Investitionen zu unternehmen, erhöht werden.
11 12
Vgl. zur Funktionsweise von Finanzierungsformen als Instrumente der Risikoallokation etwa BREUER (1998), S. 7 ff. Vgl. hierzu allgemein etwa GROSSMAN/HART (1986) sowie etwa MARK (2007).
Immaterielle Vermögensgegenstände als Kreditsicherheiten
259
Die Probleme der Kreditfinanzierung liegen allerdings in ihrer Anfälligkeit, wenn die Projekte bzw. zugehörige Unternehmen hohen Risiken ausgesetzt sind. Wie oben dargestellt, ist dieses Umfeldcharakteristikum gerade bei innovativen wissensbasierten Projekten häufig gegeben. Aufgrund ihrer typischerweise beschränkten Risikotragfähigkeit werden die im Innovationsprojekt handelnden auf rechtliche Konstruktionen dringen, die ihre Haftung beschränken. Hebt man auf das Verhältnis zwischen einem Unternehmerteam und einer Kredit gebenden Bank ab, werden die Unternehmer etwa über die Rechtsform einer Aktiengesellschaft oder einer Gesellschaft mit beschränkter Haftung zu verhindern suchen, dass ihr Privatvermögen Bestandteil der Haftungsmasse wird. Unter diesen Bedingungen geht Kreditfinanzierung mit erheblichen Fehlanreizen für die Projektträger einher. Weil Schuldner und Gläubiger ungleich von extremen Ergebnisrealisationen betroffen sind, kann es sich dann für die Projektträger als vorteilhaft erweisen, das (ohnehin oft hohe) Projektrisiko durch gezielte Maßnahmen zum Schaden der Bank (noch) zu steigern. Denn infolge einer stets nach oben hin begrenzten Gläubigerforderung profitiert von extrem hohen Projektüberschüssen vornehmlich das kreditfinanzierte Unternehmen. Kommt es hingegen zu extrem schlechten Ergebnissen, sind die Verluste zu großen Teilen von den Gläubigern zu tragen. Aus diesem Grunde werden viele hochinnovative und daher extrem risikoreiche Projekte über die Zuführung von Eigenkapital finanziert. Bei speziell auf Innovationsprojekte bzw. zugehörige junge Unternehmen zugeschnittenen Beteiligungsfinanzierungen findet hierbei der Begriff Venture Capital Verwendung.13 Beteiligungsfinanzierung wirkt in diesem Kontext zum einen dem Risikoanreizproblem bei den Projektträgern entgegen. Zum anderen erhalten bei Beteiligungen die Financiers bereits vor Eintritt massiver Schwierigkeiten, die unternehmerische Insolvenz bedeuten können, klare Eingriffsrechte, die es ihnen in einem risikoreichen Umfeld erlauben, schon auf „Frühwarnzeichen“ zu reagieren und Restrukturierungen einzuleiten.14 Wie angedeutet, können diese Interventionsspielräume zwar die Anreize der Projektträger für spezifische Investitionen mindern. Auf der Kapitalgeberseite nimmt man dies jedoch bei sehr hohen Projektrisiken häufig in Kauf, wenn Eingriffsrechte, ohne Zeitverzögerung verfügbar sind, als unverzichtbar eingestuft werden. Kredite stellen in Deutschland allerdings nach wie vor die dominierende Form der Unternehmensfinanzierung dar. Darüber hinaus ist zu konstatieren, dass Venture-Capital-Finanzierungen trotz dem aus Sicht deutscher Unternehmen sicherlich vorliegenden Handlungsdruck, in Innovationen zu investieren, im Vergleich zu Krediten von untergeordneter Bedeutung sind (siehe Abbildung 4).
13 14
Vgl. GOMPERS/LERNER (2001). Vgl. etwa MARK (2005), S. 156 ff. Das Ausmaß der Eingriffsrechte eines Kapitalgebers hängt dabei freilich von der Höhe seines Anteils und der weiteren Gesellschafterstruktur ab.
BITTELMEYER/EHRHART/MARK/ZIMMERMANN
260
Abbildung 4:
Bruttoinvestitionen deutscher Venture-Capital- und Private-Equity-Gesellschaften sowie der Kreditneuzusagen an Unternehmen und Selbstständige in Relation zum Bruttoinlandsprodukt15
Im Jahr 2006 wurden z. B. in Deutschland von Venture-Capital-Gesellschaften Beteiligungen mit einem Volumen von rund 1 Mrd. EUR finanziert. Dem steht im gleichen Zeitraum ein zugesagtes Neukreditvolumen von rund 600 Mrd. EUR gegenüber. Darüber hinaus erscheint das Engagement deutscher Venture-Capital-Gesellschaften klein im Vergleich zu dem eingangs dieses Abschnitts angesprochenen Betrag von 86 Mrd. EUR, der als Ankergröße für das Investitionsvolumen im Bereich Intellectual Property auf gesamtwirtschaftlicher Ebene ermittelt wurde. Ein wesentlicher Grund für die relativ geringe gesamtwirtschaftliche Bedeutung von VentureCapital-Finanzierungen dürfte darin zu sehen sein, dass sich diese recht aufwendige Finanzierungstechnologie nur für Unternehmen eignet, die sich in einem ganz extremen Umfeld bewegen: Diese Unternehmen sind typischerweise einerseits mit erheblichen Finanzierungsproblemen konfrontiert, andererseits zeichnen sie sich durch äußerst hohe Renditechancen aus Investorensicht aus.16 Externe Beteiligungsfinanzierung hat insbesondere den Nachteil, dass die zahlungsstrukturinduzierten Anreize für die Projektträger ungünstiger ausfallen, weil diese nicht mehr den vollen Anspruch auf erzielte Gewinne und Eigenkapitalwertsteigerungen haben. Dies versuchen Venture-Capital-Geber in der Regel durch umfassende Kontrollund Eingriffsmaßnahmen auszugleichen. Weil hierbei angesichts hoher Informationsbarrieren erhebliche Kosten in Kauf genommen werden müssen, lohnt sich ein solcher Aufwand nur bei Innovationsprojekten bzw. entsprechenden Unternehmen mit extremem Wachstumspo15
Vgl. BUNDESVERBAND DEUTSCHER KAPITALBETEILIGUNGSGESELLSCHAFTEN (1996–2006) und DEUTSCHE BUNDES(2006).
BANK 16
Vgl. hierzu auch SCHMIDT (2003).
Immaterielle Vermögensgegenstände als Kreditsicherheiten
261
tenzial. Insofern erweist sich der mit Venture-Capital-Investments aus Sicht des Kapitalgebers betriebene „Aufwand“ bei vielen Unternehmen, die zwar Innovationsprojekte durchführen wollen, deren Wachstumsaussichten insgesamt gleichwohl als „moderat“ einzustufen sind, nicht als lohnenswert. Zu berücksichtigen ist in diesem Zusammenhang ferner der angesprochene Effekt umfassender Interventionsrechte der Kapitalgeber auf die Bereitschaft der Projektträger für spezifische Investitionen. Demgegenüber bewegen sich viele der 3,5 Mio. Mittelständler im Spannungsfeld zwischen der Stabilität einerseits und zunehmenden Risikoeinflüssen andererseits. Im Unterschied zu jungen Technologieunternehmen können sie bereits auf relativ stabile Ertragsflüsse aus angestammten Geschäftsbereichen zurückgreifen, jedoch stehen sie oft vor der Notwendigkeit, vermehrt in Innovationen zu investieren und damit höhere Risiken einzugehen. Im deutschen Mittelstand hat sich seit vielen Jahren das so genannte Hausbankprinzip bewährt.17 Aus finanzierungstheoretischer Sicht kann das Hausbankprinzip als eine spezielle Koordinationsform zwischen Kapitalgeber und -nehmer interpretiert werden, die sich hinsichtlich ihrer Steuerungseigenschaften zwischen reiner Kreditfinanzierung und Beteiligungsfinanzierung etwa in Form von Venture-Capital-Engagements bewegt. Beim Hausbankprinzip wird einerseits auf die angesprochenen Vorteile der Kreditfinanzierung gesetzt. Denn der mittelständische Unternehmer behält den vollen Anspruch auf erzielte Gewinne und muss bei Abwesenheit von Leistungsstörungen bei der Kreditbedienung keine Beschränkungen seiner Freiheiten in Kauf nehmen. Andererseits entsteht durch eine langfristig angelegte und vertrauensvolle Zusammenarbeit zwischen Unternehmer und Firmenkundenbetreuer ein exklusiver Informationszugang für die Hausbank hinsichtlich der wirtschaftlichen Verhältnisse ihres Kunden. So erreicht die Hausbank gegenüber anderen Instituten einen Vorteil, der es ihr ermöglicht, den Unternehmenskunden langfristig an sich zu binden und von dieser Kundenbindung zu profitieren. Denn im Fall eines Institutswechsels müsste der Unternehmer zunächst mit höheren Kreditzinsen aufgrund einer geforderten Risikoprämie der neuen Bank rechnen, weil diese sich eine umfassende kreditnehmerspezifische Informationsbasis erst im Zeitablauf erarbeiten muss. Insofern kann die starke Verbreitung des Hausbankprinzips hierzulande aus finanzierungstheoretischer Sicht dadurch erklärt werden, dass es als „hybride“ Koordinationsform zwischen Kredit- und Beteiligungsfinanzierung unter den spezifischen Umfeldbedingungen für deutsche Mittelständler effektive Allokations- und Steuerungswirkungen aufweist. Eine wichtige Rolle spielen dabei Sicherheiten. Diese reduzieren zunächst unmittelbar das Verlustrisiko aus Bankensicht. Die Überlassung von Sicherheiten eröffnet Unternehmern, die neue Projekte finanzieren wollen, aber ebenso die Möglichkeiten, sich glaubwürdig an eine verlässliche Politik gegenüber ihren Financiers zu binden.18 Sie können insoweit als Vertrauenskapital in eine langfristig angelegte Kunde-Bank-Beziehung interpretiert werden. Für die zentrale Bedeutung von Sicherheiten in der Mittelstandsfinanzierung finden sich zahlreiche empirische Belege. Die Ergebnisse des KfW-Mittelstandspanels zeigen beispielsweise, dass in den vergangenen Jahren das Fehlen von Sicherheiten der wichtigsten Grund für das Scheitern von Kreditverhandlungen war (siehe Abbildung 5).
17 18
Vgl. zum Hausbankprinzip ausführlich ELSAS (2001). Vgl. z.B. BESTER/HELLWIG (1989).
BITTELMEYER/EHRHART/MARK/ZIMMERMANN
262
Aufgrund unzureichender Sicherheiten abgelehnte Kreditanfragen an der Gesamtzahl abgelehnter Anfragen 100% 85% 80%
73%
74%
2003
2004
60%
40%
20%
0%
Abbildung 5:
2005
Anteil der aufgrund unzureichender Sicherheiten angelehnter Kreditanfragen deutscher Mittelständler in Relation zur Gesamtzahl abgelehnter Kreditanfragen19
Vor dem Hintergrund des sich abzeichnenden Strukturwandels hin zu innovativen, stärker durch immaterielle Vermögensgegenstände geprägten Wertschöpfungsprozessen stehen Mittelständler wie Kreditinstitute vor einer Herausforderung. Wenn mittelständische Unternehmen mehr Investitionsmittel in innovative, wissensbasierte Projekte lenken, werden ihre Ertragsrisiken steigen. Außerdem dürfte ihr Bestand an physischen Assets, die sie bereits heute problemlos als Sicherheiten in Finanzierungen einbringen können, zurückgehen. Dies bedeutet, dass sie bei Finanzierungsanfragen bei ihren Banken zunehmend auf Schwierigkeiten stoßen dürften. Ein erheblicher Anteil der Mittelständler wird dabei seinen Fokus nicht so stark in Richtung hoch riskanter Geschäftsfelder verlagern, dass sich ein Wechsel zu beteiligungsdominierten Finanzierungsformen wie Venture Capital als vorteilhaft erweist. Die Nutzbarmachung von Intellectual Property als Kreditsicherheiten könnte vielen dieser Mittelständler die Chance bieten, auch künftig bei der Finanzierung ihrer Investitionen auf die bewährte Koordinationsform des Hausbankprinzips zurückzugreifen. Denn die Vergrößerung der Menge verfügbarer werthaltiger Sicherheitsgegenstände kann aus finanzierungstheoretischer Sicht dazu beitragen, das „alte Gleichgewicht“ zwischen unternehmerischem Risikograd einerseits und Garantie- und Steuerungsinstrumenten zum Schutz der Kapitalgeberansprüche andererseits wiederherzustellen. Um Intellectual Property als Sicherheit nutzen zu können, muss es für den Rechtsverkehr greifbar – insoweit tangibel – sein. Dies kann etwa über die Patentierung von Erfindungen gewährleistet werden. Daneben stellen aber auch Marken Schutzrechte für Intellectual Property und damit rechtlich fixierbare Assets dar. Entscheidend für die Eignung von Intellectual
19
Vgl. REIZE (2005, 2006).
Immaterielle Vermögensgegenstände als Kreditsicherheiten
263
Property als Sicherheit sind aber neben Tangibilität hinreichend friktionsarm arbeitende Veräußerungskanäle, die den Spezifitätsgrad der Assets reduzieren.20 Dass gegenwärtig im deutschen Mittelstand hinsichtlich der Innovationsaktivitäten in der Tat noch Steigerungspotenzial besteht, zeigen aktuelle empirische Ergebnisse. 86% der Unternehmen, die im Rahmen des KfW-Mittelstandspanels 2006 befragt werden, geben an, keine eigene F&E zu betreiben, wenngleich erwähnt werden muss, dass zum Mittelstand auch die Vielzahl sehr kleiner Unternehmen mit wenigen Mitarbeitern zählt, bei denen eigene F&EArbeiten größenbedingt nicht immer sinnvoll sind. Zugleich deuten die Ergebnisse der gemeinsamen Studie der KfW Bankengruppe und des Mannheimer Zentrums für europäische Wirtschaftsforschung darauf hin, dass im Mittelstand Finanzierungsprobleme das wichtigste Hemmnis für einen Ausbau der Aktivitäten in innovativen Geschäftsfeldern darstellen.21 Ein weiteres Indiz hierfür findet sich auch im KfWMittelstandspanel 2006, wonach gerade die Unternehmen mit hohen F&E-Intensitäten ceteris paribus häufiger mit einer Ablehnung ihrer Kreditanfragen zu rechnen haben. Auf der anderen Seite gibt es eine Reihe empirischer Indikationen dafür, dass durch die Nutzung von Intellectual Property als Kreditsicherheiten die Finanzierungsspielräume im Mittelstand deutlich erweitert werden können. Dies lässt sich beispielsweise anhand einer einfachen Abschätzung im Hinblick auf das Wertpotenzial von Besicherungen ermitteln, das aus Patenten mittelständischer Unternehmen resultieren könnte. Der Bestand an Patenten, die vom Europäischen Patentamt (EPA-Patente) erteilt wurden, belief sich in Deutschland Ende 2006 auf knapp 340.000.22 Legt man hier einen Anteil von 15 bis 46% zugrunde, der auf mittelständische Unternehmen zurückgeht,23 ergibt sich eine Spannweite für ein Patentportfolio im Mittelstand von 51.000 bis 156.000 EPA-Patenten. Eine aktuelle Studie von GAMBARDELLA/GIURI/MARIANI (2006) zur Werthaltigkeit von Patenten im Mittelstand errechnet im Rahmen des europaweiten Patval-Projektes für die deutschen Patentanmeldungen zwischen 1993 und 1997 einen Medianwert pro Patent von etwa 300.000 EUR.24 Nimmt man angesichts gegenwärtig noch bestehender größerer Probleme bei der Ermittlung von Patentwerten einen großzügigen Bewertungsabschlag von 50% vor, so ergibt sich für das Patentportfolio immer noch ein Sicherheitenpotenzial von geschätzten 7,5 bis 23 Mrd. EUR.
20 21
Vgl. hierzu auch SHLEIFER/VISHNY (1992). Vgl. RAMMER ET AL. (2006), S. 69 ff.
22
Vgl. DPMA (2007), S. 60.
23
Vgl. BORDOY/ARUNDEL/HOLLANDERS (2007).
24
Vgl. GAMBARDELLA/GIURI/MARIANI (2006), S. 6. Zur Ermittlung eines Durchschnitts wird hier der Median verwendet. Hintergrund ist, dass sich bei der Betrachtung der Einzelwerte von Patenten aus einer größeren Grundgesamtheit in der Regel eine schiefe Wertverteilungen ergibt, die durch einige wenige Ausreißer, also Patente mit sehr hohen Werten, gekennzeichnet ist. Bei derartigen Verteilungen bildet der Median einen aussagekräftigeren Indikator für einen Mittelwert als das arithmetische Mittel.
BITTELMEYER/EHRHART/MARK/ZIMMERMANN
264
2.3
Einsatz von Rechten über Intellectual Property heute – Einige empirische Indikationen
Im Folgenden wird auf der Grundlage einer aktuellen empirischen Erhebung der KfW Bankengruppe und der deutschen Wirtschaftsverbände untersucht, durch welche weiteren Eigenschaften sich Unternehmen auszeichnen, die bereits heute immaterielle Vermögensgegenstände als Sicherheiten im Rahmen von Kreditfinanzierungen einbringen. Hierbei zeigt sich in der Tat, dass dies vorrangig als innovativ zu bezeichnende Unternehmen sind. Ein vermehrter Einsatz immaterieller Assets als Kreditsicherheiten könnte somit dazu beitragen, die Finanzierungsspielräume gerade für innovative Unternehmen zu erweitern. Die Datengrundlage resultiert aus einer breit angelegten Befragung deutscher Unternehmen, die seit 2001 jährlich von der KfW Bankengruppe gemeinsam mit verschiedenen Fach- und Regionalverbänden der Wirtschaft durchgeführt wird. An der aktuellen Befragung im Frühjahr 2007 haben sich insgesamt 27 Verbände25 beteiligt. Der Rücklauf betrug knapp 4.300 Fragebögen. U. a. wurden die Unternehmen zu ihren F&E-Anstrengungen, der Erstellung bzw. dem Zukauf von immateriellen Vermögenswerten sowie zu Kreditaufnahmen und in diesem Kontext insbesondere zum Thema Kreditsicherheiten befragt. Von den befragten Unternehmen gaben rund 3.200 Unternehmen an, dass sie innerhalb der vergangenen drei Jahre im Rahmen der Kreditaufnahme ihren Gläubigern Sicherheiten zur Verfügung gestellt haben. Grundschulden (60,1%) und Sicherungsübereignungen von Maschinen und Anlagen (35,1%) wurden am häufigsten verwendet. In Relation hierzu ist der Anteil der Unternehmen, die auch immaterielle Sicherheiten bei einer Kreditaufnahme eingebracht haben, mit 2,2% sehr gering (siehe Abbildung 6). Dies bestätigt insoweit die These, dass hierzulande die Nutzung immaterieller Assets als Kreditsicherheiten sicherlich noch „steigerungsfähig“ ist.
Art der Sicherheit Grundschulden Sicherungsübereignung (von Fahrzeugen, Maschinen, Warenlagern, …) Guthaben auf Konten und Depots Abtretungen von Forderungen aus Lieferungen und Leistungen Bürgschaften Dritter Risikolebensversicherungen Immaterielle Vermögenswerte Andere Sicherheiten Abbildung 6:
25 26
Anteil in % 60,2 34,9 25,1 23,8 18,3 16,9 2,2 3,8
Verbreitung von verschiedenen Arten von Sicherheiten im Rahmen von Kreditaufnahmen 2004 bis 200626
Diese sind: BGA, BVDM, textil-mode, HDE, VCI, VDMA, ZVEI, BITKOM, GKV, VDA UMU, UvB, WSM, VWT, BVE, HVBI, vbw, VUMV, ZDH, LVI, DEHOGA, IHA, WJD, BoevV, BoevS, ZDB und AGA. Mehrfachnennungen waren möglich. Die Prozentzahlen beziehen sich auf die Gruppe derjenigen Unternehmen, die innerhalb der Jahre 2004 bis 2006 Sicherheiten bei der Kreditaufnahme gestellt haben.
Immaterielle Vermögensgegenstände als Kreditsicherheiten
265
In einer multivariaten Analyse wurde untersucht, inwieweit sich Unternehmen, die immaterielle Assets als Sicherheiten in Finanzierungen einbringen, anhand verschiedener Merkmale von den übrigen Unternehmen unterscheiden.27 Einbezogen wurden dabei die folgenden Unternehmensmerkmale: eigene F&E-Beteiligung, Intensität der F&E-Aktivitäten, Eigenkapitalquote, Anzahl der Beschäftigten, Unternehmensalter, Branche, Zugehörigkeit zum Handwerk, Region des Unternehmenssitzes sowie Rechtsform (siehe Abbildung 7).
Immaterielle Vermögenswerte als Sicherheit Koeffizient Dummy: keine eigene F&E F&E-Intensität (F&E-Ausgaben bezogen auf Jahresumsatz) Dummy: Patent Dummy: Marke Dummy: Sonstige Log(Eigenkapitalquote) Log(Beschäftigte) Log(Unternehmensalter) Dummy: Baugewerbe Dummy: Einzelhandel Dummy: Groß-Außenhandel Dummy: Dienstleistungen Dummy: neue Bundesländer Dummy: Handwerk Dummy: begrenzte Haftung Konstante Anzahl der Beobachtungen Log Likelihood R2 Wald-Test Abbildung 7:
27
28
-2,6300
Robuste t-Werte -4,68
-1,3275
-0,77
0,0067 0,3469 -0,3365 -0,4973 1,0089 -1,0081 0,5599 -0,9653 0,2759 -0,0827 -3,0924
0,08 3,61 -2,25 -0,58 1,16 -0,94 1,24 -1,83 0,58 -0,26 -4,43
2.381 -211,7014 0,1907 F2(12) = 77,03
Ergebnisse Logit-Modell: Einflussfaktoren auf die Besicherung von Krediten mit immateriellen Vermögenswerten 2004 bis 200628
Aufgrund des geringen Anteils der Unternehmen, die immaterielle Sicherheiten gestellt haben, erfolgt die Analyse mit Hilfe eines Logit-Modells. Bei der Interpretation der Ergebnisse ist zu beachten, dass hierbei die Wahrscheinlichkeit untersucht wird, einen immateriellen Vermögenswert als Sicherheit eingebracht zu haben, im Vergleich dazu, eine andere („traditionelle“) Sicherheit gestellt zu haben. Die Darstellung bezieht sich nur auf diejenigen Unternehmen, die innerhalb der Jahre 2004 bis 2006 Sicherheiten im Rahmen einer Kreditaufnahme eingebracht haben. Die Basiskategorie bezüglich der Wirtschaftszweige ist das Verarbeitende Gewerbe.
266
BITTELMEYER/EHRHART/MARK/ZIMMERMANN
Abbildung 8 zeigt eine zusammenfassende Darstellung der Regressionsergebnisse. Darin sind die relativen Veränderungen der Wahrscheinlichkeit dargestellt, dass immaterielle Vermögenswerte als Kreditsicherheiten eingebracht wurden, wenn im Vergleich zu einem Referenzunternehmen ein Unternehmensmerkmal variiert, alle anderen Merkmale aber konstant gehalten werden.29 Das wichtigste Merkmal, durch das sich Unternehmen, die immaterielle Sicherheiten einbringen, von anderen Unternehmen abheben, besteht in der Durchführung eigener F&E-Arbeiten. So verringert sich – bei Konstanz aller anderen Unternehmensmerkmale – die Wahrscheinlichkeit, dass immaterielle Vermögenswerte zur Kreditbesicherung eingesetzt werden, für ein Unternehmen, das keine eigene F&E durchführt, um knapp 92% gegenüber einem F&Ebetreibenden Unternehmen. Dies bestätigt die These, dass die Nutzung immaterieller Assets als Kreditsicherheiten vor allem für Unternehmen interessant ist, die F&E-Arbeit leisten bzw. an Innovationen arbeiten. Allerdings kann für das Merkmal der F&E-Intensität – gemessen am Verhältnis der F&E-Ausgaben zum Jahresumsatz – kein statistisch signifikanter Zusammenhang im Hinblick auf Verwendung immaterieller Vermögenswerte als Kreditsicherheiten ermittelt werden. Des Weiteren zeigt die Untersuchung, dass größere Unternehmen ceteris paribus häufiger immaterielle Sicherheiten stellen. Mit 6,1% weist ein Unternehmen mit 107 Beschäftigen (3. Quartil) eine um 40% höhere Wahrscheinlichkeit dafür auf, dass immaterielle Sicherheiten eingebracht werden, als das Referenzunternehmen mit 37,5 Beschäftigten (Median der Stichprobe). Die häufigere Verwendung rechtlicher Instrumente zum Schutz von Erfindungen durch größere Unternehmen dürfte insbesondere darauf zurückzuführen sein, dass der Einsatz solcher Instrumente mit erheblichen Fixkosten verbunden ist.30 Entsprechende Aufwendungen erweisen sich eher für größere Unternehmen als lohnenswert, weil bei diesen Unternehmen fixen Kostenblöcken im Durchschnitt höhere erwartete Ertragssteigerungen gegenüberstehen. Auch dürfte eine Rolle spielen, dass große Unternehmen ihr immaterielles Vermögen häufiger aktiv managen als dies bei kleineren Unternehmen der Fall ist.
29
30
Dieses Referenzunternehmen ist wie folgt definiert: Es handelt sich dabei um ein Unternehmen des Verarbeitenden Gewerbes, welches eigene F&E betreibt (F&E-Ausgaben bezogen auf den Jahresumsatz 5%), in den alten Bundesländern angesiedelt ist und eine Rechtsform aufweist, die nicht die Gesellschafterhaftung beschränkt. Die weiteren stetigen Merkmale nehmen die Medianwerte in der Stichprobe an. So ist das Unternehmen 37 Jahre alt, hat 37,5 Beschäftigte und weist eine Eigenkapitalquote von 26% auf. Für ein so definiertes Unternehmen beträgt die Wahrscheinlichkeit, innerhalb der vergangenen drei Jahre immaterielle Vermögenswerte für die Besicherung von Krediten verwendet zu haben, 4,3%. Studien für Deutschland liefern beispielsweise LICHT/ZOZ (1998), INKMANN/POHLMEIER/RICCI (2000) oder BITTELMEYER/EHRHART/ZIMMERMANN (2007).
Immaterielle Vermögensgegenstände als Kreditsicherheiten
Merkmal keine eigene F&E Unternehmensgröße: 107 Beschäftige statt 37,5 Unternehmensalter 16 Jahre statt 38 Jahre Abbildung 8:
267
Veränderung in % -91,9 40,4 32,3
Relative Veränderung der Wahrscheinlichkeit, innerhalb der letzten drei Jahre immaterielle Vermögenswerte als Sicherheit im Rahmen einer Kreditaufnahme gestellt zu haben, bei Variation eines Merkmals31
Ferner ist bei jüngeren Unternehmen die Wahrscheinlichkeit der Besicherung von Krediten mit immateriellen Assets ceteris paribus höher. Im Vergleich zu einem 38 Jahre alten Referenzunternehmen (Median der Stichprobe), weist ein nur 16 Jahre altes Unternehmen (1. Quartil) eine um knapp ein Drittel (32,3%) höhere Wahrscheinlichkeit auf, dass immaterielle Sicherheiten im Rahmen der Kreditvergabe eingebracht werden. In Ermangelung empirischer Hinweise dafür, dass junge Unternehmen ihr geistiges Eigentum grundsätzlich häufiger rechtlich schützen lassen als alte,32 deutet dies darauf hin, dass junge Unternehmen vor allem deshalb Kredite mit immateriellen Vermögenswerten besichern, weil ihnen nicht im ausreichenden Umfang andere, dingliche Sicherheiten zur Verfügung stehen. Für die Merkmale Höhe der Eigenkapitalquote, Branchen- oder Handwerkszugehörigkeit sowie Rechtsform kann bei der durchgeführten multivariaten Analyse kein Zusammenhang zur Besicherung von Krediten mit immateriellen Assets ermittelt werden. Die deutlich breitere Akzeptanz dinglicher Sicherheiten legt die Vermutung nahe, dass immaterielle Vermögenswerte derzeit vorrangig dann als Kreditsicherheiten Verwendung finden, wenn für die zugehörigen Unternehmen andere Sicherheiten nicht in ausreichendem Maße verfügbar sind. Daher wurde zusätzlich untersucht, ob sich der Zugang zu Krediten zwischen den Unternehmen, die in der Vergangenheit auch immaterielle Vermögenswerte als Kreditsicherheiten gestellt haben, und jenen Unternehmen unterscheiden, die ausschließlich andere Sicherheiten im Rahmen von Kreditaufnahmen eingesetzt haben. Konkret wurde dazu innerhalb der Gruppe der F&E-betreibenden Unternehmen, die im Zeitraum zwischen 2004 und 2006 Sicherheiten in Kreditfinanzierungen eingebracht haben, geprüft, ob ein Zusammenhang zwischen der Einbringung immaterieller Sicherheiten in den zurückliegenden Jahren und der Ablehnung aktueller Anträge für Investitionskredite besteht (siehe Abbildung 9).33
31 32
33
Die Berechnungen erfolgen auf Basis des Regressionsmodells, dessen Ergebnisse in Abbildung 7 wiedergegeben sind. Vgl. etwa BITTELMEYER/EHRHART/ZIMMERMANN (2007) für eine Analyse des Patentierungsverhaltens. Auch in der hier verwendeten Stichprobe zeigt sich kein Zusammenhang zwischen dem Unternehmensalter und der Häufigkeit, dass Patente oder andere immaterielle Vermögenswerte eingebracht wurden. Auch diese Analyse erfolgt mit einem Logit-Modell, wobei zusätzlich die Unternehmensmerkmale Umfang der F&E-Aktivitäten, Eigenkapitalquote, Anzahl der Beschäftigten, Unternehmensalter, Branche, Zugehörigkeit zum Handwerk, Region des Unternehmenssitzes und Rechtsform einbezogen werden konnten.
268
BITTELMEYER/EHRHART/MARK/ZIMMERMANN
Die Analyse zeigt, dass – wie erwartet – Kreditwünsche häufiger bei Unternehmen mit hohen F&E-Anstrengungen, einer niedrigen Eigenkapitalquote sowie mit geringerem Alter angelehnt werden. Für die Merkmale Unternehmensgröße, Branche, die Region des Unternehmenssitzes, die mögliche Zugehörigkeit zum Handwerk sowie die Rechtsform kann dagegen kein Einfluss auf die Kreditvergabe ermittelt werden.34 Bei den Unternehmen, die 2004 bis 2006 immaterielle Vermögenswerte als Sicherheiten verwendet haben, war der Anteil derjenigen, die in diesem Zeitraum auch von einer Kreditablehnung betroffen waren, mit 22,4% rund dreimal so hoch, wie der korrespondierende Anteil der Kreditablehnungen bei den übrigen Unternehmen.35 Dies deutet darauf hin, dass Unternehmen, die auf immaterielle Vermögenswerte zur Besicherung ihrer Kredite zurückgreifen, von Kreditinstituten häufiger als weniger kreditwürdig eingestuft werden. Weil in der hier durchgeführten Analyse für weitere Unternehmensrisiken – insbesondere für das Ausmaß der F&E-Anstrengungen sowie der Eigenkapitalquote des Unternehmens – kontrolliert wird, kann dieses Ergebnis als Hinweis darauf gedeutet werden, dass Kreditinstitute immaterielle Vermögenswerte als Sicherheiten gegenwärtig noch eher ungern akzeptieren, und dass erst dann auf solche Assets zurückgegriffen wird, wenn andere werthaltige Sicherheiten nicht mehr oder nicht mehr in hinreichendem Maße zur Verfügung stehen.
34 35
Für den Zugang zu Bankfinanzierung vgl. ZIMMERMANN (2006). Das verwendete Referenzunternehmen ist hierbei wie folgt definiert: Es handelt sich um ein Unternehmen des Verarbeitenden Gewerbes, welches 5% seines Jahresumsatzes für F&E aufwendet, in den alten Bundesländern angesiedelt ist und eine Rechtsform aufweist, die die Gesellschafterhaftung nicht beschränkt. Auch die weiteren stetigen Merkmale nehmen die Medianwerte in der Stichprobe der F&E betreibenden Unternehmen an. So ist das Unternehmen 51 Jahre alt, hat 100 Beschäftigte und weist eine Eigenkapitalquote von 31% auf. Ein so definiertes Unternehmen weist eine Wahrscheinlichkeit in Höhe von 7,0% auf, dass es von einer Kreditablehnung betroffen ist.
Immaterielle Vermögensgegenstände als Kreditsicherheiten
269
Ablehnung von Kreditanfragen Koeffizient F&E-Intensität (F&E-Ausgaben bezogen auf Jahresumsatz) F&E-Intensität2 Log(Eigenkapitalquote) Log(Beschäftigte) Log(Unternehmensalter) Dummy: Baugewerbe Dummy: Groß-/Außenhandel Dummy: Dienstleistungen Dummy: neue Bundesländer Dummy: Handwerk Dummy: begrenzte Haftung Dummy: innerhalb der vergangenen 3 Jahre immaterielle Sicherheiten bei der Kreditaufnahme gestellt Konstante Anzahl der Beobachtungen Log Likelihood R2 Wald-Test Abbildung 9:
3
7,7651
Robuste t-Werte 1,68
-13,3435 -0,7420 -0,1293 -0,3713 0,4765 0,5277 0,9824 0,1590 -0,7628 0,0770 1,3428
-2,11 -1,88 -0,79 -2,06 0,46 0,79 1,85 0,31 -1,26 0,16 2,25
1,6827
1,05 292 -94,1718 0,1926 F2(12) = 27,94
Ergebnisse Logit-Modell: Einflussfaktoren auf die Ablehnung von Kreditanträgen für Investitionsvorhaben 200636
Voraussetzungen für den Einsatz immateriellen Vermögens als Kreditsicherheit
Damit Fremdkapitalgeber immaterielle, aber für den Rechtsverkehr greifbare Wirtschaftsgüter wie Patente oder Markenschutzrechte von Kredit suchenden Unternehmen als Sicherheiten akzeptieren, sind im Wesentlichen zwei Voraussetzungen zu erfüllen: Erstens müssen Fremdkapitalgeber in der Lage sein, immaterielle Wirtschaftsgüter mit hinreichender Präzision und Verlässlichkeit zu bewerten. Zweitens darf die Verwertung der Sicherheit bei Kreditausfall nicht zu großen Transaktionskosten führen, so dass aufgrund des in diesen Situationen aus Banksicht gegebenen Veräußerungsdrucks hohe Preisabschläge hingenommen werden müssen. Somit werden Märkte für Intellectual Property benötigt, die eine hinreichende Liquidität aufweisen. Zu beachten ist, dass beiden genannten Bedingungen eng miteinander verknüpft sind. Einerseits setzt die Entstehung liquider Märkte die Bewertbarkeit der gehandelten Güter voraus. Andererseits wird die Existenz liquider Märkte Bewertungen in der Regel deutlich 36
Die Darstellung bezieht sich nur auf diejenigen Unternehmen, die im Jahr 2006 Anträge auf Investitionskredite gestellt sowie innerhalb der Jahre 2004 bis 2006 Sicherheiten im Rahmen einer Kreditaufnahme eingebracht haben. Basiskategorie bezüglich der Wirtschaftszweige ist das Verarbeitende Gewerbe.
BITTELMEYER/EHRHART/MARK/ZIMMERMANN
270
erleichtern, indem für potenzielle Transaktionspartner transparente Marktpreise verfügbar gemacht werden. Im folgenden Abschnitt 3.1 wird zunächst der Kern der besonderen Bewertungsprobleme bei Intellectual Property am Beispiel von Patenten erläutert. Im Anschluss liefert Abschnitt 3.2 einen Überblick, inwieweit zum gegenwärtigen Zeitpunkt bereits Handel mit Patenten oder anderen immateriellen Vermögensgegenständen betrieben wird.
3.1
Besondere Bewertungsprobleme bei immateriellen Vermögensgegenständen am Beispiel von Patenten
Wie bei anderen Wirtschaftsgütern auch, besteht beim Verkauf von Patenten das Problem, dass der Verkäufer (z. B. ein Unternehmen oder ein Kreditinstitut, das eine Sicherheit verwerten will) besser über dessen Qualitätseigenschaften informiert ist als der Käufer.37 In Abschnitt 2.2 wurde bereits auf die aus asymmetrischer Informationsverteilung zwischen Vertragsparteien resultierenden Konflikte hingewiesen. Im vorliegenden Fall geht es um asymmetrische Information vor Vertragsschluss. Der Käufer muss damit rechnen, dass der Verkäufer die Qualitätseigenschaften des Patents zu positiv darstellt, um für sich einen höheren Veräußerungserlös zu realisieren. Ohne Maßnahmen, die eine Verbesserung des Informationsstands des Käufers bewirken, liegt das klassische Problem des Marktversagens im Sinne von AKERLOF vor38 – oder es kommt erst gar nicht zur Entstehung eines Marktes. Im Zusammenhang mit Patenten ist dabei sicherlich im Besonderen zu berücksichtigen, dass aufgrund des Patenten inhärenten Komplexitäts- und Neuigkeitsgrads, also letztlich der „Einzigartigkeit“ eines Patents, das Informationsgefälle zwischen Verkäufer und Käufer besonders groß ist. Dies weist auch auf den Kern des Bewertungsproblems bei Patenten hin. „Bewerten heißt vergleichen“39. So lautet ein viel zitierter Satz zur Bewertungstheorie. Bei Patenten, die auf die Einzigartigkeit einer Erfindung abstellen, besteht typischerweise ein Mangel an geeigneten Vergleichsobjekten.40 Ein zusätzliches, das Informationsgefälle zwischen Verkäufer und Käufer erhöhendes Moment ist in diesem Zusammenhang dann gegeben, wenn der Verkäufer des Patents auch die zugehörige Erfindung hervorgebracht hat. Die aus Informationsproblemen resultierenden Transaktionskosten verschlechtern die Bedingungen, unter denen Transfers von Patentrechten Zustande kommen, oder verhindern diese sogar ganz.
37
38 39 40
Im Hinblick auf die Verwendung von Patenten als Kreditsicherheit und damit auch im Hinblick auf Bewertungsfragen erweist es sich häufig als sinnvoll, Patente in bestimmten Gruppen zusammenzufassen. Beispielsweise kann es sein, dass eine Mehrzahl von Patenten maßgeblich für den Schutz der Wettbewerbsposition eines Produkts in einem bestimmten Markt ist. Hierbei wird von Patentclustern gesprochen. In solchen Fällen wird es aus Sicht eines Kreditinstituts zumeist sinnvoll sein, das ganze Patencluster als Sicherheit hereinzunehmen und auch bei der Bewertung auf dieser Ebene anzusetzen. Spezifische Fragestellungen im Zusammenhang mit Patentcluster (oder den kleineren Patentfamilien, die sich dadurch auszeichnen, dass sie sich auf eine Erfindung beziehen) sollen aber im vorliegenden Beitrag nicht vertieft werden. Daher ist im Weiteren stets von einzelnen Patenten die Rede. Die Ausführungen gelten aber zum großen Teil analog auch für Gruppen von Patenten. Vgl. AKERLOF (1970). MOXTER (1983), S. 123. Vgl. zur Bedeutung der Vergleichbarkeit von Bewertungs- und Referenzobjekt ausführlich RICHTER (2005).
Immaterielle Vermögensgegenstände als Kreditsicherheiten
271
Eine Möglichkeit, Transaktionskosten hier zu vermindern, besteht in der Entkopplung von Transaktionsentscheidung und Bewertung.41 Dies kann über die Einschaltung eines Intermediärs, eines unabhängigen Bewertungsexperten aber auch über einen Bewertungsstandard erfolgen, der die Grundsätze, nach denen Bewertungen zu erfolgen haben, für Käufer und Verkäufer transparent festlegt. Gleichwohl ist zu berücksichtigen, dass Informationsprobleme hierdurch nur reduziert, aber nicht vollends beseitigt werden können. Ein Verfahren, das sich zur Bewertung von Patenten (oder anderen immateriellen Vermögensgegenständen) eignet, die Kreditinstitute als Sicherheiten hereinnehmen, wird zwei konkurrierenden Anforderungen genügen müssen: Einerseits wird es einen hinreichenden Präzisionsgrad erreichen müssen. Andererseits ist zu berücksichtigen, dass die Kosten der Bewertungsdurchführung auch Transaktionskosten darstellen. Somit sind Bewertungskosten im vorliegenden Kontext letztlich Einsparungsmöglichkeiten im Hinblick auf bankkalkulatorische Risikoaufwendungen bei (Mittelstands-)Krediten gegenüberzustellen, die aus einer Hereinnahme eines Patents als Sicherheit resultieren können.
3.2
Entstehung von bank- bzw. fondsbasierten Intermediären und Auktionsmärkten zur Erleichterung des Handels mit Intellectual Property
Wie angedeutet, kann der Handel von Intellectual Property wie Patentrechten durch die Einschaltung einer neutralen Drittpartei – eines Intermediärs – erleichtert werden.42 Dabei können verschiedene Intermediärstypen unterschieden werden. Zu nennen sind insbesondere bank- bzw. fondsbasierte Intermediäre und Marktplattformen. Der zentrale Unterschied zwischen diesen Intermediärstypen besteht darin, dass Erstgenannte Finanzierungstitel, die sich auf Schutzrechte beziehen, vor einer Weiterveräußerung gegebenenfalls noch transformieren (Finanzproduzent), während sich Marktplattformen darauf beschränken, Regeln zur Verfügung zu stellen, nach denen der Handel abläuft (Finanzhändler, Finanzauktionator).43 Daneben sind auch Anbieter von Bewertungen und Informationen im Zusammenhang mit Intellectual Property als Intermediäre zu bezeichnen (Finanzgutachter). Hierzu zählen etwa Wirtschaftsprüfer, Patentanwälte oder entsprechend spezialisierte IP-Bewerter. Ein Intermediär verfügt im Vergleich zu den direkt handelnden Transaktionspartnern über komparative Vorteile beim Abbau von Bewertungsunsicherheiten sowie in diesem Zusammenhang auftretenden Agency-Problemen. Weil ein spezialisierter Intermediär wesentlich häufiger an An- und Verkaufstransaktionen im Zusammenhang mit Intellectual Property beteiligt ist als seine „Unternehmenskunden“ jeweils im Einzelnen, kann er sich erstens überlegene Kenntnisse im Hinblick auf Bewertungsfragen erarbeiten. Darüber hinaus verfügt er aufgrund der größeren Transaktionszahl im Zusammenhang mit Agency-Problemen über eine höhere Glaubwürdigkeit aufgrund von Reputationseffekten. Ein Reputationsverlust, der für einen Intermediär aus einer unverhältnismäßigen Nutzung seiner spezifischen Informationsvorteile resultieren kann, trifft ihn in der Regel härter als dies etwa beim originären Erfinder 41 42
43
Vgl. hierzu LIPFERT/LOOP (2006). Vgl. zu den Möglichkeiten, wie ein Intermediär mit Erfahrung bei der Technologiebewertung sowie bei Finanzierungsfragen die Finanzierungssituation innovativer Unternehmen verbessern könnte, auch BESSLER/BITTELMEYER/LIPFERT (2003). Vgl. zu den verschiedenen Formen der Finanzintermediation BREUER (1993), S. 8 ff.
272
BITTELMEYER/EHRHART/MARK/ZIMMERMANN
oder Produzenten immaterieller Assets der Fall ist.44 Denn ein solcher Reputationsverlust greift beim Intermediär unmittelbar das Fundament seines Geschäfts an. Eine weitere wichtige Funktion von Intermediären besteht oft in der Bereitstellung von Liquidität. 3.2.1
Erste Entwicklungen bei bank- bzw. fondsbasierten Intermediären
In den vergangenen Jahren sind erste so genannte Intellectual-Property-Fonds, kurz IP-Fonds, auf den Kapitalmärkten in Erscheinung getreten. Dabei werden unterschiedliche Geschäftsansätze zugrunde gelegt: ¾ Zum einen gibt es Fonds, die sich direkt auf Handelsprobleme bei immateriellen Vermögensgegenständen fokussieren. Innerhalb dieser Gruppe kann weiterhin differenziert werden zwischen Fonds, die immaterielle Assets bzw. die zugehörigen Rechte von Unternehmen kaufen und dann weiterveräußern, und stärker beratungsorientierte Gesellschaften, welche Unternehmen beim Verkauf oder der Vermarktung immaterieller Assets gegen eine Gebühr oder Erfolgsbeteiligung unterstützen. ¾ Zum anderen werden unter IP-Fonds auch Investoren verstanden, die in Anteile von Unternehmen investieren, deren Assets wiederum stark durch Intellectual Property geprägt sind. Die Aktivitäten dieser Fonds sind somit nur indirekt auf immaterielle Vermögensgegenstände gerichtet. Die Aktivitäten des erstgenannten Fondstypus können abgesehen vom Abbau von Informationsproblemen unmittelbar die Liquidität von immateriellen Vermögenswerten wie etwa Patenten erhöhen. Demgegenüber kann der letztgenannte Typus vornehmlich zu einer Reduktion von Informationsproblemen beitragen, indem durch die eine allgemein beobachtbare Wertnotierung der Fondsanteile an Wertpapierbörsen Preissignale erzeugt werden, die einen starken Bezug zu Intellectual Property haben. Die Bedeutung von IP-Fonds auf den Finanzmärkten ist gegenwärtig noch als gering einzuschätzen. Das Gesamtvolumen bewegt sich nach aktuellen Schätzungen im Bereich von 300 Mio. EUR.45 Die Auflegung der ersten Fonds liegt hier nur ein oder zwei Jahre zurück. Insofern steht man am Anfang einer Entwicklung und die nächsten Jahre dürften Aufschluss darüber geben, ob IP-Fonds einen nachhaltigen Bedeutungszuwachs erfahren. 3.2.2
Erste Auktionen für Intellectual Property
Als weiterer Verwertungskanal für immaterielle Assets, die als Kreditsicherheiten verwendet werden, können so genannte Intellectual-Property- bzw. kurz IP-Auktionen in Betracht kommen. Angesichts der speziellen Prognose- und Bewertungsprobleme im Zusammenhang mit Intellectual Property bilden neben dem konkret gewählten Auktionsverfahren bei IPAuktionen sicherlich Maßnahmen zur Deckung der Informationsbedürfnisse von Kaufinteressenten einen wichtigen Gestaltungsbereich.
44 45
Vgl. zu Reputationseffekten im Zusammenhang mit der Theorie der Finanzintermediation BREUER (1995). Vgl. BITTELMEYER (2007), S. 362 ff. Diese Schätzung umfasst sowohl Patentverwertungsfonds als auch Fonds, die gezielt in Unternehmen mit hochwertigem Intellectual Property investieren. Weil der Markt nur eingeschränkt transparent ist, ist eine exakte Angabe nach den Informationen der Verfasser nicht möglich.
Immaterielle Vermögensgegenstände als Kreditsicherheiten
273
Wie bei IP-Fonds, so ist auch im Hinblick auf IP-Auktionen gegenwärtig noch eine geringe Bedeutung zu konstatieren. Die Entsprechenden Handelsplattformen sind erst im Entstehen begriffen. Abbildung 10 gibt einen Überblick über IP-Auktionen, die nach den Informationen der Verfasser bereits stattgefunden haben oder aktuell geplant sind.46 Veranstalter Ocean Tomo47 Ocean Tomo
Ort / Datum San Francisco 06.04.2006 New York City 26.10.2006
Ocean Tomo
Chicago 19.04.2007 London 01.06.2007 München 14/15.05.2007
Ocean Tomo IPA48 Ocean Tomo geplant
Chicago 24.10.2007
IPA geplant
Deutschland Frühjahr 2008
Abbildung 10:
Objekte Patente
Verkaufserlös gesamt 8,4 Mio. USD
Patente, Copyrights, Domainnamen Patente
23,9 Mio. USD 11,4 Mio. USD
Patente
8,1 Mio. USD
Patente, Lizenzen, Marken Patente, Marken, Copyrights, Domainnamen
0,5 Mio. EUR
Überblick über durchgeführte bzw. aktuell geplante IP-Auktionen
Somit ist insgesamt zu konstatieren, dass der Handel mit Intellectual Property gegenwärtig erst im Entstehen begriffen ist. Ein dynamisches Wachstum ist noch nicht auszumachen. Indessen ist zu berücksichtigen, dass ein nicht unerheblicher Teil von Transaktionen im Zusammenhang mit Intellectual Property „im Verborgenen“ abläuft, beispielsweise im Rahmen von Unternehmensfusionen und -akquisitionen. Weil über die Details der zugehörigen Prozesse relativ wenig öffentlich bekannt wird, dürfte auch die Rolle von hier involvierten informationsproduzierenden Intermediären wie etwa von Wirtschaftsprüfern oder Patentanwälten in der öffentlichen Wahrnehmung de facto unterschätzt werden. Käufe und Verkäufe von Intellectual Property im Zusammenhang mit Unternehmenstransaktionen repräsentieren allerdings gerade keinen „liquiden Handel“. Im Hinblick auf die Schaffung der Voraussetzungen für die Verwendung von Intellectual Property als Kreditsicherheit, die transaktionskostengünstige Be- und Verwertbarkeit dieser Assets, ist die angesprochene hohe Interdependenz hier zwischen Bewertungs- und Verwertungsschwierigkeiten zu beachten. Impulse für eine Überwindung können von beiden Seiten kommen. Eine viel versprechende Möglichkeit besteht hier sicherlich in der Etablierung eines Bewertungsstandards, der von einer größeren Zahl von Kreditinstituten akzeptiert wird. 46 47
48
Vgl. BITTELMEYER (2007), S. 366, sowie Informationen unter www.ip-auction.eu, Abruf: 26.09.2007. Ocean Tomo, Chicago (USA): Investment Bank, deren Geschäfts- und Beratungsschwerpunkte eng verbunden sind mit Problemstellungen im Zusammenhang mit Intellectual Property, insbesondere im Bereich der Bewertung. IP Auctions GmbH, Grünwald (Deutschland): Anbieter von Patentauktionen.
BITTELMEYER/EHRHART/MARK/ZIMMERMANN
274
4
Fazit
Im vorliegenden Beitrag wurde dargelegt, inwiefern durch das (künftig weiter) wachsende Erfordernis deutscher mittelständischer Unternehmen, in Innovationen und wissensbasierte Wertschöpfungsprozesse zu investieren, neue Finanzierungsprobleme entstehen. Des Weiteren wurde die Perspektive aufgezeigt, dass ein wichtiger Lösungsbeitrag für diese Finanzierungsprobleme darin bestehen kann, immaterielle Wirtschaftsgüter oder Intellectual Property als Kreditsicherheiten einzusetzen. Eine zunehmende Bedeutung wissensbasierter Wertschöpfungsprozesse ist in Deutschland wie in anderen modernen Volkswirtschaften mit einem struktureller Wandel hinsichtlich der von Unternehmen eingesetzten Aktiva verbunden. Immaterielle Wirtschaftsgüter spielen als Produktivfaktoren eine wichtigere Rolle, während materielle Assets an Bedeutung verlieren. Dieser Wandel betrifft insbesondere Unternehmen, die in Innovationen investieren wollen und müssen. In diesem Zusammenhang ergeben sich für deutsche mittelständische Unternehmen wie für die Kreditwirtschaft neue Herausforderungen, aber auch große Chancen. Ein erheblicher Teil des deutschen Mittelstands wird künftig vermehrt Investitionsmittel in wissensintensive, innovative Geschäftsbereiche lenken. Bezüglich externer Quellen dominieren in Deutschland traditionell Kreditfinanzierungen, wobei sich oft eine langfristig angelegte Zusammenarbeit zwischen Unternehmen und Bank im Rahmen von Hausbankbeziehungen bewährt haben. Für Mittel-ständler wie für Kreditinstitute werden sich bei der Finanzierung innovativer Projekte in Zukunft vermehrt Schwierigkeiten ergeben, da hier höhere Risiken vorliegen und weniger physische Aktiva zur Verfügung stehen, die als Kreditsicherheiten herangezogen werden können. Für viele Mittelständler wird allerdings ein Wechsel zu alternativen Kapitalgebern wie Venture-Capital-Gesellschaften, die sich mit sehr aufwendigen Finanzierungstechnologien sehr junge Unternehmen mit „radikalen Innovationen“ fokussieren, weniger attraktiv sein. Denn das finanzierungsrelevante Umfeld der Mittelständler wird sich in Deutschland nicht so stark in Richtung der Konstellationen ändern, bei denen Venture Capital oder andere Eigenkapitalfinanzierungen geeignete Alternativen darstellen. Vor diesem Hintergrund besteht aus gesamtwirtschaftlicher Perspektive die Gefahr, dass im deutschen Mittelstand angesichts bestehender Finanzierungsprobleme zu wenige Investitionen in innovativen und wissensintensiven Bereichen unternommen werden. Auf der anderen Seite liegt hier aufgrund der wachsenden Bedeutung von wissensintensiven Wertschöpfungsprozessen und Intellectual Property ein erhebliches Potenzial für die Kreditwirtschaft, wenn es gelingt, in diesem Zusammenhang geeignete Kreditprodukte zu entwickeln. Ein wesentlicher Beitrag zur Reduktion von Finanzierungsproblemen kann dabei dadurch erreicht werden, dass Intellectual Property, das für den Rechtsverkehr greifbar ist, wie etwa Patente und Marken, von Banken als Kreditsicherheiten hereingenommen werden. Im vorliegenden Beitrag wurde anhand einer breit angelegten empirischen Untersuchung auf Basis einer Befragung deutscher Unternehmen durch die KfW Bankengruppe und die deutschen Wirtschaftsverbände gezeigt, dass der Einsatz immaterieller Vermögensgegenstände als Sicherheiten gegenwärtig noch sehr gering ist. Ein weiteres Ergebnis bestand darin, dass tatsächlich Unternehmen, die Forschung und Entwicklung betreiben, diejenigen sind, die diese Assets heute schon als Sicherheiten in Kreditfinanzierungen einsetzen. Außerdem berichten diese Unternehmen von größeren Finanzierungsschwierigkeiten.
Immaterielle Vermögensgegenstände als Kreditsicherheiten
275
Damit immaterielle, aber für den Rechtsverkehr greifbare Wirtschaftsgüter in der Kreditwirtschaft als Sicherheiten akzeptiert werden können, sind zwei Voraussetzungen zu erfüllen: Erstens müssen Kreditgeber in der Lage sein, immaterielle Wirtschaftsgüter mit hinreichender Präzision und zu akzeptablen Kosten zu bewerten. Zweitens dürfen bei der Verwertung der Sicherheit bei Kreditausfall nicht zu große Schwierigkeiten auftreten, so dass aufgrund des dann gegebenen Veräußerungsdrucks hohe Preisabschläge hingenommen werden müssen. Diese beiden Bedingungen sind eng miteinander verknüpft. Einerseits setzt die friktionsarme Handelbarkeit von Intellectual Property etwa durch spezialisierte Intermediäre oder die Entstehung liquider Märkte die Bewertbarkeit dieser Assets voraus. Wie bei anderen Wirtschaftsgütern auch, wird der Handel mit Intellectual Property ohne eine transparente Bewertung in der Regel an Informationsproblemen scheitern. Diese sind bei Intellectual Property aufgrund der oft gegebenen „Einzigartigkeit“ dieser Assets und der durch den Wissensbezug gegebenen Komplexität oft besonders ausgeprägt. Andererseits wird Handelbarkeit und die Existenz liquider Märkte Bewertungen in der Regel deutlich erleichtern, indem für potenzielle Transaktionspartner transparente (Markt-) Preise verfügbar gemacht werden. Gegenwärtig sind auf den Finanzmärkten erste Handelsaktivitäten in Bezug auf Intellectual Property auf sehr geringem Niveau zu beobachten; ein dynamisches Wachstum ist gegenwärtig jedoch nicht erkennbar. Angesichts der ausgeprägten Interdependenz zwischen Be- und Verwertbarkeit können Impulse für eine Überwindung der gegenwärtig hier noch bestehenden Schwierigkeiten sowohl von der Bewertungsseite als auch von der Marktseite ausgehen. Ein viel versprechender Ansatz könnte in der Etablierung eines Bewertungsstandards bestehen, der in der Kreditwirtschaft auf breite Akzeptanz stößt.
Quellenverzeichnis AKERLOF, G. A. (1970): The Market for “Lemons” – Quality Unvertainty and the Market Mechanism, in: Quarterly Journal of Economics, 1970, S. 488–500. ANTONCZYK, R. C./BREUER, W./MARK, K. (2007): Covenants in Venture Capital Contracts – Theory and Evidence from the German Capital Market, in: GREGORIOU, G. N./KOOLI, M./ KRAEUSSL, R. (Hrsg.), Venture Capital in Europe, Amsterdam et al., S. 233–247. BESSLER, W./BITTELMEYER, C./LIPFERT, S. (2003): Zur Bedeutung von wissensbasierten immateriellen Vermögensgegenständen für die Bewertung von kleinen und mittleren Unternehmen, in: MEYER, J. A. (Hrsg.), Unternehmensbewertung und Basel II in kleinen und mittleren Unternehmen, Lohmar 2003, S. 309–334. BESTER, H./HELLWIG, M. (1989): Moral Hazard and Equilibrium Credit Rationing – An Overview of the Issues, in: BAMBERG, G./SPREMANN, K. (Hrsg.), Agenca Theory, Information, and Incentives, Berlin 1989, S. 135–166. BITTELMEYER, C. (2007): Patente und Finanzierung am Kapitalmarkt – Eine theoretische und empirische Analyse, Wiesbaden, erscheint 2007. BITTELMEYER, C./EHRHART, N./ZIMMERMANN, V. (2007): Einflussfaktoren auf das Patentierungsverhalten von kleinen und mittleren Hightech-Unternehmen des Verarbeitenden Gewerbes, in: KfW-Research – Mittelstands- und Strukturpolitik, erscheint 2007.
276
BITTELMEYER/EHRHART/MARK/ZIMMERMANN
BORDOY, C./ARUNDEL, A. U./HOLLANDERS, A. (2007): 2006 TrendChart report – Patent applications by SMEs – An analysis of CIS-3 data for 15 countries, o. O. 2007. BREUER, W. (1993): Finanzintermediation im Kapitalmarktgleichgewicht, Wiesbaden 1993. BREUER, W. (1995): Finanzintermediation und Reputationseffekte, in: Kredit und Kapital, 1995, S. 516–534. BREUER, W. (1998): Finanzierungstheorie, Wiesbaden 1998. DEUTSCHE BUNDESBANK (2006): Bankenstatistik, Frankfurt am Main 2006. BUNDESVERBAND DEUTSCHER KAPITALBETEILIGUNGSGESELLSCHAFTEN (1996–2006): Statistische Jahrbücher 1996–2006, Berlin 1996–2006. DEUTSCHES PATENT- UND MARKENAMT (DPMA) (2007): Jahresbericht 2006, online: http:// www.dpma.de/veroeffentlichungen/jahresbericht06/dpma_jb_2006.pdf, Stand: 2006, Abruf: 26.09.2007. ELSAS, R. (2001): Bedeutung der Hausbank, Wiesbaden 2001. GAMBARDELLA, A./GIURI, P. U./MARIANI, M. (2006): Study on evaluating the knowledge economy what are patents actually worth? The value of patents for today’s economy and society, online: http://ec.europa.eu/internal_market/indprop/docs/patent/studies/final_report_ lot2_en.pdf, Stand: 2006, Abruf: 2006. GOMPERS, P. A./LERNER, J. (2001). The Venture Capital Revolution, in: Journal of Economic Perspectives, 2001, S. 145–168. GROSSMAN, S. J./HART, O. D. (1986): The Costs and Benefits of Ownership – A Theory of Vertical and Lateral Integration, in: Journal of Political Economy, 1986, S. 691–719. HART, O. D. (2001): Financial Contracting, in: Journal of Economic Literature, 2001, S. 1079–1100. INKMANN, J./POHLMEIER, W./RICCI, L. A. (2000): Where to Patent? Theory and Evidence on International Patenting, in: VOSGERAU, H. J. (Hrsg.), Institutional Arrangements for Global Economic Integration, S. 122–140. JENSEN, M. C./MECKLING, W. H. (1976): Theory of the Firm – Managerial Behavior, Agency Costs and Ownership Structure, in: Journal of Financial Economics, 1976, S. 305–360. KLEIN, B./CRAWFORD, R. G./ALCHIAN, A. A. (1978): Vertical Integration, Appropriable Rents and the Competitive Contracting Process, in: Journal of Law and Economics, 1978, S. 297–326. LELAND, H. E./PYLE, D. H. (1977): Informational Asymmetries, Financial Structure and Financial Information, in: Journal of Finance, 1977, S. 371–387. LICHT, G./ZOZ, K. (1998): Patents and R&D – An Econometric Investigation Using Applications for German, European and US Patents by German Companies, in: Annales d’économie et de statisitique, 1998, Nr. 49/50, S. 329–360. LIPFERT, S. /LOOP, D. (2006): Kapitalmarktgestützte Patentbewertung – Ein Überblick aus der Bewertungspraxis, in: TIEFEL, T. (Hrsg.), Interdisziplinäres Patentmanagement, Wiesbaden 2006, S. 1–17.
Immaterielle Vermögensgegenstände als Kreditsicherheiten
277
MARK, K. (2005): Venture Capital und die Governance-Struktur innovativer Unternehmen, Aachen 2005. MARK, K. (2007): Theoretische Aspekte der Kreditfinanzierung, in: ACHLEITNER, A.-K./ PÖLLATH, R./STAHL, E. (Hrsg.), Finanzierung von Sozialunternehmen, Stuttgart 2007, S. 81–99. MOXTER, A. (1983): Grundsätze ordnungsgemäßer Unternehmensbewertung, Wiesbaden 1983. MYERS, S. C. (1977): Determinants of Corporate Borrowing, in: Journal of Financial Economics, 1977, S. 147–176. MYERS, S. C. (2001): Capital Structure, in: Journal of Economic Perspectives, 2001, S. 81– 102. OECD (2005): Science and Technology Scoreboard 2005, online: http://www.oecd.org/docu ment/43/0,2340,en_2825_497105_35455595_1_1_1_1,00.html, Stand: o. A., Abruf: 26.09.2007. RAMMER, C./ZIMMERMANN, V./ MÜLLER, E./HEGER, D. U./REIZE, F. (2006): Innovationspotenziale von kleinen und mittleren Unternehmen, Baden-Baden 2006. REIZE, F. (2005): KfW-Mittelstandspanel 2005 – Ist der Mittelstand fit für die Zukunft?, Frankfurt 2005. REIZE, F. (2006): KfW-Mittelstandspanel 2006, Frankfurt 2006. RICHTER, F. (2005): Mergers & Acquisitions – Investmentanalyse, Finanzierung und Prozessmanagement, München 2005. SCHMIDT, K. M. (2003): Convertible Securities and Venture Capital Finance, in: Journal of Finance, 2003, S. 1139–1166. SHLEIFER, A./VISHNY, R. W. (1992): Liquidation Values and Debt Capacity – A Market Equilibrium Approach, in: Journal of Finance, 1992, S. 1343–1366. SHLEIFER, A./VISHNY, R. W. (1997): A Survey of Corporate Governance, in: Journal of Finance, 1997, S. 737–783. WILLIAMSON, O. E. (1988): Corporate Finance and Corporate Governance, in: Journal of Finance, 1988, 667–691. ZIMMERMANN, V. (2006): Entwicklung und Determinanten des Zugangs zu Bankkrediten, in: KfW-Research – Mittelstands- und Strukturpolitik, Nr. 35, S. 45–76.
Standardisierung der Berichterstattung durch XBRL BODO KESSELMEYER und PETER LEIBFRIED ANUBO XBRL und Universität St. Gallen
1 2
Fortschritt durch technologische Standardisierung........................................................ 281 XBRL – Die Technologie .............................................................................................. 282 2.1 Grundlagen........................................................................................................... 282 2.2 Taxonomien ......................................................................................................... 283 2.3 Instanzen .............................................................................................................. 284 3 Anwendungsbeispiele .................................................................................................... 285 4 Die Vision – Zukunft mit XBRL ................................................................................... 289 4.1 Regulatorische Berichterstattung ......................................................................... 289 4.2 Externe Finanzanalyse ......................................................................................... 289 4.2.1 Berichterstattung aus Analysten-Sicht ..................................................... 289 4.2.2 Vision ...................................................................................................... 290 4.2.3 Herausforderungen .................................................................................. 291 4.3 Interne Berichterstattung...................................................................................... 292 5 Evolution und Revolution .............................................................................................. 296 Quellenverzeichnis................................................................................................................ 297
Standardisierung der Berichterstattung durch XBRL
1
281
Fortschritt durch technologische Standardisierung
Ohne schwarz malen zu wollen: Nicht nur in kleinen und mittleren Unternehmen wirken die technologischen Prozesse zur Bewältigung der finanziellen Berichterstattung oftmals wie Relikte aus einer vergangenen Zeit. Schon die reine Erfüllung der externen Berichtspflichten stellt einen Hindernislauf dar: Aus verschiedensten lokalen Umgebungen werden Zahlen mit manueller Hilfe in zentrale Konsolidierungssysteme übertragen. Für viele Bereiche wie zum Beispiel den Konzernanhang steht gar keine automatisierte Unterstützung zur Verfügung. Der sich ergebende Konzernabschluss wird wieder von Hand in eine Word- oder Excel-Datei eingegeben, die von den dafür zuständigen Personen dann hoffentlich fehlerfrei in den Geschäftsbericht übernommen wird. In eine PDF-Datei konvertiert, stellt das Unternehmen seine Zahlen dann interessierten Anlegern und Analysten zur Verfügung. Doch bevor diese mit den Zahlen etwas anfangen können, erfolgt meist die nächste Stufe der Verarbeitung; in Form von Eingaben in Datenbanken, Bewertungs- und Analyseprogrammen und Berichtsmodulen, die ironischerweise dann oftmals wieder Word- oder Excel-basiert sind. In der internen Berichterstattung oder bei der Erfüllung steuerlicher oder sonstiger gesetzlicher Berichtspflichten sieht die Welt meistens nicht viel anders aus. Nur in seltenen Fällen verfügen Unternehmen über vollständig integrierte Komplettlösungen. Dies hat einerseits wirtschaftliche Gründe, weil die Finanzfunktion im Gegensatz zu anderen Abteilungen eines Unternehmens oft als nicht wirklich wertschöpfend wahrgenommen wird, und die notwendigen Budgets nur zögerlich frei gegeben werden. Andererseits machten rasche strukturelle Veränderungen durch Akquisitionen und Desinvestitionen die schrittweise Entwicklung stabiler Lösungen in manchen Unternehmensgruppen kaum mehr möglich, weil ständig neue Einheiten aus anderen Umgebungen zu integrieren sind. Im Ergebnis hinkt die Finanzfunktion in technologischer und prozessualer Hinsicht den Anforderungen ihrer Stakeholder hinterher. Ein zentrales Problem stellen die zahlreichen System- bzw. Medienbrüche dar, die zu überwinden sind. In Projekten begegnet Beratern daher regelmäßig ein gewisser Galgenhumor, bei dem „Microsoft Excel als Standard-Software für den Finanzbereich“ bezeichnet wird oder „Manuela und Manuel“ die wichtigsten Mitarbeiter sind.1 Es liegt auf der Hand, diese prozessualen Hürden durch eine innovative technologische Lösung zu überwinden. Die in den vergangenen Jahren dazu entwickelte Technologie heißt „eXtensible Business Reporting Language“ (XBRL). Ihre Funktionsweise, der derzeitige Stand der Anwendung, und ihre zukünftigen Möglichkeiten sollen in diesem Beitrag vorgestellt werden. Im Kern geht es bei XBRL um zweierlei. Erstens, für sich genommen aussagelosen Zahlen wird ein „Schild um den Hals gehangen“, das ihre jeweilige Bedeutung enthält (so genannte „Tags“). Aus „135.800“ wird so „Anlagevermögen 135.800“. Zweitens, das menschliche Wissen über Zusammenhänge wie z. B. die hierarchische Position des Anlagevermögens innerhalb einer Bilanz oder dazu gehörende Berechnungsregeln werden in der Sprache XBRL hinterlegt. Eine bislang rein nummerische Information wird dadurch systemübergreifend verarbeitungsfähig; sie kann wesentlich leichter automatisch aus- und eingelesen
1
Mündlich erschließt sich die angesprochene Doppeldeutigkeit leichter als in schriftlicher Form: Die Namen deuten an, dass im Finanzbereich vielfältige „manuelle“ Tätigkeiten zu erledigen sind.
282
KESSELMEYER/LEIBFRIED
werden. Interessanter Nebeneffekt: XBRL wird zukünftig im Internet das „Googlen von Finanzinformationen“ ermöglichen.2 Die sich hieraus ergebenden Potenziale sind enorm: Die anstehenden Veränderungen können aus systemischer Sicht mit der Erfindung des Containers für die Entwicklung der gesamten Warenlogistik verglichen werden. Auch dort war für den Transport mit verschiedenen Verkehrsmitteln zuvor das mehrmalige Umpacken der versendeten Güter notwendig. Die Verwendung standardisierter Container führte zu einer systemunabhängigen, durchgehenden Logistikkette über Schiffe, Bahnen und LKW. Ohne Container wäre der moderne internationale Warenverkehr kaum denkbar. Eine ähnliche Entwicklung steht für die Finanzberichterstattung bevor; durch die standardisierte „Containerisierung“ von Informationen werden diese rasch und ohne Übertragungsverluste in den verschiedensten Systemen reisefähig gemacht.
2
XBRL – Die Technologie
2.1
Grundlagen
Als geistiger Vater der heutigen XBRL-Technologie kann Charles Hoffmann angesehen werden, der im Jahr 1998 die Idee einer globalen „Business reporting language“ auf der Basis von XML3 (eXtensible Markup Language) an das American Institute for Certified Public Accountants (AICPA) herantrug. Das AICPA finanzierte im folgenden Jahr einen Prototyp.4 XBRL ist ein technisches Rahmenkonzept, mit dem Datenaustauschformate (Taxonomien) für betriebswirtschaftliche Informationen festgelegt werden können. Unter einer Taxonomie versteht man ein strukturiertes Verzeichnis bzw. Klassifizierungssystem zu einem Themenbereich.5 Eine Taxonomie enthält nur Meta-Daten, also Informationen über andere Daten. Die eigentlichen Geschäftsdaten, z. B. die Zahlen in einer Bilanz, liegen – als so genannte Fakten – ungeordnet in einer XBRL-Instanz. Sowohl Instanzen als auch Taxonomien sind XML-Dokumente und damit wie Textdokumente lesbar.
2 3
4 5
Für das Googlen nach unternehmensinternen ERP-Daten mittels XBRL gibt es bereits einen Prototypen; vgl. GIANLUCA (2006), S. 59 ff. XML ist eine universelle vom World Wide Web Consortium (W3C, http://www.w3.org/XML/) entwickelte Sprache zum Austausch von Informationen: IT-Plattform-unabhängig, selbst beschreibend und erweiterbar. XML dient als Ausgangsbasis für zahlreiche branchenspezifische Sprachen. Vgl. TIE (2005), S. 33. Vgl. EGAN (2007), S. 4.
Standardisierung der Berichterstattung durch XBRL
283
XBRL-Taxonomie Bezeichner
XBRLInstanz
Sprachen
Referenz Konzept
Einheit
Definition Darstellung
Fakt
Berechnung
Kontext Entität
Segment
Berichtsperiode
Abbildung 1:
2.2
Szenario
Genauigkeit
Beziehungen zwischen Unternehmens-Daten (XBRL-Instanz) und Metadaten über die Bilanzierung (XBRL-Taxonomie)
Taxonomien
Taxonomien beschreiben, welche Fakten grundsätzlich in einer XBRL-Instanz vorhanden sein können. Die IFRS General Purpose Taxonomy (IFRS GP) enthält beispielsweise ein „strukturiertes Verzeichnis“ der möglichen Bilanzpositionen nach IAS/IFRS. Eine solche Taxonomie wird XBRL-Financial-Reporting-Taxonomie (XBRL-FR-Taxonomie) genannt. XBRL-FR-Taxonomien können sowohl bei der Weitergabe des Jahresabschlusses an Dritte verwendet werden wie auch in der internen Berichterstattung der Tochterunternehmen an die Muttergesellschaft. Zur Sicherstellung der Standardisierbarkeit enthält eine Taxonomie so genannte Konzepte (z. B. das Konzept „PropertyPlantAndEquipmentGross“) sowie Informationen darüber, wie diese miteinander in Verbindung stehen.6 Weitere elementare Eigenschaften sind integrierbare Validierungsregeln sowie die Unterstützung der Mehrsprachigkeit. Darüber hinaus kann in einer Taxonomie auf Referenzmaterialien verwiesen werden. Nach IFRS enthalten sind z. B. Hinweise auf:
6
Vgl. RAMIN/KESSELMEYER/OTT (2006), S. 183, und FLICKINGER (2007), S. 35 ff.
284
KESSELMEYER/LEIBFRIED
¾ Referenzen auf Dokumente mit präziser Definition eines Konzeptes, z. B. auf IFRS, IAS oder IFRIC mit Angabe der genauen Fundstelle, ¾ Referenzen auf detaillierte Erklärungen für Anhangsangaben beispielsweise mit den Kategorien „verpflichtend“ und „empfohlen“, ¾ Referenzen auf Dokumente zu Methoden, um Werte des betroffenen Konzepts zu messen („Fair Value“), sowie ¾ Referenzen auf generelle Kommentare oder ¾ Referenzen auf ein dokumentiertes Beispiel in den Richtlinien. In Bezug auf die verwendeten Rechnungslegungsstandards ist XBRL grundsätzlich flexibel. Financial-Reporting-Taxonomien existieren mittlerweile in rund 20 Sprachen und für die Rechnungslegungsvorschriften in Kanada, China, Deutschland (HGB), Korea, Neuseeland, Niederlande, Großbritannien und USA (US-GAAP). Das IASCF (International Accounting Standards Committee Foundation) hat Taxonomien für die IFRS-Richtlinien für die Jahre 2003 bis 2007 herausgegeben. Sofern branchentypische Inhalte nicht in diese Taxonomien aufgenommen worden sind, können solche Inhalte als Ergänzung (Extension) nahtlos an diese Taxonomien angebunden werden.
2.3
Instanzen
Die eigentlichen Geschäftsdaten, z. B. die Zahlen in einer Bilanz, liegen als so genannte Fakten ungeordnet in einer XBRL-Instanz. Die Fakten werden innerhalb der XBRL-Instanz mit einer Einheit und ihrem so genannten Kontext verbunden. Die Einheit ist frei wählbar, wird jedoch meist eine Währungsangabe sein. Kontexte können beispielweise Angaben über die Firma, das Geschäfts-Segment, Genauigkeit oder ein bestimmtes Szenario (Ist-/Plan-Zahlen) sein. Im Bereich der Genauigkeit werden Nachkommastellen oder Rundungen (auf T-EUR, Mio., etc.) festgelegt. XBRL-Instanzen sind nur zusammen mit der zugrunde liegenden XBRL-Taxonomie systemübergreifend aus- und einlesbar. Abbildung 2 enthält beispielhaft die XBRL-Instanz zur Bilanzposition „Forderungen“ und zeigt auf, wie auf diese mit einem Tabellenkalkulationsprogramm zugegriffen werden kann.
Standardisierung der Berichterstattung durch XBRL
Sample Company Consolidated Balance Sheets (in Euros)
As of December 31, 2004 2003
Current Assets Inventories Trade and other receivables Prepayments Cash and cash equivalents Total current assets
Heute: Geschäftsdaten in der XBRL-Instanz
3
350.000 490.000 5.000 849.000
175.000 590.000 5.000 547.000
1.694.000
1.317.000
Früher: Geschäftsdaten in Papierform
490000 590000
Zugriff auf XBRL-Instanz mit einem Tabellenkalkulationsprogramm
Abbildung 2:
285
A 1 2 3 4 5
B
C
D
Sample Company Receivables Change % of current assets
£ 490.000
£ 590.000
-17% 29%
45%
XBRL-Instanz mit Beispieldaten und Verwendung in einem Tabellenkalkulationsprogramm
Anwendungsbeispiele
Die US Securities and Exchange Commission (SEC) startete mit Wirkung zum 4. April 2005 ein Voluntary Filing Program zur Abgabe von Berichten im XBRL-Format.7 Mittlerweile haben mehr als 40 Unternehmen wie Microsoft, EMC, Ford Motor Company, Business Objects, Adobe Systems und United Technologies XBRL-Filings an die SEC eingereicht.8 Die Erfahrungsberichte der Teilnehmer – beispielsweise in den im Internet veröffentlichten Videoaufzeichnungen der Interactive Round Table – sind überwiegend positiv.9 Der USDatendienstleister EDGAR Online teilte am 6. Juni 2006 mit, dass „Alt-Daten“ in XBRL umgestellt worden sind; somit ständen nun von mehr als 10.000 Unternehmen XBRL-Daten 7 8
9
Vgl. US SEC (2007b). Für eine aktuelle Liste der Unternehmen, die Daten im XBRL-Format an die SEC abgeben, siehe http://www. xbrl.org/us/secvfp/. Zum SEC Voluntary Filing Program mit XBRL siehe auch die Hinweise von XBRL INTERNATIONAL unter http://www.xbrl.org/us/secvfp/. Vgl. US SEC (2007a), S. 34 ff., und BIRNEY (2007), Folien 10 ff.
286
KESSELMEYER/LEIBFRIED
zur Verfügung.10 Nur wenige Monate später, am 25. September 2006, überraschte die SEC mit der Meldung, dass das Informationssystem EDGAR mit modernsten Technologien zur Interaktivität und Automatisierung ausgestattet wird, und die US SEC 54 Mio. US-$ investiert. Die SEC modernisiert das aus den achtziger Jahren stammende System EDGAR für börsennotierte Unternehmen und stellt es von einem Formblatt-orientierten Archivierungssystem auf ein dynamisches, interaktives und in Echtzeit operierendes System unter Nutzung von XBRL um. Damit werden folgende Ziele verfolgt: ¾ höhere inhaltliche Transparenz der Daten, z. B. durch unmittelbaren Zugriff auf Einzelpositionen in Filings, ¾ interaktive Analyse der Daten für Investoren und Analysten, z. B. für Unternehmensvergleiche bzgl. ausgewählter Einzelpositionen als kostenlose Anwendung im Internet, sowie ¾ vollautomatische Auswertung der Daten/Filings der Unternehmen durch jedermann. Hierzu werden bestehende Internet-Technologien verwendet, welche die Bekanntgabe von Unternehmensinformationen, das Herunterladen und die Analyse dieser Daten in Echtzeit erlauben. Die Umstellung dieses für den US-Finanzmarkt wichtigen Informationssystems gilt als wesentlicher Meilenstein der XBRL-Implementierungen an den weltweiten Börsen. Die Canadian Securities Administrators (CSA) hat im Mai 2007 das XBRL Voluntary Filing Program gestartet.11 Die teilnehmenden Unternehmen führen dabei das bisherige Reporting mittels PDF Dateien fort. Die XBRL-Filings werden der Öffentlichkeit im SEDAR System (System for Electronic Document Analysis and Retrieval) zur Verfügung gestellt. Ziel des Voluntary Filings Program ist es, auf dem kanadischen Wertpapiermarkt praktische Kenntnisse und Erfahrungen bei der Aufbereitung, Abgabe und Verwendung von XBRL zu gewinnen. Die CSA wird dabei den Nutzen von XBRL bewerten, um später über die obligatorische Verwendung von XBRL zu entscheiden. An der Shanghai Stock Exchange (SSE) werden, beginnend mit dem Eingang der 2003er Jahresberichte (118 Stück), Quartals-, Halbjahres- sowie die Jahresberichte mit XBRL an die SSE gesendet. Seit dem Halbjahresbericht 2004 gehen so regelmäßig jeweils über 800 Instanz-Dokumente bei der SSE ein.12 Als nächstes sollen die Analyse-Applikationen für Analysten und Investoren weiterentwickelt und XBRL noch umfassender verwendet werden, etwa beim Ad-hoc-Reporting oder für Investmentfonds.13 Seit dem 1. November 2007 müssen an der SSE börsennotierte Unternehmen ihre Jahresabschlüsse verpflichtend im XBRL-Format bei der Accounting & Corporate Regulatory Authority (ACRA) einreichen.14
10 11 12 13 14
Vgl. EDGAR ONLINE (2006). Vgl. CSA/ACVM (2007). Vgl. ZHENG (2006), Folie 18. Vgl. ZHENG (2006), Folie 33. Vgl. ACRA (2007). Danach ist entweder der gesamte Abschluss im XBRL Format einzureichen (Option A) oder zumindest Bilanz und Gewinn- und Verlustrechnung (Option B).
Standardisierung der Berichterstattung durch XBRL
287
Die Tokyo Stock Exchange startete in April 2006 ein XBRL Trial & Demo Programm.15 Nach Planungen der japanischen Regierungsbehörde Financial Services Agency (FSA) soll XBRL im Jahr 2008 obligatorisch für das Reporting sämtlicher Unternehmen – etwa 5.000 Unternehmen – in das Informationssystem EDINET (Electronic Disclosure for Investors’s NETwork) verwendet werden.16 Das Pilotprogram startete im Juli 2007 als Voluntary Filing Program.17 Auch bei der koreanischen Wertpapieraufsicht Financial Supervisory Service (FSS) existiert bereits ein Voluntary Filing Programm.18 XBRL Australia hat im Jahr 2007 die IFRS-Taxonomie um Landesspezifika erweitert und wurde dabei finanziell von der Australian Stock Exchange und der Regierung (Australian Government Information Management Office) unterstützt.19 Die ukrainische Wertpapier und Börsenbehörde Ukraine’s Securities and Stock Market State Commission (SSMSC) plant die Einführung eines neuen Systems, um Firmen die Abgabe von Finanzberichten im XBRLFormat zu ermöglichen.20 Der Abu Dhabi Securities Market hat im Mai 2006 allen notierten Unternehmen die Nutzung von XBRL empfohlen.21 In Europa liegen in Spanien die umfangreichsten Erfahrungen mit XBRL auf dem Gebiet der Berichterstattung börsennotierter Unternehmen vor. Seit dem 1. Juli 2005 verwendet die spanische Börsenaufsicht Comisión Nacional del Mercado de Valores (CNMV) XBRL für den Empfang der laufenden Finanzinformationen für die spanische Börse.22 Bis Oktober 2005 hat die CNMV von über 3.000 Unternehmen Finanzdaten mittels XBRL erhalten.23 Obligatorisch wird XBRL im Bereich der Bankenaufsicht in den USA seit dem 1. Oktober 2005 verwendet.24 Dabei stellen über 8.000 Banken ihre Quartalsberichte in das Central Data Repository (CDR) ein, das mit XBRL-Technologie betrieben wird. Das Committee of European Banking Supervisors (CEBS) empfiehlt den nationalen Bankenaufsichtsbehörden in der EU die Verwendung von XBRL für ein harmonisiertes europäisches Berichtssystem und unterstützt dabei die Entwicklung der entsprechenden Taxonomien.25 XBRL ist daher bei zahlreichen nationalen Banken-Aufsichtsbehörden in Europa im Einsatz. Ähnlich der erwähnten XBRL-Anwendung beim deutschen elektronischen Bundesanzeiger gibt es weitere XBRLProjekte in Europa, so in Schweden (Swedish Companies Registration Office), Belgien (Central Balance Sheet Office), Großbritannien (Companies House), Italien (Registro Imprese Italiane)26 oder beim European Committee of Central Balance Sheet Data Offices (ECCBSO)27.
15 16 17 18 19 20 21 22 23 24 25 26 27
Vgl. XBRL INTERNATIONAL (2007a), S. 18. Vgl. SHIOZAKI (2007), Folie 2. Vgl. XBRL INTERNATIONAL (2007a), S. 19. Vgl. KOREA’S CORPORATE FILING (2007). Vgl. XBRL AUSTRALIA (2007). Vgl. XBRL INTERNATIONAL (2007b). Vgl. ABU DHABI SECURITIES MARKET (2006). Vgl. COMISIÓN NACIONAL DEL MERCADO DE VALORES (2006). Vgl. XBRL INTERNATIONAL (2005), S. 2. Vgl. FEDERAL RESERVE/FDIC/OCC (2005) und FEDERAL FINANCIAL INSTITUTIONS EXAMINATION COUNCIL (2007). Vgl. CEBS (2005) und CEBS (2007). Für Informationen zum COREP/FINREP-XBRL-Projekt siehe http://www. corep.info/ (Stand: 01.08.2007). Vgl. FUMIANI (2007), Folie 7. Vgl. ORTEGA/MACDONALD (2007).
288
KESSELMEYER/LEIBFRIED
Besonderen Vorbildcharakter aus volkswirtschaftlicher Sicht hat das National Taxonomy Project (NTP) der Niederlande, weil dort externe Adressaten wie die Steuerbehörde, StatistikBehörde und Industrie- und Handelskammern eine gemeinsame, einheitliche Taxonomie erstellt haben.28 Seit dem 1. Januar 2007 können Unternehmen ihre Daten an ausgewählte niederländische Behörden im XBRL-Format senden.29 Im Februar 2007 wurde eine neue Version der Dutch Taxonomy freigegeben, die für die Offenlegung von Jahresabschlüssen, für Steuererklärungen und Abgabe von Wirtschaftsstatistik-Daten verwendet werden soll.30 XBRL und die damit verbundene Standardisierung ist ein Mittel, um den Verwaltungsaufwand in den Niederlanden zu reduzieren.31 Zahlreiche Länder interessieren sich mittlerweile für diesen volkswirtschaftlich orientierten Ansatz, insbesondere Australien. Bei der Deutschen Börse haben im Rahmen einer XBRL-Initiative im Jahr 2004 sechs Unternehmen, darunter die Fraport AG, mobilcom AG und Software AG ihre Finanzdaten im XBRL-Format abgegeben.32 Die XBRL-Initiative wurde zwar nicht weiter verfolgt, gleichwohl steht der Showcase zum Abruf im Internet noch zur Verfügung. Seit dem 1. Januar 2007 hat sich in Deutschland die Situation geändert. Hierfür gab es zwei Auslöser: ¾ Für die Offenlegung von Jahresabschlüssen bevorzugt der neue elektronische Bundesanzeiger XBRL als Einreichungsformat. Grundlage ist das Gesetz über elektronische Handelsregister und Genossenschaftsregister sowie das Unternehmensregister (EHUG) vom 10. November 2006, das seit dem 1. Januar 2007 anzuwenden ist. Es ist zu erwarten, dass die DATEV über ihre eigene DATEV-XBRL-Schnittstelle die volumenmäßig größte Anzahl von Jahresabschlüssen (etwa 2,4 Mio. Abschlüsse wären möglich) im XBRLFormat an den Bundesanzeiger senden wird.33 ¾ Für die Halbjahres- und Quartalsfinanzberichte, die von börsennotierten Unternehmen für das neue Unternehmensregister einzureichen sind, ist XBRL ebenfalls das bevorzugte Einreichungsformat.34 Grundlage ist das Transparenzrichtlinie-Umsetzungsgesetz (TUG) vom 5. Januar 2007 in Verbindung mit der Verordnung über das Unternehmensregister vom 26. Februar 2007.
28 29 30 31 32 33 34
Vgl. DUTCH TAXONOMY PROJECT (2006). Vgl. O. V. (2007). Projektwebsite der niederländischen Taxonomie-Projektgruppe: http://www.xbrl-ntp.nl/english (Stand: 30.08.2007). Vgl. XBRL INTERNATIONAL (2007a), S. 20. Zur nationalen wie auch internationalen Relevanz dieses niederländischen Ansatzes siehe den Bericht an die OECD; vgl. VAN BURG/LOKIN (2006). Vgl. DEUTSCHE BÖRSE GROUP (2005). Vgl. KEMPF (2007), Folie 4. Die aktuelle Formulierung des Bundesanzeigers geht sogar von einer „grundsätzlichen“ Anwendung von XBRL aus „[…] Halbjahres- und Quartalsfinanzberichte sind grundsätzlich als XML-Dokumente auf Basis der XBRLTaxonomien per Uploadverfahren zu übermitteln“; BUNDESANZEIGER (2007), S. 4. Es besteht jedoch Anlass zur Annahme, dass der Bundesanzeiger die „grundsätzliche Anwendung“ von XBRL durch alternative Formate ab September 2007 erweitert; vgl. BOMMER/HELDT (2007), S. 45. Rechtsgrundlagen sind § 8b (3) Ziffer 2 HGB i. V. m. § 8b (2) Ziffer 9 HGB sowie §§ 37w, 37x WpHG, § 10 der Unternehmensregisterverordnung vom 26.02.2007 und BGBl. I S.219.
Standardisierung der Berichterstattung durch XBRL
4
Die Vision – Zukunft mit XBRL
4.1
Regulatorische Berichterstattung
289
Ausgangspunkt der weltweiten Verbreitung von XBRL in den letzten Jahren sind offizielle Regulatoren wie Bankenaufsicht, Börsenaufsicht, Handelsregister oder Steuer- und Statistikbehörden. Die Ursache dazu liegt darin, dass XBRL den Bedürfnissen dieser Nutzer in idealer Weise entspricht: ¾ XBRL als lizenzfreie Sprache, ¾ IT-Plattform-unabhängig, ¾ umfangreiches Softwareangebot, ¾ nahtlose Erweiterbarkeit von Taxonomien und hohe Flexibilität, ¾ internationale Akzeptanz, ¾ integrierbare Validierungsregeln mit weniger Aufwand beim Empfänger und ¾ höhere Datenqualität beim Empfänger. Ein Meilenstein für die Nutzung von XBRL an den internationalen Kapitalmärkten ist die Umstellung der Unternehmensdatenbank EDGAR der US-Börsenaufsicht SEC. An einigen asiatischen Börsen wird XBRL zukünftig gar obligatorisch angewendet werden. Es ist nur noch eine Frage der Zeit, wann XBRL auch bei der SEC „verpflichtend“ oder über den Zwang des Faktischen „quasi verpflichtend“ wird. Eine Nutzung von XBRL in den USA und Asien wird dazu führen, dass die restlichen international bedeutenden Börsen nachziehen müssen: Finanzmärkte sind global, und durch XBRL können Marktteilnehmer Informationen schneller und leichter auswertbar erhalten.
4.2
Externe Finanzanalyse
Die Bereitstellung von Informationen durch börsennotierte Unternehmen ist aus Sicht von Finanzanalysten gegenwärtig nicht zufriedenstellend. Anlässlich der 15. XBRL International Konferenz in München im Juni 2007 wurden dazu zahlreiche Überlegungen in die internationale und deutsche Diskussion eingebracht.35 4.2.1
Berichterstattung aus Analysten-Sicht
Zentrales Arbeitsmittel von Finanzanalysten ist ein Spreadsheet, in dem Unternehmensdaten gesammelt, analysiert und verglichen werden. Dazu greifen Finanzanalysten in aller Regel auf die Daten großer Finanzintermediäre wie Bloomberg, Reuters, etc. zurück. Bei den Finanzintermediären sind zuvor die papiergebundenen Abschlussdaten der Unternehmen in Datenbanken eingegeben worden, zumeist mit einem wesentlichen Zeitverzug von einigen Wochen. In der Praxis kommt häufig das Problem auf, dass Analysten nicht wissen, ob eine Zahl in einer Datenbank schon von den Finanzintermediären normalisiert, d. h. um gewisse Anpas35
Vgl. RAMIN/FRANK/KESSELMEYER (2007a), RAMIN/FRANK/KESSELMEYER (2007b) und RAMIN/FRANK (2007).
290
KESSELMEYER/LEIBFRIED
sungen bereinigt worden ist, oder nicht. Nur in den wenigsten Datenbanken wird standardmäßig der Hinweis an die Nutzer mitgeliefert, dass eine Zahl unverändert dem Originalfinanzbericht eines Unternehmens („as reported“) entnommen worden ist. Unternehmensdaten direkt von der Quelle werden daher von Analysten bevorzugt. Außerdem kann über die Datenbanken gar nicht auf alle Informationen zugegriffen werden, weil z. B. Anhangsangaben nicht in allen Details in diese eingegeben werden. Daher ergänzen Finanzanalysten ihre Arbeitstabellen manuell durch Informationen aus weiteren Medien. Geschäftsberichte auf Papier oder im PDF-Format liefern weitere Informationen. Von einigen börsennotierten Unternehmen können Finanzdaten auch aus von diesen im Internet bereitgestellten Excel-Tabellen entnommen werden. Die Informationsmenge, die in herkömmlichen papiergebundenen oder PDF-Geschäftsberichten enthalten ist, ist für Finanzanalysten nur in beschränktem Maß wirtschaftlich auswertbar. Es ist zu bezweifeln, dass professionelle Investoren in HochgeschwindigkeitsKapitalmärkten papiergebundene oder PDF-Geschäftsberichte anders als kursorisch und selektiv lesen könnten, denn dazu fehlt die Zeit.36 CHRISTOPHER COX (SEC-Chairman) betont diesen Punkt: “The best information doesn't always mean the most information. The best information means disclosure that is readily accessible, easily understandable, and comparable […]. Interactive data can help meet each of these needs.”37 Auch bei einfacher Verfügbarkeit trifft der größte Teil der gegenwärtigen Finanzberichte börsennotierter Unternehmen die Erwartungen der Finanzanalysten ohnehin nicht: Die Zahlen der Rechnungslegung sind vergangenheitsorientiert, Finanzanalysten schwerpunktmäßig zukunftsorientiert. Finanzanalysten sind zudem keine homogene Gruppe, sondern haben hinsichtlich der Inhalte von Finanzberichten durchaus unterschiedliche Erwartungen. Dies wird z. B. dann offensichtlich, wenn man die von verschiedenen Analysten publizierten „earnings“ eines Unternehmens oder unterschiedlichen Auffassungen zwischen Sell-side- und Buy-sideAnalysten vergleicht.38 Gefragt ist daher eine zielgruppengerechte Finanzkommunikation, welche die Bedürfnisse heterogener Adressatengruppen erkennt und beantwortet. “Allerdings ist es für Unternehmen weder akzeptabel noch umsetzbar, jedem Investment Professional ein eigens dafür konzipiertes Reporting Portfolio anzubieten.“39 4.2.2
Vision
Die Antwort auf die gegenwärtigen Herausforderungen liefert XBRL: ¾ Medienbrüche werden vermieden: Auf Seiten der Nutzer der Daten werden die erneute manuelle Eingabe der Daten, Zuordnung und Validierung vermieden. Unternehmensdaten können automatisiert in Datenbanken der Finanzdienstleister oder auch direkt in das Spreadsheet des einzelnen Analysten eingelesen werden. ¾ Unternehmensdaten direkt vom Unternehmen: XBRL-Daten können auf der Unternehmenswebsite veröffentlicht werden.
36 37 38 39
Vgl. RAMIN/FRANK/KESSELMEYER (2007a). COX (2007). Vgl. RAMIN/FRANK/KESSELMEYER (2007a), S. 4. RAMIN/FRANK/KESSELMEYER (2007a), S. 4.
Standardisierung der Berichterstattung durch XBRL
291
¾ Standardisierung: XBRL ermöglicht Analysen und Unternehmensvergleiche über Zeiträume, Branchen und Ländergrenzen hinweg. ¾ Hohe inhaltliche Transparenz: XBRL erhöht die inhaltliche Transparenz der Daten, z. B. von Anhangsangaben. ¾ Automatisierter Zugriff auf Einzeldaten durch Nutzer wirtschaftlich möglich. ¾ Nutzerspezifische, interaktive Selektionen möglich: Unternehmen bietet sich die Möglichkeit an, zielgruppengerechte Finanzkommunikation zu betreiben. Finanzanalysten könnten die für sie relevanten Einzeldaten selbstständig zusammenstellen und das so erstellte Reporting-Portfolio automatisiert auswerten lassen. Die Interessensverbände von Finanzanalysten könnten ihre Wünsche nach Einzeldaten sowie nach Kennzahlenformeln auch als Taxonomieerweiterung an Unternehmen kommunizieren, um damit Analysen und Vergleiche noch effizienter und effektiver durchführen zu können. ¾ Hohe Geschwindigkeit: Dabei geht es zunächst darum, wie schnell Investoren, Finanzanalysten oder vergleichbare Adressaten neue Unternehmensinformationen erhalten können. Das Internet bietet sich hierfür geradezu an. Interessierte Adressaten können mit einer Software einen bestimmten Server laufend abfragen und automatisiert die Unternehmensinformationen im XBRL-Format abrufen. Für die am Voluntary Filing Program der SEC teilnehmenden Unternehmen ist dies bereits möglich; die entsprechende Technologie (RSS Feed) ist bereits realisiert. Andererseits sind XBRL-Daten erheblich schneller auswertbar als papiergebundene Informationen. Die Kombination aus diesen beiden Vorteilen nutzt das volle Potenzial von XBRL, die Reaktionszeiten der Kapitalmarktteilnehmer werden sich erheblich reduzieren. 4.2.3
Herausforderungen
Wie bei jeder Standardisierung ist die Auswertbarkeit der XBRL-Daten davon abhängig, wie mit Unternehmensspezifika umgegangen wird. So wird die Vergleichbarkeit eingeschränkt, wenn Unternehmen XBRL-Dokumente inkonsistent erstellen, eine uneingeschränkte unternehmensspezifische Erweiterbarkeit von Taxonomien zugelassen ist und XBRL-Taxonomien nicht global standardisiert sind.40 Schon mit dem Begriff der eXtensible Business Reporting Lanugage wird die Erweiterbarkeit betont. Möglich sind Anpassungen von der reinen Erweiterung über die Umbenennung bis hin zum Löschen von Berichtspositionen. Berichtet beispielsweise ein Unternehmen die Inhalte A und B als eine gemeinsame Position in der Bilanz des papiergebundenen Jahresabschlusses und wird diese Position laut XBRL-IFRS-Taxonomie gesondert als A und B ausgewiesen, so stellt sich die Frage, welcher Ausweis dem Unternehmen mittels Taxonomieerweiterung erlaubt sein soll. Diese Frage stellt sich auch im umgekehrten Fall, wenn die IFRSTaxonomie nur eine Position C (=A+B) bereitstellt und die Frage aufkommt, ob das Unternehmen diese Position C „löschen“ und durch die zwei Positionen A und B ersetzen darf. Alternativ könnte die Position C beibehalten und durch zwei Unterpositionen A und B erweitert werden.
40
Vgl. BROUSSARD (2007), Folie 12.
292
KESSELMEYER/LEIBFRIED
Die XBRL-Technologie stellt zahlreiche technische Möglichkeiten bereit, um Unternehmensdaten im Standardformat, aber auch individuell zu berichten. Diese Möglichkeiten müssen jedoch durch rechtliche Regelungen und Vorgaben begleitet werden. Dabei sind abzuwägen bzw. zu berücksichtigen: ¾ bestehende rechtlichen Grundsätze zur Gliederung wie z. B. § 265 ff. HGB, ¾ das individuelle Unternehmensinteresse, ¾ die Abbildung des Jahresabschlusses in seiner vom Wirtschaftsprüfer testierten Form, ¾ ein möglichst hoher Standardisierungsgrad zwecks optimaler Vergleichbarkeit auf Empfängerseite. Soweit solche rechtlichen Regelungen und Vorgaben auf nationaler Ebene vorgenommen werden, erschweren die daraus resultierenden möglichen Unterschiede die internationale Vergleichbarkeit. Analog der Konvergenz von Rechnungslegungsstandards zwischen USGAAP und IFRS gibt es eine so genannte „Taxonomy convergence“. Dabei werden Mechanismen untersucht, wie „äquivalente“ Elemente in Taxonomien identifiziert werden können. Dieses Thema, das erst in Zukunft praktisch relevant werden wird, wurde bereits durch das XBRL-Team des IASB aufgegriffen und erste Lösungsansätze wurden getestet.41 Neben der Frage der Standardisierung der angewendeten Berichtsformate wird durch XBRL auch die Diskussion um die „Erwartungslücke in der Wirtschaftsprüfung“ weiter an Bedeutung gewinnen. Wirtschaftsprüfer beziehen ihre Bestätigungsvermerke nämlich auf den Jahresabschluss insgesamt. XBRL hingegen zielt darauf ab, Abschlusslesern Detailinformationen zur Verfügung zu stellen. Sofern der dem XBRL-Report zugrunde liegende Abschluss einen uneingeschränkten Bestätigungsvermerkt erhalten hat, könnte dies zu der Erwartung der XBRL-Nutzer führen, dass alle im XBRL-Report enthaltenen Detailinformationen vom Wirtschaftsprüfer geprüft und für „verlässlich“ befunden wurden. Dem ist aber nicht so. Die praktische Bedeutung dieses Problems nimmt zu, je mehr Detaildaten etwa durch automatisierte Rating-Systeme dann auch tatsächlich genutzt werden. Es bleibt abzuwarten, wie der Berufsstand der Wirtschaftsprüfer auf dieses neue Problem reagieren wird.
4.3
Interne Berichterstattung
Die aktuellen XBRL-Anwendungen zielen überwiegend auf die externe Berichterstattung. Die hinter XBRL stehende Vision ist jedoch umfassender: Man zielt auf die „Business Reporting Supply Chain“ ab, die gesamte Lieferkette von Informationen. Diese Kette, tief im Inneren eines Unternehmens, beschäftigt sich mit der Erstellung der Daten aus den Geschäftsprozessen, die in die interne Berichterstattung eingehen. Sie umfasst alle unternehmensinternen Prozesse in den Bereichen Bilanzierung und Controlling in den Tochtergesellschaften, in der Muttergesellschaft sowie auch zwischen den einzelnen rechtlichen Einheiten. Zur praktischen Umsetzung gibt es die bislang erwähnten XBRL-Financial-Reporting-Taxonomien (z. B. für IFRS) und zudem den XBRL-Global-Ledger-Standard.42 41 42
Vgl. MACDONALD (2007), Folien 1–7. Zum Projekt “XBRL LAB IFRS-US Convergence” des IASB XBRL Teams siehe: http://www.iasb.org/xbrl/xbrl_lab/current_r_d_projects_convergence.html (Stand: 31. 07. 2007). Im Gegensatz zu XBRL-Financial-Reporting-Taxonomien dient XBRL GL nicht zur Darstellung von Abschlüssen, sondern soll die zugrunde liegenden Daten (z. B. Buchungssätze) so kodieren, dass sie in Jahresabschlüssen
Standardisierung der Berichterstattung durch XBRL
293
RAMIN/KESSELMEYER/OTT haben in 2006 erstmals eine systematisierende Abschätzung der XBRL-Anwendungsmöglichkeiten in der internen Berichterstattung vorgenommen.43 Die wesentlichen Ergebnisse dieser Untersuchung sind: ¾ XBRL erweitert die bestehenden Handlungsalternativen, Prozesse und Daten in Unternehmensgruppen zu standardisieren und die Anzahl manueller Prozesse zu reduzieren. ¾ XBRL ist vorteilhaft zur unternehmensgruppeninternen Integration von Finanz-ITSystemen, ganz besonders dann, wenn heterogene Finanz-IT-Systemlandschaften vorliegen. ¾ XBRL sollte insbesondere dann einer Evaluation unterzogen werden, wenn mit bisherigen Mitteln und Kosten Prozesse und Daten nur unzureichend optimiert werden konnten. Potenziale für XBRL gibt es beispielsweise bei: ¾ der Einschaltung von Shared-Service-Centern:44 Datenaustausch mittels XBRL-IFRSTaxonomie und XBRL Global Ledger, ¾ der Integration heterogener Finanz-IT Systeme: Es kann sichergestellt werden, dass die firmenspezifischen Vorgaben, Standardprozesse und Richtlinien tatsächlich eingehalten werden, indem zentrale Funktionen in Applikationen integriert werden, die den Tochtergesellschaften zur Verfügung gestellt werden. Beispielsweise wird ein Prozess auf einem zentralen IT-System vorgegeben (z. B. zur Bilanzierung von Derivaten), den alle Unternehmen einer Unternehmensgruppe zu verwenden haben. Fachlich handelt es sich hierbei um die Verbindung des Service-Oriented-Architecture-Ansatzes (SOA-Ansatz) mit XBRL GL (Global Ledger),45 ¾ Unternehmensgruppenweiten Standardprozessen auf Standarddaten (XBRL),46 ¾ XBRL zur Reduzierung des Organisationsrisikos im Finanzbereich,47 ¾ XBRL GL zur Erfüllung der Anforderungen „Real Time Issuer Disclosures“, Sec. 409 Sarbanes Oxley Act,48
und anderen Berichten verwendet werden können. XBRL GL schreibt hierzu, anders als XBRL-FR-Taxonomien, keine Kontenbezeichnungen vor, sondern legt nur den Rahmen fest, wie z. B. Buchungen dokumentiert werden sollen. Mit XBRL GL können die Daten der Finanzbuchhaltung, das Hauptbuch, Buchungssätze, Summen- und Saldenlisten, Buchungsjournale, Saldenlisten einzelner Konten und alle zugrunde liegenden Daten wie z. B. Forderungs- und Vorratsbestand oder auch nicht-finanzielle Daten übertragen werden. 43 44
45 46 47 48
Vgl. RAMIN/KESSELMEYER/OTT (2006). In einem Shared-Service-Center werden beispielsweise Teilprozesse aus der Finanzfunktion der Tochterunternehmen – also Prozesse aus den Teilfunktionen Bilanzierung, Controlling, Finanzierung, Steuern und Zölle – herausgelöst und als interne Dienstleistung für mehrere Tochtergesellschaften bei gemeinsamer Nutzung von Ressourcen innerhalb des Centers bereitgestellt; vgl. KAGELMANN (2000), S. 187. Bei Verwendung von XBRL ist der Betrieb von Shared-Service-Center schon mit einer geringeren Anzahl an beteiligten Unternehmen wirtschaftlich lohnend, weil vorteilhafte Skaleneffekte aufgrund der Standardisierung und Modularität schon frühzeitiger realisierbar sind; vgl. RAMIN/KESSELMEYER/OTT (2006), S. 186. Vgl. RAMIN/KESSELMEYER/OTT (2006), S. 189–190. Vgl. RAMIN/KESSELMEYER (2007). Vgl. KESSELMEYER (2006), S. 114. Vgl. RAMIN/KESSELMEYER/OTT (2006), S. 190.
294
KESSELMEYER/LEIBFRIED
¾ Konzerweiten Erhebung von Detaildaten auf Ebene Buchungssatz (XBRL GL). Vorschriften und Konzepte, die auf solche Detaildaten aufbauen, können konzernweit standardisiert und mit geringerem Aufwand umgesetzt werden, z. B. Verrechnungspreise (u. a. steuerliche Dokumentation), Konzernkalkulation, Konsolidierung,49 ¾ Redesign der Konsolidierungsprozesse mittels XBRL,50 ¾ Reporting der Tochterunternehmen einer Unternehmensgruppe an das Mutterunternehmen mittels XBRL,51 ¾ Erstellungsprozesse von Finanzberichten. Die Erstellung des Jahres- und Konzernabschlusses ist gegenwärtig bei einem großen Teil der Unternehmen durch eine Vielzahl von manuellen Prozessen gekennzeichnet. Obwohl modernste Konsolidierungssysteme eingesetzt werden, beginnt mit den daran zeitlich anschließenden Prozessen eine aufwendige manuelle Arbeit. Für den Anhang müssen Informationen aus unterschiedlichen Quellen angefragt und mittels Tabellenkalkulationsprogramm und Textverarbeitung zusammengetragen werden. Diese Informationen werden in einem zentralen Text-Dokument gespeichert. Das erste Problem dabei ist, dass dieses manuelle Zusammentragen bislang kaum automatisiert werden konnte. Das zweite Problem besteht darin, dass die im Text-Dokument enthaltenen Daten manuell auf Plausibilität geprüft werden müssen, was einen weiteren erheblichen zeitlichen Aufwand und insgesamt ein hohes Organisationsrisiko falscher Daten bedeutet. Der so erstellte Geschäftsbericht geht dann als Text-Dokument zu Grafikern, die daraus die druckfähigen Dokumente (PDF) und eine Internet-Variante (HTML) erzeugen. Diese Abläufe sind im oberen Teil der Abbildung 3 skizziert. Mittels XBRL können die Prozesse der Abschlusserstellung grundlegend optimiert werden. Zentraler Datensammelpunkt ist dabei nicht mehr ein für diese Zwecke völlig ungeeignetes Text-Dokument, sondern das XBRL-Instanz-Dokument. In dieses Dokument werden die Daten aus dem Konsolidierungs-IT-System, Datawarehouse und insbesondere aus einzelnen lokalen Finanz-IT-Systemen automatisiert eingestellt. Dabei werden etablierte ITTechnologien (Web Services, Service Oriented Architecture) eingesetzt. Als Datenaustauschformat wird XBRL GL verwendet, das ideal mit diesen IT-Technologien kombiniert werden kann.52 Soweit manuelle Texteingaben erforderlich sind, können diese beispielsweise über den Internet Browser per Webinterface vom Adressaten eingegeben werden. Der zweite wesentliche Nutzen liegt in den in XBRL integrierbaren Validierungsregeln, die eine ständige automatische Validierung der eingestellten Daten (soweit es sich nicht um Textinformationen handelt) erlauben. Manuelle Kontrollen entfallen damit in großem Umfang. Durch die weitgehende Automatisierung der Kontrollen sinken das Organisationsrisiko und der zeitliche Aufwand für solche Kontrollen. Der dritte wesentliche Nutzen liegt darin, dass basierend auf den Daten in der XBRL-Instanz automatisiert druckfähige Geschäftsberichte und Webseiten erstellt werden können. Auch dies geschieht mittels etablierter IT-Technologien, die allerdings bisher noch nicht in die Finanzbereiche von börsennotierten Unternehmen Eingang gefunden haben.
49 50 51 52
Vgl. RAMIN/KESSELMEYER/OTT (2006), S. 191. Vgl. RAMIN/KESSELMEYER/OTT (2006), S. 190. Vgl. RAMIN/KESSELMEYER/OTT (2006), S. 189 f. Vgl. RAMIN/KESSELMEYER/OTT (2006), S. 189 f.
Standardisierung der Berichterstattung durch XBRL
Abbildung 3: 53
295
Prozesse bei der Erstellung des Konzernabschlusses inkl. Anhangsangaben53
Quelle: ANUBO XBRL.
296
KESSELMEYER/LEIBFRIED
Die so erzeugte XBRL-Instanz kann auf der Website veröffentlicht werden und Banken, Investoren, Finanzanalysten und dem elektronischen Bundesanzeiger zur Verfügung stehen. XBRL kann so zu einem unternehmensinternen wie unternehmensexternen Nutzen führen.
5
Evolution und Revolution
Jegliche Veränderung braucht Zeit. Von wenigen Ausnahmen abgesehen, haben sich sämtliche großen Trends in der Praxis der Unternehmensführung erst über einen längeren Zeitraum hinweg fest etablieren können. Die gegenwärtig zu beobachtende Ersetzung einer national dominierten Rechnungslegung durch internationale Standards ist das für den Finanzbereich wohl passendste Beispiel, um Parallelen zu ziehen. Auch diese Entwicklung hat nicht über drei oder fünf Jahre stattgefunden, sondern stellt in ihrer gegenwärtig klaren Ausprägung den vorläufigen Höhepunkt eines über 20 Jahre dauernden Prozesses dar. Insofern muss bei den großen Trends in der finanziellen Unternehmensführung nicht von raschen Revolutionen, sondern vielmehr von langsamen evolutionären Prozessen ausgegangen werden. Langsame Prozesse bringen es allerdings mit sich, dass es – angesichts einer ausbleibenden „Eroberung im Sturm“ – gerade in den frühen Phasen auch viele kritische Stimmen gibt, die der neuen Entwicklung keinen zukünftigen Erfolg zubilligen wollen. Genau dies passierte in der Vergangenheit auch mit XBRL: Das Thema wurde immer wieder als Chimäre angesehen, von der alle reden, die aber noch nicht wirklich verbreitet ist. Genau hiervor soll gewarnt werden. Nicht nur ist eine anfänglich langsame Verbreitung einer Evolution immanent, sondern auch die Anwendungsbeispiele in diesem Beitrag machen deutlich, dass XBRL mittlerweile eine ansehnliche Verbreitung gewonnen hat. Der von XBRL verfolgte Ansatz zur Standardisierung stellt einen genau so allgegenwärtigen und allgemein gültigen betriebswirtschaftlichen Trend wie die Internationalisierung dar – und wird sich daher genau so wenig aufhalten lassen. Durch das Vorpreschen wichtiger asiatischer Börsenplätze und der SEC ist es nur noch eine Frage der Zeit bis XBRL in der internationalen Finanzanalyse als Standard angesehen wird. Zahlreiche Regulatoren in der EU haben sich des Themas XBRL bereits angenommen, dies könnte eine breite Welle auslösen. An die „IAS-Verordnung 2005“ sei erinnert. Aus einer Evolution könnte so sehr schnell eine Revolution werden. Die Finanzfunktion ist also gut beraten, sich frühzeitig mit diesem Thema auseinander zu setzen: So lange Grundlagen und Technologien noch überschaubar sind und man durch frühzeitige Zugehörigkeit zum inneren Kreis dieses Themas noch spürbar mitreden und mitgestalten kann. Sicherlich ist die frühzeitige Investition in potenzielle zukünftige Standard-Technologien immer mit einem gewissen Risiko behaftet. Eine nach vorne blickende, nicht nur auf überfällige gesetzliche Regelungen reagierende, sondern aktiv agierende Finanzfunktion ist jedoch aufgerufen, Unternehmergeist zu beweisen – wie andere Bereiche eines Unternehmens auch.
Standardisierung der Berichterstattung durch XBRL
297
Quellenverzeichnis ABU DHABI SECURITIES MARKET (2006): ADSM First Middle East Exchange to Foster XBRL Technology, online: http://www.adsm.ae, unter: “News Archive”, Stand: 09.05.2006, Abruf: 26.07.2006. ACRA (2007): Filing of Financial Statements with ACR in XBRL – Practice Direction 2 of 2007, online: http://www.acra.gov.sg/legislation/pdf/PD2_of_2007.pdf, Stand: 30.04.2007, Abruf: 31.07.2007. BIRNEY, M. (2007): XBRL – Preparer’s Viewpoint, 15. XBRL International Konferenz, München 2007. BOMMER, K./HELDT C. (2007): Eine Frage des Formats – DAI und DIRK erreichen eine Vereinfachung der Zwischenberichtseinreichung beim Unternehmensregister, in: GoingPublic, 2007, Nr. 9, S. 44– 45. BROUSSARD, J. P. (2007): CFA Institute – XBRL – The End Users Perspective, 15. XBRL International Konferenz, München 2007. BUNDESANZEIGER (2007): Informationen zur elektronischen Einreichung an das Unternehmensregister, online: https://publikations-serviceplattform.de/download/Info_Ureg-Auf traege.pdf, Stand: März 2007, Abruf: 30.08.2007. VAN BURG, H. J./LOKIN, M.
(2006): Advantages of Cross Domain Standardisation of Financial Data – Standardized Business and Regulatory Reporting – Report for the OECD – Working paper 0.6 – Under the Authority of Ministry of Finance and Ministry of Justice, online: http://www.xbrl-ntp.nl/english/oecd, Stand: September 2006, Abruf: 30.08.2007.
CEBS (2005): European Banking Supervisors Reveal Plans for Digital Reporting – Press Release, online: http://www.c-ebs.org/Press/30062005XBRL.pdf, Stand: 30.06.2005, Abruf: 31.07.2007. CEBS (2007): CEBS Harmonises Reporting Framework for European Financial Groups, – Press Release, online: http://www.c-ebs.org/Press/13012006.pdf, Stand: 13.01.2006, Abruf: 31.07.2007. COMISIÓN NACIONAL DEL MERCADO DE VALORES (2006): CNMV en línea, online: http://www. cnmv.es/XBRL/InformesXBRL.htm, Stand: 02.01.2006, Abruf: 02.01.2006. COX, C. (2007): Address to the Investment Company Institute's 2007 General Membership Meeting, online: http://www.sec.gov/news/speech/2007/spch051007cc.htm, Stand: 10.05.2007, Abruf: 27.07.2007. CSA/ACVM (2007): Canada’s Securities Regulators Launch eXtensible Business Reporting Language (XBRL) Voluntary Filing Program – Press Release, online: http://www.osc. gov.on.ca/Media/NewsReleases/2007/nr_20070119_csa-xbrl-launch.jsp, Stand: 19.01.2007, Abruf: 31.07.2007. DEUTSCHE BÖRSE GROUP (2005): Übersicht aller Berichte, online: http://xbrl.deutsche-boerse. com/xbrl/list,all,all,0,no,all-de.html?t=18937319, Stand: 31.07.2007, Abruf: 31.07.2007.
298
KESSELMEYER/LEIBFRIED
DUTCH TAXONOMY PROJECT (2006): Milestone on the Way to Reduction of Administrative Burdens – Dutch Public and Private Sector Sign Taxonomy Conenvant – Pressemitteilung, online: http://www.xbrl.org/Announcements/Covenant-PR-9June.pdf, Stand: 09.06.2007, Abruf: 31.07.2006. EDGAR ONLINE (2006): Edgar Online’s I-Metrix Empowers Financials of more than 10,000 Public Companies with Interactive Data for Use by Investors, Analysts and Regulators – Press Release, online: http://www.edgar-online.com/investor/news/061206.aspx, Stand: 12.06.2006, Abruf: 31.07.2007. EGAN, T./HOFFMAN, C./O HAONGHUSA, C./PELLIZZARI, G./PYMAN, T./UGARTE, A. (2005): Hitchhikers Guide to Understanding the IFRS-GP Taxonomy, online: http://www.set. or.th/th/xbrl/files/HichhikersGuide-IFRS_GP.pdf, Stand: 27.05.2005, Abruf: 31.07.2007. FEDERAL FINANCIAL INSTITUTIONS EXAMINATION COUNCIL (2007): FFIEC Central Data Repository – Call Report Modernisation, online: http://www.ffiec.gov/FIND/default.htm, Stand: 31.07.2007, Abruf: 31.07.2007. FEDERAL RESERVE/FDIC/OCC (2005): Joint Release – Board of Governors of the Federal Reserve System/Federal Deposit Insurance Corporation/Office of the Comptroller of the Currency/Banking Agencies Announce Implementation of Web-Based Central Data Repository for Bank Financial Data – Joint Press Release FDIC-PR-4-2005, online: http:// www.fdic.gov/news/news/press/2005/pr0405.html, Stand: 28.01.2005, Abruf: 31.07.2007. FLICKINGER, N. (2007): XBRL in der betrieblichen Praxis – Elektronisches Business-Reporting nach internationalem Standard, Berlin 2007. FUMIANI, P. (2007): XBRL for the Mandatory Deposit of Annual Financial Statements, 15. XBRL International Konferenz, München 2007. GIANLUCA, G. (2006): Exposing Enterprise Data – XBRL GL, Web Services, and Google, Part 2, in: Strategic Finance, 2006, September, S. 59–61. JOHNSON, S. (2007): Cox defends XBRL to Senators, in: CFO.com, online: http://www.cfo. com/article.cfm/9571612/c_2984368, Stand: 31.07.2007, Abruf: 1.08.2007. KAGELMANN, U. (2000): Shared Services als alternative Organisationsform – am Beispiel der Finanzfunktion im multinationalen Konzern, Wiesbaden 2000. KEMPF, D. (2007): eReporting with XBRL for SMEs at DATEV, 15. XBRL International Konferenz, München 2007. KESSELMEYER, B. (2006): Corporate Governance & eXtensible Business Reporting Language – Wie die Transparenz der externen Rechnungslegung erhöht und Organisationsrisiken reduziert werden können, in: Zeitschrift für Corporate Governance, 2006, Nr. 3, S. 111– 116. KOREA’S CORPORATE FILING (2007): Website des Repository of Korea’s Corporate Filing, online: http://englishdart.fss.or.kr/, Stand: 31.07.2007, Abruf: 31.07.2007. MACDONALD, J. (2007): Mind the GAAP/IFRS/US GAAP XBRL Taxonomy Alignment and Convergence Considerations – Theory and Demonstrations, 15. XBRL International Konferenz, München 2007.
Standardisierung der Berichterstattung durch XBRL
299
ORTEGA, M./MACDONALD, J. (2007): Using XBRL in the Complete Information Chain from Data Capture to Storage and Use in Analysis – A Project of the European Central Balance Sheet Data Offices, 15. XBRL International Konferenz, München 2007. O.
V. (2007): The Dutch Taxonomy Project, online: http://www.xbrl-ntp.nl/english, Stand: 30.08.2007, Abruf: 30.08.2007.
RAMIN, K./FRANK R. (2007): XBRL als künftige Sprache der Finanzberichterstattung, in: Börsenzeitung, 2007, Nr. 102 vom 31.05.2007, S. 4. RAMIN, K./FRANK R./KESSELMEYER, B. (2007a): XBRL – Katalysator für drängende Herausforderungen nutzerorientierter Finanzberichterstattung – Whitepaper Langfassung, online: http://www.anubo.com/anuboxbrl/news-detailanzeige/article/57/xbrl-katal.html, Stand: 01.06.2007, Abruf: 26.07.2007. RAMIN, K./FRANK R./KESSELMEYER, B. (2007b): XBRL for Financial Analyst and Professional Investors, Whitepaper, Stand: 04.06.2007, Abruf: 26.07.2007. RAMIN, K./KESSELMEYER B. (2007): XBRL als internetbasierter Standard für die Finanzberichterstattung, erscheint in: Zeitschrift für internationale und kapitalmarktorientierte Rechnungslegung, 2007, voraussichtlich Heft 10. RAMIN K./KESSELMEYER B./OTT S. (2006): XBRL im Internal Financial Reporting von Unternehmensgruppen – Neue Möglichkeiten für die Standardisierung und Integration von Finanzprozessen und IT-Systemen, in: Zeitschrift für internationale und kapitalmarktorientierte Rechnungslegung, 2006, Nr. 3, S. 179–191. SHIOZAKI, T. (2007): Preparing XBRL Financial Statements without Error and without Knowledge of XBRL, 15. XBRL International Konferenz, München 2007. TIE, R. (2005): XBRL – It’s unstoppable, in: Journal of Accountancy, August 2005, S. 33–36. US SEC (2007a): Interactive Roundtable – Creating Interactive Data to Serve Investors, Roundtable Transcript, online: http://www.sec.gov/spotlight/xbrl/xbrltranscript031907.pdf, Stand: 19.03.2007, Abruf: 31.01.2007. US SEC (2007b): SEC adopts Rule Establishing a Voluntary Program for Reporting Financial Information on EDGAR Using XBRL – Press Release No. 2005-12, online: http://www. sec. gov/news/press/2005-12.htm, Stand: 03.02.2005, Abruf: 31.07.2007. XBRL AUSTRALIA (2007): Activities – ATTX, online: http://www.xbrl.org.au/Activities/AASB /index.php, Stand: ohne Angabe, Abruf: 31.07.2007. XBRL INTERNATIONAL (2007a): Progress Report, online: http://www.xbrl.org/ProgressReports/ 2007_05_XBRL_Progress_Report.pdf, Stand: Mai 2007, Abruf: 07.09.2007. XBRL INTERNATIONAL (2007b): Ukraine Stock Market to introduce XBRL, online: http:// www.xbrl.org/Announcements/Ukraine-XBRL-25May2006.htm, Stand: 25.05.2006, Abruf: 31. 7.2007. XBRL INTERNATIONAL (2005): Progress Report, o. O. 2005. ZHENG, G. (2006): Implementing XBRL at SSE, 13. XBRL International Konferenz, Madrid 2006.
Modellanforderungen zur Bewertung von Geschäftsmodellen von Wohnungsgesellschaften vor dem Hintergrund des Marktwandels FRANK KEUPER, CHRISTIAN PAPE und REIMER HINTZPETER Steinbeis-Hochschule Berlin, SAGA GWG und Hintzpeter & Partner Management Consultants 1 2 3
Marktwandel und Implikationen auf wohnungswirtschaftliche Geschäftsmodelle ....... 303 Die funktionale Wertlehre als Kontext der Bewertung von Wohnungsgesellschaften .. 306 Generische Anforderungen an die Bewertungsmodelle ................................................. 307 3.1 Branchenspezifische Implikationen ..................................................................... 307 3.2 Entscheidungstheoretische Implikationen ............................................................ 308 3.3 Investitionstheoretische Implikationen ................................................................ 310 3.3.1 Ableitung der maßstäblichen Erfolgsgrößen ........................................... 310 3.3.2 Ableitung sachdienlicher Steuerungszinssätze ........................................ 313 3.4 Finanzierungstheoretische Implikationen ............................................................ 314 4 Konklusion..................................................................................................................... 316 Quellenverzeichnis................................................................................................................ 317
Bewertung von Wohnungsgesellschaften
1
303
Marktwandel und Implikationen auf wohnungswirtschaftliche Geschäftsmodelle
Die Immobilienwirtschaft im Allgemeinen und die Wohnungswirtschaft im Speziellen erfahren durch das gestiegene Interesse internationaler Investorengruppen sowie verschiedener Börsengänge in der jüngeren Vergangenheit eine Veränderung in der Wahrnehmung potenzieller Investoren.1 Dieser bereits im Jahr 1991 durch das Ende der Wohnungsgemeinnützigkeit2 initiierte Wandel verbindet sich mit einer branchenweiten Ausdifferenzierung der Geschäftsmodelle, d. h. der allgemeinen unternehmerischen Ausrichtung zur Operationalisierung von Wettbewerbsstrategien,3 unter Rendite-/Risikogesichtspunkten.4 In der Praxis verbindet sich diese Entwicklung häufig mit einem dichotomen Begriffsverständnis zwischen den konkurrierenden Modellen des Bestandshalters und des Immobilienhändlers.5 Die Bestandshalter sind demnach ausgerichtet auf eine langfristige Bewirtschaftung des Eigenbestands, der durch nachhaltige Investitions- und Instandhaltungstätigkeit eine fortwährende Vermögensakkumulation erfahren soll. Das Kalkül der Immobilienhändler stellt dagegen auf Wertzuwachs bzw. Renditemaximierung durch aktives Portfoliomanagement über An- und Verkauf ab.6 Dieses dichotome Verständnis erweist sich jedoch unter Anwendung der Geschäftsmodelldefinition nach WIRTZ7, der eine Dekomposition eines Geschäftsmodells in verschiedene Partialmodelle vornimmt, als nicht tragfähig. Bei konsequenter Deduktion der Partialmodelle auf die Wohnungswirtschaft ergeben sich unterschiedlichste (jungierte) Ansatzpunkte zur Konfiguration der unternehmerischen Ausrichtung des Wohnungsunternehmens (siehe Abbildung 1).
1 2 3 4 5 6 7
Vgl. HSH NORDBANK (2005), S. 77, und MUSSLER (2006), S. 9. Vgl. SAILER/BACH (2006), S. 9 ff. Vgl. TIMMERS (1999), S. 32. Vgl. BASSE/KREBS (2006), S. 73 ff., und KEUPER/PAPE (2007). Vgl. BASSE/KREBS (2006), S. 73 ff., und OC & C (2006), S. 13. Vgl. BASSE/KREBS (2006), S. 73 f. Vgl. WIRTZ (2003), S. 349.
Abbildung 1:
3. Aktive Bilanzsteuerung
2.Gestaltung der Fremdkapitalgeberstrukturen
• Sonstige Eigenkapitalfinanzierung
• Kirchliche Eigenkapitalfinanzierung
• Konzernzugehörigkeit
• Private Equity
• Börsenfinanzierung
• Öffentliche / Kommunale Eigenkapitalfinanzierung
Einzelverkauf von Neubauwohnungen Einzelverkauf von Gebrauchtwohnungen Verkauf von Wohnungspaketen Verkauf von Grundstücken
Bestandsbewirtschaftung Einzelwohnungsvertrieb Paket-/ Fondsvertrieb Abriss
Distributionsmodell Regionale Diversifikation
Vermietung von Gebrauchtwohnungen
Vermietung von Neubauwohnungen
Interne / Externe Dienstleistungen
Leistungsangebotsmodell
Economies of Scope Economies of Quality
Neubau
Ankauf von Beständen
Grundstücksvorhaltung und -management
1.Gestaltung der Eigentümerstrukturen
• Genossenschaft
Leistungserstellungsmodell
Economies of Speed
Finanzierungsmodell
Economies of Scale
Wettbewerbsmodell
Wohnungsbaumarkt
Wohnungsbestandsmarkt
Wohnungsnutzungsmarkt
Nachfragemodell
304 KEUPER/PAPE/HINTZPETER
Konfigurationselemente wohnungswirtschaftlicher Geschäftsmodelle
Bewertung von Wohnungsgesellschaften
305
Unter Betrachtung der einzelnen Partialmodelle – insbesondere des Leistungserstellungs- und des Leistungsangebotsmodells – entlang von Rendite-/Risikoüberlegungen ist die Transaktionsorientierung als ein wesentliches Beschreibungsmerkmal zu identifizieren. Zur Beschreibung der Transaktionsorientierung können insbesondere die Dimensionen „Erweiterung des Immobilienportfolios“ und „Bereinigung des Immobilienportfolios“ herangezogen werden, die Rückschlüsse auf die zugrunde liegende Handelsintensität und damit die Risikostruktur des Geschäftsmodells ermöglichen.8 Ausgehend von der Bestandsbewirtschaftung als transaktionsunabhängigem Geschäftsfeld ergibt sich damit das in nachfolgender Abbildung 2 dargestellte Eskalationsmodell.
Zunehmende Bereinigung des Portfolios
Multiaktive Händler
Moderate Händler
Differenzierte Bestandshalter
Differenzierte Bestandshalter
Moderate Händler
Multiaktive Händler
Reine Bestandshalter
Zunehmende Ausweitung/Erweiterung des Immobilienportfolios
Abbildung 2:
Ansatzpunkte zur transaktionsorientierten Differenzierung wohnungswirtschaftlicher Geschäftsmodelle
Vor dem Hintergrund dieser Entwicklungen gilt es u. a. den (ggf.) veränderten Anforderungsrahmen an die Bewertung der Gesellschaften bzw. deren Geschäftsmodelle zu untersuchen. Als Bezugsrahmen wird hierfür die funktionale Wertlehre gewählt (Abschnitt 2). Auf dieser Grundlage erfolgt in Abschnitt 3 eine Analyse zentraler Elemente des theoretischen Bezugsrahmens. Abschnitt 4 schließt mit einer Konklusion.
8
Vgl. KEUPER/PAPE (2007).
306
2
KEUPER/PAPE/HINTZPETER
Die funktionale Wertlehre als Kontext der Bewertung von Wohnungsgesellschaften
Die Forderung nach einem objektiven Unternehmenswert gilt allgemein als überwunden.9 Das betriebswirtschaftliche Schrifttum folgt überwiegend der funktionalen Wertlehre, wonach die Wahl respektive die Ausgestaltung der angewandten Methode an der konkretisierten Fragestellung auszurichten ist.10 Hierbei lassen sich drei Hauptfunktionen der Bewertung unterscheiden: ¾ Bereitstellung von Entscheidungswerten im Sinne subjektiver Grenzpreise, ¾ Ableitung von Arbitriumswerten in Vermittlungsprozessen und ¾ Generierung von Argumentationswerten, bspw. zur Begründung eigener Wertvorstellungen bzw. -ansätze.11 Neben der jeweiligen Untersuchungsfunktion bestimmt auch die Art der Konfliktsituation das Bewertungskalkül. Zu nennen ist hier die (Lehrbuch-)Konstellation vom Typ Kauf/Verkauf bzw. Fusion/Spaltung ebenso wie die Konfliktsituation vom Typ eindimensional bzw. mehrdimensional, jungiert bzw. disjungiert und dominiert bzw. nicht dominiert.12 Diese unterschiedlichen Konfliktsituationen stellen sich nicht zwingend disjungiert dar. So sind bspw. gesellschaftsvertragliche Regelungen denkbar, bei denen eine Partei der anderen einen Verkauf von Geschäftsanteilen im Rahmen sog. Chance-of-Control-Regelungen oktroyieren kann, gleichwohl der eigentliche Bewertungsprozess noch aussteht. Es liegt eine dominierte Konfliktsituation vom Typ Kauf/Verkauf vor. Nach erfolgter Konkretisierung der zu verfolgenden Bewertungsfunktion sowie der Konfliktsituation folgen Ableitung und Bewertung von Zahlungsströmen.13 Hieraus leiten sich nach HERING drei Themenkomplexe ab, die sich auf 1. die Ermittlung des Zahlungsstroms, 2. die Überführung des Zahlungsstroms in einen Unternehmenswert und 3. die Überleitung der Wertbeimessung in einen anwendungsorientierten Verfahrensvorschlag beziehen.14 Die aus der funktionalen Wertlehre erwachsenden Anforderungen an Bewertungsmodelle weisen damit eine Vielschichtigkeit auf, weshalb es gerade auch vor dem Hintergrund des skizzierten Marktwandels einer generischen Spezifikation diesbezüglicher Modellanforderungen bedarf. Mittels dieser – nachfolgend skizzierten – Anforderungen können dann die jeweils zur Diskussion stehenden Verfahren einer Beurteilung zugeführt werden.
9 10 11 12 13 14
Vgl. SCHULTZE (2003), S. 7. Vgl. HERING (1999), S. 2, und KEUPER/BRÖSEL (2005), S. 148 f. Zu den Funktionen der Unternehmensbewertung im Speziellen vgl. HERING (1999), S. 3, und MATSCHKE/BRÖSEL (2005), S. 49. Vgl. MATSCHKE (2003), S. 7 ff., und MATSCHKE/BRÖSEL (2005), S. 78 ff. Zur (ausschließlichen) Relevanz von Zahlungen für den Unternehmenswert vgl. bspw. SCHMALENBACH/BAUER (1962), S. 48, und HERING (1999), S. 1. Vgl. HERING (1999), S. 2. Ähnlich BRÖSEL/KEUPER (2006), S. 151.
Bewertung von Wohnungsgesellschaften
3
307
Generische Anforderungen an die Bewertungsmodelle
Für die Generierung der Modellanforderungen bedarf es zunächst einer Reflektion relevanter Branchenspezifika. Auf dieser Grundlage sind dann die einschlägigen Theorien, d. h. insbesondere die Entscheidungs-, Investitions- und Finanzierungstheorie, zweckadäquat zu konkretisieren.
3.1
Branchenspezifische Implikationen
Das Wirtschaftsgut Immobilie weist einige Besonderheiten auf, die unmittelbar auf das zu konfigurierende Bewertungsmodell wirken. Besonders hervorzuheben sind die Kapitalintensität und die Individualität als wesentliche Charakteristika zur Konkretisierung des Chancen-/ Risikoprofils einer Immobilie.15 Da Immobilien- bzw. Wohnungsunternehmen zudem i. d. R. viele Objekte in ihrem Vermögen halten, bedarf es der Explizierung der hieraus resultierenden Verbundeffekte (Economies of Scope) bzw. Interdependenzen auf Investition und Finanzierung. Des Weiteren sind die Wirkungen insbesondere des Immobilienhandels vor dem Hintergrund der Unsicherheit sowie der häufig vorliegenden Irreversibilität16 der damit verbundenen Investitions- bzw. Desinvestitionsentscheidungen sachgerecht zu integrieren. Eine bewertungsrelevante Besonderheit stellt sich bei den ehemals gemeinnützigen Wohnungsunternehmen zudem nach der im Jahr 2007 geltenden Rechtslage im (steuerlich) verwendbaren Eigenkapital dar. Bis zum Ende der Wohnungsgemeinnützigkeit waren die als gemeinnützig anerkannten Unternehmen sowohl von der Körperschaftsteuer als auch von der Gewerbesteuer und der Vermögensteuer befreit.17 Zum Ende der Gemeinnützigkeit mussten die Unternehmen – wahlweise zum 01.01.1990 oder zum 01.01.1991 – eine steuerliche Anfangsbilanz erstellen,18 bei der alle Aktiv- und Passivposten mit ihrem Teilwert anzusetzen waren.19 Dies führte, weil der Teilwert gemäß § 6 Abs. 1 Nr. 1 S. 3 EStG und § 10 S. 2 BewG auf einer Wertbeimessung eines (fiktiven) Vollerwerbs der Unternehmung für die einzelnen Vermögenspositionen basiert, zu näherungsweise den „Marktwerten“ entsprechenden steuerlichen Buchwerten der Immobilien.20 Die daraus resultierenden Unterschiedsbeträge wurden als sonstige steuerfreie Vermögensmehrungen dem sog. EK02 zugewiesen.21 Hieraus resultiert einerseits im Vergleich zur Handelsbilanz eine quasi-permanente Differenz zwischen den Ergebnissen von Handels- und Steuerbilanz und andererseits im Falle einer Ausschüttung des EK02 – die eintritt, sofern kein übriges verwendbares Eigenkapital22 mehr vorhanden ist – vor 15 16 17 18 19 20 21 22
Vgl. MAIER (2004), S. 47. Zur Irreversibilität immobilienwirtschaftlicher Investitionsentscheidungen vgl. KÖNIG (1999), S. 66 ff. Vgl. B&L IMMOBILIEN AG (2002), S. 47. Vgl. BERGMEISTER/KUPSCH (1991), S. 9. Vgl. BERGMEISTER/KUPSCH (1991), S. 9. Vgl. MATZEN (2005), S. 115 f. Vgl. BERGMEISTER/KUPSCH (1991), S. 9, und MATZEN (2005), S. 116. Das verwendbare Eigenkapital stellt eine steuerliche Sonderrechnung dar, deren Zweck in der Herstellung der Grundlagen zur Bemessung der Ausschüttungsbelastung besteht, vgl. KStR Nr. 82 zu § 30 KStG. Hier werden die steuerlichen Eigenkapitalien in Abhängigkeit von Mittelherkunft bzw. bereits erfolgter Besteuerung in unterschiedliche Teilbeträge zerlegt. Im Ausschüttungsfall fingiert das Steuerrecht – vereinfacht dargestellt – folgende Ausschüttungsreihenfolge: 1. Besteuerte, aber zunächst thesaurierte Erträge der Gesellschaft, auch sofern diese
308
KEUPER/PAPE/HINTZPETER
dem Jahr 2019 eine Steuerbelastung i. H. v. 3/7 zuzüglich Solidaritätszuschlag in Höhe des Ausschüttungsbetrages auf Unternehmensebene.23 Eine reduzierte Betrachtung des Ertragssteuerergebnisses des Wohnungsunternehmens mit der vom Ergebnis der gewöhnlichen Geschäftstätigkeit abhängigen Variable s trägt den steuerlichen Begebenheiten zumindest der ehemals gemeinnützigen Wohnungsunternehmen daher nur unzureichend Rechnung. Folglich ist diesem Aspekt bei der Erstellung der Planungsrechnung eine besondere Bedeutung beizumessen.24
3.2
Entscheidungstheoretische Implikationen
Als Basis einer jeden Entscheidungssituation bedarf es 1. der Konkretisierung des Ziel- bzw. Präferenzsystems des Entscheidungssubjektes sowie 2. einer Charakterisierung relevanter Strukturmerkmale, um die Konsequenzen ergriffener Handlungen zu explizieren.25 Im Hinblick auf das Zielsystem eines jeden Entscheidungssubjektes ist zu akzeptieren, dass – unabhängig von den Implikationen eines typisierten Barwertkalküls – dieses innerhalb der Dimensionen Unabhängigkeit, Liquidität, Rentabilität und Sicherheit26 entsprechend der subjektiven Präferenzen nahezu beliebig moduliert werden kann. Allein bezogen auf das Ziel der Rentabilität stellt sich in der Bandbreite zwischen Entnahmemaximierung, d. h. der Maximierung möglicher Entnahmen bei Endvermögen, und Vermögensmaximierung zum Ende des Betrachtungs- bzw. Handlungszeitraums ein beträchtliches Potenzial für individualisierte Nuancierungen dar.27 Auf Grundlage des Zielsystems des Entscheidungssubjektes erfolgt die Generierung der Planungsreihe. Hierbei ergibt sich eine Komplizierung dadurch, dass künftige Ereignisse nur im begrenzten Umfang vorhersehbar sind und zudem Strukturdefekte vorliegen, die die Modellierung des Entscheidungskalküls erschweren. In der Literatur werden diesbezüglich insbesondere Lösungs-, Zielsetzungs-, Bewertungs-, Wirkungs- und Komplexitätshandhabungsdefekte genannt,28 die häufig dazu führen, dass keine eindeutigen Maximierungsgrößen für das Planungskalkül zu identifizieren sind. Ein systemimmanenter Zielsetzungskonflikt ergibt sich zunächst in die Gewinnrücklagen eingestellt wurden; 2. EK02 und 3. steuerliches Einlagenkonto (EK04). Vgl. STOBBE/BRUNOLD (2003), S. 242. Im Zuge der Unternehmenssteuerreform 2008 wird jedoch erwogen, das EK02 einer Abgeltungssteuer in Höhe von 3% zu unterziehen, wobei diesbezüglich aber noch ein Abgeltungswahlrecht diskutiert wird, vgl. GDW (2007). Der Ausgang dieser Debatte ist zum Zeitpunkt des Verfassens dieses Beitrages noch nicht absehbar. 23 24
25 26
27 28
Vgl. MATZEN (2005), S. 130. So auch bei MATZEN (2005), S. 136. Es ist indes darauf hinzuweisen, dass auch im betriebswirtschaftlichen Schrifttum zahlreiche Ansätze zu finden sind, die die Auswirkungen des Steuersystems auf die Unternehmensbewertung sehr ausführlich untersuchen, vgl. exemplarisch SPILL (1999), S. 201 ff. Die Vereinfachungen dienen eher im Gegenteil dazu, bestimmte andersartige Effekte in ihrer Wirkung auf den Unternehmenswert zu veranschaulichen, vgl. exemplarisch die Untersuchung bei DRUKARCZYK (2003) betreffend Rückstellungen und Steuern. Zur Notwendigkeit, die Konsequenzen ergriffener Handlungen offenzulegen, vgl. MENGES (1968), S. 12. Zu den Zieldimensionen vgl. PERIDON/STEINER (2004), S. 9 ff. PERIDON/STEINER nennen als weitere Zielsetzung auch den Shareholder Value. Hier wird die Auffassung vertreten, dass shareholder-value-orientierte Ziele als Teilziele der Rentabilität zu interpretieren sind. Zur Bandbreite zwischen Entnahme- und Vermögensmaximierung vgl. SCHNEIDER (1992), S. 65 ff., HERING (1999), S. 11 f., HERING (2003), S. 19 ff., und PERIDON/STEINER (2004), S. 12 f. Vgl. ADAM (1996), S. 10 ff., HERING (1999), S. 4, KEUPER (1999), S. 23 ff., KEUPER (2004), S. 21 ff., und KEUPER/BRÖSEL (2005), S. 22 ff.
Bewertung von Wohnungsgesellschaften
309
bspw. in weiten Teilen der ehemals gemeinnützigen Wohnungswirtschaft, die satzungsgemäß nach wie vor häufig noch als Primärziel die Versorgung breiter Schichten der Bevölkerung mit preiswertem Wohnraum verfolgt. Parallel sind in den Zielsystemen dieser Unternehmen häufig auch erwerbswirtschaftliche Ziele verankert,29 woraus sich für die Mietpreispolitik und teilweise auch die Investitionstätigkeit Interessenkonflikte ergeben (können).30 Die Anforderungen an die Handhabung der Strukturdefekte steigen mit zunehmendem Unsicherheitsniveau der jeweiligen Entscheidungs-/Planungssituation. Bezogen auf die Wohnungswirtschaft sind die Ergebnisse aus der Bestandsbewirtschaftung unter Voraussetzung einer Mindestbestandsgröße von mehreren tausend Einheiten von einer hohen Kontinuität geprägt und folglich mit hohen Wahrscheinlichkeiten planbar,31 wohingegen durch Transaktionen generierte Ergebnisse einer höheren Unsicherheit unterliegen.32 Das in Abschnitt 1 vorgestellte Analysekonstrukt zur transaktionsorientierten Differenzierung von Geschäftsmodellen kann folglich auf den Sicherheitsgrad in der Prognostizierung künftiger Ergebnisse übertragen werden. Im Extremfall Entscheidungen unter Ungewissheit
Zunehmende Bereinigung des Portfolios
Multiaktive Händler
Moderate Händler
Differenzierte Bestandshalter
Differenzierte Bestandshalter
Moderate Händler
Multiaktive Händler
Reine Bestandshalter
Nahezu Entscheidungen unter Sicherheit
Abbildung 3:
29 30 31 32
Zunehmende Ausweitung/Erweiterung des Immobilienportfolios
Sicherheitsgrade in der Planbarkeit künftiger Ergebnisse wohnungswirtschaftlicher Geschäftsmodelle
Zur Entwicklung der ehemals gemeinnützigen Wohnungswirtschaft vgl. exemplarisch FUCHS (2005), S. 12. Ein weiteres Beispiel für die Bewertung mit Zielsetzungsdefekten stellen die öffentlich-rechtlichen Sparkassen dar, vgl. MATSCHKE/WITT (2004), S. 256 f. Vgl. HSH NORDBANK (2005), S. 74. Zur Differenzierung von Entscheidungssituationen nach dem Sicherheitsgrad vgl. BAMBERG/COENENBERG (2004), S. 18. Einige Autoren differenzieren auch zwischen einmaligen und mehrmaligen Entscheidungssituationen und leiten daraus unterschiedliche Schlussfolgerungen ab, vgl. bspw. ADAM (1996), S. 225. Dieser Aspekt wird hier vernachlässigt.
310
KEUPER/PAPE/HINTZPETER
Um diese entscheidungstheoretischen Implikationen für die Operationalisierung des Bewertungskalküls handhaben zu können, kann auf die von BALLWIESER33 im Zusammenhang mit der Ableitung von Grenzpreisen formulierten Anforderungen zurückgegriffen werden. Diese beziehen sich 1.
auf die Kombination der Planung bzw. Prognose beeinflussbarer und unbeeinflussbarer Ereignisse,
2.
die Herstellung von Transparenz im Hinblick auf Abhängigkeiten zwischen wertbestimmenden Determinanten,
3.
die Berücksichtigung alternativer Handlungsmöglichkeiten in verschiedenen Szenarien bzw. Alternativplanungen und
4.
die Berücksichtigung eines (möglichst) langfristigen Planungshorizonts.
Diese für eine Entscheidungssituation formulierten Forderungen sind im Kontext der funktionalen Wertlehre vor dem Hintergrund des jeweiligen Untersuchungszwecks zweckadäquat34 anzuwenden. So sind Alternativpläne im Rahmen von Entscheidungssituationen bspw. ungleich bedeutender als bei der Herleitung von Argumentationswerten.
3.3
Investitionstheoretische Implikationen
Wesentliche Funktion der Investitionstheorie ist die Bereitstellung formaler Modelle, mittels derer eine wirtschaftliche Beurteilung von Zahlungsströmen erfolgen kann.35 Diesbezüglich bedarf es geeigneter Planungstechniken und – sofern es sich bei dem gewählten Bewertungsmodell um einen partialanalytischen Ansatz handelt – der Herleitung geeigneter Vergleichszinssätze. Im Totalmodell, das im Rahmen einer vollständigen Enumeration sämtliche Handlungsoptionen expliziert, besitzt der Zinssatz dagegen „lediglich“ pagatorischen Charakter.36 3.3.1
Ableitung der maßstäblichen Erfolgsgrößen
In Bezug auf die Ableitung der maßstäblichen Erfolgsgrößen weisen nach herrschender Auffassung ausschließlich diejenigen Zahlungen eine Relevanz auf, die von der Unternehmung zur Nutzenmaximierung der Eigner geleistet werden.37 Die häufig diskutierte Fragestellung, welche Erfolgsgröße – Ertrag vs. Liquidität – von Relevanz sei, stellt sich damit als wenig zielführend dar. Zweifelsfrei sind aber handelsrechtliche Restriktionen, bspw. im Hinblick auf die Ausschüttbarkeit von Gewinnen, sachgerecht einzuwerten. Das Vorliegen integrierter
33 34 35 36 37
Vgl. BALLWIESER (1987), S. 23. Zum Grundsatz der Zweckadäquatheit in der funktionalen Wertlehre vgl. MOXTER (1983), S. 5 ff., und MATSCHKE (2003), S. 23. Vgl. HERING (2003), S. 3. Vgl. SCHNEIDER (1992), S. 70 ff., und HERING (2003), S. 3. Vgl. HERING (1999), S. 16. Zur Abgrenzung investitionstheoretischer und jahresabschlussorientierter Gewinnkonzeption im Vergleich vgl. KÜTING (2006), S. 1444. Ergänzt um nichtfinanzielle Zielgrößen erweitert sich der Wert eines Vermögensgegenstandes/einer Unternehmung auf die Summe der Vorteile, die die Eigner aus dem Unternehmen realisieren können. Vgl. PFAFF/PFEIFFER/GATHGE (2002), S. 198.
Bewertung von Wohnungsgesellschaften
311
Planungsrechnungen bestehend aus Gewinn- und Verlustrechnung, Bilanz und Kapitalflussrechnung ist daher als unabdingbare Voraussetzung anzusehen.38 Folglich bedarf es einerseits der Wahl geeigneter Planungsfelder, die die Abhängigkeiten zwischen den entscheidungsrelevanten Variablen, d. h. den Interdependenzen, vergegenwärtigen, sowie andererseits der Anwendung geeigneter Techniken zur Herleitung der Planungsansätze. Der erstgenannte Aspekt mündet unmittelbar im formalen Aufbau des Planungsmodells, wie es nachfolgend beispielhaft in Abbildung 4 visualisiert ist.
Ziele des Entscheidungssubjekts Geschäftsmodell
Steuerungsmodell
Leistungssphäre
Wertsphäre
Absatzplanung für • Wohnungsbestandsmanagement • Grundstückswirtschaft • Immobilienverkauf
Kapazitätsplanung für • Immobilienbestand • Personal
Ertrags-/ Erlösplanung Erfolgsplanung (inkl. Steuern)
Investitionsplanung (Ankauf, Neubau, Modernisierung etc.)
Einzahlungsplanung
Finanzplanung
Bilanzplanung Aufwands-/ Kostenplanung
Auszahlungsplanung
Beschaffungsplanung
Planungsfelder
Immobilienbewirtschaftung
Abbildung 4:
Immobilienverkauf
Investition
Finanzierung
Dienstleistungen
Steuern
Bedeutsame Planungsfelder von Wohnungsunternehmen39
Die Wahl der Planungsfelder bzw. der Aufbau des Planungsmodells stellt mithin einen möglichen Ansatzpunkt dar, die bestehenden Abhängigkeiten zwischen dem Zielsystem des Entscheidungssubjektes und dem Geschäftsmodell bzw. der Leistungssphäre in das Kalkül zu integrieren. Im Beispiel der Abbildung 4 dürfte insbesondere die Explizierung der Interdependenzen zwischen Immobilienbewirtschaftung und -verkauf in Verbindung mit den daraus resultierenden Implikationen auf die Finanzierung von Interesse sein.
38 39
Vgl. zu integrierten Planungsrechnungen MANDL/RABEL (1997), S. 158, und HERING (1999), S. 16 f. Vgl. FUCHS (2005), S. 168, Darstellung wesentlich weiterentwickelt, insbesondere im Hinblick auf die Integration des Zielsystems des Entscheidungssubjektes sowie die Ableitung der Planungsfelder.
312
KEUPER/PAPE/HINTZPETER
In Bezug auf die Planungstechniken stehen zwei divergierende Verfahren zur Generierung von Prognosewerten zur Verfügung. Bei den mathematisch-statistischen Verfahren wird auf Grundlage in der Vergangenheit festgestellter bzw. angenommener Gesetzmäßigkeiten eine Trendextrapolation des Zahlungsstroms bzw. der Erfolgsindikatoren vorgenommen. Dagegen basieren die qualitativen Techniken auf der subjektiven Einschätzung des Planenden.40 Beide Verfahrensansätze weisen Vor- und Nachteile auf,41 wobei letztere bei beiden Ansätzen vor allem auf die mit Planungssituationen immanent einhergehenden Unwägbarkeiten zurückzuführen sind. Tendenziell sind quantitative Planungsmodelle eher anwendbar, wenn das bestehende Unsicherheitsniveau durch ein geringes Maß an Strukturbrüchen vergleichsweise niedrig ist.42 Anknüpfend an Abbildung 3 und Abbildung 4 kann angenommen werden, dass diese Voraussetzung in der unternehmerischen Wohnungswirtschaft eher im Rahmen der Hausbewirtschaftung – einen Bestand von mehreren Tausend Wohneinheiten vorausgesetzt – als im An- und Verkauf vorliegt. Grundsätzlich ist wohl davon auszugehen, dass ein in praxi eingesetztes Modell neben quantitativen Trendfortschreibungen immer auch auf qualitativen Planungselementen basiert.43 In Verbindung mit der entscheidungstheoretischen Notwendigkeit zur Explizierung der bestimmenden Wertdeterminanten gebietet dies ein mehrwertiges Planungsmodell, das die aus unterschiedlichen Datenkonstellationen respektive Umweltzuständen resultierenden Folgewirkungen aufzeigt. Aus den unterschiedlichen Verfahren, die sukzessive einen verbesserten Informationsstand in das Kalkül integrieren, ist in besonderer Weise die Flexibilitätsplanung hierfür geeignet. Zentrales Wesensmerkmal der Flexibilitätsplanung ist, dass – anders als in der starren Planung – bereits bedingte Entscheidungen im Planungsmodell Berücksichtigung finden bzw. antizipiert werden.44 In Abhängigkeit vom Eintritt unterschiedlicher Datenkonstellationen werden bereits zum Planungszeitpunkt alternative Handlungsoptionen formuliert,45 sodass die Unternehmung auf veränderte Rahmenbedingungen umgehend bzw. zeitnah reagieren kann. Damit erscheint ein derart konstruiertes Planungsmodell insbesondere bei der Bewertung von Wohnungsunternehmen anwendbar, weil es über die Alternativpläne auch zur Explizierung der Folgewirkungen von größeren An- und Verkäufen – und damit auch dem Misslingen bestimmter Geschäfte – auf die Vermögens-, Finanz- und Ertragslage beiträgt. Die Flexibilitätsplanung überwindet folglich die Einwertigkeit starrer Planungsrechnungen. In Abhängigkeit von der Anzahl möglicher (geplanter) Umweltzustände bzw. der daraus resultierenden Reaktionen kann die Planungsrechnung schnell ein unübersichtliches Maß erreichen, woraus unweigerlich Komplexitätshandhabungsdefekte resultieren würden. Insofern bedarf es für die Anwendung dieses Denkansatzes einer gemäßigten Ausdifferenzierung wesentlicher (unterschiedlicher) Handlungsstrategien.46
40 41 42 43 44 45 46
Vgl. ADAM (1996), S. 195 ff. Vgl. ADAM (1996), S. 194 ff. und S. 206 ff. Vgl. ADAM (1996), S. 209. Vgl. KRUSCHWITZ (2001), S. 158 ff. Vgl. HERING (2003), S. 255, und FRANKE/HAX (2004), S. 279 ff. Vgl. HERING (2003), S. 257. Vgl. HERING (2003), S. 257.
Bewertung von Wohnungsgesellschaften
3.3.2
313
Ableitung sachdienlicher Steuerungszinssätze
Steuerungszinssätze finden in Partialmodellen, wie bspw. dem Zukunftserfolgsverfahren, Anwendung,47 um dort als Lenkpreis des Geldes zu fungieren.48 Im theoretischen Ideal des Totalmodells weist der Zinssatz lediglich pagatorischen Charakter auf, weil ein solches Modell über die vollständige Enumeration der Handlungsalternativen auf einen relativen Vorteilhaftigkeitsvergleich über Steuerungszinsfüsse nicht angewiesen ist.49 In Theorie und Praxis erfreut sich die Ableitung von Steuerungszinssätzen mittels des Capital Asset Pricing Model (CAPM) großer Beliebtheit. Das CAPM basiert auf der Kapitalmarkttheorie und leitet die Renditeerwartung eines Wertpapiers ab, indem das Risiko dieses Papiers – ausgedrückt über Volatilität – am sog. Marktportfolio gemessen wird.50 Der Kapitalmarkttheorie liegt die Vorstellung gleichgewichtsorientierter und somit objektivierter Preisbildung zugrunde; insoweit ist sie für die Ableitung von Argumentationswerten sowie Schiedswerten prinzipiell nicht ungeeignet.51 Allerdings verfügen die Kapitalmarkttheorie im Allgemeinen und das CAPM im Speziellen über einige Prämissen, die die Verwendung für die Entscheidungsfunktion konterkarieren. So ist zu Lasten der Kapitalmarkttheorie bspw. zu nennen, dass52 ¾
diese auf der Vorstellung gleichgewichtsorientierter Preis- und Wertbildung basiert. Wenn Wert und Preis einander tatsächlich entsprächen, würde aus einer Transaktion kein ökonomischer Erfolg erwachsen, sodass der einzige Grund für Unternehmenskäufe bzw. -verkäufe in unterschiedlichen zeitlichen Präferenzen im Hinblick auf die Entnahmestruktur begründet sein könnte.
¾
die Börsenkapitalisierung einer Gesellschaft niemals dem vollständigen Marktpreis entspricht, weil an der Börse – zumindest i. d. R. – lediglich infinitesimale Anteile gehandelt werden. Eine Preisbildung auf der Grundlage derartiger Grenztransaktionen ist aber keinesfalls anwendbar bzw. vergleichbar mit der Preisbildung im Rahmen einer vollständigen Übernahme.
¾
der unternehmerische Sektor nur zu einem Bruchteil am Kapitalmarkt notiert ist. Es ist insofern fragwürdig, ob bzw. inwiefern die Preisbildung dieser Märkte auf nicht börsennotierte Bewertungsobjekte hin anwendbar ist.
Auch verbleibt das CAPM in der Anwendung zumeist undifferenziert, weil es i. d. R. auf einperiodigen Betrachtungen basiert.53
47 48 49 50 51 52
53
Vgl. MATSCHKE/BRÖSEL (2005), S. 210 ff. Vgl. HERING (2003), S. 3. Zur Bedeutung des Zinssatzes für die Unternehmensbewertung vgl. u. a. BEHRINGER (2002), S. 74 ff. Vgl. SCHNEIDER (1992), S. 71, und HERING (2003), S. 3. Vgl. KEUPER (2000), S. 216 f., und FRANKE/HAX (2004), S. 351 ff. Vgl. BRÖSEL/KLASSEN (2006), S. 458. Zur nachfolgend skizzierten Kritik der Anwendung der Kapitalmarkttheorie auf die Unternehmensbewertung vgl. HERING (1999), S. 94 ff. Weiterhin sei auf die ausführliche und grundlegende Kritik von SCHNEIDER (1998) verwiesen. Vgl. HERING (1999), S. 121 ff.
314
KEUPER/PAPE/HINTZPETER
Aus Sicht der Entscheidungsfunktion ergibt sich damit die Forderung nach einem endogenen, d. h. aus dem Totalmodell abgeleiteten Steuerungszinsfuß.54 Nur ein solcher deckt sich mit der entscheidungstheoretisch gebotenen Herstellung von Transparenz im Hinblick auf die wertbestimmenden Determinanten und weiß zugleich die denklogischen Mängel der Kapitalmarkttheorie zu überwinden. Diese Forderung zeigt sich leicht nachvollziehbar am klassischen (Lehr-)Beispiel des DEANModells.55 Dieses einfache Totalmodell, das im Grundmodell auf einer Zwei-Zeitpunkt-Betrachtung sowie auf der Annahme sicherer Erwartungen beruht, stellt die Kapitalangebotsund Kapitalnachfragefunktion einander gegenüber. Der Lenkpreis des Geldes als theoretisch „richtiger“ Steuerungszinsfuß findet sich im Schnittpunkt beider Kurven.56 Alle Investitionsund Finanzierungsprogramme, die nach den Grundsätzen des DEAN-Modells simultan optimiert werden, führen – sofern die Prämissen des Modells anwendbar sind – zum Gewinnmaximum.57
3.4
Finanzierungstheoretische Implikationen
Die Finanzierungstheorie befasst sich u. a. mit der Gestaltung der Kapitalstruktur der Unternehmung und den damit verbundenen Finanzierungsentscheidungen.58 Gerade vor dem Hintergrund der Kapitalintensität immobilienwirtschaftlicher Investitionen ergibt sich hiermit ein wichtiges Untersuchungsfeld. Der Leverage-Effekt bspw. expliziert, dass zwischen Rendite und Kapitalstruktur ein unmittelbarer Zusammenhang besteht.59 Demnach kann ein Unternehmen, dessen Gesamtkapitalrendite oberhalb der Fremdkapitalkosten verläuft, die Eigenkapitalrendite durch Substitution von Eigenkapital durch Fremdkapital weiter steigern.60 Diese Erkenntnis, die vor dem Hintergrund des niedrigen Zinsniveaus der vergangenen Jahre ein wesentliches Erwerbsmotiv internationaler Investorengruppen für deutsche Wohnungsunternehmen war,61 steht im Spannungsfeld zweier einander konträr gegenüberstehender Erklärungsansätze zur „optimalen Kapitalstruktur“. So nimmt die sog. Klassische These an, dass ein minimaler Gesamtkapitalkostensatz existiert, der zu einer Maximierung des Unternehmenswertes führt.62 Dies geschieht mittels Substitution von Eigenkapital durch das „günstigere“ Fremdkapital. Das Optimum wird dann im kritischen Verschuldungsgrad erreicht, bei dem sowohl Eigen- und Fremdkapitalrisikoprämien zu steigen beginnen.63 54 55 56 57 58 59 60 61 62 63
Vgl. HERING (2003), S. 136 f. Vgl. DEAN (1969). Vgl. HAX (1993), S. 62 ff., und HERING (1999), S. 58 ff. Vgl. HAX (1993), S. 68. Vgl. BREUER (1998), S. VI. Vgl. SCHULTZE (2003), S. 289 ff. Vgl. SCHNEIDER (1992), S. 546, und SCHULTZE (2003), S. 290. Vgl. DEUTSCHE BANK (2005), S. 25 f. Vgl. KEUPER (2000), S. 188. Vgl. KEUPER (2000), S. 185.
Bewertung von Wohnungsgesellschaften
315
Dagegen besteht nach der auf MODIGLIANI und MILLER64 zurückgehenden Irrelevanzthese, die auch die theoretische Grundlage für das CAPM darstellt, kein Zusammenhang zwischen Kapitalstruktur und Kapitalkostensatz. Voraussetzung für die Gültigkeit dieser These sind u. a. vollkommene und vollständige Kapitalmärkte und keine Unterschiede in der steuerlichen Behandlung von Eigen- und Fremdkapital.65 Um diese (theoretischen) Überlegungen für die Bewertung von Wohnungsunternehmen einer Operationalisierung zuzuführen, bedarf es einer zweifelsfreien Ableitung der Kapitalstruktur des Wohnungsunternehmens und somit einer Bewertung der Vermögenspositionen respektive des Immobilienbestandes. Die damit verbundene Komplexität, die vor allem die Unternehmen der ehemals gemeinnützigen Wohnungswirtschaft mit ihrem historisch gewachsenen Bestand trifft, kann exemplarisch entlang der Konzeptionen der externen Rechnungslegung dokumentiert werden. So erfolgt die Bewertung des Vermögens im Handelsrecht deutscher Prägung bezogen auf die Immobilien nach § 253 HGB zu Anschaffungs- oder Herstellungskosten gemindert um planmäßige und ggf. außerplanmäßige Abschreibungen. Dagegen gestatten die IFRS für die sog. Renditeliegenschaften nach IAS 40 zwei alternative Möglichkeiten der Bewertung. Die gewählte Methode ist auf alle Immobilien anzuwenden und in den Folgejahren beizubehalten.66 Entweder erfolgt die Bewertung analog der deutschen Rechnungslegung nach dem Cost-Modell oder zum jeweiligen „Marktwert“ nach dem Fair-ValueModell. Entscheidet sich das Unternehmen für das Cost-Modell, sind die Marktwerte im Anhang anzugeben.67 Die dem Fair-Value-Modell zugrunde liegenden Modelle zur Bewertung des Immobilienbestandes basieren, sofern keine geeigneten Vergleichstransaktionen vorliegen, zumeist auf diskontierten Zahlungsflüssen (Discounted Cash Flow).68 Zusammenfassend scheint die IFRSKonzeption aufgrund ihrer wirtschaftlichen und damit informationsorientierten Sichtweise der durch das Gläubigerschutzprinzip dominierten Betrachtung des HGB damit im Grundsatz überlegen.69 Mit dem Fair Value Accounting gehen jedoch deutliche Bewertungsbandbreiten einher, die im Ergebnis zu einer Entobjektivierung der Bilanzierungsansätze führen.70 Damit stellt sich auch finanzierungstheoretisch die Forderung nach einer simultanen Planung von Investition und Finanzierung dar, weil dies einerseits aufgrund der zugrunde liegenden pagatorischen Sicht die (häufig fragwürdige) Ableitung von Eigenkapitalkosten umgeht und andererseits eine variable Modulation der Fremdkapitalkosten, bspw. durch Integration ratingorientierter Ansätze,71 mittels sachgerechter Reflektion individueller Begebenheiten ermöglicht. Zudem wird damit die utopische Forderung umgangen, einen ohnehin nur schwer herleitbaren Verschuldungsgrad abzubilden.
64 65 66 67 68 69 70 71
Vgl. MILLER/MODIGLIANI (1958) und MILLER/MODIGLIANI (1963). Vgl. zu allen Prämissen der Irrelevanzthese HERING (1999), S. 111. Vgl. KLINGER (2002), S. 63 ff. Zur Bilanzierung von Immobilien nach IFRS vgl. u. a. BECK (2004), S. 498 ff. Vgl. BAETGE/MATENA/ZÜLCH (2003), S. 90 ff. Zu den Rechnungslegungskonzeptionen von HGB und IFRS vgl. COENENBERG (2003), S. 24 ff. Vgl. KÜTING (2006), S. 1449. Zur ratingorientierten Ermittlung von Fremdkapitalkosten vgl. BREITENBÜCHER/ERNST (2004), S. 77 ff.
316
4
KEUPER/PAPE/HINTZPETER
Konklusion
Der Wohnungsmarkt in Deutschland erfährt gegenwärtig einen Wandel, der durch die zunehmende transaktionsorientierte Ausdifferenzierung der Geschäftsmodelle auch auf die Anforderungen an die Bewertungsmodelle wirkt. Im vorliegenden Beitrag wurden die daraus resultierenden Wirkungen auf zentrale Elemente der Entscheidungs-, Investitions- und Finanzierungstheorie untersucht. Die daraus resultierenden Implikationen lassen sich wie folgt zusammenfassen: ¾ Aufgrund der transaktionsorientierten Ausdifferenzierung wohnungswirtschaftlicher Geschäftsmodelle gewinnt die sachgerechte Antizipation horizontaler und vertikaler Interdependenzen in der Prognostizierung des Zahlungsstroms an Bedeutung. ¾ Bei der Konzeptualisierung dieses Bewertungsansatzes sind die steuerlichen Begebenheiten des Bewertungssubjektes aufgrund der dargestellten Sondersituation der ehemals gemeinnützigen Wohnungswirtschaft im Hinblick auf die vorhandenen EK02-Bestände einer besonderen Berücksichtigung zuzuführen. ¾ Sofern es sich bei der vorzunehmenden Bewertung um eine Entscheidungssituation im Sinne der funktionalen Wertlehre handelt, bedarf es im Vorwege der Planung einer Ausformulierung des Zielsystems des Entscheidungssubjektes. Hierbei gilt es insbesondere etwaige Zielsetzungsdefekte – z. B. bei Unternehmen der ehemals gemeinnützigen Wohnungswirtschaft – zu vergegenwärtigen. ¾ Ferner ist aus entscheidungstheoretischer Sicht die Abhängigkeit des Bewertungsergebnisses von den zugrunde liegenden Wertindikatoren offenzulegen. Es handelt sich dabei – i. d. R. – um eine schlechtstrukturierte Planungssituation in einem offenen Entscheidungsfeld, sodass sich nahezu zwangsläufig die Notwendigkeit ergibt, mehrwertig, d. h. in alternativen Szenarien, zu kalkulieren. Zudem gilt es in das Kalkül zu integrieren, dass die zunehmende Transaktionsorientierung eines Geschäftsmodells mit einer zunehmenden Ungewissheit einhergeht. ¾ Des Weiteren bedarf es bei der Ausgestaltung des Planungssystems der Festlegung von Planungsfeldern, die in funktionaler Hinsicht geeignet sind, das gesamte Spannungsfeld möglicher wohnungswirtschaftlicher Geschäftsvorfälle in sachgerechter Weise zu reflektieren. Hier erscheint das Denkprinzip der Flexibilitätsplanung in besonderer Weise geeignet, die immanent innewohnende Unsicherheit zu relaxieren. ¾ Die Wahl des „richtigen“ Kalkulationszinsfußes ist über die pagatorische Betrachtung hinaus ausschließlich in der Anwendung von Partialmodellen von Bedeutung. Derjenige Kalkulationszinsfuß, der in investitionstheoretischer Hinsicht als zutreffend zu charakterisieren ist, stellt zudem gleichzeitig – d. h. als Kuppelprodukt – das Ergebnis des Totalmodells dar.72 ¾ Diese Forderung nach einem annähernden Totalmodell wird auch durch finanzierungstheoretische Überlegungen gestützt, weil es für die Modellierung pagatorischer Zinsen, d. h. vorrangig die Fremdkapitalkosten, einer Explizierung u. a. ratingrelevanter Aspekte bedarf. Abweichend von der Irrelevanzthese ist in praxi davon auszugehen, dass die Kapitalstruktur einen hohen Einfluss auf die Kapitalkosten des Wohnungsunternehmens aus72
Vgl. HERING (1999), S. 28.
Bewertung von Wohnungsgesellschaften
317
übt und insoweit die bestehenden Abhängigkeiten zwischen Investition und Finanzierung weiter intensiviert werden. Zusammenfassend kann daher gefordert werden, dass es für die Bewertung von Wohnungsunternehmen vor dem Hintergrund des Marktwandels einer Operationalisierung der bestehenden totalanalytischen Ansätze bedarf. Partialanalytisch ausgerichtete Ansätze, wie z. B. die verschiedenen Discounted Cash Flow-Modelle, erscheinen wenig geeignet, die aus der transaktionsorientierten Ausdifferenzierung resultierenden Wirkungen in angemessener Weise zu explizieren. Einschlägige Ansätze, die es zu untersuchen gilt, können daher die heuristische Approximative Dekomposition73 sowie das Zustands-Grenzpreismodell74 sein.
Quellenverzeichnis ADAM, D. (1996): Planung und Entscheidung, Wiesbaden. BAETGE, J./MALENA, S./ZÜLCH, H. (2003): Fair Value Accounting – Eine neue Ära der Rechnungslegung?, in: KÜTING, K./WEBER, C.-P. (Hrsg.), Vom Financial Accounting zum Business Reporting, Stuttgart 2003, S. 73100. BALLWIESER, W. (1987): Unternehmensbewertung und Komplexitätsreduktion, Wiesbaden 1987. BAMBERG, G./COENENBERG A. (2004): Betriebswirtschaftliche Entscheidungslehre, München 2004. BASSE, L./KREBS, T. (2006): Wertorientierung – Rendite – Stadtrendite – Anspruch oder Widerspruch? Das Geschäftsmodell von SAGA GWG im Spannungsfeld von Handlungsoptionen, in: GDW (Hrsg.), Branchenbericht 2: Wohnungs- und Immobilienwirtschaft in Deutschland – wirtschaftlicher Erfolg durch Innovationen, Berlin 2006, S. 7376. BECK, M. (2004): Bilanzierung von Investment Properties nach IAS 40, in: KoR, 2004, S. 498505. BEHRINGER, S. (2002): Unternehmensbewertung der Mittel- und Kleinbetriebe – Betriebswirtschaftliche Verfahrensweisen, Berlin 2002. BERGMEISTER, K./KUPSCH, P. (1991): Latente Steuern im Jahresabschluß von Wohnungsunternehmen, Düsseldorf 1991. BREITENBÜCHER, U./ERNST, D. (2004): Der Einfluss von Basel II auf die Unternehmensbewertung, in: RICHTER, F./TIMMRECK, C. (Hrsg.), Unternehmensbewertung – Moderne Instrumente und Lösungsansätze, Stuttgart 2004, S. 7798. BREUER, W. (1998): Finanzierungstheorie, Wiesbaden 1998. BRÖSEL, G./KEUPER, F. (2006): Zur Bedeutung der funktionalen Unternehmensbewertung bei Unternehmensakquisitionen, in: BOROWICZ, F./MITTERMAIR, K. (Hrsg.), Strategisches Management von Mergers & Acquisitions, Wiesbaden 2006, S. 145162. 73 74
Erstmalig vorgestellt in HERING (1995). Erstmalig vorgestellt in HERING (1999).
318
KEUPER/PAPE/HINTZPETER
BRÖSEL, G./KLASSEN, T. R. (2006): Zu möglichen Auswirkungen des IFRS 3 und des IAS 36 auf das M&A-Management, in: KEUPER, F./HÄFNER, M./VON GLAHN, C. (Hrsg.), Der M&A-Prozess – Konzepte, Ansätze und Strategien für die Pre- und Post-Phase, Wiesbaden 2006, S. 445476. B&L IMMOBILIEN AG (Hrsg.) (2002): Unvollständiger Verkaufsprospekt, Hamburg 2002. COENENBERG, A. G. (2003): Jahresabschluss und Jahresabschlussanalyse, Landsberg 2003. DEAN, J. (1969): Capital Budgeting, New York/London 1969. DEUTSCHE BANK (Hrsg.) (2005): Wohnungsportfolios in Deutschland Weitere Verkäufe programmiert, Frankfurt 2005. FRANKE, G./HAX, H. (2004): Finanzwirtschaft des Unternehmens und Kapitalmarkt, Berlin/ Heidelberg/New York 2004. FUCHS, R. (2005): Wertschöpfungsorientiertes Controlling in Wohnungsunternehmen, Wiesbaden 2005. GDW (2007): Stellungnahme des GdW Bundesverband deutscher Wohnungs- und Immobilienunternehmen e. V. zum Referententwurf zum Jahresteuergesetz, 28. Juni 2007, Berlin. HAX, H. (1993): Investitionstheorie, Heidelberg 1993. HERING, T. (1995): Investitionstheorie aus der Sicht des Zinses, Wiesbaden 1995. HERING, T. (1999): Finanzwirtschaftliche Unternehmensbewertung, Wiesbaden 1995. HERING, T. (2003): Investitionstheorie, München/Wien 2003. HSH NORDBANK (Hrsg.) (2005): Branchenstudie Immobilien – Der German Real Estate Trust (REIT) und der deutsche Immobilienmarkt, Hamburg 2005. KEUPER, F. (1999): Fuzzy-PPS-Systeme, Wiesbaden 1999. KEUPER, F. (2000): Finanzmanagement, München/Wien 2000. KEUPER, F. (2004): Kybernetische Simultaneitätsstrategie Systemtheoretisch-kybernetische Navigation im Effektivitäts-Effizienz-Dilemma, Berlin 2004. KEUPER, F./BRÖSEL, G. (2005): Controlling-Instrumente in der TIME-Branche Anforderungen und Gestaltungsempfehlungen im Spannungsfeld von Effektivität, Komplexität und Effizienz, in: Zeitschrift für Controlling und Management, 2005, Sonderheft Nr. 2, S. 1627. KEUPER, F./PAPE, C. (2007): Geschäftsmodelle in der Wohnungswirtschaft, in: Zeitschrift für Management, 2007, (in der Begutachtung). KLINGER, F. (2002): Perspektive der internationalen Rechnungslegung in der Immobilienwirtschaft, in: DELOITTE & TOUCHE (Hrsg.), Immobilienunternehmen im Blick der Analysten, Stuttgart 2002, S. 6368. KÖNIG, P. (1999): Privatisierung von kommunalem Wohneigentum, Stuttgart 1999. KÜTING, K. (2006): Auf der Suche nach dem richtigen Gewinn – Die Gewinnkonzeptionen nach HGB und IFRS im Vergleich, in: Der Betrieb, 2006, S. 14411450.
Bewertung von Wohnungsgesellschaften
319
KRUSCHWITZ, L. (2001): Barwerte – Gelöste, ungelöste und unlösbare Fragen der Investitionsrechnung, in: WAGNER, U. (Hrsg.), Zum Erkenntnisstand der Betriebswirtschaft am Beginn des 21. Jahrhunderts, Festschrift für Erich Loitlsberger, Berlin 2001, S. 157175. MAIER, K. M. (2004): Risikomanagement im Immobilien- und Finanzwesen, Frankfurt a. M. 2004. MANDL, G./RABEL, K. (1997): Unternehmensbewertung – Eine praxisorientierte Einführung, Wien/Frankfurt 1997. MATSCHKE, M. J. (2003): Grundsätze ordnungsgemäßer Unternehmensbewertung, Vortragsskript anlässlich der EUROFORUM-Jahrestagung am 12. März 2003 in Mainz, online: www.rsf.uni-greifswald/fileadmin/mediapool/lehrstuehle/matschke/Vortrag_UB.pdf, Abruf: 09.02.2007. MATSCHKE, M. J./BRÖSEL, G. (2005): Unternehmensbewertung Methoden – Grundsätze – Funktionen, Wiesbaden 2005. MATSCHKE, M. J./WITT, C. (2004): Entscheidungswertermittlung bei der Vereinigung öffentlich-rechtlicher Sparkassen, in: BURKHARDT, T./KÖRNERT, J./WALTHER, U. (Hrsg.), Banken, Finanzierung und Unternehmensführung, Berlin 2004, S. 249271. MATZEN, F. J. (2005): Unternehmensbewertung von Wohnungsbauunternehmen, Köln. MENGES, G. (1968): Entscheidungen unter Risiko und Ungewissheit, in: MENGES, G./SCHNEE WEISS, H./HAX, H./POENSGEN, O. H. (Hrsg.), Entscheidung und Information, Saarbrücken 1968, S. 935. MILLER, M. H./MODIGLIANI, F. (1958): The Cost of Capital, Corporate Finance and the Theory of Investment, in: American Economic Review, 1958, S. 261297. MILLER, M. H./MODIGLIANI, F. (1963): Corporate Income Taxes and the Cost of Capital a Correction, in: American Economic Review, 1963, S. 433443. MOXTER, A. (1983): Grundsätze ordnungsmäßiger Unternehmensbewertung, Wiesbaden 1983. MUSSLER, H. (2006): Viel frisches Kapital, in: Frankfurter Allgemeine Zeitung, 27. Dezember 2006, S. 9. OC & C (Hrsg.) (2006): Defizite in der Wohnimmobilienbewirtschaftung in Deutschland, Düsseldorf/Hamburg 2006. PERIDON, L./STEINER, M. (2004): Finanzwirtschaft der Unternehmung, München 2004. PFAFF, D./PFEIFFER, T./GATHGE, D. (2002): Unternehmensbewertung und Zustands-Grenzpreismodelle, in: Betriebswirtschaftliche Forschung und Praxis, 2002, S. 198210. SAILER, E./BACH, H. (2006): Unternehmen und Märkte in der Immobilienwirtschaft, in: MURFELD, E. (Hrsg.), Spezielle Betriebswirtschaftslehre der Immobilienwirtschaft, Hamburg 2006, S. 5136. SCHMALENBACH, E./BAUER, R. (1962): Dynamische Bilanz, Köln 1962. SCHNEIDER, D. (1992): Investition, Finanzierung und Besteuerung, Wiesbaden 1992. SCHNEIDER, D. (1998): Marktwertorientierte Unternehmensrechnung Pegasus mit Klumpfuß, in: Der Betrieb, 1998, S. 14731478.
320
KEUPER/PAPE/HINTZPETER
SCHULTZE, W. (2003): Methoden der Unternehmensbewertung, Düsseldorf 2003. SPILL, J. (1999): Behandlung von Steuern, in: BÜHNER, R./SULZBACH, K. (Hrsg.), Wertorientierte Steuerungs- und Führungssysteme, Stuttgart 1999, S. 201210. STOBBE, T./BRUNOLD, G. (2003): Steuern kompakt, Sternenfels 2003. TIMMERS, P. (1999): Electronic Commerce, Chichester 1999. WIRTZ, B. (2003): Medien- und Internetmanagement, Wiesbaden 2003.
Zeitgemäße Liquiditätsplanung – Ein Praxisbeispiel PETER SCHUBERT und OLAF OLLIGES Softlab Group
1 2
Einführung ..................................................................................................................... 323 Beschreibung und Integration der Liquiditätsplanung ................................................... 324 2.1 Thema und Abgrenzung ....................................................................................... 324 2.2 Der Liquiditätsplanungsprozess ........................................................................... 325 2.3 Bausteine Operativer, Finanz- und Investitions-Cash-Flow ............................. 326 2.4 Anknüpfungspunkte zwischen Liquiditäts- und Unternehmensplanung .............. 330 2.5 Integration von Liquiditäts- und Unternehmensplanung ...................................... 333 3 Risikobetrachtungen in der Liquiditätsplanung ............................................................. 338 4 Umsetzung der Liquiditätsplanung mit SAP ................................................................. 339 4.1 Möglichkeiten und Grenzen einer Liquiditätsplanung in SAP R/3 ...................... 339 4.2 Planung mit dem SAP Liquidity Planner (BI) ..................................................... 341 5 Exkurs Stakeholder-/Investor-Relationship-Management .......................................... 344 6 Zusammenfassung ......................................................................................................... 345 Quellenverzeichnis................................................................................................................ 347
Zeitgemäße Liquiditätsplanung – Ein Praxisbeispiel
1
323
Einführung
Der Zweck der Liquiditätsplanung, die in diesem Beitrag thematisiert wird, ist auf den Erhalt der finanziellen Stabilität eines Unternehmens oder einer Unternehmensgruppe gerichtet. Darüber hinaus schafft die Liquiditätsplanung auch die Grundlage für ein Unternehmenswertorientiertes Management, das die CFO in die Lage versetzt als “Value Manager“ agieren zu können.1 Ein wesentliches Merkmal dieser Unternehmenswertorientierung ist der hohe Stellenwert des Cash Flow. Dieser Beitrag soll ferner auch eine mögliche Integration der Liquiditätsplanung in die Budget-, Investitions-, Beteiligungs- und Ausschüttungsplanung beschreiben und darstellen, wie sich Cash Flows im Rahmen der Liquiditätsplanung aus den Markt-, Produktions- und Beschaffungszielen und somit aus der langfristigen Unternehmensplanung ableiten lassen. Eine Erreichung bzw. ein Verfehlen erwarteter Liquiditätsziele ist insbesondere für (institutionelle) Anleger, für Rating-Agenturen und für Banken (Fremdkapitaleinsatz) von hohem Interesse. Während die Liquidität für Rating-Agenturen ein entscheidendes Kriterium im Rahmen des Rating-Prozesses darstellt,2 ist sie auch für (institutionelle) Investoren und Kreditgeber von erheblicher Bedeutung. Denn die Stakeholder des Kapitalmarktes stimmen ihr Investitionsverhalten und ihre Kreditlinie u. a. auf diese Kennzahl ab, weil ergebnisorientierte Kennzahlen (z. B. Earnings Before Interest and Taxes) aufgrund ihrer Beeinflussbarkeit durch bilanzpolitische Wahlrechte nicht in jedem Betrachtungsfall objektiv sind.3 Insofern muss eine moderne Liquiditätsplanung an ein Investor bzw. Stakeholder Relationship Management angebunden sein, um die „Signale des Kapitalmarktes“ aufzunehmen und bei Bedarf gegenzusteuern. Aus negativen Abweichungen zwischen erwartetem und erzieltem Cash Flow lassen sich für die Finanzmarktteilnehmer frühzeitig Informationen über ein mögliches finanzielles Risiko ableiten, das unter Umständen auch Aussagen über die Stabilität und Kontinuität des Unternehmens zulässt. Vor diesem Hintergrund stellt sich die Frage, mit welchen Mitteln eine Liquiditätsplanung so gestaltet werden kann, dass der künftigen Cash Flow mit einer möglichst hohen Präzision systematisch aus den Unternehmenszielen abgeleitet werden kann.4 Die Liquiditätsplanung wird somit zu einem elementaren Baustein einer vollständigen, übergreifenden und integrierten Unternehmensgesamtplanung.
1 2 3 4
Weitere Ausführungen zu diesem Begriff sind in HÄFNER/HIENDLMEIER (2007) zu finden. Vgl. STANDARDS AND POOR’S (2006), S. 30. Vgl. ARBEITSKREIS „WERTORIENTIERTE FÜHRUNG IN MITTELSTÄNDISCHEN UNTERNEHMEN“ (2006), S. 2070. Die Ableitung künftiger Cash Flows aus einer Bottom-up-Planung wird hier nicht thematisiert.
324
SCHUBERT/OLLIGES
Vor diesem Hintergrund stellt die Integration von Treasury-, Rechnungswesen- und Controlling-Funktionen somit eine aktuelle und wesentliche Herausforderung für Unternehmen dar.5 Damit eine solche parallele und mehrdimensionale Planung aufgrund der hohen Komplexität sowie großer Datenmengen beherrschbar bleibt, muss die Planung durch eine IT-Lösung unterstützt werden, so dass die parallele Beplanung von Erfolgs- und Cash-Flow-Positionen möglich ist. Hierbei werden sowohl die eingeschränkten Mittel der ERP-Welt als auch die BusinessIntelligence-orientierten Möglichkeiten des Liquidity Planners thematisiert (SAP-Werkzeuge).6 Über die Planung hinaus werden vom Steuerungsstandpunkt zudem Abweichungen zwischen Plan und Ist gegenübergestellt, um vermeidbare Entwicklungen mit entsprechenden Steuerungsinstrumenten abzufedern bzw. auszugleichen. Geeignete Berichte und Analysen unterstützen dabei die jeweiligen Gegensteuerungsmaßnahmen. Ziel dieses Beitrags ist es, unter Berücksichtigung der oben genannten Aspekte, einen WorldClass-Finance-orientierten Ansatz für eine zeitgemäße Liquiditätsplanung aufzuzeigen, wobei ein ausgeprägter Praxisbezug zur Anwendung kommen soll.
2
Beschreibung und Integration der Liquiditätsplanung
Die Ergebnis-, Investitions- und Finanzplanung werden häufig nicht zu einer integrierten und überleitbaren Gesamtplanung zusammengeführt. Im folgenden Kapitel werden daher Ansätze für die Integration der mittel- bis langfristigen Liquiditäts- und Finanzplanung sowie der Erfolgs- und Investitionsplanung aufgezeigt.
2.1
Thema und Abgrenzung
Der Begriff Liquiditätsplanung umfasst in der Regel Pläne mit einer Dauer von bis zu einem Jahr. Pläne mit einer Dauer von mehr als einem Jahr werden üblicherweise mit dem Begriff Finanzplanung belegt.7 Jahrespläne sind dabei üblicherweise in eine Langfristplanung eingebettet. Somit repräsentieren Liquiditätsplanungen die erste Jahresscheibe einer Langfristplanung. Die Liquiditätsplanung liefert einen Überblick über die realen Geldströme für Sachkosten, Personalkosten, erbrachte Leistungen, Investitionen sowie für Finanzierungstätigkeiten. Insofern gibt die Liquiditätsplanung Aufschluss über die in der Zukunft erwarteten Einnahmen und Ausgaben. Im Hinblick auf die Ermittlung der Einnahmen und Ausgaben gibt es verschiedene Methoden, die in Abschnitt 2.3 aufgezeigt werden. 5 6 7
Vgl. SEETHALER/STEITZ (2007), S. 8. Vgl. KERBER/WARNKE (2005). Vgl. CEGLAREK/ZEHNDER (2007), S. 35.
Zeitgemäße Liquiditätsplanung – Ein Praxisbeispiel
325
Grundsätzlich ist vom Planungsstandpunkt anzunehmen, dass die Liquiditäts- bzw. Cash-FlowRechnung in der Sicht der Finanzbuchhaltung als auch in der Sicht des Unternehmens-Controllings das beplante, operative Ergebnis als gemeinsamen Anknüpfungspunkt hat. Vor diesem Hintergrund wird im Folgenden aufgezeigt, mit welchen Mitteln die Cash-FlowPlanung in eine Unternehmensgesamtplanung eingebettet werden kann. Hierzu wird zunächst dargestellt, wie sich die buchhaltungsbezogene Sicht des Controllings von der Liquiditätssicht eines modernen Treasury unterscheidet und wie diese Sichten wieder zusammengeführt werden können. Darüber hinaus stützt sich der Beitrag auf die Prämisse, dass sich eine am Unternehmenswert8 ausgerichtete Unternehmenssteuerung9 an der Liquidität bzw. am Cash Flow orientiert und gleichzeitig einen möglichst geringen Kapitaleinsatz im Fokus behält. Vom Umsetzungsstandpunkt aus wird dargestellt, wie Finanzpositionen als beplanbare einnahmen- bzw. ausgabenrelevante Größen ausgewiesen werden und nicht Cash-Flow-relevante Positionen isoliert werden können, ohne die Abstimmung zwischen Controlling und Treasury in einem integrierten Rechenwerk zu beeinträchtigen. Vom Steuerungsstandpunkt wird das Working Capital in den Vordergrund gestellt, das sich insbesondere aus Forderungen, Verbindlichkeiten und Vorräten zusammensetzt. Weil hohe Werte auf diesen Positionen gleichzusetzen sind mit (noch) nicht realisierten Zahlungsströmen, sind diese Positionen durch die Verantwortlichen im Management möglichst gering zu halten. Denn nur eine Optimierung des Working Capital hat eine Erhöhung realisierter Unternehmenserfolge und somit geringere Zinsen bzw. Opportunitätskosten zur Folge. Die Optimierung des Working Capital stellt somit einen wesentlichen Aspekt der Liquiditätssteuerung dar. Die mittelfristige Liquiditätsplanung grenzt sich ab von der kurzfristigen und am Ist ausgerichteten Liquiditätssteuerung (Cash Management), deren Hauptzweck auf die Vorschau offener Posten abzielt.
2.2
Der Liquiditätsplanungsprozess
Die Finanzplanung stellt zu den unterjährigen Berichtszeitpunkten die Erreichung einer erwarteten Zielliquidität sicher, die für Tilgungs- Thesaurierungs- und Ausschüttungszwecke zur Verfügung steht. Der exakte Wert, den es zu erreichen gilt, orientiert sich an Analysten bzw. Investoren und liegt meist über der wirklich benötigten freien Liquidität. Besitzt ein Unternehmen darüber hinaus eine ausreichend gute Bonität (mindestens im oberen Investment-Grade-Bereich), so können jedoch jederzeit Feinjustierungen in Form von gezielten Finanzmarkttransaktionen vorgenommen werden.
8 9
Vgl. RAPPAPORT (1999). Vgl. RIEG/RIEG (2001).
326
SCHUBERT/OLLIGES
Somit führt – bei guter Bonität – eine sehr genaue Liquiditätsplanung in Kombination mit kurzfristigen Finanzmaßnahmen immer zum anvisierten Liquiditätsziel. Liefert die Liquiditätsplanung hingegen keinen verlässlichen Liquiditätsstand zum Periodenstichtag, muss ein Unternehmen diese Unsicherheit mit einem Puffer in Form von Liquiditätsreserven ausgleichen. Durch geeignete Maßnahmen zur Optimierung des Working Capital sowie durch die Verbesserung der Planungsgenauigkeit können Zinsertragspotenziale zum jeweiligen Stichtag gehoben werden.
Festlegen des Liquiditätszieles
Abbildung 1:
Ermitteln der Planungsdaten
Plausibilisierung, Konsolidierung
Maßnahmen zur Zielerreichung
Prozess zur Erreichung eines Liquiditätszieles
Die Liquiditätsplanung wiederum ist im Sinne integrierter Prozesse in eine längerfristige Finanzplanung von mehr als einem Jahr eingebunden. Der Finanzplanungsprozess dient der Sicherstellung der mittel- und langfristigen Liquidität. Die Datenermittlung erfolgt dabei in der Originalwährung, um gleichzeitig auch die Basis für das Fremdwährungs-RisikoManagement zu erhalten. Auf Basis der Ergebnisse aus der Finanzplanung wird im Corporate Treasury die Finanzbeschaffungsplanung erstellt. In Abbildung 2 ist der mittel- bis langfristige Finanzierungsprozess dargestellt.
Ermittlung der Planungsdaten
Abbildung 2:
2.3
Plausibilisierung, Konsolidierung
Ermittlung des Finanzbedarfs und FX-Exposures
Mittel- bis langfristiger Finanzplanungsprozess
Bausteine Operativer, Finanz- und Investitions-Cash-Flow
Im Sinne eines internationalen und am Kapitalmarkt ausgerichteten Reportings folgt die Berichtsstruktur für die Kapitalflussrechnung den Vorgaben nationaler bzw. internationaler Rechnungslegungsvorschriften (vgl. IAS 7, FAS 95, DRS 2 sowie § 297 HGB). Die Kapitalflussrechnung, die auch mit den Begriffen Cash-Flow-Statement, Finanzmittelrechnung oder Geldflussrechnung bezeichnet wird, stellt einen verbindlichen Bestandteil eines Konzernjahresabschlusses nach IFRS dar und ist seit der Einführung des KonTraG auch nach deutschem Recht für börsennotierte Muttergesellschaften verpflichtend. Die Kapitalflussrechnung bzw. eine daran angelehnte Cash-Flow-Rechnung stellt darüber hinaus auch die Grundlage für den Plan-/Ist-Vergleich im Rahmen einer Finanzplanung dar.
Zeitgemäße Liquiditätsplanung – Ein Praxisbeispiel
327
Neben der formalen und vergangenheitsorientierten Rechenschaftspflicht, die gegenüber dem Kapitalmarkt bindend ist, existiert auch eine operative Steuerung in den Unternehmen, die auf die Antizipation künftiger Entwicklungen abzielt. Diese operative Steuerung ist insbesondere auf die Prognose von Cash Flows gerichtet. Die „Vorhersage“ des Cash Flows für den Kapitalmarkt stützt sich dabei auf realisierte Ist-Werte abgelaufener Perioden, wobei üblicherweise zugleich die Realitätsnähe der zugrunde liegenden Planungsprämissen validiert wird. Ergeben sich signifikante Abweichungen vom Plan-Cash-Flow, insbesondere negative Abweichungen, so werden die Ursachen analysiert und Gegensteuerungsmaßnahmen ergriffen, um die Zielabweichungen so gering wie möglich zu halten. Weil Gegensteuerungsmaßnahmen oft nicht zeitnah umgesetzt werden können, wirken sie sich oftmals erst in Folgeperioden aus. Zielführender hingegen ist es, die Maßnahmen aus Vorperioden in der laufenden Periode – im Rahmen der Planung – zu bewerten. Im Folgenden werden gängige Praktiken zur Erstellung einer Kapitalflussrechnung aus Daten des Konzernabschlusses gegenübergestellt, um die operative Nutzbarkeit für den Plan-/IstVergleich darzustellen. Grundsätzlich gilt, dass alle Zahlungsflüsse (Cash Flows) des jeweiligen Unternehmens einer der drei folgenden Gruppen zugeordnet werden, um es Adressaten (siehe Abschnitt 1) zu ermöglichen, die vergangenen Veränderungen der Zahlungsmittel (sowohl Mittelherkunft als auch Mittelverwendung) nachzuvollziehen sowie die Liquiditätslage der Zukunft daraus abzuschätzen (vgl. IAS 7.11). ¾
Cash Flow aus laufender (operativer) Geschäftstätigkeit: umfasst betriebliche eingehende und ausgehende Zahlungsströme, die nicht der Investitions- und Finanzierungstätigkeit zuzuordnen sind.
¾
Cash Flow aus Investitionstätigkeit: entsteht aus dem Erwerb oder der Veräußerung langfristiger Vermögenswerte und Finanzinvestitionen.
¾ Cash Flows aus Finanzierungstätigkeit: sind Vorgänge, die die Eigen- und Fremdkapitalstruktur des Unternehmens verändern. Die Zuordnung der einzelnen Zahlungsflüsse zu einer der o. g. Gruppen10 kann entweder mit der indirekten oder aber mit einer direkten Methode erfolgen (siehe Abbildung 3). Die hier aufgezeigten Unterschiede zwischen der direkten und der indirekten Cash-Flow-Ermittlungsmethode beschränken sich auf das operative Ergebnis.
10
Vgl. HORNUNG (2007), S. 16.
328
SCHUBERT/OLLIGES
Methoden der Cash-Flow-Ermittlung Direkte Methode
Indirekte Methode
Liquidität zum Ende der Periode
Operatives Ergebnis
=
+ Abschreibungen/Rückstellungen/latente Steuern abgewertete Vermögensgegenstände zahlungsunwirksame Aufwendungen
Liquiditätsbestand zu Beginn der Periode +
./.
Einzahlungen
Zahlungsunwirksame Erträge Erträge aus dem Verkauf von Anlagen
./. Auszahlungen
Abbildung 3:
+/+/- Veränderungen im Working Capital (Vorräte, Forderungen, Verbindlichkeiten)
Zwei Beispiele für die Cash-Flow-Ermittlung aus lfd. Geschäftstätigkeit
Beide Methoden sind nach IFRS (vgl. IASB Update 3/2007) gleichberechtigt und müssen auch zum gleichen Ergebnis führen. Weil die direkte Methode mehr Aufwand bei der Ermittlung erfordert, kommt diese weniger häufig zum Einsatz. Nur sehr selten werden zum Zweck der Kontrolle und größtmöglichen internen und auch externen Informationsbereitstellung beide Methoden angewandt. Die indirekte Methode, die einer Überleitungsrechnung auf Basis gebuchter (Ist-)Werte entspricht, basiert auf den operativen Werten der Gewinn- und Verlustrechnung, wobei Bewegungen (wie z. B. Zugänge, Abgänge, Veränderungen) zu einzelnen Sach- bzw. Bilanzkonten einer abgegrenzten Periode berücksichtigt werden. Ziel ist es dabei, zahlungsunwirksame Positionen zu eliminieren und den zahlungswirksamen Mittelzufluss bzw. Mittelabfluss der o. g. Gruppen retrograd zu ermitteln. Der verfügbare Zahlungsmittelbestand zum Ende der Periode (auch Free Cash Flow genannt) leitet sich aus der Mittelherkunft, dem Jahresüberschuss, dem Mittelabfluss oder -zufluss aus Investitionstätigkeit und dem Mittelab- oder -zufluss aus Finanzierungstätigkeit ab. Weil bei der indirekten Methode in den zugrunde liegenden Daten nicht nur zahlungswirksame Sachverhalte enthalten sind, muss eine Bereinigung um zahlungsunwirksame Positionen erfolgen. Zahlungsunwirksame Positionen zur Korrektur der laufenden Geschäftstätigkeit betreffen z. B. Abschreibungen, Wertberichtigungen bzw. Zuschreibungen, Veränderungen aus Rückstellungen, das Ergebnis aus der Veräußerung von Anlagevermögen sowie Veränderungen von latenten Steuern aus der Gewinn- und Verlustrechnung, Veränderungen von Vermögenspositionen und Verbindlichkeiten, wie z. B. Working-Capital-Komponenten (Forderungen, Vorräten, Verbindlichkeiten) sowie gezahlte Zinsen und Ertragssteuern.
Zeitgemäße Liquiditätsplanung – Ein Praxisbeispiel
329
Zur Bereinigung der Zahlungsflüsse aus Investitionstätigkeit findet eine Anpassung um die Differenz zwischen Ein- und Auszahlungen statt, und zwar für den Erwerb bzw. die Veräußerung von Sach- und Finanzanlagen sowie aus Veräußerungen bzw. dem Erwerb von Beteiligungen. Die Cash Flows aus der Finanzierungstätigkeit werden um Kapitalerhöhungen, Dividendenzahlungen sowie Veränderungen aus sonstiger Finanzierungstätigkeit angepasst. Zudem ist es erforderlich, Effekte aus Wechselkurs- und Bewertungsänderungen sowie Erstkonsolidierungseffekte entsprechend zu berücksichtigen. Die direkte Methode verfolgt einen anderen Ansatz. Unabhängig von der buchhalterischen Zuordnung einer Buchung zu einer Periode, werden nur jene Zahlungen berücksichtigt, die einen direkten Einfluss auf den Bestand der flüssigen Mittel aufweisen (pagatorischer Liquiditätsbegriff). Eine Überleitungsrechnung aus dem Periodenergebnis ist demnach für diese Methode nicht mehr notwendig. Wesentlicher Bestandteil dieser Methode ist zum einen die Identifizierung von zahlungswirksamen Bewegungen und der korrekten Zuordnung zu den o. g. Cash-Flow-Gruppen. Speziell die Zuordnung erfordert zum einen detaillierte Informationen aus der Zahlung selbst (z. B. Zahlung ist erfolgt, Valutadatum der Zahlung) und darüber hinaus Detaildaten aus dem zugrunde liegenden gebuchten Beleg in dem entsprechenden Finanzbuchhaltungssystem, aus dem sich die korrekte Zuordnung ableiten lässt. Dieser Zusammenhang wird in Abschnitt 2.5 konkretisiert. Zur Schaffung einer aussagefähigen Cash-Flow-Berichtsstruktur für eine Kapitalflussrechnung sind die Berichtsinhalte so aufzusetzen, dass die Positionen der Liquiditäts- bzw. Finanzplanung eine Gegenüberstellung der Plan- und Ist-Größen erlauben. Zur Erreichung dieses Ziels sind Baumstrukturen mit Planungs- und Verdichtungspositionen zu schaffen. Die Cash-Flow-relevanten Konten sind zudem für die Ist-Abbildung den Planungspositionen so zuzuordnen, dass eine Vergleichbarkeit zwischen Plan und Ist bzw. Soll und Ist möglich ist. Dass Soll stellt den beschäftigungsabhängigen Cash Flow dar. Weil die Informationen zu Plan- und Ist-Daten je Gesellschaft bereitgestellt werden, ist darauf hinzuwirken, dass Cash Flows sowohl auf der Konzernebene als auch auf Gesellschaftsebene darstellbar sind. Für eine erleichterte Kommunikation mit den jeweiligen Gesellschaften wird eine wahlweise Darstellung der Cash Flows in Konzern- und Landeswährung empfohlen. Der IAS 7 gibt keine verpflichtende Vorgabe zur Ausgestaltung des Berichtswesens, nennt jedoch konkrete Beispiele, welche Cash Flows im Einzelnen den o. g. drei Gruppen zugeordnet werden sollen und gibt damit den groben Rahmen für die Berichtsstruktur vor. Darüber hinaus beschreibt er das damit verfolgte Ziel, nämlich dass „ein Unternehmen […] die Cash Flows aus betrieblicher Tätigkeit, Investitions- und Finanzierungstätigkeit in einer Weise dar [-stellt], die seiner jeweiligen wirtschaftlichen Betätigung möglichst angemessen ist.“11.
11
IFRS-Standards, Punkt 11.
330
SCHUBERT/OLLIGES
Aufgrund der Tatsache, dass es wegen unterschiedlicher Branchen, Geschäftsmodelle und -prozesse kein praxisnahes Standard-Berichts-Layout für eine Liquiditäts- und Finanzplanung bzw. für eine Kapitalflussrechnung existiert, wird in Abschnitt 2.5 auf die praxisnahe Umsetzung mit SAP-Standardkomponenten verwiesen.
2.4
Anknüpfungspunkte zwischen Liquiditäts- und Unternehmensplanung
Unter diesem Gliederungspunkt wird der Frage nachgegangen, welche Anknüpfungspunkte bzw. gemeinsamen Bezugspunkte zwischen der Liquiditätsplanung und Unternehmensplanung existieren. Es ist inzwischen eine beobachtbare Praxis bei börsennotierten Unternehmen, dass sich aus der Kapitalmarkt- und Unternehmenswertorientierung des Managements sowie der Anforderungen nach IFRS ein verstärkter Einfluss auf den Stellenwert des Cash Flows sowie einer Cash-Flow-Planung ergibt. Diese Anforderungen wiederum beeinflussen die gesamte Unternehmensplanung. Ein elementarer Baustein der Unternehmenswertorientierung ist der Free Cash Flow, der die Erwartungswerte des Kapitalmarktes reflektiert. Diese Kennzahl charakterisiert die Fähigkeit des Unternehmens Dividenden auszuschütten, Schulden zu tilgen und Liquiditätsreserven zu bilden. Mit anderen Worten, der Free Cash Flow gibt Auskunft über die finanzielle Handlungsfähigkeit und Finanzkraft des Unternehmens. Zu den einzelnen Cash-Flow-Komponenten siehe Abbildung 4. Der Kapitalmarkt liefert damit die Ziel-Eckwerte für die operative Cash-Flow-Planung, der neben dem Free Cash Flow auch Zinslasten, Netto-Investitionen sowie Ersatz-Investitionen umfasst. Letztere repräsentieren den Saldo von ausgetauschten Anlagen und Desinvestitionen. Der Anknüpfungspunkt vom Operating Cash Flow zur Operativen Ergebnisplanung ergibt sich dadurch, dass der Operative Cash Flow um steuerliche und bilanzpolitische „Störgrößen“ bereinigt wird.
Zeitgemäße Liquiditätsplanung – Ein Praxisbeispiel
331
Cash Outflow from Operations
Investments (Replacements) Cash Inflow from Operations
Net Investments Operating Cash Flow
Interest Payments Dividends
Net Cash Flow Free Cash Flow
Repayment of Debts Liquid Funds
Abbildung 4:
Cash-Flow-Komponenten12
Die Berücksichtigung von Eckwerten des Kapitalmarktes in der Unternehmensplanung spricht für die Anwendung einer zentralen Ermittlungsmethode. Eine zentrale Planung erlaubt die konzernweite Beplanung von Eckwerten, die in einem zweiten Schritt als operationalisierte Größen auf die relevanten Steuerungseinheiten des gesamten Konzerns herunter gebrochen werden können. Das bedeutet, dass bei Bedarf die Unternehmensziele sowohl aus Unternehmenssicht als auch aus der Sicht des Kapitalmarktes ermittelt werden können. Die jeweils gesetzten Größen determinieren die verbleibenden als Residualgröße. Im typischen Anwendungsfall erfolgt die in Abbildung 5 dargelegte Berechnung auf Konzern-Ebene. Neben einem zentralen Planungsansatz wird eine indirekte Ermittlungsmethode für die Planung empfohlen. Der Grund ist darauf zurückzuführen, dass selbst bei Vorlage von Kapitalmarkteckdaten die Unternehmensplanung letztlich das Ergebnis einer linearen Optimierung darstellt. Dieses unternehmensspezifische Optimum ergibt sich aus einem iterativen Prozess, bei dem insbesondere das Absatz-, Produktions- und Entwicklungsprogramm maßgeblichen Einfluss auf den Allokationsprozess hat. Insofern können die Zahlungsströme (Ausgaben/Einnahmen) nur dann abgeleitet werden, wenn im Vorfeld von der Ergebnisplanung die Ziele bereits festgelegt wurden. Beispiele sind Umsatzziele je Produkt/Produktgruppe, Material- und Personaleinsatz, Funktionskosten je Ressort, usw.
12
Vgl. SCHRÖDER (2000), S. 596.
332
SCHUBERT/OLLIGES
Ausschüttungsfähiger Gewinn aus lfd. Ergebnis (ggf. einschließlich Vorjahre) - Aufbau von Liquiditätsreserven - Schuldendienst = Free Cash Flow - Zinsen - Investitionen = Operating Cash Flow +/Bilanzkorrekturen ohne Cash-Flow-Effekt +/Cash-Flow-Positionen ohne Ergebniseffekt = Operatives Ergebnis - Funktionskosten = Konzern-Deckungsbeitrag (Aufriss nach Segmenten, Geschäftsfeldern, Produkten) Abbildung 5:
Berechnung des Konzern-Deckungsbeitrags
Stattdessen würde eine von Zahlungsvorgängen getriebene Planung eine integrierte Gesamtplanung erheblich komplizieren, weil die notwendigen Werte erst aus Mengeninformationen der Ergebnisplanung abgeleitet werden können. Wenn aber, wie hier dargestellt, ein erheblicher Umfang an Vorleistungen aus dem Unternehmenscontrolling abgeschöpft wird, ist vom Planungsstandpunkt davon auszugehen, dass eine integrierte Unternehmens- und Finanzplanung schwerpunktmäßig vom zentralen Controlling voranzutreiben ist, wobei sie im ersten Schritt auf Mengen und erst im zweiten Schritt auf Werten basiert. Somit liefert die Ergebnisplanung ein Mengen- und Wertgerüst, das die Cash-Flow-Ermittlung einschließt. Durch die Variation von Planungsparametern werden verschiedene Szenarien im Rahmen eines iterativen Prozesses so lange „durchexerziert“, bis das Optimum erreicht ist. Die Nutzung mathematischer Funktionen, die unternehmensweit gültig sind, werden in diesem Zusammenhang als nicht realistisch eingestuft, weil sie eine außerordentlich hohe Komplexität erreichen würden. Darüber hinaus kommt es zum Beispiel bei DAX-30-Unternehmen (z. B. Chemiebranche) vor, dass die Cash Flows über die Segmente hinaus bis auf interne Steuerungsebenen herunter gebrochen werden. Der Vorteil des angestrebten Steuerungseffektes besteht in der direkten Integration und Überleitbarkeit zwischen externer Kapitalmarktsicht und interner Steuerungssicht. Die „Kapitalmarktanbindung“ erstreckt sich jedoch nicht nur auf den Cash Flow, sondern gilt etwa auch im Hinblick auf die Steuerung des Working Capital. Denn eine Reduzierung des gebundenen Kapitals kann zurückzuführen sein auf geringere Außenstände (z. B. durch verbessertes Debitoren-Management, etc.). Die Optimierung der kundenbezogenen Prozesskette führt somit zu geringeren Außenständen, zu einem höheren Cash Flow und zu einer höheren Rentabilität des operativen Kapitaleinsatzes.
Zeitgemäße Liquiditätsplanung – Ein Praxisbeispiel
333
Ein vergleichbarer Effekt wird durch die Optimierung der Vorräte auf das notwendige Minimum erzielt. Beschleunigte Materialdurchlaufzeiten, erhöhter Materialumschlag, Just-intime-Lieferungen und ähnliche Maßnahmen führen zu einer Optimierung der Lagerbestände und somit zu geringeren Kapital- bzw. Opportunitätskosten. Analog kann dieses Beispiel auch auf die Verbindlichkeiten angewandt werden. Vor diesem Hintergrund indiziert eine Verbesserung des Cash Flow zugleich eine höhere Management-Qualität, die mit den klassischen Instrumenten des Controllings nicht hinreichend befördert wird.
2.5
Integration von Liquiditäts- und Unternehmensplanung
In diesem Abschnitt wird aufgezeigt, unter welchen Voraussetzungen eine integrierte Liquiditäts- und Unternehmensplanung umgesetzt werden kann. Schaffung einer Überleitbarkeit zwischen Liquiditäts- und Unternehmensplanung Zunächst werden die strategischen bzw. langfristigen Ziele auf die erste Jahresscheibe (Budget) herunter gebrochen. Die Jahresziele wiederum werden in Verantwortungspakete je Ressort bzw. Funktionsbereich auf die untergeordneten Führungsebenen aufgeteilt. Oftmals beschränkt sich diese Verantwortung jedoch auf Ergebnispositionen, wobei kapitalmarktbezogene Berichtsgrößen ausgeblendet werden. Bei einem World-Class-Finance-Ansatz werden auch die angestrebten Kapitalmarktziele als Balanced Scorecard in ein zentrales und multiples Planungsmodell eingebettet. Die verbreitete gedankliche Trennung in eine interne und externe Sicht wird damit faktisch aufgelöst. So werden zunehmend auch Bilanzpositionen (z. B. Außenstände je Sparte oder Geschäftsfeld), wertorientierte Kennzahlen (z. B. Cash Flow) oder betriebswirtschaftliche Kennziffern (Return on Capital Employed je Sparte oder Geschäftsfeld, Rendite je Produktlinie, KursGewinn-Verhältnis je Aktie) in die vom Management zu verantwortenden Zielgrößen einbezogen. Eine Schlüsselfunktion kommt dabei dem Free Cash Flow zu, weil er sowohl in enger Verbindung zu den Kapitalmarktzielen als auch zum operativen Ergebnis steht. Die strikte Trennung zwischen Kapitalmarktsicht und interner Steuerungssicht wird damit fließend. Im Hinblick auf die Planung bedeutet dies, dass der Cash Flow im Plan zum Beispiel zahlungsrelevante Positionen umfasst, die sich über den Cash Flow hinaus im operativen Ergebnis widerspiegeln. Demzufolge sind Einnahme- und Ausgabepositionen im Normalfall auch im operativen Ergebnis enthalten (siehe E, A in Abbildung 6). Andererseits gibt es buchtechnische Positionen, die nur auf das Ergebnis einen Einfluss haben, nicht jedoch auf den Cash Flow (siehe X in Abbildung 6). Typische Positionen dafür sind bilanzielle Bewertungspositionen, Rückstellungen und Abschreibungen, die keinen CashFlow-Effekt nach sich ziehen. Davon abweichend gibt es auch Cash-Flow-Positionen, die keinen Einfluss auf das operative Ergebnis haben. Damit den Plandaten auch entsprechende Ist-Werte gegenübergestellt werden können, sind die Konten des Kontenplans mit jeweiligen Finanzpositionen (bzw. Berichtspositionen) zu verknüpfen. Auf diese Weise ist eine Auswertung auf Finanzpositionsebene möglich. In einem weiteren Schritt werden die Finanzpositionsebenen auf Cash-Flow-Berichtspositionen aggregiert und sind somit in einer baumartigen Struktur auszuwerten.
Abbildung 6:
Pos. Nr.
400000 410000 444200 430000 500000 510000 520000 551300 551400 561300 572000 572300
Delta Cash Flow der Periode (überleitbar)
Cash-Anfangsbestand EINNAHMEN Einnahmen aus Verkauf von Waren Erträge aus Auflösung von Rückstellungen sonstige Erträge AUSGABEN Ausgaben Rohstoffe Ausgaben Löhne und Gehälter Personalkosten Aushilfen Ausgaben Sozialabgaben Abschreibungen auf Sachanlagen Raumkosten Energiekosten Cash-Endbestand
Auszug zum Finanzpositionskatalog aus laufender Geschäftstätigkeit
Einzelposition ./. Einzelposition Einzelposition
Verdichtung Einzelposition ./. Einzelposition Verdichtung Einzelposition Einzelposition
Cash-FlowPositionstyp -Einzelposten -Verdichtung
E
E
Einnahmen
A A
A A A A
Ausgaben
X
X
X
neutrale Positionen
400033 400067
400025
400005 400009
800004
800003
Zuordnung von Konten der Finanzbuchhaltung
270 Mio. €
-15 Mio. € -25 Mio. € 310 Mio. € -40 Mio. €
-20 Mio. €
40 Mio. € 830 Mio. € 800 Mio. € ./. 30 Mio. € 560 Mio. € -420 Mio. € -80 Mio. €
Cash Flow
-20 Mio. € -5 Mio. € -15 Mio. € -25 Mio. € 285 Mio. € -20 Mio. € +5 Mio. € 270 Mio. €
850 Mio. € 800 Mio. € 20 Mio.€ 30 Mio. € -565 Mio. € -420 Mio. € -80 Mio. €
Operatives Ergebnis
334 SCHUBERT/OLLIGES
Vereinfachtes Modell für die parallele Beplanung von Ergebnis/Cash Flow mit Überleitung
Zeitgemäße Liquiditätsplanung – Ein Praxisbeispiel
335
Wird nun in einer Überleitungsrechnung der Cash Flow mit dem operativen Ergebnis verglichen, so sind für die Ermittlung des Delta Cash Flows der Periode die neutralen Positionen (siehe X in Abbildung 5) zu isolieren. Diese Positionen betreffen neben dem Anfangsbestand in der Regel bilanzpolitische Größen (z. B. AfA, Rückstellungen). Eine Überleitung zwischen Cash Flow und operativem Ergebnis findet somit über den DeltaCash-Flow der Periode statt. Empfehlungen zur Anwendung abhängiger Bezugsgrößen in der Planung Darüber hinaus wird aus Effizienz-Gründen empfohlen, den Cash Flow von der Ergebnisplanung her kommend zu berechnen, weil das Controlling ohnehin eine Ergebnisplanung durchführt, die sich zu einem wesentlichen Teil auf den Cash-Flow-Positionskatalog erstreckt. Über die Ergebnisplanung hinaus wären somit lediglich originäre Cash-Flow-Positionen zusätzlich zu beplanen. Dazu zählen Steuern, die sich nicht bereits in der Ergebnisrechnung als Kosten(-steuern) niedergeschlagen haben, sowie weitere Cash-Positionen ohne Erfolgsausweis-Effekt. Das dahinterstehende integrierte Planungsmodell sollte ein auf abhängigen Bezugsgrößen basierendes Planungssystem sein, das eine parallele Beplanung von Ergebnis-, Cash-Flowund Bilanzgrößen unter Einbeziehung von Kapitalmarktkennziffern erlaubt. Der Vorteil abhängiger Bezugsgrößen besteht zum einen darin, dass Mengen-Wert-Beziehungen einschließlich Kennzahlenermittlungen über mathematische Formeln und Modelle abgebildet werden können. Findet nun die Variation etwa eines Parameters statt, so können alle abhängigen Beziehungen mitberechnet werden (Simulation). Dies ist insbesondere dann von Interesse, wenn es Mehrfachbeziehungen gibt. So wird in einem vereinfachten Modell die Produktionsmenge von der Absatzmenge beeinflusst. Die Personaleinsatzmenge sowie die Materialeinsatzmenge werden wiederum von der Produktionsmenge bestimmt. Nimmt man ferner an, dass etwa die Personalkosten der Verwaltung die Gesamtkosten für Personal um einen bestimmten Prozentsatz nicht überschreiten dürfen, so stellt dies wiederum eine Mehrfachbeziehung dar. Derartige Mehrfachbeziehungen werden auch als Multifaktoren bezeichnet. In der Planungspraxis werden unabhängige Planungsfaktoren, wie Mengen, Preise, Sätze (Inflationsrate und Diskontsatz, Lohnsätze, Steuersätze, Fremdwährungsbewertung, Staffelsätze usw.) einbezogen. Dieses Vorgehen ist verwandt mit Methoden, wie sie heute auch bereits in der quantitativen Steuerplanung zur Anwendung kommen. So hat die Absatz- und Produktionsmenge Einfluss auf das gesamte Deckungsbeitrags- und Kostengefüge in den Bereichen Produktion, Entwicklung und Vertrieb. Der Mengen- bzw. Volumen-Mix, die Einstands- und Verkaufspreise die Fremdwährungsbewertung, die Inflationierung und die Diskontierung sind daher die entscheidenden Parameter für die gesamte Planung. Selbst die Overhead-Kosten (z. B. von Vertrieb und Produktion) sind wiederum oftmals mengenabhängig oder zumindest in Staffeln mengenabhängig.
336
SCHUBERT/OLLIGES
Nutzung konzernübergreifend einheitlicher Mengen und Bewertungsansätze Unterschiedliche Mengen und Bewertungsansätze zwischen Budgetplanung und Cash-FlowPlanung sind dabei als nicht zulässig zu disqualifizieren. Wenn insbesondere zu ForecastZeitpunkten Uneinigkeit darüber besteht, ob bestimmte Planzahlen und Annahmen unrealistisch sind, so sollte dies nicht zum Abrücken von einer integrierten Planung führen. Diese Verwerfung realitätsfremder Planungsnahmen findet oftmals zwischen externem Rechnungswesen und interner Steuerung statt. Relevanz Cash-Flow-spezifischer Bewertungsansätze am Beispiel der Forderungsausfälle Am Beispiel des Umsatzes wird deutlich, welche Cash-Flow-spezifischen Unterschiede zwischen Treasury- und Controlling-Perspektive dennoch bestehen, die bei der Planung zu berücksichtigen sind. So wird ein Umsatz aus Controlling-Perspektive bereits dann als „realisiert“ betrachtet, wenn die Kundenfaktura erstellt bzw. ein entsprechender Umsatz geplant ist, während aus Treasury-Perspektive ein Umsatz erst dann als realisiert betrachtet wird, wenn zu einem Umsatz ein Zahlungseingang vereinnahmt ist. Insofern hängt der Cash Flow aus realisierten Umsätzen davon ab, ob Zahlungsausfälle eintreten (z. B. bei Forderungen). In welchem Umfang kundenunspezifische Forderungsausfälle eintreten, hängt jedoch von der Branche und insbesondere von Erfahrungswerten ab. Kundenspezifische Forderungsausfälle werden sinnvoller Weise erst gar nicht geplant, weil entsprechende Geschäfte mit diesem Kunden nicht durchgeführt werden sollten. Vor diesem Hintergrund wird auch in der Literatur empfohlen, die Umsatzanteile pauschal je Kundengruppe mit Erwartungswerten hinsichtlich der Umsatzrealisierung zu hinterlegen.13 Aus bilanzieller Perspektive ist der Forderungsbestand somit ein Spiegel von durchschnittlichen – noch nicht realisierten – Forderungsbeständen von dem ein relativer Anteil ausfällt und somit nicht realisiert wird. Bezogen auf die Forderungspositionen bedeutet dies, dass bei der Liquiditäts- bzw. Finanzplanung ein Bewertungsabschlag von z. B. 3,5% (bzw. Erwartungswert eK= 0,035) bezüglich der nicht realisierbaren Umsätze zugrunde zu legen ist, wobei der Bedeutung der Kunden ein entsprechender Stellenwert einzuräumen ist (z. B. A-, B-, C-Kunden). Ein solcher Abschlag führt zu einem Unterschied zwischen operativem Ergebnis und Cash Flow, wenn sich dieser Ergebniseffekt nicht in der jeweiligen Planung niederschlägt. Im Sinne eines Multifaktors bedeutet dies, dass zum Beispiel für C-Kunden bestimmte Umsätze nicht mit Produktmengen- und Preisbezug (P1 * M1 + … + Pn * Mn) geplant werden, sondern pauschal (UKGR-C). Für diese Kunden werden Erfahrungswerte in Bezug auf die Außenstände in Höhe von 20% angenommen (eA= 0,20). Von diesen Außenständen wiederum wird ein bestimmter Anteil aufgrund von Erfahrungswerten nicht bezahlt. Gesamthaft könnten somit die Forderungen aus den Umsätzen einer Kundengruppe abgeleitet werden, wie zu Beispiel:
13
Vgl. CEGLAREK/ZEHNDER (2007), S. 35.
Zeitgemäße Liquiditätsplanung – Ein Praxisbeispiel
Abgeleitete Umsätze je Kundengruppe (A und B) Abgeleitete Umsätze aus Kundengruppe C Forderungsausfälle über alle Kunden
337
= (P1 * M1 + … + Pn * Mn) * eA = UKGR-C * eA = UKGR-C * eA * eK
Bei diesem Modell wird deutlich, dass die Planzahlen als Multifaktoren ermittelt werden. Eine weitere Anreicherung besteht darin, dass mit der Fakturierung die Zahlung nicht fällig ist, sondern von den Zahlungskonditionen und den Zahlungsgewohnheiten der Kunden abhängt. Aus planerischer Sicht würde dies bedeuten, dass Forderungen tendenziell mit zeitlichem Versatz bezahlt werden. Insofern ist bei der Planung ein erfahrungsgestützter zeitlicher Versatz als Erwartungswert anzunehmen. Die Überleitbarkeit zwischen Ergebnis- und CashFlow-Planung kann davon also auch beeinträchtigt werden. Beachtung von Diskontinuitäten auf dem Beschaffungsmarkt Bei dem Materialeinsatz bzw. bei den Herstellkosten werden – bis auf die Zahlungsziele – keine wesentlichen Unterscheide zwischen der Planung im Controlling und der Finanzplanung erwartet. Dennoch sind in beiden Planungen dynamische Entwicklungen zu berücksichtigen, wie mögliche Rohstoffverknappungen, die Entwicklung von Edelmetallen, die Inflationsrate, Fremdwährungen, Warenkreditzinsen und Tarifabschlüsse. Sowohl die Planung des Controllings als auch die Finanzplanung sollten jedoch bezüglich der anzusetzenden Erwartungswerte synchronisiert sein. Optimierung des Working Capital Die Steuerung einzelner Bilanzpositionen zur Optimierung des Working Capital gewinnt in großen Unternehmen an Bedeutung. Ziel ist es, das Working Capital zu optimieren, damit der Cash Flow möglichst schnell realisiert wird. Neben der Optimierung von logistischen Prozessen (wie z. B. Verlagerung der Lagerhaltung zum Lieferanten) wird das Management zunehmend mit der Forderungsüberwachung betraut. Bonus-/Malus-Regelungen zur Optimierung des Working Capital ziehen in die Vergütungssysteme von Führungskräften ein. Dadurch wird eine durchgängige und stringente Cash-Flow-orientierte Sichtweise in Unternehmen verankert. Enger Management-Zusammenhang zwischen Erfolgssteuerung und Cash-Flow-Optimierung Darüber hinaus wird die Reduzierung der Kapitalbindung auch vermehrt von Maßnahmen der Prozessoptimierung begleitetet. So können Zahlungsverzögerungen und -ausfälle auch ein Indiz für Kundenunzufriedenheit sein, die sich zunächst als „schwache Signale“ im Rahmen eines Frühwarnsystems andeuten und damit Eingang finden in ein Financial Controlling. Höhere Außenstände indizieren möglicherweise (damit einhergehende) Absatzprobleme oder eine unzureichende Synchronisation zwischen Vertrieb und Produktion. Die Möglichkeiten, die sich aus der Integration dieser Sichten ergeben, führt so zu einer ganzheitlichen Unternehmensbetrachtung und -steuerung und hilft dabei „rein“ ressortspezifisches Denken zu überwinden und eine prozessuale Sicht zu verstärken. Insofern ist die Integration von Finanz- und Unternehmens-Controlling ein Beitrag zur Schaffung einer ressortübergreifenden prozessualen Sichtweise auf das Unternehmen in seiner Gesamtheit.
338
3
SCHUBERT/OLLIGES
Risikobetrachtungen in der Liquiditätsplanung
Bei jeder mittel- bis langfristigen Planung werden verschiedene Modellszenarien zugrunde gelegt. So können wahlweise optimistische, pessimistische oder auch realistische Planungen als Szenario dargestellt werden. So genannte Worst-Case-14 oder Best-Case-Szenarien stellen den Handlungsrahmen einer realistischen Planung dar. Welche Kriterien dabei für einzelne Risikoszenarien in Frage kommen, ist im Wesentlichen von der Branche und aktuellen bzw. prognostizierten Marktparametern abhängig. So sind etwa Rohstoff- sowie Edelmetallpreise und Energiekosten nur in bestimmten Industrien von Bedeutung (z. B. in der Automobilindustrie). Nur sehr selten auftretende Ausnahmetatbestände wie Lieferengpässe, Produktionsstörungen, Streiks und Embargos sind zwar branchenübergreifend möglich, jedoch nur sehr begrenzt planbar. Aus diesem Grund sind diese Risken oftmals durch Versicherungen abgedeckt. In der Luftfahrtindustrie traten beispielsweise bei den Fluggesellschaften erhebliche Liquiditätsprobleme auf, die mit den Anschlägen vom 11. September 2001 in den USA im Zusammenhang standen und dazu führten, dass eine verstärkte Auseinandersetzung mit der Steigerung der Liquiditätsreserve erfolgte. In der Regel haben jedoch derartige Ausnahmeszenarien keine oder kaum Relevanz für wiederkehrende Planungsrhythmen. Unabhängig von der Eintrittswahrscheinlichkeit und vom Risiko werden üblicherweise Maßnahmen ergriffen, die auf das Marktwertrisiko (Fair Value Risk) oder auf das Zahlungsflussrisiko (Cash Flow Risk) gerichtet sind, wobei letztere in der Regel Zins- und Währungsrisiken umfassen.15 Ein Grund dafür ist, dass es seit langem bereits gute Verfahren zur Ermittlung der entsprechenden Risiken gibt. Im Vordergrund steht hier vor allem das Währungsrisiko im Rahmen der Liquiditätsplanung. Fremdwährungsrisiken entstehen, wenn ein Unternehmen mehr bzw. weniger Umsätze in einer Fremdwährung erzielt, als es in der gleichen Währung Ausgaben zu leisten hat (z. B. für den Wareneinkauf). Die sich aus Marktpreisänderungen ergebende Differenz (FX-Exposure) stellt einen Wertverlust dar. Aufgrund der Globalisierung, die mit der weltweiten Präsenz von Produktions- und Vertriebsstätten einhergeht, ist nahezu jedes Unternehmen mit dieser Thematik konfrontiert. Zur Beherrschung derartiger Risiken werden unterschiedliche Instrumente eingesetzt, die in der Praxis oftmals kombiniert werden. Von der natürlichen Kurssicherung spricht man, wenn ein signifikanter Zuwachs der o. g. FX-Exposure vermieden wird. Die geschieht z. B. durch die Verlagerung bzw. Erweiterung von Produktionskapazitäten sowie von Einkaufsvolumina in eine Vertriebsregion mit starken Zuwächsen. Neben der Tatsache, dass eine Verlagerung meist mehrere Jahre in Anspruch nimmt, sind vor einer Entscheidung auch andere Faktoren wie z. B. grundsätzliche Standortfaktoren zu berücksichtigen.
14 15
Vgl. SHEFFI (2006). Siehe auch CEGLAREK/ZEHNDER (2007), S. 38 f. Vgl. GUISINDE/WITTIG (2007), S. 478.
Zeitgemäße Liquiditätsplanung – Ein Praxisbeispiel
339
Eine weitere Möglichkeit der Absicherung gegen Verluste besteht im Abschluss von Kurssicherungsgeschäften (FX-Hedges). Hierzu ist eine Kurssicherungsstrategie des Unternehmens notwendig. Eine solche Strategie legt fest, welcher Prozentsatz des FX-Exposures zu welchem Niveau abgesichert werden soll. Mathematisch komplexe Verfahren, die meist auf dem Value-at-Risk- bzw. Cash-Flow-at-Risk-Prinzip basieren, unterstützen die Entscheidungsfindung. Diese Form der Risikobegrenzung ist zwar sehr flexibel und jederzeit am Finanzmarkt durchführbar, reduziert jedoch die erzielte Marge durch zusätzliche Kosten. Bevor jedoch eine Absicherung erfolgen kann, müssen korrekte Informationen über aktuelle und vor allem zukünftige Cash Flows in Fremdwährung bekannt sein. Diese Informationen sollten einhergehen mit der Datenbereitstellung der Liquiditätsplanung, weil in beiden Fällen die gleichen Eingangsgrößen betroffen sind. Eine notwendige Voraussetzung dafür ist, dass die Erfassung aller planungsrelevanten Cash Flows in der jeweiligen Originalwährung erfolgt.
4
Umsetzung der Liquiditätsplanung mit SAP
In diesem Abschnitt werden die Möglichkeiten, aber auch die Grenzen einer integrierten Liquiditätsplanung mit SAP dargestellt. In einem zweiten Schritt werden die Gestaltungsmöglichkeiten einer multiplen und integrierten Planung mit den Mittel des SAP Liquidity Planners aufgezeigt. Der Zweck dieser Gegenüberstellung besteht darin, die systemgestützte Umsetzbarkeit einer parallelen bzw. multiplen Planung mit SAP-Mitteln aufzuzeigen. Hinter der Lieferantenauswahl steht kein Marketing-Gedanke, sondern die Einsicht, dass diese Software in sehr vielen Großkonzernen einen außerordentlich hohen Durchdringungsgrad hat. Der Anspruch einer praxisnahen Untersuchung kann nur erhoben werden, wenn eine gängige Softwarelösung aufgezeigt wird.
4.1
Möglichkeiten und Grenzen einer Liquiditätsplanung in SAP R/3
Die Liquiditätsplanung in SAP R/3 beginnt mit der Aktivierung der Finanzmittelrechnung. Dieses Erfordernis besteht, damit die relevanten Konten einer Finanzposition als einnahmeoder ausgaberelevante Position klassifiziert werden können. Diese Einnahme- und Ausgabepositionen wiederum werden in einer Baumstruktur dargestellt. Bei der Definition der Finanzpositionen – etwa des operativen Cash Flow - wird jedoch deutlich, dass sich bestimmte Positionen nicht eindeutig als Einnahmepositionen noch als Ausgabepositionen definieren lassen, weil sie keinen Liquiditätseffekt auslösen. Hierzu gehören etwa: ¾
steuerlich begründete Abschreibungen auf das Anlagevermögen,
¾
bilanzpolitische oder unternehmerische Instrumentarien (z. B. Umbewertungen oder Rückstellungen mit Ergebniseffekt, aber ohne Zahlungseffekt
340
SCHUBERT/OLLIGES
¾ sowie zahlungsunwirksame Erträge und Aufwendungen. Weil die Finanzmittelrechnung auf der Logik einer direkten Cash-Flow-Ermittlung basiert, werden die „verzerrenden“ Positionen in Cash-Flow-neutralen Positionen isoliert. Diese Nichtberücksichtigung findet dabei folgendermaßen statt: Weil zunächst alle Erfolgskonten einer Finanzposition zuzuweisen sind, gilt dies auch für Konten, die für den Cash Flow neutral sind. Dies wird u. a. dadurch gewährleistet, dass die Baumstruktur einen Teilbaum umfasst, in dem die Cash-Flow-neutralen Positionen „isoliert“ werden. Der Baum ist dabei so zu gestalten, dass es zwei Teilknoten gibt, von denen einer die Cash-Flow-relevanten Einnahme- und Ausgabepositionen umfasst. Der zweite Knoten wiederum umfasst jene Positionen, die Cash-Flow- neutral sind. Beim Berichtsaufruf des operativen Cash Flows wird nun je nach Bedarf der gewünschte Teilbaum aufgerufen, der wahlweise den Cash Flow berichtet oder ein Gesamtergebnis, das zum Controlling übergeleitet werden kann. Weil die Finanzpositionen bzw. der Cash Flow im Ist – etwa für das operative Ergebnis – aus den Konten der Finanzbuchhaltung abgeleitet und ermittelt werden, stellt sich das Verfahren aus planerischer Sicht ungleich komplizierter dar. So stützt sich die Finanzplanung üblicherweise zu einem großen Teil auf die Unternehmensplanung des Controllings. Das Controlling orientiert sich dabei wiederum an den Steuerungseinheiten, die erheblich von den Steuerungseinheiten der Finanzbuchhaltung abweichen. So ist die übliche Sicht der Finanzbuchhaltung und auch des Treasury traditionell auf die legale Einheit eines Unternehmens gerichtet, weil formal-rechtlich jede Legal Entity für seine finanzielle Steuerung eigenverantwortlich handelt und entscheidet. Das Controlling hingegen orientiert sich aber an den Steuerungseinheiten des Managements. Hierbei handelt es sich üblicherweise um Kostenstellen, Profit Center, Segmente, Geschäftsfelder, Märkte und seltener auch legale Einheiten. Wenn aber nun eine Überleitung von der Controlling-Planung zur Finanzplanung durchgeführt werden soll, so bedeutet dies, dass die Management-Ebenen zu legalen Einheiten überführt werden müssen. So lange bestimmte Management-Einheiten klar den legalen Einheiten zugeordnet werden können, ist dies unkritisch. In der Regel überlappen diese ManagementEinheiten jedoch die legalen Einheiten. Vor diesem Hintergrund sind die Strukturen des Managements zu duplizieren, um einen Bezug je legaler Einheit zu ermöglich und sämtliche Ableitungen im Controlling darauf auszurichten. Aber auch wenn diese Voraussetzung geschaffen ist, wird deutlich, dass eine weitere Hürde zu nehmen ist. Denn das Treasury im R/3 erlaubt im Ist eine Darstellung der Finanzpositionen nach legalen Einheiten. Im Plan ist jedoch nur die Beplanung des Finanzkreises möglich. Vor diesem Hintergrund sind Planversionen zu nutzen, um die Gesellschaften in der Planung zu repräsentieren. Wenn aber auch in der Finanzmittelrechnung mit verschiedenen Planansätzen (Upside/Downside) gearbeitet werden soll, ist dies zwar noch realisierbar, jedoch zunehmend komplizierter.
Zeitgemäße Liquiditätsplanung – Ein Praxisbeispiel
341
Wirklich kritisch wird das Verfahren mit den Mitteln des R/3 dann, wenn neben dem operativen Cash Flow auch Veränderungen von Bilanzpositionen im Working Capital oder die Investitionstätigkeit dargestellt werden soll. An seine Grenzen stößt das R/3 jedoch dann, wenn eine Berücksichtigung von liquiditätsverzögernden Effekten bei Working-Capital-Positionen, bei der Clusterung von Debitorengruppen nach ihrem Zahlungsverhalten sowie bei der Hinterlegung von Forderungsausfällen mit Eintrittswahrscheinlichkeiten verfolgt wird. Ebenfalls von Interesse für Word-Class-Finance-Unternehmen dürfte sein, die Cash Flows dem jeweils korrespondierenden Kapitaleinsatz gegenüberzustellen, wie etwa das operativ gebundene Kapital, das Kapital aus Finanzierungs- und Investitionstätigkeit. So wird der operative Cash Flow dem operativ gebundenem Kapital gegenübergestellt. Die Gegenüberstellung dieser Werte erlaubt die Ermittlung eines Cash Flow Return on Investment auf Gesellschaftsebene. Es dürfte aber von ebenso großem Interesse sein, diese Informationen auf der Ebene von Segmenten, auf Geschäftsfeldebene (Produkte) oder aber auf der Ebene von Märkten zu erhalten. Ein solches zuvor beschriebenes Verfahren wird in einigen Unternehmen der Chemie-Industrie angewandt. Die Cash-Flow-Ermittlung auf Geschäftsfeld-Ebene erreicht jedoch eine Komplexität, die mit R/3-Mitteln nicht zielführend zu realisieren ist. Auch wenn der Konzeption und Entwicklung vom Grundsatz zwar keine Grenzen gesetzt sind, stößt eine Standardsoftware jedoch an ihre Grenzen. Vor diesem Hintergrund ist ein Umstieg auf eine BW16-basierte Planung notwendig, die die Integration der Unternehmensplanung und des Treasury bzw. eine parallele Planung erlaubt. In diesem Fall kommt der Liquidity Planner zum Einsatz, der im Folgenden beschrieben wird.
4.2
Planung mit dem SAP Liquidity Planner (BI)
Der Liquidity Planner wird von der SAP als Lösung angeboten, um Liquiditätsströme der Vergangenheit zu analysieren, zukünftige Zahlungsströme zu planen und die Ergebnisse in SAP Business Intelligence (BI) auswerten zu können. Die Reporting-Funktionalität innerhalb SAP Business Intelligence basiert auf der OLAP (Online-Analytical-Processing)-Technologie, die im Gegensatz zu Standard Reporting Lösungen – aufgrund ihrer Generik – zum einen den meist hohen Anforderungen an Flexibilität gerecht wird und aufgrund der Technologie darüber hinaus ein hohes Maß an Integrationsfähigkeit und Skalierbarkeit bietet. Die Lösung hat den Anspruch, zwei unterschiedliche fachliche Prozesse (Liquiditätsrechung und Liquiditätsplanung) in einer Lösung abzudecken. Die grundsätzlichen Anforderungen an die gemeinsame Datenbasis beider Prozesse liefern die gemeinsamen Berichtsanforderungen unterschiedlicher interner und externer Adressaten.
16
Business Information Warehouse.
342
SCHUBERT/OLLIGES
Exemplarisch werden hier einige wesentliche Anforderungen an die Liquiditätsrechnung zusammengestellt, die mit dem Liquidity Planner abbildbar sind: ¾
Schaffung einer Grundlage für das Konzernberichtswesen, um eine Plan-Kapitalflussrechnung sowie die sich daraus ergebenden Kenngrößen für die Unternehmenssteuerung zu ermitteln (wie z. B. Free Cash Flow). Auf diese Weise wird eine Alternative zur Ermittlung der Plan-Kapitalflussrechnung aus der Plan-Bilanz bzw. Plan-GuV geschaffen (nach der indirekten Methode), weil z. B. aufgrund einer fehlenden rollierenden Budgetplanung die Datenqualität nicht ausreicht.
¾
Plausibilisierung der Kapitalflussrechnung nach der indirekten Methode (siehe Abschnitt 2.3), die aus dem Konzernberichtswesen durch eine manuelle Überleitung aus dem Jahresabschluss abgeleitet wird.
¾
Auswertungen von effektiven Geldflüssen aus dem Konzernberichtswesen, die auf Basis der meist angewandten indirekten Methode nicht möglich ist.
¾
Erweiterung des Jahresabschlusses um qualitativ nicht verpflichtend auszuweisende Cash-Flow-Statements nach der direkten Methode. Dadurch werden Investoren und Analysten zusätzliche Informationen bereitgestellt (hochwertigere Präsentation des Unternehmens).
¾
Erstellung einer Kapitalflussrechnung je Einzelgesellschaft zur Erstellung relevanter Steuerungskennzahlen nach einheitlicher Methodik.
¾
Abdeckung einer künftig ggf. verpflichtenden IFRS-8-Anforderung, um eine Kapitalflussrechnung auf Segment-Ebene aufzustellen.
¾ Durchführung von Plan-/Ist- und Ist-/Ist-Abgleichen im Rahmen der Liquiditäts- und Finanzplanung. Dadurch sollen eine fortlaufende Optimierung der Plandaten sowie der Planungsprozess unterstützt werden. Weil die Ist-Anbindung in der Praxis kritischer ist als die Nutzung von spezifischen Planungsfunktionalitäten, wird hier zunächst die von der SAP bereitgestellte Ist-Rechnungsfunktionalität dargestellt und bewertet. Die Ist-Rechnung (auch Liquiditätsrechnung) verfolgt das Ziel, bereits stattgefundene liquiditätsrelevante Vorgänge (Ein- und Auszahlungen) auf Basis eines Regelwerks, abhängig vom betriebswirtschaftlichen Ursprung (d.h. wofür wurden Cash-Positionen ausgegeben oder eingenommen) zu klassifizieren und frei definierbaren Liquiditätspositionen zuzuordnen. Sie deckt zugleich die Anforderungen zur Erstellung eines Cash-Flow-Statements (Kapitalflussrechnung) nach der direkten Methode ab. Von besonderer Bedeutung ist eine Verzahnung zwischen dem Kontoauszug bzw. der Kasse, aus dem die erfolgte Zahlung mit entsprechender Valuta ersichtlich ist und der buchhalterischen Dokumentation des Vorgangs im jeweiligen Buchhaltungssystem. Nur dadurch ist überhaupt sichergestellt, dass zum einen alle zahlungswirksamen Bewegungen berücksichtigt werden und darüber hinaus eine – nach valutarischer Sicht – korrekte Periodenzuordnung stattfinden kann. Diese Integration bietet allerdings nur eine homogene SAP Landschaft, die den kompletten Buchungs- und Zahlungsprozess abdeckt. Darüber hinaus deckt diese Lösung eine bisherige Schwachstelle ab, indem sie nicht in den Buchhaltungsprozess eingreift, son-
Zeitgemäße Liquiditätsplanung – Ein Praxisbeispiel
343
dern ex post die Daten unabhängig ermittelt. Dadurch sind keine negativen Einflüsse (u. a. auf das Laufzeitverhalten) im Buchungsprozess mehr zu erwarten. Vergleichbare, am Markt verfügbare Lösungen, bieten oftmals die gleichen Funktionen für die Zuordnung zu Liquiditätspositionen und für das Reporting der Ergebnisse, können jedoch meist aus Mangel an Detailinformationen entweder aus dem Buchhaltungssystem oder aus dem Cash-Management-System keinen vollständig automatisierten Prozessablauf unterstützen. Die Zuordnung innerhalb der SAP-Ist-Rechnung unterstützt ein mehrstufiges Vorgehen. In einem ersten Schritt erfolgt ein Auslesen der Informationen eines manuellen oder elektronischen Kontoauszuges. Die Inhalte des Verwendungszweckfeldes, des Buchungstextes oder der Geschäftsvorfalls-Code können eindeutige Zuordnungsinformationen enthalten, die eine Zuordnung möglich machen (wie z. B. wiederkehrende Abbuchungen, selbst beauftragte ausgehende/eingehende Zahlungen). Nur für die im ersten Schritt nicht zuordenbaren Zahlungsflüsse erfolgt eine aufwendigere, jedoch ebenfalls automatisierbare, Auswertung innerhalb der Buchhaltung. Dabei werden Informationen aus ausgeglichenen Buchungen (auch kompletter Belegketten), wie z. B. verwendete Sach- oder Erfolgskonten, und auch einzelner Beleginformationen ausgelesen und daraus eine regelbasierte Zuordnung nach Mittelherkunft sowie Mittelverwendung zu den Liquiditätspositionen vorgenommen. Die Finanzplanung verfolgt dagegen eigene Anforderungen, die hier kurz aufgezeigt werden: ¾
Beplant werden soll ein rollierender Planungshorizont (meist sechs bis 12 Monate), d. h., der Planungshorizont erweitert sich monatlich in die Zukunft. Planungsverantwortliche benötigen dazu jedoch Budgets, die den gleichen oder einen noch längeren Zeitraum abdecken. Rollierende Budgets liegen in der Praxis oftmals jedoch nicht vor.
¾
Gefordert ist eine professionelle Planungsunterstützung, die eine dezentrale Erfassung der Planungsdaten ermöglicht, wie z. B. über ein Web-Front-End. Diese Planungslösung sichert einen konsistenten Prozess für eine versionierbare und plausibilisierbare Datenerfassung.
¾
Benötigt wird ein automatisierbarer Prozess zur Integration von anderen Unternehmensplänen und zur Aggregation bzw. zur Konsolidierung.
¾
Außerdem ist eine Erfassung der Finanzplanungsdaten in der Originalwährung einschließlich Konvertierung erforderlich, um zugleich die Ermittlung der zukünftigen Fremdwährungsexposures zu ermöglichen. Die Finanzplanung stellt somit parallel auch die Basis für die Ermittlung des Währungsänderungsrisikos bereit.
¾ Schließlich besteht auch der Bedarf, das Layout der Planung je nach Gesellschaftstyp individuell auszuprägen. Auf diese Weise werden parallel die Anforderungen des Einzelund Konzernabschlusses erfüllt. Aufgrund der oft sehr gesellschaftsspezifischen Besonderheiten (wie z. B. unterschiedliche Gesellschaftstypen mit abweichenden Geschäftsmodellen) und dem Wunsch nach differenzierenden Planungsmethodiken, deckt meist nur eine hoch generische Softwarelösung die Anforderungen der Nutzer ab. Aus diesem Grund fällt die Applikationsauswahlentscheidung oftmals für das SAP BI und gegen andere Standardprodukte aus. Im Business Case wird der höhere Aufwand im Rahmen des Einführungsprojektes meist kompensiert durch eine individuelle, in die IT-Landschaft passende und integrative Lösung.
344
SCHUBERT/OLLIGES
Das SAP BI (und die darin integrierte Planungsfunktionalität) liefert darüber hinaus eine große Palette an Standard-Planungsfunktionalitäten. Einige Beispiele dafür sind: ¾
Verteilungsverfahren nach Referenzen und Schlüsseln
¾
Kopieren
¾
Währungsumrechnungen
¾
Formel-Editor
¾
Forecast-Funktionen
¾ Berücksichtigung von Abhängigkeiten Vordefinierte Planungsstrukturen und lauffähige Best-practice-end-to-end-Prozesse im Business Content sind verfügbar, die u. a. als Kopiervorlage genutzt werden können. Auf diese Weise können Implementierungskosten damit oftmals deutlich reduziert werden. Das auf OLAP-Technologie basierende Reporting in SAP BI nutzt das Tool Business Explorer (enthält u. a. den BEx Query Designer, BEx Web und den BEx Analyzer), mit dem standardmäßig Planungs- und Berichtslayouts in Excel oder Web-basiert erstellt werden können. Die Nutzung dieser Funktionalität ist für Endanwender gedacht und ist aufgrund des ExcelLayouts zumindest optisch intuitiv. Die Bedienung dieser sehr mächtigen Anwendung erfordert allerdings im Rahmen der Einführung einen nicht zu unterschätzenden Schulungsbedarf.
5
Exkurs Stakeholder-/Investor-RelationshipManagement
Die Liquiditätsplanung bzw. Cash-Flow-Planung ist zunehmend auch für institutionelle Anleger und Banken von Interesse. Banken als Kreditgeber interessieren sich vor allem für die Fähigkeit des Unternehmens, aufgenommene Darlehen sowie die sich daraus ergebenden Zinsen aus dem erwirtschafteten Net Cash Flow tilgen zu können. Aus diesem Grund spielt der Cash Flow eine immer größere Rolle bei der Bonitätsprüfung. Darüber hinaus schlägt sich mit dem Inkrafttreten von Basel II die berechnete Risikoprämie immer konsequenter auf die Zinskondition bzw. in der Einstufung in eine Bonitätsklasse (Rating) nieder. In welches Rating ein Unternehmen eingestuft ist, gibt somit nicht nur Auskunft über die Finanzkraft, sondern entscheidet auch über die Zinskonditionen für ein Unternehmen. Die Cash-Flow-Informationen sind neben Banken und Rating-Agenturen auch für Investoren von Interesse, die üblicherweise diese Informationen zumindest bis auf Segment-Ebene bzw. auf Gesellschaftsebene erwarten. Vor diesem Hintergrund ist eine Cash-Flow-Ermittlung auch für die einzelnen Segmente bzw. Geschäftsfelder von Bedeutung. Die Quote zwischen Kapitaleinsatz und erwirtschaftetem Cash Flow liefert für Investoren auch einen Indikator für Entscheidungen bzgl. der Realisierung von Investitionen und Desin-
Zeitgemäße Liquiditätsplanung – Ein Praxisbeispiel
345
vestitionen in bestimmten Segmenten und Geschäftsfeldern. Vor diesem Hintergrund richtet sich auch zunehmend die Vergütung des Managements an diesem Ziel aus. Ein modernes, an World Class Finance orientierten Standards ausgerichtetes Unternehmen wird jedoch neben den Kennzahlen auch begleitende Informationen bereitstellen, um die aktuelle Unternehmenssituation zu erklären oder verfolgte Ziele zu erläutern. Die Publikation dieser Informationen und der Key Performance Indicator (KPI) wird heute üblicherweise über ein Stakeholder/Investor Relationship im WEB zugänglich gemacht, wobei für die Bereitstellung dieser Informationen auf das Data Warehouse zurückgegriffen wird.
6
Zusammenfassung
Eine moderne und an World-Class-Finance-Standards ausgerichtete Liquiditätsplanung sorgt dafür, dass der Cash-Flow-Gedanke nicht nur auf Konzernebene zur Anwendung kommt, sondern sich in den operativen Steuerungseinheiten widerspiegelt. So wird bei einigen Unternehmen der Cash Flow als wesentlich erkannt oder es wird sogar auf Segment- bzw. Geschäftsfeld-Ebene geplant. Dabei werden Cash Flows dem operativ gebundenen Kapital auf operativer Steuerungsebene gegenübergestellt. Insofern hat der Cash Flow somit nicht allein die Funktion eine Kapitalmarktinformation bereitzustellen, sondern wird zu einer operativen Steuerungsinformation für das Management. Zudem wird in der Unternehmenspraxis eine Hurdle im Sinne eines Schwellwerts festgelegt. Diese Hurdle repräsentiert somit eine erwartete Mindestkapitalverzinsung oder strategiekonforme Kapitalverzinsung. Bei Bedarf kann diese Kapitalverzinsung in eine Eigenkapitalverzinsung sowie in eine Fremdkapitalverzinsung aufgebrochen werden. Die strategiekonforme Erreichung bzw. Verfehlung der geplanten Kapitalverszinsung liefert zugleich einen Anhaltspunkt für die Tantiemen des Managements sowie für Investitions- sowie für Desinvestitionsentscheidungen. Insofern beschränkt sich der Cash Flow nicht allein auf die Bedienung des Kapitalmarktes mit relevanten Informationen. Stattdessen wird der Kapitalmarktgedanke konsequent in die Unternehmensorganisation hineingetragen. Zur Umsetzung dieser Überlegungen und im Sinne eines World-Class-Finance-Ansatzes ist eine Integration zwischen Treasury- und Unternehmensplanung notwendig. Dazu sollten die Vorschläge aus Abschnitt 2.5 a) bis g) bei einer Konzeption zur Anwendung kommen. Für die operative Umsetzung sind folgende Aspekte zu berücksichtigen: ¾
Finanzbuchhaltungskonten werden Einnahme- oder Ausgabepositionen zugewiesen.
¾
Erfolgspositionen ohne Zahlungseffekt werden isoliert (Rückstellungseffekte, AfAEffekte, latente Steuern, etc.).
346
SCHUBERT/OLLIGES
¾
Zahlungspositionen ohne Ergebniseffekt werden je nach Vorzeichen einbezogen (wie z. B. die Umsatzsteuerzahllast).
¾
Bilanzpositionen sind weitgehend aus Erfolgspositionen ableitbar.
¾
Eine Überleitung findet auf der Grundlage eines Perioden-Cash-Flows statt.
¾ Auf der Grundlage von Überleitungen zwischen Erfolgspositionen zu Cash-Flow-Positionen und Bilanzpositionen ist eine integrierte Unternehmensplanung umsetzbar. Weil die Liquiditätsplanung in eine langfristige Finanzplanung eingebettet ist, sind zumindest die innerjährigen Auswirkungen von strukturellen Umbrüchen zu antizipieren, wie z. B. drastische Wechselkursänderungen, Streiks, Liefer- und Produktionsausfälle. In der Unternehmenspraxis sind derartige Strukturumbrüche selten. Im betrieblichen Alltag sind daher vor allem Wechselkursänderung, Rohstoffpreisentwicklungen und ähnliche Ereignisse (HedgingGeschäfte) von Bedeutung bei der Betrachtung von Worst-Case-Szenarien. Diese Szenarien sind jedoch vom Grundsatz unternehmensspezifisch. Vom Standpunkt des Investor Relationship ist darauf hinzuwirken, dass eine Balance zwischen den Unternehmenszielen einerseits und den Erwartungen von Investoren, Kreditgebern und Analysten andererseits stattfindet. Hierzu ist Internet-basiertes und pro-aktives Stakeholder- bzw. Investor-Relationship-Management aufzusetzen, das ein Werben für mittel- bis langfristige Unternehmensziele (Unternehmensentwicklung, Produktentwicklung, Marktentwicklung, etc.) bei gleichzeitiger Beachtung der Stakeholder-Ziele erlaubt. Vom Standpunkt der Unternehmenssteuerung wird ein erfolgreiches Liquiditäts-Management ebenfalls über den Cash Flow und somit über wertorientierte Unternehmensführung umgesetzt. In diesem Zusammenhang sind insbesondere jene Themen zu beleuchten, die auf eine Beschleunigung der Zahlungsflüsse bei gleichzeitiger Minimierung der Kapitalbindung (Working Capital) abzielen. Unternehmen sollten sich die Untersuchungsergebnisse von KILLEN & ASSOCIATES INC.17 zunutze zu machen, wonach über eine Optimierung der Financial Supply Chain eine Reduzierung des Working Capital von 20% und mehr kurzfristig erzielt werden kann. Geeignete Maßnahmen erstrecken sich debitorenseitig über die gesamte „order-to-cash“Prozesskette. Die Vorteile18 einer erfolgreichen Financial Supply Chain werden u. a. mit folgenden Maßnahmen umgesetzt: ¾
Prozess-Beschleunigung von der Auftragsabwicklung bis zur Bezahlung (Logistik)
¾
Anreizsysteme zur Beschleunigung der Zahlungseingänge (z. B. Factoring, Einschränkung von Zahlungszielen, strafferes Forderungs-Management)
¾
Reduzierung von Investitionen (z. B. durch Mieten, Leasing)
17 18
KILLEN & ASSOCIATES, INC. (2000). Vgl. READ/SCHEUERMANN (2004).
Zeitgemäße Liquiditätsplanung – Ein Praxisbeispiel
347
¾
verbesserte Vorratssteuerung (z. B. Vorratsoptimierung, eigenverantwortliche Nachschubsteuerung und Zahlungssteuerung über Lieferanten)
¾
Senkung der Transaktionskosten über effizientere und automatisierte Finanzsysteme
¾
eine an den Cash Flow geknüpfte Vergütung des Managements
¾ die Minimierung der Liquiditätsreserven unter der Vorraussetzung einer effizienten Liquiditätsplanung Die Vorräte sind dafür so zu optimieren, dass eine Balance zwischen Fertigungs- und Lieferbereitschaft bei geringer durchschnittlicher Lagerdauer bzw. hoher Umschlagshäufigkeit19 erreicht wird. Bei den Verbindlichkeiten besteht die Möglichkeit, mit den Lieferanten so zu verhandeln, dass das Zahlungsverhalten des Konzerns am Zahlungsverhalten der Kunden ausgerichtet wird. Zumindest aber sind die Transaktionskosten zu minimieren.
Quellenverzeichnis ARBEITSKREIS “WERTORIENTIERTE FÜHRUNG IN MITTELSTÄNDISCHEN UNTERNEHMEN” (2006): Gestaltung wertorientierter Vergütungssysteme für mittelständische Unternehmen, in: Bilanzrecht und Betriebswirtschaft, 2006, S. 2066–2076. CEGLAREK, M./ZEHNDER, H. (2007): Konzernweites Liquiditätsmanagement, in: SEETALER, P./STEITZ, M. (Hrsg.), Praxishandbuch Treasury-Management – Leitfaden für die Praxis des Finanzmanagements, Frankfurt 2007, S. 27–40. EGGER, N./FIECHTER,J.-M./ROHLF, C./ROSE, J./WEBER, S. (2005): SAP BW Planung und Simulation, Bonn 2007. FISCHER, R. (2005): Unternehmensplanung mit SAP SEM/SAP BW, Bonn 2005. GUSINDE, T./WITTIG, T. (2007): Hedge Accounting – Anwendungsfälle aus der Praxis, in: SEETALER, P./STEITZ, M. (Hrsg.), Praxishandbuch Treasury-Management – Leitfaden für die Praxis des Finanzmanagements, Frankfurt 2007, S. 477–496. HÄFNER, M./HIENDLMEIER, A. (2007): Die Entfesselung des CFOs, online: http://www.managermagazin.de/it/itdirector/0,2828,500138,00.html, Stand: 17.08.2007, Abruf: 06.08.2007. HORNUNG, K. (2007): Cash-Flow-orientierte Unternehmenssteuerung, in: SEETALER, P./STEITZ, M. (Hrsg.), Praxishandbuch Treasury-Management – Leitfaden für die Praxis des Finanzmanagements, Frankfurt 2007, S. 13–26.. KERBER, S./WARNKE, D. (2005): Liquiditätsrechnung und -Planung mit dem SAP Liquidity Planner, Bonn 2005.
19
MISSLER (2007).
348
SCHUBERT/OLLIGES
KILLEN & ASSOCIATES, INC. (2000): Optimizing the Financial Supply Chain – How CFO of Global Enterprises Are Succeding by Substituting Information for Working Capital, Arbeitsbericht, Palo Alto 2000. MISSLER, P. (2007): Einführung eines Working Capital Management, in: SEETALER, P./STEITZ, M. (Hrsg.), Praxishandbuch Treasury-Management – Leitfaden für die Praxis des Finanzmanagements, Frankfurt 2007, S. 147–164. RAPPAPORT, A. (1999): Shareholder Value – Ein Handbuch für Manager und Investoren, 2. Auflage, Stuttgart 1999. READ, C./SCHEUERMANN, H.-D./MY SAP FINANCIALS TEAM (2004): CFO – Die integrative Kraft im Unternehmen, Bonn 2005. RIEG, R./RIEG, S. (2001): Cashflow-orientierte Unternehmenssteuerung, in: Bilanzbuchhalter und Controller, 2001, S. 180–184. SAP AG (2006): Integrierte Planung als Bestandteil von SAP Net Weaver Business Intelligence, Walldorf, 2006. SCHRÖDER, E. F. (2000): Modernes Unternehmens-Controlling – Handbuch für die Unternehmenspraxis, 7. Auflage, Ludwigshafen 2000. SEETALER, P./STEITZ, M. (2007): Geleitwort, in: SEETALER, P./STEITZ, M. (Hrsg.), Praxishandbuch Treasury-Management – Leitfaden für die Praxis des Finanzmanagements, Frankfurt 2007, S. 1–10. SHEFFI, Y. (2006): Worst-Case-Szenario – Wie Sie Ihr Unternehmen vorbereiten und Ausfallrisiken mindern – Lieferengpässe und Produktionsstörungen – Energiepreissteigerungen und Währungsschwankungen – Streiks und Naturkatastrophen, Cambridge 2006. STANDARD & POOR (2006): Corporate Ratings Criteria 2006 – Standard & Poor’s Rating Services, online: http://corporatecriteria.standardpoors.com, Stand: 29.09.2006, Abruf: 14.06.2007. STOSCH, A. (2006): Cash Flow-orientiertes Liquiditätsrisikomanagement in Industrieunternehmen, Frankfurt 2006.
VON
Festpreise – Bookbuilding – Auktionen – Emissionsverfahren und das Underpricing von IPO JOSEF BAUR und AURELIO J. F. VINCENTI FERNUNIVERSITÄT IN HAGEN
1 2
Einführung in die Thematik ........................................................................................... 351 Verschiedene Emissionsmethoden................................................................................. 352 2.1 Festpreisverfahren ................................................................................................ 352 2.2 Bookbuilding-Verfahren ...................................................................................... 354 2.3 Auktionsverfahren................................................................................................ 357 2.4 Emissionsmethoden und ihre länderspezifische Anwendung .............................. 359 3 Wirkung der Emissionsmethode auf den Emissionspreis .............................................. 360 3.1 Preiswirkungen des Festpreisverfahrens .............................................................. 360 3.2 Preiswirkungen des Bookbuilding-Verfahrens .................................................... 361 3.2.1 Kennzeichnende Merkmale ..................................................................... 361 3.2.2 Preiseinflüsse durch verfahrensspezifische Informationsverteilung ........ 361 3.2.3 Preiseinflüsse durch verfahrensspezifische Allokationsmöglichkeiten ... 363 3.3 Preiswirkungen des Auktionsverfahrens .............................................................. 365 3.3.1 Kennzeichnende Merkmale ..................................................................... 365 3.3.2 Preiseinflüsse durch verfahrensspezifische Informationsverteilung ........ 365 4 Vergleich verschiedener Emissionsmethoden................................................................ 367 4.1 Festpreisverfahren und Bookbuilding-Verfahren ................................................. 367 4.2 Auktionsverfahren und Bookbuilding-Verfahren ................................................ 368 4.3 Diskussion ............................................................................................................ 369 4.3.1 Analyse der Ergebnisse ........................................................................... 369 4.3.2 Beibehaltung oder Modifikation des Bookbuilding-Verfahrens .............. 372 4.3.3 Auktion als bevorzugtes Emissionsverfahren .......................................... 374 4.3.4 Bookbuilding-Theorie aus heutiger Sicht ................................................ 375 5 Zusammenfassung ......................................................................................................... 376 Quellenverzeichnis................................................................................................................ 377
Emissionsverfahren und das Underpricing von IPO
1
351
Einführung in die Thematik
Für den Gang an die Börse stehen Unternehmen unterschiedliche Methoden zur Verfügung. Das verwendete Emissions- bzw. Platzierungsverfahren sowie dessen Ausgestaltung unterschieden sich in der Vergangenheit dabei von Land zu Land erheblich. Allgemein haben sich diesbezüglich drei gängige Vorgehensweisen herausgebildet, nämlich Festpreis-, Bookbuilding- und Auktionsverfahren. Außerhalb der USA war das Festpreisverfahren, welches durch eine Preisfestlegung vor dem Aufruf zur Zeichnung gekennzeichnet ist, die traditionell dominierende Platzierungspraktik. In den USA fand dagegen vor allem das Bookbuilding-Verfahren Anwendung, das die Nachfrageseite in die Preisfindung mit einbezieht. Als dritter Emissionsmodus war darüber hinaus das Auktionsverfahren in einigen Ländern wie z. B. Belgien, Frankreich und Japan verbreitet. Diese länderspezifische Anwendung bestimmter Platzierungsmethoden ließ sich bis in die 1990er-Jahre hinein beobachten.1 Seitdem ist eine Zurückdrängung sowohl des Festpreis- als auch des Auktionsverfahrens zugunsten des Bookbuilding erkennbar.2 Bereits 1999 wurden ca. 80% aller weltweit durchgeführten Aktienerstemissionen im Bookbuilding-Modus realisiert, wobei diese Entwicklung bis in die Gegenwart anhält.3 Ein bekanntes Phänomen bei der Börsenersteinführung eines Unternehmens, dem so genannten IPO (Initial Public Offering), bildet das Underpricing. Mit diesem Ausdruck beschreibt man eine positive Differenz zwischen dem Emissionspreis und dem ersten Handelspreis der Aktie eines neu an der Börse gehandelten Unternehmens.4 Das Underpricing von Börsenneulingen stellt dabei eine sowohl weltweit vorhandene5 als auch für unterschiedliche Zeitepochen nachweisbare6 empirische Gegebenheit dar. Dieser Preisunterschied zwischen Emissionspreis und Börsenkurs am ersten Handelstag lässt sich einerseits, aus Sicht der Erstkäufer der Aktien, als Zeichnungsgewinn für diese interpretieren. Andererseits, aus Sicht der Alteigentümer bzw. des emittierenden Unternehmens, repräsentiert ein solcher Unterschiedsbetrag dagegen einen entgangenen Gewinn aus dem Verkauf von Unternehmensanteilen. Aus diesem Grund werden die underpricing-bedingten, nicht realisierten Verkaufserlöse auch als indirekte Kosten eines Börsengangs bewertet, die zusätzlich zu den direkten, hauptsächlich aus den Gebühren der Emissionsbanken gebildeten Emissionskosten anfallen.7 Je nachdem, ob die emittierten Aktien aus dem Bestand der Alteigentümer und/oder aus der Vergabe neuer Unternehmensanteile stammen, müssen diese indirekten Kosten entweder von den Alteigentümern und/oder vom emittierten Unternehmen getragen werden.8 1 2 3 4 5
6
7 8
Vgl. LJUNGQVIST/JENKINSON/WILHELM (2003), S. 63 f. Vgl. RITTER (2003), S. 424 f., und JAGANNATHAN/SHERMAN (2006), S. 2. Vgl. LJUNGQVIST/JENKINSON/WILHELM (2003), S. 64, und JAGANNATHAN/SHERMAN (2006), S. 45 f. Vgl. IBBOTSON (1975), S. 235, TINIC (1988), S. 789, CHEMMANUR (1993), S. 285, und KEASEY/MCGUINNESS (1995), S. 45. Vgl. IBBOTSON/SINDELAR/RITTER (1988), S. 37, WALLMEIER/RÖSL (1999), S. 135, JENKINSON/LJUNGQVIST (2001), S. 4, für Übersichten zum internationalen Underpricing WITTLEDER (1989), S. 83 f., KUNZ/AGGARWAL (1994), S. 707, WOLFF (1994), S. 332, KASERER/KEMPF (1995), S. 46, KEASEY/MCGUINNESS (1995), S. 42 f., REHKUGLER/ SCHENEK (2001), S. 284, RITTER (2003), S. 423 ff., LUBIG (2004), S. 95, und STEIB (2005), S. 232 ff. Wohl wurde Underpricing erst seit ca. vier Jahrzehnten aus wissenschaftlicher Perspektive heraus thematisiert. Seine Existenz als realwirtschaftliche Erscheinung lässt sich jedoch auch für frühere Kapitalmärkte, beispielsweise für Börsenneulinge am deutschen Aktienmarkt vor Beginn des Ersten Weltkrieges belegen; vgl. SCHLAG/ WODRICH (2000). Vgl. RITTER (1987), S. 269, LEE ET AL. (1996), S. 67 f., und DALTON/CERTO/DAILY (2003), S. 294 f. Vgl. DAWSON (1987), S. 159 ff., BARRY (1989), S. 1100 ff., und KEASEY/MCGUINNESS (1995), S. 46 f.
352
BAUR/VINCENTI
In den letzten zwei Jahrzehnten sind bei der Preisbestimmung für Erstemissionen erhebliche Schwankungen in Bezug auf die Höhe des Underpricing aufgetreten. So lag die durchschnittliche Zeichnungsrendite zwischen 1980 und 1989 bei 7%, was einem „liegen gelassenen“ Betrag pro Emission von 1,6 Mio. USD entspricht. 1990 bis 1998 betrug das durchschnittliche Underpricing bereits knapp 15% und 8,3 Mio. USD pro Emission. Während der Jahre 1999 bis 2000 stieg die Zeichnungsrendite dann sogar auf durchschnittlich 65% und damit auf fast 78 Mio. USD „verlorener“ Emissionserlöse. In den Jahren 2001 bis 2003 ging die Emissionsrendite wieder auf durchschnittlich 12% zurück.9 Vor dem Hintergrund der oben beschriebenen Phänomene, insbesondere dem stark schwankenden Underpricing von Erstemissionen und der in den letzten Jahren zu beobachtenden Veränderungen bei den Emissionsverfahren, soll im Rahmen dieses Beitrages der Einfluss des Platzierungsverfahrens auf den Preisfindungsprozess beim erstmaligen Börsengang von Unternehmen und damit zugleich auch auf die Zeichnungsrendite dieser Aktien untersucht werden. Hierzu werden im Kapitel 2 zunächst die unterschiedlichen Emissionspraktiken näher charakterisiert und deren länderspezifische Anwendung beschrieben. Grundsätzlich beeinflusst jedes Emissionsverfahren über die ihm innewohnenden Spezifika die Nähe des Emissionspreises zum Marktpreis und dadurch auch das Ausmaß des Underpricing. Diese Wirkungen werden im folgenden Kapitel 3 dargestellt. Das sich daran anschließende Kapitel 4 liefert dann einen Vergleich der verschiedenen Platzierungsmethoden sowie eine kritische Diskussion der Ergebnisse. Mit einer kurzen Zusammenfassung beendet Kapitel 5 den Beitrag.
2
Verschiedene Emissionsmethoden
2.1
Festpreisverfahren
Der Ablauf des Festpreisverfahrens ist gekennzeichnet durch eine Preisfestsetzung vor der Bekanntgabe des öffentlichen Verkaufsangebots, wobei der Preis durch das Emissionskonsortium und den Emittenten gemeinsam bestimmt wird. Im Wesentlichen beruht dieser Festpreis auf den Ergebnissen einer Unternehmensbewertung unter Berücksichtigung von vergleichbaren Börsenbewertungen. Gleichzeitig verzichtet man auf eine (offizielle) Einbeziehung der potenziellen Anleger. Von dem hierbei „errechneten“ Aktienpreis werden dann noch 10 bis 15% als so genannter Risikoabschlag bzw. Platzierungsanreiz abgezogen.10 Die Investoren werden im Verkaufsprospekt dazu aufgefordert, zu dem veröffentlichten Festpreis ein Angebot zu unterbreiten, in dem die gewünschte Menge der Aktien angegeben ist. Der Festpreis ist lediglich nach unten zugunsten der Investoren revidierbar, sofern eine zu geringe Nachfrage festgestellt wird. Alle Zeichnungsaufträge der Investoren werden in einem vorher festgelegten Zeitraum vor der Erstnotierung entgegengenommen, wobei diese Zeichnungsfrist normalerweise ein bis zwei Wochen beträgt. Nach dem Ende der Zeichnungsfrist erfolgt der Übertrag der Aktien an das Emissionskonsortium,11 welches diese dann den Investoren zu9
10 11
Vgl. RITTER (2002), S. 294 f., und LOUGHRAN/RITTER (2004), S. 5. Die im Text genannten Zahlen beziehen sich auf den US-amerikanischen Erstemissionsmarkt, wobei ähnliche Beobachtungen allerdings auch für deutsche Erstemissionen zutreffen; vgl. dazu HUNGER (2005), S. 41. Vgl. JAKOB (1998), S. 85. ZIEGLER (2006), S. 42, geht dagegen von einem Abschlag von 15 bis 25% aus. In Deutschland erfolgt die Platzierung beim Festpreisverfahren und beim Bookbuilding-Verfahren üblicherweise im Rahmen eines Übernahmekontraktes; vgl. ZIEGLER (2006), S. 41.
Emissionsverfahren und das Underpricing von IPO
353
teilt. Zuteilungsfähig sind grundsätzlich alle gemachten Angebote der Investoren, da keine Filterung bezüglich des Preises vorgenommen wird. Die Allokation erfolgt über eine Verteilung nach bestimmten Regeln am Tag vor der ersten Börsennotierung.12 Nach der Erstnotierung finden vonseiten des Emissionsbegleiters noch Aktivitäten rund um die Kurspflege statt. Die nachfolgende Abbildung 1 soll diese einzelnen Schritte in einer Gesamtübersichtsdarstellung noch einmal verdeutlichen:
Bekanntgabe fester Emissionspreis
Emissionsvorbereitung u. a. Auswahl Emissionsbegleiter, Unternehmensbewertung, Prospekterstellung
Zuteilung Aktien pro rata
Eingang Zeichnungsaufträge
Tage ca. X-60
Abbildung 1:
ca. X-10
X-1
X Erstnotierung am Sekundärmarkt
Beispielhafter zeitlicher Ablauf des Festpreisverfahrens
Beim Festpreisverfahren wird die Anzahl der zu emittierenden Aktien mit der Preisbekanntgabe festgelegt. Die Verkaufsmenge kann nicht nachträglich variiert werden.13 Für eine Zuteilung kommen alle gültig abgegebenen Zeichnungen infrage, da beim Festpreisverfahren keine Filterung der Anträge durch den Preis möglich ist. Infolgedessen erhält bei Unterzeichnung einer Emission jeder Interessent eine volle Zuteilung. Bei einer Nachfrage nach Aktien, die über das Angebot hinausgeht, wird es notwendig, Mechanismen einer verteilenden Allokation anzuwenden. Mögliche Zuteilungsverfahren sind das Los- und das Windhundverfahren, eine Mindest- und eine Einheitszuteilung, das Quoten- und das Größenklassenverfahren sowie Zuteilungen nach sachgerechten Kriterien.14 Typisch für das Festpreisverfahren ist auch das Führen von dezentralen Orderbüchern, d. h. die jeweiligen Konsortialbanken entscheiden über die Zuteilung selbst, gegebenenfalls unter Berücksichtigung von zentral vorgegebenen Verteilungsmechanismen.15
12 13 14 15
Vgl. GRAVENHORST (2003), S. 36 f. Vgl. TERSTEGE (2002), S. 32. Das Windhundverfahren bezeichnet die Zuteilung nach zeitlichem Eingang der Zeichnung. Für eine detaillierte Beschreibung der Verfahren vgl. GRAVENHORST (2003), S. 68 ff. Vgl. TERSTEGE (2002), S. 32.
354
2.2
BAUR/VINCENTI
Bookbuilding-Verfahren
Das Bookbuilding-16 bzw. Orderbuchverfahren zeichnet sich im Vergleich zur Festpreismethode vor allem dadurch aus, dass potenzielle Investoren in den Preisbildungsmechanismus miteinbezogen werden. Grundlage für den Start des Bookbuilding stellt ebenfalls eine Unternehmensbewertung mit Festlegung eines Aktienpreises dar. Im Bookbuilding dient dieser Preis jedoch nicht als Emissionspreis, sondern als Preisindikator für die auf diese erste Analysephase folgenden weiteren Phasen des Bookbuilding-Prozesses: Der Zeitraum vor der Bekanntgabe der definitiven Preisspanne wird durch die anschließende Pre-Marketing-Phase repräsentiert. Ihr Anliegen besteht darin, die eigene Bewertung im Markt zu testen und die als Zielanleger identifizierten institutionellen Anleger auf die Emission vorzubereiten. Diese so genannten Schlüsselinvestoren geben eigene Bewertungsvorstellungen und Preisabschätzungen ab. Auf Basis der dadurch gewonnen Informationen, vor allem zur Preiselastizität der Nachfrage, wird vom Emittenten und den Emissionsbegleitern dann eine endgültige Preisspanne für den Platzierungspreis ermittelt.17 Mit Bekanntgabe der auf diese Weise bestimmten Preisspanne und der öffentlichen Aufforderung, Zeichnungsangebote innerhalb des Rahmens abzugeben, beginnt danach die MarketingPhase. Während dieser Zeit finden so genannte „Road-Shows“ für weitere institutionelle Anleger statt, in denen das Unternehmen (bzw. die Aktie) präsentiert wird. Hier erfolgt auch eine aktive Einschaltung des Emittenten bzw. seines Managements. Während der Marketing-Phase werden zudem private Investoren gezielt über Zeitungsanzeigen und Anlageberater ihrer Hausbanken angesprochen.18 Die Zeichnungsphase kann bereits mit Beginn der Marketing-Phase starten, oftmals beginnt sie jedoch einige Tage später, um Informationen bereits im Markt verteilen zu können.19 Während dieser Phase sammeln die Konsortialbanken die eingehenden Zeichnungen und leiten diese täglich an den Konsortialführer, der das zentrale Orderbuch führt, weiter. Die Zeichnungen der institutionellen Anleger enthalten ab einem bestimmten Volumen detaillierte Informationen, die eine qualitative Einordnung des Investors zulassen. Private Anleger gehen mit ihren Zeichnungsaufträgen dagegen anonym ins Orderbuch ein, die Aufträge der Privatinvestoren werden von den Konsortialbanken zusammengefasst an den Konsortialführer gemeldet. Das Orderbuch spiegelt während der Zeichnungsphase laufend den Stand der Zeichnung wider. Dies ermöglicht eine exakte Feinsteuerung der Emission und der Marketinganstrengungen.20 Nach Abschluss der Zeichnungsfrist wird das Orderbuch geschlossen und die Preisfestlegung sowie die Zuteilung können begonnen werden.21
16 17 18 19 20
21
Zur Entstehung des Begriffs und des Verfahrens vgl. WILLAMOWSKI (2000), S. 22 ff. Vgl. STOLZ (1998), S. 295 ff., und ZIEGLER (2006), S. 44. Vgl. JAKOB (1998), S. 186 ff. Vgl. JAKOB (1998), S. 187. Der Aufruf der Zeichnung hat aus rechtlicher Sicht den Charakter einer „Invitatio ad offerendum“. Die Angebote werden somit erst von den Investoren in Form einer Zeichnung abgegeben. Dies ermöglicht im Bedarfsfall auch eine Revision der Preisspanne, wenn eine überraschend hohe oder niedrige Nachfrage vorliegt. Vgl. STOLZ (1998), S. 305 ff.
Emissionsverfahren und das Underpricing von IPO
355
Anschließend beginnt mit der Analyse des Orderbuches die Phase der Preisfestsetzung und Zuteilung. Hierbei werden aufgrund bestimmter Zeichnungsmuster und Zeichnungshöhen Verzerrungen, wie z. B. spekulative Zeichnungen, identifiziert. Auf Basis dieser Filterung wird das absolute Zeichnungsvolumen (und dadurch die bereinigte Nachfrage) ermittelt. Anhand der erweiterten Informationen aus den Zeichnungsaufträgen nimmt man eine qualitative Einordnung der Kaufinteressenten in verschiedene Investorengruppen vor, gleichzeitig werden deren Preiserwartungen bzw. Preiselastizitäten bestimmt. Aus den verfügbaren Informationen lassen sich ein Durchschnittspreis pro Gruppe errechnen und daraus ein kalkulatorischer Emissionspreis herleiten.22 Allerdings fließen in die Ermittlung des Emissionspreises noch weitere Faktoren ein. Die Emissionsbank ist bei ihrer Preisbestimmung nicht ausschließlich an das Orderbuch gebunden, sie kann nach eigenem Ermessen von diesen Ergebnissen abweichen. Diese Möglichkeit der Preissetzung nach eigenem Ermessen in Form eines zusätzlichen Abschlages vom kalkulatorischen Emissionspreis wird von den Emissionsbegleitern in den meisten Fällen in Anspruch genommen.23 Grundsätzlich ist der Emittent in der Entscheidung bei der Zuteilung der Aktien frei bzw. er gibt dem Emissionsbegleiter Regeln zur Allokation vor. Regelmäßig wird jedoch eher den Empfehlungen der Emissionsbank bei der Strukturierung der Zuteilung gefolgt, da diese über eine größere Erfahrung verfügt.24 Ein wesentliches Anliegen des Bookbuilding besteht aus der Berücksichtigung „allokativer Aspekte“. Dementsprechend erfolgt bei diesem Emissionsverfahren in der Regel eine selektive Zuteilung im Sinne einer zielgerichteten und differenzierenden Platzierung unterschiedlicher Aktienbündel bei unterschiedlichen Investorengruppen. Zunächst erfolgt eine Aufteilung der Emission in Tranchen für Privatanleger und institutionelle Investoren. Die Platzierung der Aktien bei institutionellen Investoren richtet sich zumeist nach qualitativen Merkmalen, z. B. voraussichtliche Haltedauer oder Verhalten bei bisherigen Emissionen. Nicht zuletzt wird bei der Zuteilung auch das Verhalten der Investoren in der vorausgegangenen Pre-Marketing-Phase berücksichtigt. Die Aktien werden dabei mit Priorität zunächst den jeweiligen institutionellen Investoren zugeteilt, wobei es hier häufig zu einer vollen Berücksichtigung der Zeichnungsaufträge kommt. Bei der Tranche für die privaten Investoren können dagegen deren Kaufaufträge oftmals nur in Teilmengen erfüllt werden. In diesen Fällen kommen deshalb diverse Verteilungsverfahren zur Anwendung. Die Zuteilung eines so genannten „Greenshoe“ sei hier ergänzend noch als eine typische Besonderheit des Bookbuilding-Verfahrens mit Phasencharakter erwähnt. Der Emittent räumt den Konsortialbanken eine Option auf den Verkauf einer weiteren Tranche in Höhe von etwa 10 bis 15% des Emissionsvolumens ein, die erst nach der Erstnotierung ausgeübt werden kann. Diese Option dient dem Emissionsbegleiter als Instrument zur Feinsteuerung der Kursbildung am Sekundärmarkt. Nachstehende Abbildung 2 fasst den zeitlichen Ablauf dieses Verfahrens noch einmal in Form eines Überblicks zusammen:
22 23 24
Vgl. STOLZ (1998), S. 310 ff. Vgl. WILLAMOWSKI (2000), S. 87. Vgl. ZIEGLER (2006), S. 52.
356
BAUR/VINCENTI
Festlegung und Bekanntgabe Preisspanne Analysephase
Start Zeichnungsfrist
Preisfestsetzung und Zuteilung der Aktien
ggf. G r e e n s h o e
PreMarketing Marketing Eingang Zeichnungs-aufträge
Tage ca. X-40
Abbildung 2:
ca. X-20
ca. X-15
X-4
X Erstnotierung am Sekundärmarkt
Beispielhafter zeitlicher Ablauf des Bookbuilding-Verfahrens25
Entscheidendes Merkmal der Orderbuchmethode ist also der Umstand, dass hier für die Ermittlung des Emissionspreises eine zweistufige Preisbestimmung zur Anwendung gelangt: ¾
Ausgangspunkt und erste Stufe der Preisfindung bildet eine Unternehmensbewertung des Emittenten bzw. Emissionsbegleiters. Insoweit entspricht die Vorgehensweise grundsätzlich noch der Praktik beim Festpreisverfahren.
¾
Im Rahmen des Pre-Marketing werden diese Ergebnisse der eigenen Bewertung ausgewählten institutionellen Zielinvestoren präsentiert. Dies lässt sich als Markttest der eigenen Bewertung und als Beginn der zweiten Stufe der Preisbestimmung sehen, in der die Nachfragerseite ergänzend in den Prozess einbezogen wird. Vor der Ansprache der potenziellen Käufer können nämlich weder der Emittent noch der Emissionsbegleiter die „Bewertung des Marktes“ für die Aktie angemessen abschätzen. Die Schwierigkeit, die sich bei einem derartigen Markttest für den Emittenten ergibt, liegt nun darin, dass die institutionellen Investoren zunächst einmal nicht zur Aufdeckung ihrer Informationen bezüglich der Bewertung der Aktie bereit sind. Folglich müssen diese explizit angesprochenen Kaufinteressenten für die Aufdeckung ihres Wissens entlohnt werden. Dies kann, da den Investoren die Zuteilung nicht gewiss ist und die Bank freies Ermessen hinsichtlich der Allokation hat, durch Zusicherung einer Zuteilung in Verbindung mit der Aussicht auf einen positiven Zeichnungsgewinn geschehen. Letzteren erhält man durch Wahl eines Emissionspreises, der bewusst niedriger als der erwartete Börsenpreis angesetzt wird. Gemäß der einschlägigen Bookbuilding-Theorie sollen die institutionellen Investoren auf diese Weise dahin gebracht werden, ihre tatsächliche Einschätzung der Aktie offen zu legen.26
25 26
In Anlehnung an JAKOB (1998), S. 218. Vgl. BENVENISTE/SPINDT (1989), S. 344.
Emissionsverfahren und das Underpricing von IPO
357
Diese „werthaltigen“ Informationen der institutionellen Anleger aus der Pre-Marketing-Phase sowie die gleichzeitige Zusage eines Zeichnungsgewinns bilden die im Wesentlichen bestimmenden Preisfaktoren. Gebote der Privatanleger finden dagegen keinen Eingang in den Emissionspreis.27 Prinzipiell besteht bei der Zuteilung von Aktien im Bookbuilding-Verfahren ein freier Ermessensspielraum des Emittenten bzw. Emissionsbegleiters. Die Allokation der Aktien ist wesentlich geprägt von der Preisfindungsphase. Die im Pre-Marketing angesprochenen institutionellen Investoren, die Interesse an einer Zeichnung haben, erhalten, abhängig von ihrer Zeichnungsmenge und ihrem signalisierten Preis, hohe Zuteilungsquoten bzw. vollständige Zuteilungen. Begründet wird diese Allokationsentscheidung damit, dass diese potenziellen Käufer Informationen bezüglich ihrer Bewertung offen gelegt haben und diese Offenlegung eine Belohnung in Form einer bevorzugten Zuteilung in Verbindung mit einem Zeichnungsgewinn erfordert. Eine solche Vergabepraktik führt zum Ausschluss oder zur Verdrängung von Investoren, insbesondere Kleinanlegern, die nicht in der Pre-Marketing-Phase am Preisfindungsprozess beteiligt waren. Aus diesem Grund wird oftmals, auch wegen fehlender Transparenz des Allokationsprozesses, Kritik an der Verteilungssystematik im BookbuildingVerfahren geäußert.28
2.3
Auktionsverfahren
Das Auktionsverfahren29 richtet sich im Wesentlichen nach dem auf Wettbewerbsmärkten auftretenden Auktionsprinzip. Danach konkurrieren Gebote, die nach Preisen und Mengen spezifiziert sind, um ein begrenztes Angebot. Der Marktausgleich wird durch die Ermittlung eines markträumenden Preises sichergestellt.30 Im Vorfeld des Angebotes wird, analog zu den bisher genannten Emissionsverfahren, eine Bewertung des Unternehmens durchgeführt, indem man einen Mindestpreis ermittelt, der den Investoren als Untergrenze für die Gebotsabgabe dient.31 Etwa eine Woche vor der Börseneinführung erfolgt dann eine Aufforderung zur Abgabe von Geboten durch den Emittenten bzw. den Emissionsbegleiter unter der Bekanntgabe dieses Mindestpreises. Danach übermitteln die Interessenten ihre Gebote, die Angaben sowohl zum Preis als auch zur gewünschten Menge enthalten müssen. In diesem Kontext ist die Abgabe von unlimitierten Geboten unzulässig.32. Die Gebote werden als verdeckte Gebote angenommen, somit sind sie für andere Marktteilnehmer nicht einsehbar. Am Ende der Gebotsfrist wird eine kumulierte Nachfragekurve gebildet, die es ermöglicht, den Emissionspreis zu bestimmen.33 Oftmals wird darüber hinaus ein Höchstpreis festgelegt, um überhöhte Gebote aus der Preisbildung auszuschließen. Alle Gebote zwischen dem festgelegten Emissionspreis und dem Höchstpreis erhalten eine Zuteilung. Diese ist, sofern der Preis niedriger als 27 28 29
30 31 32 33
Vgl. WILLAMOWSKI (2000), S. 88. Vgl. SHERMAN/TITMAN (2002), S. 4. Beim Auktionsverfahren ist eine Übernahme der Aktien durch den Emissionsbegleiter unüblich, das Risiko liegt vollständig beim Emittenten; vgl. HUSSON/JACQUILLAT (1989), S. 351. Die Beschreibung des Verfahrens orientiert sich am französischen „Offre à Prix Minimal“ (OPM), früher auch „Mise en vente“ genannt. Vgl. RAPP (1996), S. 187. Vgl. HUSSON/JACQUILLAT (1989), S. 351. Vgl. GRAVENHORST (2003), S. 47 f. In Frankreich wird dieser z. B. durch den Emittenten, den Emissionsbegleiter und durch die französische Börsenkommission festgestellt.
358
BAUR/VINCENTI
der Markträumungspreis ist, durch eine anteilige Zuteilung gekennzeichnet.34 Die nachfolgende Abbildung 3 zeigt den beispielhaften Ablauf eines Auktionsverfahrens:
Bekanntgabe Mindestpreis
Emissionsvorbereitung u. a. Auswahl Emissionsbegleiter, Unternehmensbewertung, Prospekterstellung
Preisbestimmung anhand Nachfragekurve, Zuteilung nach Auktionsergebnis
Eingang Gebote
Tage ca. X-60
Abbildung 3:
ca. X-10
X-1
X Erstnotierung am Sekundärmarkt
Beispielhafter zeitlicher Ablauf des Auktionsverfahrens35
Während im Bookbuilding-Verfahren nur ausgewählte institutionelle Investoren die Preisbildung beeinflussen, werden im Auktionsverfahren im Idealfall die Bewertungen sämtlicher Bieter aufgedeckt. Damit kann die repräsentative Nachfragefunktion für den Gesamtmarkt abgeleitet werden.36 Voraussetzung hierfür ist jedoch, dass die Gebote die tatsächlichen Preisund Mengenpräferenzen der Marktteilnehmer widerspiegeln. Im Bookbuilding-Verfahren will man strategisches Bietverhalten dadurch unterbinden, indem für die Offenlegung der tatsächlichen Präferenzen eine Entlohnung in Form einer bevorzugten Zuteilung mit gleichzeitiger Aussicht auf einen Zeichnungsgewinn angeboten wird. In einer Auktion lässt sich dies dagegen durch die institutionelle Ausgestaltung des Verfahrens erreichen. Strategisches Bietverhalten kann zum einen dadurch verhindert werden, dass das Orderbuch geschlossen ist und die Bieter keine Einsicht bezüglich der abgegebenen Gebote haben.37 Zum anderen sollten Gebote, die unrealistisch hoch abgegeben werden, ausgeschlossen werden. Hierdurch wird erreicht, dass Bieter nicht strategisch hoch bieten, um in jedem Fall Berücksichtigung zu finden.38 Lässt sich dies unterbinden, so darf man von einer Offenlegung der tatsächlichen Preisund Mengenpräferenzen ausgehen. Durch solchermaßen erworbene Informationen über die Nachfragefunktion kann der Emissionspreis angemessen festgelegt werden. Dieser Emissi34 35 36 37 38
Vgl. DERRIEN/WOMACK (2003), S. 35. In Anlehnung an DERRIEN/WOMACK (2003), S. 35. Vgl. RAPP (1996), S. 188. Vgl. RAPP (1996), S. 188. Vgl. DERRIEN/WOMACK (2003), S. 35.
Emissionsverfahren und das Underpricing von IPO
359
onspreis entspricht dann höchstens dem niedrigsten Gebot, welches noch zur Zuteilung kommt. Jeder erfolgreiche Bieter bezahlt diesen Einheitspreis.39 Es ist jedoch ebenfalls möglich, dass bewusst ein darunter liegender Wert als Zeichnungspreis gewählt wird, um noch Kurspotenzial für die Erstnotierung am Sekundärmarkt zu belassen. Die Allokation beim Auktionsverfahren richtet sich nach den höchsten Preisgeboten.40 Dabei ergibt sich für die Zuteilung eine feste Reihenfolge, die sich aus den absteigenden Stufen der Gebote herleitet. Insofern ist eine verteilende Zuteilung üblicherweise nicht notwendig, es sei denn auf der Stufe des Emissionspreises befindet sich eine erhöhte Nachfrage, die hier eine Verteilung notwendig macht. Je nach Ausgestaltung des Auktionsverfahrens und nach festgelegter Höhe des Emissionspreises besteht auch die Möglichkeit, alle über dem Emissionspreis liegenden Gebote pro rata zuzuteilen. Hier ist jedoch von relativ hohen Quoten nahe der Vollzuteilung auszugehen.41 Durch den dem Verfahren innewohnenden Allokationsmechanismus könnte es im Grenzfall, bei einem Gebot mit sehr hoher Stückzahl, zu einer Aufnahme der Emission durch nur einen Bieter kommen. Dies lässt sich jedoch durch entsprechend vorgegebene Höchstmengen pro Gebot wirksam unterbinden.42
2.4
Emissionsmethoden und ihre länderspezifische Anwendung
Die in diesem Kapitel vorgestellten Methoden sind als vertraglich ausgestaltete, grundsätzlich durchaus variable Mechanismen zu sehen, die genutzt werden, um Aktien zu emittieren. So weisen die hier dargestellten Festpreis- und Bookbuilding-Verfahren die in Deutschland üblicherweise praktizierte Vorgehensweise auf. Hingegen spiegelt das beschriebene Auktionsverfahren die in Frankreich verwendete OPM-Praktik wider. Zwar finden die hier genutzten Begriffe für Emissionsverfahren weltweit ebenfalls Anwendung, jedoch unterscheidet sich die konkrete Ausgestaltung der Verfahren in unterschiedlichen Ländern. So existiert beispielsweise das Bookbuilding-Verfahren in den USA in anderer Ausprägung als hier beschrieben. In Deutschland wird nach der Pre-Marketing-Phase eine Preispanne mit Aufforderung zur Zeichnung genannt, worauf die rechtlich bindenden Zeichnungsaufträge der Investoren gesammelt werden. Dagegen wird in der US-amerikanischen Variante eine indikative Preisspanne bekannt gegeben, aufgrund derer nur ein unverbindliches Interesse bekundet werden kann. Erst nach Festlegung des Emissionspreises werden die Interessenten nochmals dazu angehalten, das rechtlich verpflichtende Angebot abzugeben. In Deutschland erfolgt somit die Zeichnung auf Basis einer Preisspanne, in den USA dagegen auf Basis eines bereits festgelegten Preises.43 Ein zweiter wichtiger Unterschied zwischen US-amerikanischer und europäischer Bookbuilding-Praktik liegt in dem Umstand, dass in Europa die Emissionsbanken in der Regel schon vor Beginn des offiziellen Börsengangs Kontakt mit potenziellen Käufern aufnehmen, um deren Interesse hinsichtlich des Börsenneulings zu sondieren. Diese Vorgehensweise ist in den USA hingegen verboten.44 Deswegen berücksichtigt die anfänglich bekannt gegebene Preisspanne im Bookbuilding-Verfahren europäischer Emissionen anders 39 40 41 42 43 44
Vgl. GRAVENHORST (2003), S. 48. Vgl. RAPP (1996), S. 191. Vgl DERRIEN/WOMACK (2003), S. 35. Vgl. RAPP (1996), S. 191 f. Vgl. TERSTEGE (2002), S. 33 f. Vgl. DRAHO (2004), S. 217, und JENKINSON/MORRISSION/WILHELM (2006), S. 187.
360
BAUR/VINCENTI
als in den USA durchaus bereits Informationen zur Nachfrage. Weiterhin findet sich (im Gegensatz zu den USA) an europäischen Börsenplätzen häufig auch ein Graumarkt, auf dem noch während der Emissionsphase und vor dem ersten Handelstag an der Börse die Erstemission vorbörslich gehandelt wird.45 Empirische Untersuchen zeigen, dass solche vorbörslichen Kurse eine hohe Aussagekraft bezüglich des künftigen Börsenpreises besitzen.46 Ein anderes Beispiel stellt das Festpreisverfahren in Singapur dar, welches entgegen der Verfahrensausgestaltung in Deutschland bei der Zuteilung kein freies Ermessen durch den Emittenten zulässt. Alle Investoren müssen gleich behandelt werden, eine Zuteilung ist nur pro rata möglich.47 Daneben ist noch zu beachten, dass in einem Land auch häufig mehrere Emissionsverfahren nebeneinander vorkommen. Außerdem werden in vielen Ländern zusätzlich hybride Emissionsmodi angewendet. In Frankreich kann bei einer mehr als 20-fachen Überzeichnung einer Emission das Auktionsverfahren in ein Festpreisangebot umgewandelt werden.48 Dagegen ist in Hongkong das Bookbuilding nur in Verbindung mit dem Festpreisverfahren zulässig. Eine detaillierte Aufstellung der in verschiedenen Ländern praktizierten Emissionsverfahren findet sich etwa bei JAGANNATHAN/ SHERMAN.49 Das Bookbuilding-Verfahren ist die in den USA wichtigste Emissionsmethode. Bis Mitte der 1990er-Jahre war außerhalb der USA allerdings das Festpreisverfahren die dominierende Vorgehensweise. Durch große staatliche Privatisierungen sowie durch eine damit einhergehende Internationalisierung des Emissionsgeschäftes gewann das BookbuildingVerfahren seitdem zunehmend an Bedeutung. Im Jahre 1999 durfte man bereits davon ausgehen, dass diese Emissionspraktik bei etwa 80% aller nicht in den USA durchgeführten Börsengänge zur Anwendung kam.50
3
Wirkung der Emissionsmethode auf den Emissionspreis
3.1
Preiswirkungen des Festpreisverfahrens
Das Festpreisverfahren ist im Wesentlichen durch folgende preisbeeinflussende Merkmale charakterisiert:51 ¾
Preisfixierung im Vorfeld des Zeichnungsangebots.
¾ Kein offizieller Informationsaustausch mit potenziellen Investoren bezüglich der angemessenen Preisfindung für die Emission.52 45 46 47 48 49 50 51 52
Vgl. DRAHO (2004), S. 217, und AUSSENEGG/PICHLER/STOMPER (2006), S. 830. Vgl. LÖFFLER/PANTHER/THEISSEN (2005), S. 482. Vgl. KOH/WALTER (1989), S. 266. Vgl. DERRIEN/WOMACK (2003), S. 35. Vgl. JAGANNATHAN/SHERMAN (2006), S. 45 f. Vgl. LJUNGQVIST/JENKINSON/WILHELM (2003), S. 64. Vgl. TERSTEGE (2002), S. 32. Allerdings bedeutet dies nicht, dass nicht dennoch, sozusagen auf inoffiziellem Wege, Informationen bezüglich der Nachfrageseite dem Emittenten bzw. den Emissionsbegleitern zugänglich sind und in den Prozess der Emissionspreisbestimmung mit einfließen.
Emissionsverfahren und das Underpricing von IPO
¾
361
Fixierte Emissionsmenge ohne Möglichkeit eines „Greenshoe“.
¾ Dezentrale Zuteilung der Aktien, wobei zentrale Vorgaben möglich sind.
3.2
Preiswirkungen des Bookbuilding-Verfahrens
3.2.1
Kennzeichnende Merkmale
Analog zum Festpreisverfahren seien auch hier zunächst die wesentlichen preisrelevanten Charakteristika des Bookbuilding-Verfahrens erwähnt:53 ¾
Variabler Preis in der Pre-Marketing-Phase, nachfrageorientierte Herausbildung einer Preisspanne.
¾
Informationsaustausch mit ausgewählten institutionellen Anlegern während des Pre-Marketing zur Ermittlung des Emissionspreises.
¾
Informationsoffenlegung durch institutionelle Investoren gegenüber dem Emittenten, jedoch geschlossenes Orderbuch und damit keine Veröffentlichung der gewonnenen Informationen.
¾
Revisionsfähige Mengenfestlegung mit der Möglichkeit eines „Greenshoe“.
¾ Zentrale Zuteilung der Aktien nach dem Ermessen der Emissionsbank, wobei Käufermerkmale Berücksichtigung finden. Die beiden herausragenden Besonderheiten des Bookbuilding-Verfahrens im Vergleich zum Festpreisverfahren bestehen folglich aus den erweiterten Möglichkeiten der Emissionsbank sowohl zur Preisgestaltung als auch zur Aktienzuteilung. 3.2.2
Preiseinflüsse durch verfahrensspezifische Informationsverteilung
Bereits in Kapitel 2.2 wurde darauf hingewiesen, dass die aktuelle (international maßgebliche) Finanzierungstheorie das Bookbuilding hauptsächlich mit einer asymmetrischen Informationsverteilung zwischen Emittent/Emissionsbank auf der einen und institutionellen Investoren auf der anderen Seite begründet. Wenn man davon ausgeht, dass die potenziellen Käufer hinsichtlich der „Bewertung des Marktes“ für die Aktie besser als der Emittent bzw. die Emissionsbank informiert sind,54 so liegt es im Interesse letzterer, diese Informationen vor dem Börsengang aufzudecken, um eine exaktere Preisbestimmung durchführen zu können. Der Investor dagegen hat zunächst grundsätzlich kein Interesse, seine Informationen offen zu legen, bevor die Aktie erstmalig notiert wird. Dadurch würde er einen, aufgrund unterlegener Informationen des Emittenten, günstigeren Zeichnungskurs für die Aktie bezahlen und könnte diese später auf dem Sekundärmarkt zum dort gültigen höheren Preis verkaufen.55
53 54 55
Vgl. TERSTEGE (2002), S. 32. Der Informationsvorsprung der institutionellen Investoren bezieht sich nach dieser Auffassung demgemäß auf die Kenntnis des Marktes, insbesondere auf die am Markt vorhandene Nachfrage nach der Emission. Vgl. BENVENISTE/SPINDT (1989), S. 344.
362
BAUR/VINCENTI
Im Rahmen des Pre-Marketing wird beim Bookbuilding-Verfahren bekanntlich die vom Emittenten und der Emissionsbank festgelegte Preisspanne den potenziellen Investoren präsentiert. Auf diese Weise kann der Emittent erkennen, welche Nachfrage tatsächlich besteht. Ist diese hoch, so lässt sich eine solche Gegebenheit als Indikator für einen höheren Angebotspreis sehen. Kaufinteressenten, die ihr Interesse an der Aktie bekundet haben und einen höheren Preis zu zahlen bereit sind, müssen daher für eine derartige Informationspreisgabe entlohnt werden, da durch die Enthüllung ihres Kaufinteresses und ihrer „Marktwerteinschätzung“ der Aktie deren Emissionspreis ansteigt. Als Ausgleich dafür sind einerseits eine Zusicherung einer Aktienzuteilung sowie andererseits die Aussicht auf einen (trotz der Preiserhöhung) verbleibenden Zeichnungsgewinn durch Underpricing notwendig.56 Insofern lässt sich hier von einer „Quid-pro-quo“-Vereinbarung zwischen Emittent und institutionellem Anleger sprechen.57 Empirische Unterstützung für einen solchen Zusammenhang zwischen dem Interesse der institutionellen Investoren (und dem Aufdecken positiver Informationen) einerseits sowie der Höhe des Underpricing andererseits liefert beispielsweise HANLEY WEISS.58 Indem sie Erstemissionen mit korrigierten Ausgabepreisen oberhalb der indikativen Preisspanne mit Emissionen ohne Korrektur oder Korrektur nach unten vergleicht, zeigt sie, dass eine alleinige bevorzugte Zuteilung an die Interesse bekundenden und zur Preisbildung beitragenden Investoren wegen der begrenzten Anzahl von Anteilen nicht ausreicht. Darüber hinaus muss ein gewisser Abschlag im Sinne eines absichtlichen Underpricing auf den Aktienpreis erhalten bleiben. Eine hohe Nachfrage führt zwar zu einer Preisanpassung nach oben und somit zunächst zu einer Reduzierung der Zeichnungsrendite, jedoch weist gerade diese Gruppe von Emissionen ein deutlich höheres durchschnittliches Underpricing als die Vergleichsgruppen auf. Es kann somit von einer nur anteiligen Reduzierung des Underpricing (bzw. Anpassung des Emissionspreises an die Nachfrage) ausgegangen werden. Als weiteres Ergebnis wird deutlich, dass im Bookbuilding-Verfahren eine erhöhte Nachfrage zu erhöhtem Underpricing führt. Die Hypothese von HANLEY WEISS, es käme im Rahmen des Bookbuilding-Prozesses zu einer nur teilweisen Emissionspreisanpassung, wird auch in jüngeren Arbeiten bestätigt.59 Diese Feststellung gilt jedoch nur für den US-amerikanischen Emissionsmarkt.60 Wie bereits in Kapitel 2.4 angesprochen, gibt es in vielen Ländern Europas ergänzende Gelegenheiten zum Informationsaustausch vor und während der Zeichnungsphase. Während im US-amerikanischen Markt ein Handel an einem vorbörslichen Graumarkt aufgrund von gesetzlichen Beschränkungen für Aktienerstemissionen verboten ist, besteht eine solche Möglichkeit in vielen europäischen Staaten. Auch unterscheidet sich der Informationsaustausch bei der Investorenansprache. So gehört der Informationsaustausch in Europa vor der Aufnahme des Pre-Marketing zum Standard, während diese Praktik in den USA ebenfalls nicht erlaubt ist.
56 57 58 59 60
Vgl. RITTER/WELCH (2002), S. 1804 f. Vgl. LJUNGQVIST/WILHELM (2002), S. 169. Vgl. HANLEY WEISS (1993), S. 231 ff. Vgl. z. B. LOUGHRAN/RITTER (2002), S. 437. Vgl. etwa AUSSENEGG/PICHLER/STOMPER (2006), S. 829 ff., und JENKINSON/MORRISSION/WILHELM (2006), S. 185 ff.
Emissionsverfahren und das Underpricing von IPO
363
Derartige länderspezifische Unterschiede in den Bookbuilding-Regularien haben großen Einfluss auf den Prozess der Informations- und Preisbildung. Durch den vorgelagerten Informationsaustausch im europäischen Bookbuilding-Verfahren enthält die dort genannte Preisspanne deutlich mehr Informationen in Bezug auf den Emissionspreis, sie ist damit exakter als im US-Verfahren. So wird der Emissionspreis in Europa nur in einem von zehn Fällen außerhalb der Preisspanne festgesetzt, in den USA dagegen in 50% der Fälle.61 Diese erweiterten Möglichkeiten zum Informationsaustausch vor der Festlegung der Preisspanne in Verbindung mit den exogenen Informationsmöglichkeiten am Graumarkt führen zu einem Ausbleiben des oben beschriebenen Effektes partieller Preisanpassung. Das Resultat für den Börsengang wäre ein Emissionspreis, der von der im Pre-Marketing signalisierten Nachfrage institutioneller Investoren weit weniger oder kaum beeinflusst wird. Es ist plausibel, daraus zu schließen, dass sich hierdurch auch die kostspielige Entlohnung von institutionellen Investoren reduzieren ließe. Es kann unter den europäischen Bedingungen des Bookbuilding sogar davon ausgegangen werden, dass als Grund für die Anwendung dieses Emissionsverfahrens nicht die Preisfindung, sondern nur noch die Platzierung der Aktien gesehen wird. Anders als in der herrschenden Bookbuilding-Theorie thematisiert, tritt demzufolge die Informationsgewinnung als Begründung für die Anwendung dieser Emissionsmethode in den Hintergrund.62 3.2.3
Preiseinflüsse durch verfahrensspezifische Allokationsmöglichkeiten
In den vergangenen Jahren wurde dem Zuteilungsprozess von Aktien im Rahmen des Bookbuilding erhöhte akademische Aufmerksamkeit zuteil. Dies lag vor allem daran, dass die das Bookbuilding charakterisierenden Zuteilungsmöglichkeiten der Emissionsbank nach außen hin nicht transparent sind. In Verbindung mit hohen Zeichnungsrenditen während der Internet-Boom-Phase Ende der 1990er-Jahre rückte hier auch das Verhältnis der Allokation zwischen privaten und institutionellen Anlegern in den Mittelpunkt des Interesses. Wie in Kapitel 2.2 erwähnt, ist es der Emissionsbank möglich, die Aktien nach eigenem Ermessen zuzuteilen, wobei primär die Gruppe der institutionellen Investoren und die Gruppe der privaten Anleger zu unterscheiden sind. LJUNGQVIST/WILHELM untersuchen die allgemein thematisierte These, dass institutionelle Anleger im Rahmen des Bookbuilding bevorzugt Zuteilungen bei Emissionen mit positiver Zeichnungsrendite erhalten.63 In dieser verschiedene Länder berücksichtigenden Studie werden Emissionen mit Underpricing zwischen 1990 und 2000 betrachtet und die Allokation auf die Investorengruppen dokumentiert. Das Ergebnis zeigt, dass zwei Drittel der Aktien institutionellen Anlegern zugeteilt werden. Hinsichtlich der Auswirkung auf das Underpricing ergeben sich jedoch uneindeutige Resultate. In Abhängigkeit vom jeweiligen ökonometrischen Design erhält man unterschiedliche Schlussfolgerungen. Einmal nimmt das Underpricing bei den in dieser Arbeit betrachteten Neuemissionen mit zunehmendem Anteil von informierten Kaufinteressenten ab, im Kontext einer anderen Betrachtungsweise dagegen zu. Letzterer Befund wird allerdings durch eine vergleichbare Arbeit von AGGARWAL/PRABHALA/PURI mit ebenfalls empirischen Daten zur Aktienverteilung zwischen institutionellen und privaten Investoren bestätigt.64 61 62 63 64
Vgl. JENKINSON/MORRISSION/WILHELM (2006), S. 207. Vgl. AUSSENEGG/PICHLER/STOMPER (2006), S. 860. Vgl. hierzu und nachstehend LJUNGQVIST/WILHELM (2002), S. 167 ff. Vgl. AGGARWAL/PRABHALA/PURI (2002), S. 1439 ff.
364
BAUR/VINCENTI
Wird im Rahmen einer Betrachtung, die mehrere voneinander unabhängige Emissionen berücksichtigt, von freiem Ermessen der Emissionsbank bei der Zuteilung von Aktien ausgegangen, so ergeben sich durch Möglichkeiten zur Bildung von Investorengruppen Chancen zur Reduktion der Zeichnungsrendite. So kann die Emissionsbank Investorengruppen, die an allen von der Bank begebenen IPO teilnehmen, definieren. Durch derartige langfristige Geschäftsbeziehungen zu diesen Käufern ist es der Bank dann möglich, Verhandlungen im Rahmen des Bookbuilding auch im Hinblick auf spätere Geschäfte zu führen. Hierdurch eröffnet sich die prinzipielle Möglichkeit, das durchschnittliche Underpricing über den Zeitablauf hinweg zu reduzieren und trotzdem die Aufdeckung von preisrelevanten Informationen zu fördern.65 Auf diese Weise liefert dieser Ansatz eine Erklärung für eine notwendige Bevorzugung von institutionellen Anlegern bei der Zuteilung. Eine gesetzliche oder methodische Beschränkung bei der Zuteilungsmöglichkeit von Aktien im Rahmen des Bookbuilding-Verfahrens würde hingegen zu einem nicht optimalen Underpricing führen.66 Die Emissionsbank steht als Intermediär zwischen dem Emittenten und den Investoren. Es ist im Interesse des Emittenten, sowohl die Aktien vollständig zu platzieren als auch einen möglichst hohen Emissionspreis zu erzielen. Primär findet die Entlohnung der Emissionsbank nur durch den Emittenten in Form einer umsatzabhängigen Gebühr statt. Insofern sollte die Bank also hauptsächlich im Interesse des Emittenten handeln und so den höchstmöglichen Preis für die Aktie erzielen. In Verbindung mit der Annahme, dass die Bank durch ihre Allokationsmöglichkeiten das Underpricing auf wenige Prozent senken kann, liegt es daher nahe, jede über diesen Rahmen hinausgehende Zeichnungsrendite genauer zu betrachten. Kämen nämlich noch Vergütungen der Investoren an die Bank zum Tragen, ergäbe sich ein Interessenkonflikt, da der Investor einen möglichst hohen Zeichnungsgewinn erzielen möchte, der zulasten des Emittenten ginge.67 Basierend auf einer ungewöhnlichen Entwicklung bezüglich der Höhe des Underpricing zum Ende des letzten Jahrzehnts68 stellt sich deshalb die Frage nach möglichen Interessenkonflikten seitens der Emissionsbegleiter. Interessant ist in diesem Zusammenhang, ob die Möglichkeiten des Bookbuilding, speziell die Ermessensspielräume der Emissionsbank bei der Zuteilung, solche Interessenkonflikte begünstigen und damit als Erklärungen für das Underpricing herangezogen werden können. Derartige Konflikte würden vorliegen, wenn sich das bereits angesprochene „Quid-pro-quo“ nicht nur auf Informationsbereitstellung durch den Investor im Tausch gegen Aktienzuteilung, sondern auch auf weitere Leistungen vom Investor an die Emissionsbank beziehen würde. Eine aktuelle Untersuchung analysiert, inwieweit Konsortialführer von Emissionen bevorzugt Aktien an diejenigen Investoren zuteilen, die ihnen verstärkt Maklerprovisionen zukommen lassen.69 Das Resultat zeigt eine deutlich positive Korrelation zwischen den jährlichen Maklerprovisionen von Investmentgesellschaften an Konsortialführer und den von diesen Banken an diese Investoren zugeteilten Aktien. Dieses Ergebnis kann dahingehend gedeutet werden, 65 66
67 68
69
Der Investor wird zur Aufdeckung von preisrelevanten Informationen auch dadurch angehalten, dass im Falle eines nicht preisaufhellenden Verhaltens die Gefahr des Ausschlusses aus der Investorengruppe droht. Vgl. SHERMAN (2000), S. 709 f. Vgl. LOUGHRAN/RITTER (2004), S. 8. So lag die durchschnittliche Zeichnungsrendite in den USA zwischen 1980 und 1989 bei 7%, zwischen 1990 und 1998 bei 15%, zwischen 1999 und 2000 bei 65% und sank dann wieder auf 12% zwischen 2001 und 2003; vgl. LOUGHRAN/RITTER (2004), S. 5. Vgl. hierzu und nachstehend REUTER (2006), S. 2289 ff.
Emissionsverfahren und das Underpricing von IPO
365
dass die Geschäftsbeziehung zwischen den Emissionsbanken und den Investmentgesellschaften eine wesentliche Determinante für die Aktienallokation darstellt. Die Verbindung zwischen Zuteilung und Maklergebühren legt nahe, dass Konsortialführer in der Lage sind, von Zeichnungsrenditen durch zunehmendes Maklergeschäft von favorisierten Investoren zu profitieren. Es besteht deshalb der Anreiz für die Emissionsbank, die eigenen (divergierenden) Interessen über die des Emittenten zu stellen, indem nicht mit dem Ziel eines möglichst geringen Underpricing zugeteilt wird. Ebenfalls als Interessenkonflikt gilt die Praktik, dass wichtige Entscheidungsträger von Börsenkandidaten, wie z. B. Vertreter der Risikokapitalgesellschaft oder die Unternehmensführung, im Vorfeld von Emissionen Zusicherungen hinsichtlich bevorzugter Zuteilung sowohl für eigene als auch für andere Emissionen mit hohen Zeichnungsrenditen erhalten. Damit wird bei der Entscheidung bezüglich des Emissionspartners nicht mehr die Bank gewählt, die eine Reputation für besonders geringes Underpricing genießt, sondern im Gegenteil für hohes Underpricing bekannt ist.70 Insgesamt eröffnet die Möglichkeit der freien Zuteilung von Emissionen durch die Emissionsbank im Rahmen des Bookbuilding-Verfahrens die Gelegenheit zur aktiven Beeinflussung des Emissionspreises. Dies kann idealerweise im Interesse des Emittenten zur Minimierung von Underpricing führen. Jedoch besteht auch die Gefahr von Interessenkonflikten. Insbesondere lässt sich dies für die Zeit des so genannten Internet-Booms empirisch belegen. Ein Zusammenhang mit den in dieser Zeit (etwa zwischen 1998 und 2000) stark erhöhten Zeichnungsrenditen ist durchaus nahe liegend.
3.3
Preiswirkungen des Auktionsverfahrens
3.3.1
Kennzeichnende Merkmale
Die wesentlichen preisbeeinflussenden Charakteristika des Auktionsverfahrens sind:71 ¾
Variabler Preis, der erst am Ende der Zeichnungsfrist festgelegt wird, wobei die Herausbildung des Preises in der Auktion sich am Gleichgewichtspreis orientiert.
¾
Informationsaustausch zwischen Emittenten und Investoren über die abgegebenen Gebote.
¾
Keine Informationsoffenlegung zwischen den Bietern, da ein geschlossenes Orderbuch geführt wird.
¾
Allokation der Aktien bei der Preisfestlegung nach dem Meistbietprinzip, eine Zuteilungsregelung liegt üblicherweise nicht vor.
3.3.2
Preiseinflüsse durch verfahrensspezifische Informationsverteilung
Im Rahmen des Festpreisverfahrens findet keine Informationsgewinnung von Investoren zur Festlegung des Emissionspreises statt. Beim Bookbuilding-Verfahren werden Indikationen von informierten institutionellen Investoren gesammelt, um eine Preisbestimmung durchzuführen. Eine Auktion versucht dagegen, die Preis- und Mengenpräferenzen aller interessierten Bieter zu reflektieren und den Verkaufserlös aus Verkäufersicht zu maximieren. Geht man von einer walrasianischen Auktion aus, so konkurrieren die mit Preisen und Mengen spezifi70 71
Vgl. LOUGHRAN/RITTER (2004), S. 32. Vgl. TERSTEGE (2002), S. 33.
366
BAUR/VINCENTI
zierten Gebote um ein begrenztes Angebot. Der Ausgleich erfolgt in Form eines markträumenden Preises und die Zuteilung wird unter diesen Bedingungen optimiert. Für ein Auktionsverfahren zur Aktienemission ist es besonders von Bedeutung, unverfälschte Einschätzungen der Bieter zum Wert der Emission zu erhalten.72 Um dieses Ziel zu erreichen, muss man Regeln entwickeln, die wirksam verhindern, dass Anleger bei der Gebotsabgabe von ihren subjektiven Preis- und Mengenpräferenzen abweichen. Dies gelingt vor allem durch die Elimination von Anreizen zum strategischen Bietverhalten. Zum einen geschieht dies durch ein geschlossenes Orderbuch, da die Kenntnis der anderen Gebote einen Rückschluss auf ein optimales Bietverhalten zulassen würde.73 Zum anderen sollte bei der Preisfestlegung nicht das letzte noch in die Zuteilung einbezogene Gebot berücksichtigt werden, sondern das größte erfolglose Gebot, weil dies ebenfalls strategisches Bietverhalten verhindert. Anhand spieltheoretischer Überlegungen lässt sich die Sinnhaftigkeit einer solchen Regelung nachweisen.74 Durch diese „Zweithöchstpreisauktion bei geschlossenem Orderbuch“75 lassen sich somit die tatsächlichen subjektiven Preispräferenzen der Investoren offen legen. Anschließend können diese Partialinformationen aggregiert und zu einem Gleichgewichtspreis transformiert werden. Eine Voraussetzung für die Ermittlung eines derartigen informationseffizienten Gleichgewichtspreises liegt neben den „werthaltigen“ Informationen zu den Preisen der Bieter auch in der Teilnahme zahlreicher Anleger an der Auktion. Dies stellt jedoch keine dem Auktionsverfahren eigene Herausforderung dar, da im Festpreisverfahren ebenfalls für eine entsprechende Anzahl von Anlegern geworben werden muss.76 Prinzipiell findet die Zuteilung der Aktien bei einer Auktion an die Bieter mit den höchsten Geboten statt. Eine Repartierung wäre danach grundsätzlich nicht notwendig. Es besteht jedoch die Möglichkeit, durch weitere Maßnahmen die Allokation der Aktien zu beeinflussen. So kann, wenn gewünscht, durch bestimmte Höchstgrenzen bei der Gebotsmenge eine breite Streuung erreicht werden. Auch lässt sich durch den Emittenten ein Emissionspreis knapp unter dem Gleichgewichtspreis setzen. In diesem Fall wäre dann eine anteilige Zuteilung vorzunehmen. Allerdings ist eine diskrete und selektive Allokation zugunsten von einzelnen Investoren nicht möglich.77 Zuteilungsberechtigt sind immer die Auktionsgewinner. Alles in allem eröffnet die Emission von Aktien in Form eines Auktionsverfahrens dem Emittenten und den Emissionsbegleitern die Möglichkeit, eine Vielzahl von Marktinformationen in Form von Mengen- und Preisgeboten zu sammeln und in die Preisbildung einfließen zu lassen. Durch die verfahrensbedingte Optimierung des Informationsflusses entsteht die Aussicht darauf, einen repräsentativen Marktpreis zu bilden, der die Präferenzen der Investoren widerspiegelt. Damit wird die Wahrscheinlichkeit einer erheblichen Abweichung des Preises vom Sekundärmarktpreis und damit eines hohen Underpricing merklich reduziert. Die Voraussetzungen hierfür sind, dass
72 73 74 75 76 77
Vgl. RAPP (1996), S. 187. Vgl. MCAFEE/MCMILLAN (1987), S. 701 ff. Vgl. MCAFEE/MCMILLAN (1987), S. 710, und AHRENS (2000), S. 53. Nachfolgend vereinfachend nur noch Zweithöchstpreisauktion genannt, in der Literatur auch als „Sealed-bidsecond-price-auction“ bezeichnet. Vgl. RAPP (1996), S. 190. Vgl. RAPP (1996), S. 192.
Emissionsverfahren und das Underpricing von IPO
367
¾
die wahren Preis- und Mengenpräferenzen der Marktteilnehmer offen gelegt werden und
¾
eine ausreichende Anzahl von Investoren sich für die Emission interessiert.
Diese Anforderungen können durch die Verwendung einer Zweithöchstpreisauktion wesentlich gefördert werden.
4
Vergleich verschiedener Emissionsmethoden
4.1
Festpreisverfahren und Bookbuilding-Verfahren
Eine der wichtigsten Herausforderungen für Platzierungsverfahren liegt in der Ermittlung des Emissionspreises. Durch die Methode, mit der dies erreicht wird, unterscheiden sich das Festpreisverfahren und das Bookbuilding-Verfahren erheblich. Im Festpreisverfahren geschieht die Festlegung des Emissionspreises ohne die (offizielle) Einbeziehung der Nachfrage oder der Informationen möglicher Investoren. Beim Bookbuilding wird dagegen im Rahmen des Pre-Marketing die Einschätzung von ausgewählten Investoren bezüglich der Attraktivität der Emission eingeholt. Die so erhaltenen Informationen fließen in die Preisbildung mit ein. Allgemein steht der Emittent bei Anwendung des Festpreisverfahrens vor der Herausforderung, den Angebotspreis in einem Spannungsfeld richtig zu setzen. Dabei steht dem Vorteil eines höheren Emissionspreises der Nachteil eines Nichtabsetzens der Emission gegenüber.78 Da keine Indikationen von den Investoren über deren Bewertung vorliegen, kann die Preisfestlegung nur auf Basis eingeschränkter (bzw. inoffizieller) Informationen vorgenommen werden. Im Gegensatz dazu findet im Bookbuilding-Verfahren im Rahmen des Pre-Marketing vor der Preisfestlegung eine umfassende und institutionalisierte Sammlung von Käuferwissen statt. Der Emittent erhält diese aggregierten Informationen und verringert oder eliminiert dadurch seinen Informationsnachteil gegenüber der Nachfrageseite des Marktes. Solche Informationen sind jedoch nicht kostenlos. Deshalb müssen die Investoren in Form einer Zeichnungsrendite in Verbindung mit einer bevorzugten Zuteilung entlohnt werden. Im Vergleich der beiden Methoden ergibt sich für das Bookbuilding aufgrund der verfahrensbedingt genaueren Marktkenntnisse prinzipiell die Möglichkeit zur exakteren Preisbestimmung (im Sinne einer Annäherung des Emissionspreises an den Börsenkurs) und damit zur Reduzierung der Zeichnungsrendite. Durch die Option, einen „Greenshoe“ zu platzieren, lässt sich grundsätzlich eine weitere Reduzierung des durchschnittlichen Underpricing über das ganze Emissionsvolumen erzielen, da dieser zum Sekundärmarktpreis verkauft werden kann.79 Eine empirisch gestützte Aussage zur Frage, welches der beiden Platzierungsverfahren in der Realität denn tatsächlich die höhere Zeichnungsrendite aufweist, gestaltet sich allerdings schwierig, da sich die länderspezifischen Regeln für die Emissionsverfahren stark unterscheiden und eine Vergleichbarkeit erschweren. LOUGHRAN/RITTER/RYDQVIST80 beispielsweise ver78 79
80
Vgl. BENVENISTE/BUSABA (1997), S. 388. Die sich durch die geringere Unsicherheit ergebenden Vorteile des Festpreisverfahrens im Sinne eines garantierten Erlöses sollen hier nicht weiter betrachtet werden, da sie zwar Einfluss auf die Wahl des Emissionsverfahrens haben können, nicht jedoch auf die Preisbildung. Vgl. LOUGHRAN/RITTER/RYDQVIST (1994), S. 165 ff.
368
BAUR/VINCENTI
gleichen das US-amerikanische Bookbuilding-Verfahren mit dem dort vorhandenen „BestEffort“-Verfahren.81 Gleichzeitig wird hier im internationalen Vergleich danach unterschieden, in welchen Ländern der Emissionspreis mit und ohne Informationsaustausch festgelegt wird. Das Ergebnis dieser Arbeit steht dabei in Einklang mit den bisher getroffenen theoretischen Überlegungen. Es legt nahe, dass Marktinformationen, die sich in den Preis integrieren lassen, dem Wesen nach zu einer niedrigeren Zeichnungsrendite führen können, das Underpricing im Bookbuilding-Verfahren daher tendenziell niedriger als im Festpreisverfahren ausfällt. Die Untersuchung von KASERER/KEMPF für den deutschen Markt kommt hingegen zu einem anderen, doch überraschenden Ergebnis. Danach ist es keinesfalls sicher, dass Bookbuilding stets ein geringeres Underpricing bedingt als das Festpreisverfahren.82
4.2
Auktionsverfahren und Bookbuilding-Verfahren
Beim Vergleich der beiden Platzierungsmechanismen Auktion und Bookbuilding in Bezug auf die Höhe der Zeichnungsrendite steht insbesondere die Art und Weise der Informationsgewinnung für die Preisfindung im Vordergrund. Beide Methoden bieten die Möglichkeit, Informationen von Investoren vor der Marktnotierung zu erhalten und den Preis anhand dieser Erkenntnisse zu setzen. Wie bereits in den vorhergehenden Abschnitten erläutert, erfolgt die Informationsgewinnung im Rahmen des Bookbuilding durch Direktansprache selektiv ausgewählter institutioneller Investoren. Wichtig bei dieser Emissionspraktik ist der Umstand, dass eine Preisanpassung, insbesondere bei starker Nachfrage, jedoch nur in abgeschwächter Form stattfindet. Somit wird der für den Emittenten optimal zu erzielende Preis durch die Bank nicht realisiert. Im Rahmen des Bookbuilding besteht daneben noch die Möglichkeit, durch Bündelung von Emissionen und Bildung von Investorengruppen bzw. durch langfristige Geschäftsbeziehungen zu Investoren das Underpricing weiter zu senken. Gleichzeitig muss man allerdings bedenken, dass gerade die freien Allokationsmöglichkeiten bei dieser Methode zu ernsten Interessenkonflikten aufseiten der Emissionsbank führen können. Das Auktionsverfahren richtet sich dagegen nicht an einzelne Investoren, sondern wendet sich an alle Kaufinteressenten vor der Preisfestsetzung. Hierbei wird ein Mindestpreis festgesetzt und alle interessierten Investoren können Gebote mit Mengen- und Preisangaben abgeben. Die Preisbildung wird hier deutlich stärker vom Markt als durch die Emissionsbank gesteuert. Es ist daher davon auszugehen, dass die Informationen genauer als im Bookbuilding die Bewertung des Marktes widerspiegeln.83 Eine theoretische Begründung, dass Bookbuilding zu höheren Zeichnungsrenditen als die Zweithöchstpreisauktion führt, liefert etwa AHRENS.84 Der empirische Nachweis solcher argumentativer und modelltheoretischer Ergebnisse fällt insofern schwer, als dass länderübergreifende Vergleiche aufgrund oft unterschiedlicher Börsengangsregeln eine nur geringe Aussagekraft besitzen. In dieser Situation bietet der französische Aktienmarkt eine Besonderheit, da 81 82 83 84
Das „Best-Effort“-Verfahren beinhaltet zwar keine Übernahmegarantie durch die Emissionsbank, jedoch wird auch hier, wie beim Festpreisverfahren, ein Festpreis ohne Investoreninformationen gesetzt. Vgl. KASERER/KEMPF (1996), S. 186. Vgl. DERRIEN/WOMACK (2003), S. 59. Vgl. AHRENS (2000), S. 147.
Emissionsverfahren und das Underpricing von IPO
369
dort sowohl das Bookbuilding-Verfahren als auch das beschriebene Auktionsverfahren OPM angewendet werden. Wie nachfolgende Abbildung 4 zeigt, erscheint hier ein direkter Vergleich möglich: Platzierungsverfahren
Zeitraum
Anzahl IPO
Zeichnungsrendite
Auktion
1992–1998
99
9,7%
Bookbuilding
1992–1998
135
16,9%
Abbildung 4:
Zeichnungsrenditen in Frankreich85
Gleichermaßen für einen empirischen Vergleich eignen sich Daten aus Japan. Dort wird ebenfalls das Bookbuilding-Verfahren neben dem Auktionsverfahren als Platzierungsmethode angeboten. Das Ergebnis ist in nachstehender Abbildung 5 dargestellt: Platzierungsverfahren
Zeitraum
Anzahl IPO
Zeichnungsrendite
Auktion
1993–2001
481
11,4%
Bookbuilding
1997–2001
469
48,0%
Abbildung 5:
Zeichnungsrenditen in Japan86
Sowohl anhand der französischen als auch japanischen Daten lässt sich ein deutlicher Unterschied beim Underpricing zwischen beiden Methoden feststellen. Der empirische Befund deutet in beiden Ländern darauf hin, dass die Zeichnungsrendite im Bookbuilding-Verfahren signifikant höher ist als im Auktionsverfahren.87
4.3
Diskussion
4.3.1
Analyse der Ergebnisse
Beim Vergleich der drei Emissionspraktiken hinsichtlich der Höhe des Emissionspreises weist das Festpreisverfahren das höchste durchschnittliche Underpricing auf. Im Vergleich dazu liefert das Bookbuilding-Verfahren im Ergebnis tendenziell eine geringere Zeichnungsrendite. Jedoch ermöglicht das Auktionsverfahren eine noch wirksamere Verringerung des Underpricing. Hieraus müsste sich aus Sicht des Emittenten eine klare Präferenz zugunsten des Auktionsverfahrens ergeben. Tatsächlich ist jedoch bei der Wahl der Platzierungsmethode länderübergreifend eine Entwicklung hin zum Bookbuilding erkennbar. So wurde in Frankreich im letzten Jahrzehnt das Auktionsverfahren in etwa genauso oft angewendet wie das Bookbuilding-Verfahren. Mittlerweile wurden dort Auktionen allerdings weitgehend zugunsten des Bookbuilding verdrängt.88 Auch in Japan war nach der Einführung des Bookbuilding 85 86 87 88
Vgl. DERRIEN/WOMACK (2003), S. 36. Vgl. KANEKO/PETTWAY (2003), S. 446. Bei der Interpretation der Daten aus Japan muss man allerdings beachten, dass das Bookbuilding-Verfahren dort erst seit September 1997 erlaubt ist, seine Anwendung mithin genau in den so genannten Internet-Boom fällt. Vgl. DEGEORGE/DERRIEN/WOMACK (2005), S. 1.
370
BAUR/VINCENTI
1997 trotz der nachweislich geringeren Zeichnungsrendite des Auktionsverfahrens eine Verdrängung dieses preiseffizienteren Verfahrens innerhalb kürzester Zeit festzustellen.89 Außerhalb der USA waren bis in die 1990er-Jahre die in den jeweiligen Ländern traditionellen Emissionspraktiken, in Europa vorwiegend Festpreisverfahren, dominant. Durch die weltweit einsetzenden Privatisierungen und den dadurch erhöhten Kapitalbedarf sahen sich Emittenten im letzten Jahrzehnt veranlasst, auch Kapital jenseits nationaler Grenzen zu suchen. Notierungen an ausländischen Börsen und die Ansprache internationaler Investoren wurden im Rahmen dieser Entwicklung üblich. Der Zugang zu großen internationalen Investoren im Rahmen des Börsengangs erfolgte dabei vorwiegend unter Einbindung von US-amerikanischen Investmentbanken als Emissionsbegleiter. Über diese Banken erfolgte die weltweite Verbreitung des Bookbuilding als bevorzugtes Emissionsverfahren.90 Aus Sicht der Emittenten müsste man sich die Frage stellen, inwieweit eine Anwendung des Bookbuilding mit den eigenen Interessen zur Maximierung des Kapitalzuflusses vereinbar ist. So berechneten LOUGHRAN/RITTER, dass durchschnittlich bei einer Emission im Bookbuilding-Verfahren 9,1 Mio. USD in Form von Zeichnungsrendite „verschenkt“ werden.91 Dies entspricht in etwa dem Zweifachen der direkt anfallenden Emissionskosten und einem erst über Jahre erzielbaren operativen Gewinn eines jungen Unternehmens. Als Erklärung, wieso Emittenten dies akzeptieren, verweisen beide Autoren auf einen psychologischen Faktor. Zum einen sehen Emittenten demgemäß Underpricing nicht unbedingt als Kosten vergleichbar z. B. den Emissionsgebühren an, da sie nicht als solche ausgewiesen werden. Zum anderen steigt der persönliche Reichtum der Altaktionäre unerwartet, wenn eine hohe Nachfrage und somit ein höherer zu erwartender Emissionspreis durch die Emissionsbank indiziert werden. Gerade bei einer Preisrevision nach oben tritt aber, wie bereits dargelegt, eine erhöhte Zeichnungsrendite auf, da nur eine partielle Preisanpassung stattfindet. In dieser Konstellation von unerwartet gesteigertem persönlichen Reichtum und Underpricing als „verdeckten“ Kosten ist von einer verminderten Bereitschaft zur harten Verhandlung des Emissionspreises seitens des Emittenten auszugehen. Diese These allein vermag die Akzeptanz von hohen Zeichnungsrenditen durch den Emittenten zwar nicht vollständig zu erklären, jedoch muss man einen gewissen Einfluss auf die Preisfestlegung annehmen. Eine weitere Begründung, warum ein Emittent das Bookbuilding-Verfahren und somit eine nicht optimierte Zeichnungsrendite akzeptiert, kann durch eine Veränderung in der Zielsetzung des Emittenten gegeben sein. Als alternatives Primärziel für einen Emittenten beim Börsengang lässt sich auch das Wohlwollen von Analysten im Sinne von Kaufempfehlungen sehen. Investmentbanken bieten im Rahmen von Börsengängen Analystenbewertungen als Service an, der jedoch nicht separat in Rechnung gestellt wird. Diese Analystenbewertungen sind somit im Emissionspaket enthalten und dienen als Hauptauswahlkriterium für die Mandatsvergabe. Da speziell in den USA pro Branche nur fünf so genannte „Staranalysten“ vorhanden sind, ergibt sich für die Auswahl der Investmentbank ein eingeschränkter Spielraum und somit eine Oligopolstellung der Banken. Die Folge davon besteht aus einer Kräfteverschiebung zugunsten der Emissionsbank bei der Festlegung des Emissionspreises.92 Von den führenden Investmentbanken wird diese Gelegenheit auch sehr wohl wahrgenommen. Dies zeigt 89
90 91 92
So wurden nur im Jahr 1997 die beiden Platzierungsmethoden nebeneinander verwendet. Ab 1998 kam hingegen nur das Bookbuilding-Verfahren zum Einsatz, obwohl Auktionen nach wie vor als Emissionsverfahren prinzipiell verfügbar sind; vgl. KANEKO/PETTWAY (2003), S. 449, und KUTSUNA/SMITH (2004), S. 1130. Vgl. LJUNGQVIST/JENKINSON/WILHELM (2003), S. 64. Vgl. hierzu und nachfolgend LOUGHRAN/RITTER (2002), S. 437 f. Vgl. LOUGHRAN/RITTER (2004), S. 6.
Emissionsverfahren und das Underpricing von IPO
371
sich etwa in dem Umstand, dass die Marktkonzentration bei Investmentbanken zu tendenziell erhöhtem Underpricing führt.93 DEGEORGE/DERRIEN/WOMACK kommen zu einem vergleichbaren Ergebnis. Positive Analystenbewertungen sind gemäß ihrer Untersuchung ebenfalls für die Emittenten das wichtigste Kriterium bei der Wahl des Emissionsbegleiters. Gewährt werden sie vor allem von Emissionsbanken im Zusammenhang mit dem Bookbuilding.94 Als dritte Ursache dafür, weshalb die Höhe des Underpricing für den Emittenten von untergeordneter Bedeutung sein könnte, sind auch rechtlich bedenkliche Verfahrenspraktiken zu nennen, beispielsweise die Vorgehensweise, dass Entscheidungsträger durch „Vergünstigungen“ in ihrer Wahl des Emissionshauses beeinflusst wurden. So war es in den 1990er-Jahren nicht unüblich, für wichtige Personen aus Risikokapitalgesellschaften und Angehörige der Geschäftsführung von Börsenkandidaten, persönliche Konten zu eröffnen und diesen bevorzugt Aktien aus Emissionen mit einem zu erwartenden hohen Zeichnungsgewinn zuzuteilen. Dadurch wurde der persönliche Reichtum dieser Personen, unabhängig vom Emissionsergebnis des eigenen Unternehmens, auch durch andere IPO vergrößert. Im Ergebnis führte eine derartige Praktik natürlich dazu, dass nicht mehr der Emissionsbegleiter mit der Reputation für das geringste Underpricing bevorzugt wurde.95 Idealerweise ist das Engagement der Emissionsbank vom Interessenausgleich zwischen Emittent, den Investoren und den eigenen Zielen geprägt. Zu diesem Zweck sollte der Emissionsbegleiter demnach zunächst einmal das Anliegen des Emittenten berücksichtigen. Hierzu zählt vornehmlich ein möglichst hoher Ausgabekurs. Die eigenen Ziele der Bank liegen dagegen in einer vollständigen Platzierung, dem Aufbau einer Reputation (im Sinne einer anfänglichen Kurssteigerung) und der Verringerung des Aufwandes für die Kurspflege. Diese Interessen der Bank implizieren jedoch einen niedrigen Ausgabekurs. Lediglich bei der Berechnungsgrundlage für die Provisionsberechnung ist ein hoher Emissionspreis für die Bank von Vorteil, da dieser sich am Bruttoumsatz der Emission orientiert. Käufer hingegen bevorzugen bekanntlich einen möglichst niedrigen Ausgabekurs. Ergänzend ist noch zu beachten, dass für einen Emissionsbegleiter ein Unternehmen beim Börsengang zunächst nur als einmaliger Kunde gilt. Die Beziehung zu den (institutionellen) Investoren stellt sich dagegen als dauerhaftes Kundenverhältnis dar, welches einem Verhalten gegenseitiger Begünstigung durchaus zuträglich sein kann.96 Bei Betrachtung der Möglichkeiten der Preisgestaltung und der Aktienzuteilung durch die Emissionsbank im Rahmen des Bookbuilding-Verfahrens wird deutlich, dass die Bank sehr weitgehende Gestaltungsspielräume besitzt. In Verbindung mit einer Präferenzlage wichtiger Personen seitens des Emittenten, die nicht mehr primär auf eine Maximierung des Emissionserlöses gerichtet ist, sowie einem Emissionsbegleiter, der in einem Interessenkonflikt zum Emittenten steht, stellt sich die Frage, inwieweit sich hieraus Entwicklungen zuungunsten des Emittenten ergeben können. Die bevorzugte Zuteilung von Aktien an institutionelle Investoren und ein verbleibendes Underpricing ist wohl nach der Bookbuilding-Theorie notwendig, um eine Aufdeckung von preisrelevanten Informationen zu erhalten. AGGARWAL/PRABHALA/ PURI liefern jedoch Daten, die eine Bevorzugung von institutionellen Anlegern erkennen las93 94
95 96
Vgl. HOBERG (2003), S. 26 f. Vgl. DEGEORGE/DERRIEN/WOMACK (2005), S. 33 f. Zusätzlich legt diese Studie nahe, dass im Bookbuilding emittierte IPO von nicht an der Emission beteiligten Banken durch deren Analysten gleichermaßen bevorzugt bewertet werden. Vgl. LOUGHRAN/RITTER (2004), S. 32. Vgl. BIAIS/BOSSAERTS/ROCHET (2002), S. 118.
372
BAUR/VINCENTI
sen, die über die Notwendigkeit des „Quid-pro-quo“ beim Bookbuilding hinausgeht.97 In diesem Kontext liegt der Schluss nahe, dass eine solche Begünstigung professioneller Investoren hauptsächlich in der Bank-Investoren-Beziehung begründet liegt. Ähnliche Ergebnisse berichtet auch REUTER,98 der den Zusammenhang zwischen Aktienzuteilung an Investmentfonds und gezahlten Maklerprovisionen von Fonds an diese zuteilungsberechtigten Emissionsbanken untersucht. Einerseits wird erkennbar, dass in den Jahren 1996 bis 1999 etwa 40% der Zeichnungsgewinne an Investmentfonds geflossen sind.99 Andererseits lässt sich ein verstärkter Zufluss von Maklerprovisionen aus diesen Fonds an die Investmentbanken, die mit der Emission betraut gewesen sind, beobachten. Eine derartige Möglichkeit der Bank, vom Underpricing indirekt durch Rückflüsse von Maklerprovision zu profitieren, offenbart, dass hier ein Anreiz für die Bank besteht, ein höheres Underpricing zu akzeptieren, als dies für den Prozess der Preisfindung eigentlich notwendig wäre. Im Vergleich zum Festpreisverfahren, besonders im Hinblick auf die Emissionspreisfindung, bietet das Bookbuilding insgesamt allerdings klare Vorteile, die die Verdrängung der Festpreispraktik nachvollziehbar werden lassen. Der Emissionsbegleiter nimmt jedoch im Bookbuilding eine weitaus stärker gestaltende Rolle ein. So obliegen ihm im Wesentlichen die Preisfestlegung und die Aktienzuteilung. Diese weit reichende Gestaltungsfreiheit ermöglicht es den Emissionsbanken, die Emittenten in Bezug auf die Höhe des Underpricing zu desensibilisieren, indem Vergünstigungen für Schlüsselpersonen des Emittenten angeboten werden. Auch die Veränderung der Emissionsziele von der Maximierung des Kapitalzuflusses hin zur Analystenunterstützung, die gerade durch die Emissionsbegleiter gewährt werden kann, führt zu einer Oligopolstellung der Emissionsbanken. Diese Machtverschiebung hin zu den Banken kann, wie oben gezeigt, zur Nutzung eigener Interessen und damit zur Benachteiligung von Emittenten verwendet werden. Aus dem Nachweis, dass die Rolle des „Market maker“ durch die Banken für eigene Ziele genutzt wurde, sowie aus dem erhöhten Underpricing des Bookbuilding im Vergleich zu Auktionen ist deshalb eine Diskussion darüber entstanden, inwieweit das Bookbuilding-Verfahren beibehalten bzw. modifiziert oder durch das Auktionsverfahren ersetzt werden sollte. 4.3.2
Beibehaltung oder Modifikation des Bookbuilding-Verfahrens
Befürworter des Bookbuilding argumentieren, es sei unbedingt notwendig, dass die Bank bei der Preisbildung und der Zuteilung vollen Ermessensspielraum besitze, um das Risiko für die Investoren und den Emittenten zu minimieren. Nur dieses Verfahren eröffne für den Emissionsbegleiter die Möglichkeit, entweder das Underpricing oder die Volatilität des Sekundärmarktkurses aktiv zu beeinflussen. Das Risiko, dass keine oder wenige Investoren sich mit der Emission beschäftigten, werde dadurch minimiert, dass man institutionelle Investoren direkt anspräche und dabei eine bevorzugte Zuteilung in Aussicht stellen könne. Bei Auktionen ließe sich dies nicht garantieren, wodurch sich das Risiko einer nicht vollständigen Platzierung erhöhe. Alleine die auktionsspezifische Möglichkeit, dass eine Vielzahl von Bietern für eine Emission Gebote abgeben könne, führe zu einem niedrigeren Underpricing, was die Emission im Umkehrschluss als uninteressant erscheinen ließe. Daher würden sich weniger Interessenten den Emissionen im Auktionsverfahren zuwenden.100 Außerdem stelle eine Auk97 98 99 100
Vgl. AGGARWAL/PRABHALA/PURI (2002), S. 1439 ff. Vgl. hierzu und nachfolgend REUTER (2006). Hierbei handelt es sich um 20 Milliarden USD von insgesamt 50 Milliarden USD Zeichnungsgewinn. Vgl. SHERMAN (2005), S. 638 ff.
Emissionsverfahren und das Underpricing von IPO
373
tion nicht sicher, dass Investoren, die sich mit der Bewertung der Emission auseinandersetzten, adäquat entlohnt würden. Es träten in Auktionen nämlich so genannte „free rider“ als Nutznießer auf, die überhöhte Angebote abgäben in dem Wissen, aufgrund des Auktionsmechanismus nur einen niedrigeren Preis zu zahlen. Hierdurch würden die Emissionspreise volatiler und der Informationsgehalt des Markträumungspreises nähme ab. Dies ließe sich nur verhindern, wenn alle teilnehmenden Bieter über einen sehr hohen Wissensstand verfügten und ein sehr diszipliniertes Bietverhalten an den Tag legten. Da jedoch Millionen möglicher Bieter an einer Auktion teilnehmen könnten, sei es nahezu unmöglich, einen einheitlichen Wissensstand bezüglich des notwendigen Bietverhaltens zu erzeugen.101 Die Komplexität, die bei Auktionen zu berücksichtigen ist, beschreibt WILHELM als Nachteil dieser Methode, indem er als Beispiel eine Auktion der Federal Communications Commission anführt, in der die Regeln zur Auktionsdurchführung in einer 130-seitigen Anweisung dargestellt sind. Des weiteren geht er davon aus, dass das Bookbuilding seine besondere Stärke in der Aufdeckung von relevanten Informationen beweise, da oft Preiskorrekturen nach oben erfolgten und dies die Einschätzung der institutionellen Investoren aufzeigte. Würde man bei der Zuteilung mehr private Anleger bedenken, würde man weniger Informationen aufdecken und das Underpricing sollte zunehmen.102 Ein weiteres Kriterium, warum Auktionen dem Bookbuilding-Verfahren unterlegen seien, erwähnen KUTSUNA/SMITH. Nach ihrer Auffassung wurde es erst durch die Einführung des Bookbuilding in Japan möglich, Unternehmen eine Plattform zur Präsentation ihrer Unternehmensqualität zu bieten. Die Folge sei eine Zunahme der Emissionsaktivitäten von qualitativ hochwertigen Unternehmen gewesen. Zwar wird in dieser Arbeit die erheblich höhere Zeichnungsrendite des Bookbuilding im Vergleich zur Auktion eingeräumt, jedoch gehen die Autoren davon aus, dass unter Einbeziehung von Opportunitätskosten einer nicht vollständig gezeichneten Auktion die gesamten Emissionskosten der beiden Verfahren gleich wären.103 In den Argumentationen der Befürworter des Bookbuilding werden Interessenkonflikte als kein speziell der Aktienemission innewohnendes Problem gesehen, sondern sie träten immer auf, wenn ein Intermediär zwischen Parteien mit entgegengesetzten Interessen stehe. Dass es hierdurch zu keiner einseitigen Benachteiligung einer Partei komme, dafür sorge die eigene Reputation, die eine Bank wahren müsse.104 Zusammenfassend ist in diesem Bereich der Diskussion festzustellen, dass die Befürworter des Bookbuilding prinzipiell dafür plädieren, dieses in seinen wesentlichen Zügen zu erhalten. Die Einführung eines Auktionsmechanismus für die Emission von Aktien wird dagegen weitestgehend abgelehnt. Allerdings erkennt man die Notwendigkeit an, das BookbuildingVerfahren in seiner derzeitigen Form zu verbessern. WILHELM sieht einen Reformbedarf insbesondere im Hinblick auf die Nutzung neuer Technologien für die Informationsgewinnung von Investoren. Die derzeitige Praxis der individuellen Kontaktaufnahme mit professionellen Investoren ist nach seiner Einschätzung zu kostspielig und wird künftig wohl durch eine standardisierte EDV-Lösung ersetzt. Eine Abschaffung der freien Allokationsmöglichkeit der Banken durch individuelle Entscheidungen sowie eine Abschwächung der Position des In-
101 102 103 104
Vgl. JAGANNATHAN/SHERMAN (2006), S. 3. Vgl. WILHELM (2005), S. 56 ff. Vgl. KUTSUNA/SMITH (2004), S. 1163 f. Vgl. WILHELM (2005), S. 62.
374
BAUR/VINCENTI
termediärs betrachtet er dagegen in der absehbaren Zukunft als kaum wahrscheinlich.105 JAGANNATHAN/SHERMAN wollen der Kritik bezüglich der Intransparenz bei der Aktienzuteilung dahingehend begegnen, dass vorab die Kriterien der Zuteilung bekannt gegeben werden. Die Bewertung der Gebote soll sich hierbei nicht nur auf den Preis erstrecken, sondern z. B. auch Abgabezeitpunkt und weitere zu definierende Gesichtspunkte beinhalten. Um die Teilnahme von privaten Investoren zu ermöglichen, wird eine hybride Form des Bookbuilding vorgeschlagen. Hier wird ein festgelegter Teil der Emission im Rahmen des Pre-Marketing institutionellen Investoren angeboten und daraus wird die Preisspanne ermittelt. Die restlichen Aktien werden den privaten Investoren offeriert, wobei diese neben dem Preis auch zusätzliche Informationen im Rahmen eines Fragebogens abzugeben haben. Dies soll dem Emissionsbegleiter über den Preis hinausgehende Qualitätskriterien für die Zuteilung liefern.106 Insgesamt beruhen die von den Befürwortern des Bookbuilding-Verfahrens benutzten Argumente, warum dieses Verfahren für die Neuemission am effizientesten sei, im Wesentlichen auf den modelltheoretischen Arbeiten von BENVENISTE/SPINDT und HANLEY WEISS sowie den darauf aufbauenden Schriften.107 4.3.3
Auktion als bevorzugtes Emissionsverfahren
Wie oben erwähnt, haben Untersuchungen in der jüngsten Vergangenheit ergeben, dass die Annahme, der Emissionsbegleiter handle grundsätzlich alleine im Interesse des Emittenten, nicht haltbar ist. Gerade im Rahmen des Bookbuilding hat die Emissionsbank die Instrumentarien in der Hand, die es ihr ermöglichen, eigene Interessen zu verfolgen. Das Auktionsverfahren dagegen setzt klare, dem Mechanismus innewohnende Regeln, welche die Preisfestlegung und die Aktienzuteilung bereits mit sich bringen und dem Emissionsbegleiter diesbezüglich kein eigenes Ermessen zubilligen. Wie schon vorab angemerkt, darf man die wissenschaftliche Diskussion bezüglich der Frage, inwieweit eine Auktion sich als Emissionsverfahren eigne, allerdings nicht durch Rückgriff auf das Konzept einer „einfachen“ walrasianischen Auktion führen. Vielmehr sollte man modifizierte Auktionsmethoden betrachten, die strategisches Bietverhalten unterbinden. Letztere Anforderung wird beispielsweise mittels der Verwendung einer Zweithöchstpreisauktion bei geschlossenem Orderbuch sichergestellt. Der Kritik der Gegner des Auktionsverfahrens, Nutznießer („free riders“) könnten die Nachfrageinformationen in Auktionen in dem Bewusstsein, der Marktpreis sei niedriger als das eigene Gebot, verfälschen und somit zu nicht „werthaltiger“ Informationsaufdeckung führen, wird damit wirksam begegnet.108 Daneben bietet beispielsweise die OPM-Auktion in Frankreich als mögliche Ausgestaltungsform einer Auktion die Besonderheit, unrealistisch hohe Gebote zusätzlich über eine Höchstpreisgrenze auszuschließen. Hierbei werden alle Gebote, die über dem Emissionspreis plus x Prozent liegen, als unrealistische Gebote gestrichen.109 Eine derartige Verfahrensweise kann 105 106 107
108 109
Vgl. WILHELM (2005), S. 65 f. Vgl. JAGANNATHAN/SHERMAN (2005), S. 70 ff. Vgl. BENVENISTE/SPINDT (1989) und HANLEY WEISS (1993). Ergänzend sei noch bemerkt, dass Veröffentlichungen von WILHELM (2005) und JAGANNATHAN/SHERMAN (2005), geprägt durch die Hervorhebung des Bookbuilding als überlegenes Emissionsverfahren, im „Journal for Applied Corporate Finance“ stattfanden, einer Publikation von MORGAN STANLEY. Vgl. BIAS/FAUGERON-CROUZET (2002), S. 28 f. Vgl. DERRIEN/WOMACK (2003), S. 35. Der Prozentsatz, der für die Bestimmung des Höchstpreises verwendet wird, variiert je nach Gebotssituation und kann damit ebenfalls nicht als Bezugspunkt für strategisches Bietverhalten verwendet werden.
Emissionsverfahren und das Underpricing von IPO
375
als weiterer Sicherungsmechanismus zum Schutz vor überhöhten unrealistischen Geboten gesehen werden.110 Das ebenfalls oftmals als Unzulänglichkeit des Auktionsverfahrens dargestellte Argument, bei dieser Methode ließe sich kaum eine ausreichende Anzahl von Investoren für eine Zeichnung gewinnen, ist nicht als verfahrensspezifisch anzusehen. Bei einer Emission im Festpreisverfahren stellt sich stets dieselbe Herausforderung.111 Insgesamt darf man wohl davon ausgehen, dass sich das Auktionsverfahren in einer Ausgestaltung analog dem französischen OPM und in der Anwesenheit von Interessenkonflikten als sehr empfehlenswertes Verfahren in Bezug auf eine Maximierung des Emissionserlöses ansehen lässt.112 4.3.4
Bookbuilding-Theorie aus heutiger Sicht
Bei der Bewertung, inwieweit sich das Auktionsverfahren zur Aktienemission besser als das Bookbuilding-Verfahren eignet, sollten auch die aktuellen Erkenntnisse zur Informationsgewinnung im Bookbuilding-Prozess herangezogen werden. Das für die Erklärung der Wirkungsweise der Informationsakquisition und Entlohnung im Bookbuilding zentrale Konzept geht bekanntlich von der Notwendigkeit aus, die institutionellen Investoren für die Aufdeckung von preisrelevanten Informationen zu entlohnen. Es stellt sich grundsätzlich die Frage, inwieweit dieser Ansatz der dynamischen Informationsakquisition zur Informationsenthüllung effizient ist. Vor allem vor dem Hintergrund der intransparenten Entlohnung institutioneller Investoren erhält diese Thematik eine nicht geringe Bedeutung. In Deutschland besteht im Vorfeld einer Aktienemission ein Graumarkt, der mit der Bekanntgabe der Preisspanne und Aufforderung zur Zeichnung fortlaufend Graumarktkurse erstellt. Diese Kurse spiegeln den öffentlich zugänglichen Informationsstand wider und werden bis zum Vortag der ersten Notierung gestellt. Die Graumarktpreise an diesem Vortag sind dabei wesentlich genauer hinsichtlich des ersten Sekundärmarktkurses als etwa die Mitte der Bookbuilding-Spanne oder der Emissionspreis. Oftmals entspricht dieser Vortageskurs nahezu exakt der ersten Notierung am Sekundärmarkt. Als Schlussfolgerung lässt sich daher festhalten, dass während der Zeichnungsfrist keine entlohnenswerte Informationsproduktion seitens institutioneller Investoren mehr erfolgt. Das Underpricing muss somit voll zur Entlohnung für deren Informationsbekanntgabe vor der Zeichnungsfrist verwendet werden. Eine Zeichnungsrendite aufgrund von noch bestehenden Informationsasymmetrien besteht demnach nicht mehr.113 Insofern kann man sogar unterstellen, dass der Beitrag der institutionellen Käufer zur Informationsaufdeckung nur noch von untergeordneter Bedeutung ist.114 Die Preisfindungsfunktion des Bookbuilding und damit die Notwendigkeit zur kostspieligen Entlohnung von institutionellen Anlegern treten folglich in den Hintergrund.
110 111 112 113 114
Vgl. auch RAPP (1996), S. 191, der grundsätzlich die Möglichkeit von Eingriffen bei der Zulässigkeit von Geboten vorsieht. Hierdurch können auch z. B. unlimitierte Gebote ausgeschlossen werden. Vgl. RAPP (1996), S. 190. Vgl. BIAIS/BOSSAERTS/ROCHET (2002), S. 143, CHEMMANUR/LIU (2002), S. 35, und DERRIEN/WOMACK (2003), S. 59. Vgl. LÖFFLER/PANTHER/THEISSEN (2005), S. 482 f. Vgl. AUSSENEGG/PICHLER/STOMPER (2006), S. 860.
376
BAUR/VINCENTI
Eine weitere Untersuchung aus der jüngsten Vergangenheit befasst sich mit dem Konzept der teilweisen Preisanpassung bei einer Emissionspreisfestlegung außerhalb der indikativen Preisspanne. Erhöhtes Underpricing tritt in diesem Ansatz dann auf, wenn eine starke Nachfrage zu einer Preisanpassung oberhalb der anfänglichen Preisspanne führt. Der Preis wird jedoch nur teilweise nach oben korrigiert, da die Investoren für die Offenlegung des erhöhten Interesses zusätzlich entlohnt werden müssen.115 INCE zeigt nun auf, dass sich diese nur teilweise Anpassung des Emissionspreises eben nicht auf die Notwendigkeit zur Entlohnung für private Informationen zurückführen lässt. Vielmehr kann er eine unvollständige Informationsverarbeitung öffentlich zugänglicher Preisdaten feststellen. Demgemäß wird weniger als die Hälfte des Preisanstieges, der aufgrund öffentlich zugänglicher Marktdaten zu verzeichnen ist, während der Zeichnungsfrist in die Preissetzung miteinbezogen.116 Dieses Ergebnis deutet auf einen ineffizienten Informations- und Preisbildungsmechanismus im Bookbuilding-Verfahren hin, der stark von der schlechteren Verhandlungsposition des Emittenten bei der Preisfestlegung beeinflusst wird. Aufgrund der Komplexität und der Intransparenz im Prozess der Informationsgewinnung und Entlohnung der institutionellen Investoren beim Bookbuilding ließe sich die Frage stellen: Weshalb wird dieser Informationsgewinnungsprozess zur Preisfindung nicht einer unabhängigen Instanz wie z. B. MOODY’S im Rahmen einer festgelegten Entlohnung übertragen? Im Emissionsmarkt für festverzinsliche Wertpapiere ist eine unabhängige Bewertung üblich. Weshalb wird dies im Aktienemissionsmarkt nicht ähnlich gehandhabt?117
5
Zusammenfassung
Die gewählte Emissionspraktik und die damit zusammenhängenden Verfahrensspezifika sind als wesentliche Determinanten des Emissionspreises und damit des realisierbaren Emissionserlöses durch den Emittenten zu sehen. So hängt der Emissionspreis stark von den in der jeweiligen Methode zur Verfügung stehenden und in die Preisbildung miteinbezogenen Informationen ab. Das Festpreisverfahren, das durch eine frühe Preisfestsetzung ohne (offizielle) Einbindung von Investoreninformationen gekennzeichnet ist, kann demnach nur als eher ungenaue Vorgehensweise zur Bestimmung eines angemessenen Marktpreises angesehen werden. Alternativ bietet das Bookbuilding-Verfahren zunächst die Möglichkeit, von einem Teil der Investoren, nämlich den institutionellen Anlegern, wichtige Informationen für die Preisbildung zu erhalten. Eine Einbeziehung dieses Wissens in die Preisfindung ermöglicht eine genauere Preisbestimmung, jedoch ist für die Informationsoffenlegung der institutionellen Investoren eine bevorzugte Zuteilung sowie eine verbleibende Zeichnungsrendite zu gewähren. Die Zuteilung nach eigenem Ermessen bietet im Bookbuilding eine weitere Möglichkeit zur Kontrolle des Underpricing durch Bündelung von mehreren Emissionen gegenüber einzelnen institutionellen Investoren. Im Auktionsverfahren wird beim Aufruf zur Zeichnung die Informationsoffenlegung aller Kaufinteressenten gefördert, da jeder Zeichner seine Werteinschätzung durch das jeweilige Gebot offenbart. Strategisches Bietverhalten kann durch eine entsprechende institutionelle Ausgestaltung dieser Methode unterbunden werden. In Bezug auf die Informationsverarbeitung und damit die Preisbestimmung besitzen Auktionen Vorteile 115 116 117
Vgl. HANLEY WEISS (1993) und Kap. 3.2.2. Vgl. INCE (2006), S. 29 f. Vgl. RITTER (2002), S. 303 f.
Emissionsverfahren und das Underpricing von IPO
377
gegenüber dem Bookbuilding. Das Festpreisverfahren stellt dagegen das am wenigsten geeignete Verfahren zur Emissionspreisbestimmung dar. Ein solches Resultat entspricht auch den empirischen Beobachtungen. Entgegen deren Ergebnissen ist jedoch das Bookbuilding-Verfahren die seit dem letzten Jahrzehnt dominierende Emissionspraktik, wobei zur Jahrtausendwende stark erhöhtes Underpricing unter Anwendung genau dieser Methode zu beobachten war. Bei genauerer Betrachtung derartiger Phänomene lassen sich diese hohen Zeichnungsrenditen nicht mehr allein mit Informationsasymmetrien erklären. Vielmehr bietet das Bookbuilding umfangreiche Gestaltungsmöglichkeiten zur Preisfestlegung und Aktienzuteilung, die zu Intransparenzen führen und damit den Emissionsbanken die Möglichkeiten zur Verfolgung eigener Interessen und zur Benachteiligung der Emittenten eröffnen. Diese Interessenkonflikte in Verbindung mit einer Veränderung der Zielsetzung der Emittenten, die nicht mehr primär eine Maximierung des Emissionserlöses beim Börsengangs anstreben, sondern eher auf eine bevorzugte Behandlung durch Analysten ausgerichtet sind, verhindern eine effektive Preissetzung bei der Aktienemission. Die Dominanz des Bookbuilding als Emissionspraktik ist daher nicht auf dessen Effektivität zurückzuführen, sondern auf die Bevorzugung dieser Methode durch die Emissionshäuser, die hierdurch den größtmöglichen Gestaltungsspielraum für die Durchsetzung eigener Interessen erhalten.118
Quellenverzeichnis AGGARWAL, R./PRABHALA, N. R./PURI, M. (2002): Institutional Allocation in Initial Public Offerings – Empirical Evidence, in: Journal of Finance, 2002, S. 1421–1442. AHRENS, G. (2000): Preisbildung beim Gang an die Börse – Der Einfluß von Plazierungsverfahren auf die Unterbewertung bei Aktienerstemissionen, Frankfurt et al. 2000. AUSSENEGG, W./PICHLER, P./STOMPER, A. (2006): IPO Pricing with Bookbuilding and a WhenIssued Market, in: Journal of Financial and Quantitative Analysis, 2006, S. 829–862. AUSUBEL, L. M. (2002): Implications of Auction Theory for New Issues Markets, University of Maryland, Working Paper Number 02-19, Tydings Hall 2002. BARRY, C. B. (1989): Initial Public Offering Underpricing – The Issuer’s View – A Comment, in: Journal of Finance, 1989, S. 1099–1103. BENVENISTE, L./BUSABA, W. (1997): Bookbuilding vs. Fixed Price – An Analysis of Competing Strategies for Marketing IPOs, in: Journal of Financial and Quantitative Analysis, 1997, S. 383–403. BENVENISTE L. M./SPINDT P. A. (1989): How Investment Bankers Determine the Offer Price and Allocation of New Issues, in: Journal of Financial Economics, 1989, Nr. 24, S. 343– 361. BIAIS, B./BOSSAERTS, P./ROCHET, J.-C. (2002): An Optimal IPO Mechanism, in: Review of Economic Studies, 2002, S. 117–146. 118
Vgl. AUSUBEL (2002), S. 18 f.
378
BAUR/VINCENTI
BIAIS, B./FAUGERON-CROUZET, A. M. (2002): IPO Auctions – English, Dutch…French and Internet, in: Journal of Financial Intermediation, 2002, S. 9–36. CHEMMANUR, T. J. (1993): The Pricing of Initial Public Offerings – A Dynamic Model with Information Production, in: Journal of Finance, 1993, S. 285–304. CHEMMANUR, T. J./LIU, H. (2002): How Should a Firm Go Public? A Dynamic Model of the Choice Between Fixed-Price Offerings and Auctions in IPOs and Privatizations, Boston College, Working Paper, Boston 2002. DALTON, D. R./CERTO, T. S./DAILY, C. M. (2003): Initial Public Offerings as a Web of Conflicts of Interest – An Empirical Assessment, in: Business Ethics Quarterly, 2003, S. 289– 314. DAWSON, S. M. (1987): Initial Public Offer Underpricing – The Issuer’s View – A Note, in: Journal of Finance, 1987, S. 159–162. DEGEORGE, F./DERRIEN, F./WOMACK, K. L. (2005): Analyst Hype in IPOs – Explaining the Popularity of Bookbuilding, Tuck School of Business, Working Paper No. 2005-27, Dartmouth 2005. DERRIEN, F./WOMACK, K. L. (2003): Auctions vs. Bookbuilding and the Control of Underpricing in Hot IPO Markets, in: Review of Financial Studies, 2003, S. 31–61. DRAHO, J. (2004): The IPO Decision – Why and How Companies Go Public, Cheltenham/ Northampton 2004. GRAVENHORST, J. (2003): Plazierungsverfahren bei Aktienemissionen und der Anspruch auf Zuteilung – Eine interdisziplinäre Analyse der Börseneinführung unter rechtlichen und ökonomischen Gesichtspunkten, Baden-Baden 2003. HANLEY WEISS, K. (1993): The Underpricing of Initial Public Offerings and the Partial Adjustment Phenomenon, in: Journal of Financial Economics, 1993, Nr. 34, S. 231–250. HOBERG, G. (2003): Strategic Underwriting in Initial Public Offers, Yale University School of Management, Working Paper, New Haven 2003. HUNGER, A. (2005): IPO-Underpricing im Kontext einer vertikalen Marktsegmentierung, Berlin 2005. HUSSON, B./JACQUILLAT, B. (1989): French New Issues – Underpricing and Alternative Methods of Distribution, in: GUIMARAES R. M. C./KINGSMAN, B. G./TAYLOR, S. J. (Hrsg.), A Reappraisal of the Efficiency of Financial Markets, Berlin 1989, S. 349–368. IBBOTSON, R. G. (1975): Price Performance of Common Stock New Issues, in: Journal of Financial Economics, 1975, Nr. 2, S. 235–272. IBBOTSON, R. G./SINDELAR, J. L./RITTER, J. R. (1988): Initial Public Offerings, in: Journal of Applied Corporate Finance, 1988, S. 37–45. INCE, Ö. S. (2006): Partial Adjustment of IPO Offer Prices Is Not Due to Dynamic Information Acquisition, University of Florida, Working Paper, Gainesville 2006. JAGANNATHAN, R./SHERMAN, A. E. (2005): Reforming the Book Building Process for IPOs, in: Journal of Applied Corporate Finance, 2005, S. 67–72.
Emissionsverfahren und das Underpricing von IPO
379
JAGANNATHAN, R./SHERMAN, A. E. (2006): Why Do IPO Auctions Fail?, National Bureau of Economic Research, Working Paper, Cambridge 2006. JAKOB, E. (1998): Initial Public Offerings – Aktuelle Entwicklungen des Aktienemissionsgeschäftes, Wiesbaden 1998. JENKINSON, T./LJUNGQVIST, A. (2001): Going Public – The Theory and Evidence on How Companies Raise Equity Finance, 2. Auflage, Oxford 2001. JENKINSON, T./MORRISON, A. D./WILHELM, W. J. (2006): Why Are European IPOs so Rarely Priced Outside the Indicative Price Range, in: Journal of Financial Economics, 2006, Nr. 80, S. 185–209. KANEKO, T./PETTWAY, R. H. (2003): Auctions versus Book Building of Japanese IPOs, in: Pacific-Basin Finance Journal, 2003, S. 439–462. KASERER, C./KEMPF, V. (1995): Das Underpricing-Phänomen am deutschen Kapitalmarkt und seine Ursachen, in: Zeitschrift für Bankrecht und Bankwirtschaft, 1995, S. 45–68. KASERER, C./KEMPF, V. (1996): Bookbuilding – Das Underpricing-Phänomen, in: Die Bank, 1996, S. 184–186. KEASEY, K./MCGUINNESS, P. (1995): Underpricing in New Equity Listings – A Conceptual Re-Appraisal, in: Small Business Economics, 1995, S. 41–54. KOH, F./WALTER, T. (1989): A Direct Test of Rock’s Model of the Pricing of Unseasoned Issues, in: Journal of Financial Economics, 1989, Nr. 23, S. 251–272. KUNZ, R. M./AGGARWAL, R. (1994): Why Initial Public Offerings Are Underpriced – Evidence from Switzerland, in: Journal of Banking and Finance, 1994, S. 705–723. KUTSUNA, K. /SMITH, R. (2004): Why Does Book Building Drive Out Auction Methods of IPO Issuance? Evidence from Japan, in: Review of Financial Studies, 2004, S. 1129–1166. LEE, I./LOCHHEAD, S./RITTER, J./ZHAO, Q. (1996): The Costs of Raising Capital, in: Journal of Financial Research, 1996, S. 59–74. LJUNGQVIST, A. P./JENKINSON, T./WILHEM, W. J. (2003): Global Integration in Primary Equity Markets: The Role of U.S. Banks and U.S. Investors, in: Review of Financial Studies 16, 2003, S. 63-99. LJUNGQVIST, A. P./WILHELM, W. J. (2002): IPO Allocations – Discriminatory or Discretionary?, in: Journal of Financial Economics, 2002, Nr. 65, S. 167–201. LÖFFLER, G./PANTHER, P. F./THEISSEN, E. (2005): Who Knows What When? The Information Content of Pre-IPO Market Prices, in: Journal of Financial Intermediation, 2005, S. 466– 484. LOUGHRAN, T./RITTER, J. R./RYDQVIST, K. (1994): Initial Public Offerings – International Insights, in: Pacific-Basin Finance Journal, 1994, S. 165–199. LOUGHRAN, T./RITTER, J. R. (2002): Why Don’t Issuers Get Upset About Leaving Money on the Table in IPOs, in: Review of Financial Studies, 2002, S. 413–443. LOUGHRAN, T./RITTER, J. R. (2004): Why Has IPO Underpricing Changed Over Time, in: Financial Management, 2004, S. 5–37.
380
BAUR/VINCENTI
LUBIG, D. (2004): Underpricing und langfristige Performance der IPOs am Neuen Markt, Frankfurt, Main 2004. MCAFEE, R. P./MCMILLAN, J. (1987): Auctions and Bidding, in: Journal of Economic Literature, 1987, S. 699–738. RAPP, H.-W. (1996): Der Markt für Aktien-Neuemissionen – Preisbildung, Preisentwicklung und Marktverhalten bei eingeschränkter Informationseffizienz, Mannheim 1996. REHKUGLER, H./SCHENEK, A. (2001): Underpricing oder Overpricing? IPOs am deutschen Kapitalmarkt, in: WIRTZ, B. W./SALZER, E. (Hrsg.), IPO-Management – Strukturen und Erfolgsfaktoren, Wiesbaden 2001, S. 277–308. REUTER, J. (2006): Are IPO Allocations for Sale? Evidence from Mutual Funds, in: Journal of Finance, 2006, S. 2289–2324. RITTER, J. R. (1987): The Costs of Going Public, in: Journal of Financial Economics, 1987, Nr. 19, S. 269–281. RITTER, J. R. (2002): The Future of New Issues Market, in: Brookings-Wharton Papers on Financial Services, 2002, S. 293–312. RITTER, J. R. (2003): Differences between European and American IPO Markets, in: European Financial Management, 2003, S. 421–434. RITTER, J. R./WELCH, I. (2002): A Review of IPO Activity, Pricing and Allocations, in: Journal of Finance, 2002, S. 1795–1828. SCHLAG, C./WODRICH, A. (2000): Has There Always Been Underpricing and Long-Run Underperformance? – IPOs in Germany Before World War I, Center for Financial Studies an der Johann Wolfgang Goethe-Universität, CFS Working Paper No. 2000/12, Frankfurt, Main 2000. SHERMAN, A. E. (2000): IPOs and Long-Term Relationships – An Advantage of Book Building, in: Review of Financial Studies, 2000, S. 697–714. SHERMAN, A. E. (2005): Global Trends in IPO Methods – Book Building versus Auctions with Endogenous Entry, in: Journal of Financial Economics, 2005, Nr. 78, S. 615–649. SHERMAN, A. E./TITMAN, S. (2002): Building the IPO Order Book – Underpricing and Participation Limits with Costly Information, in: Journal of Financial Economics, 2002, Nr. 65, S. 3–29. STEIB, S. (2005): Neuemissionsresearch zum Börsengang – Ursache informationsbedingter Fehlentwicklungen oder Lösungsansatz zu deren Überwindung, Frankfurt 2005. STOLZ, C. (1998): Nachfrageorientierte Emissionspolitik mit Bookbuilding, Bern 1998. TERSTEGE, U. (2002): Platzierungsverfahren für Aktien, FernUniversität Hagen, Fachbereich Wirtschaftswissenschaft, Diskussionsbeitrag Nr. 314, Hagen 2002. TINIC, S. M. (1988): Anatomy of Initial Public Offerings of Common Stock, in: Journal of Finance, 1988, S. 789–822. WALLMEIER, M./RÖSL, R. (1999): Underpricing bei der Erstemission von Aktien am Neuen Markt (1997-1998), in: Finanz Betrieb, 1999, S. 134–142.
Emissionsverfahren und das Underpricing von IPO
381
WILLAMOWSKI, M. (2000): Bookbuilding – Die marktorientierte Emission von Aktien nach deutschem und US-amerikanischem Recht, Köln 2000. WILHELM. W. J. (2005): Bookbuilding, Auctions, and the Future of the IPO Process, in: Journal of Applied Corporate Finance, 2005, S. 55–66. WITTLEDER, C. (1989): Going Public – Die Publikumsöffnung deutscher Aktiengesellschaften, Köln 1989. WOLFF, K. (1994): Going Public in der Schweiz, in Deutschland und in den USA, Bern/Stuttgart/Wien 1994. ZIEGLER, J. (2006): Der Börsengang von Tochtergesellschaften, Baden-Baden 2006.
Vierter Teil Die moderne Finanzfunktion Die ControllingPerspektive
Erster Teil
Zweiter Teil Die moderne Finanzfunktion Die strategische Perspektive
Die moderne Finanzfunktion Die organisatorische Perspektive
Dritter Teil Die moderne Finanzfunktion Die Accountingund TreasuryPerspektive
Vierter Die moderne Finanzfunktion Die ControllingPerspektive
Teil
Herausforderungen für das Controlling in der TIME-Branche vor dem Hintergrund wachsender Konvergenz am Beispiel des Risikocontrollings SVEN MÜLLER und GERRIT BRÖSEL Technische Universität Ilmenau und Hochschule Magdeburg-Stendal
1 2
Einleitung....................................................................................................................... 387 Bedeutende Spezifika der TIME-Branche ..................................................................... 388 2.1 Konvergenz .......................................................................................................... 388 2.2 Dynamik............................................................................................................... 392 2.3 Komplexität.......................................................................................................... 395 3 Risikocontrolling im komplexen System der TIME-Branche........................................ 400 3.1 Risikocontrolling – Ein Subsystem des Controllings ........................................... 400 3.2 Eigenschaften komplexer Systeme ...................................................................... 402 3.3 Anforderungen an ein effektives und effizientes Risikocontrolling ..................... 405 4 Fazit ............................................................................................................................... 408 Quellenverzeichnis................................................................................................................ 409
Controlling in der TIME-Branche
1
387
Einleitung
Die sich zum Ende des letzten Jahrhunderts durchsetzende Digitalisierung – d. h. die Darstellung von Informationen in binärer Form – ist der Ausgangspunkt für die in diesem Beitrag zu untersuchende Problemstellung. Erst die Digitalisierung sowie der sich daran anschließende weltweite Auf- und Ausbau von Datennetzen ermöglichen ein Verschmelzen zuvor unabhängiger Märkte. Das hieraus resultierende Phänomen zusammenwachsender Industrien wird als Konvergenz der TIME-Branche bezeichnet. Letztere subsumiert neben der Telekommunikations- und der Informationstechnologiebranche auch den Medien- und den Entertainmentsektor. Über den Konvergenzbegriff hinaus finden auch die Begriffe „Multimedia“ sowie „Triple Play“ Verwendung. Insbesondere Telekommunikationsanbieter verfolgen in jüngster Vergangenheit häufig eine so genannte „Triple Play“-Strategie,1 welche die Konvergenzbemühungen dieser Unternehmen zum Inhalt hat. Ein solch struktureller Umbruch, wie ihn die in der TIME-Branche agierenden Unternehmen derzeit erleben und vor allem in den folgenden Jahren erleben werden, bietet selbigen Chancen auf eine positive Geschäftsentwicklung. Chancen werden aber in der Regel von Risiken flankiert. Eine verantwortungsbewusste Unternehmenssteuerung bedingt deshalb die bewusste Auseinandersetzung mit Chancen und Risiken. In diesem Zusammenhang sei jedoch darauf verwiesen, dass das „größte Risiko für ein Unternehmen […] darin [besteht], keine Risiken einzugehen.“2 Zur Unterstützung des Risikomanagements, welches originärer Bestandteil der Unternehmensführung ist und versucht, bestehende und potenzielle Risiken3 zu beherrschen, so dass das Fortbestehen des Unternehmens gesichert wird, setzt sich auch das Controlling – genauer das Risikocontrolling – mit Risiken im Unternehmen sowie im Unternehmensumfeld auseinander. Das Risikocontrolling zeigt sich folglich für die Gestaltung und Pflege eines Instrumentariums für das Risikomanagement verantwortlich.4 Zielstellung des vorliegenden Beitrages ist die Ausarbeitung spezifischer Anforderungen, die ein effektives und zugleich effizientes Risikocontrolling von in der TIME-Branche agierenden Unternehmen zu erfüllen hat. Dies wird erreicht, indem die der TIME-Branche und den dort handelnden Unternehmen inhärenten Eigenschaften analysiert werden. Wie noch zu zeigen sein wird, ist die Konvergenz der TIME-Branche vor allem durch eine hohe Vielfalt und eine hohe Veränderlichkeit im Zeitablauf – sprich Komplexität und Dynamik des Umfeldes und der Unternehmen – charakterisiert.5 Folglich sind die zu entwickelnden Anforderungen auf die beiden Eigenschaften „Komplexität“ und „Dynamik“ zurückzuführen. Der Beitrag macht damit deutlich, welche Herausforderungen an das Controlling – nicht nur für in der TIME-Branche agierende Unternehmen – in den kommenden Jahren bestehen. Im Anschluss an diese Einleitung wird im zweiten Kapitel der Konvergenzbegriff am Beispiel der TIME-Branche näher untersucht. In diesem Zusammenhang findet ebenfalls eine Auseinandersetzung mit den für die TIME-Branche charakteristischen Eigenschaften „Dynamik“ und „Komplexität“ statt. Diese werden sowohl theoretisch-abstrakt als auch anhand von Bei1 2 3 4 5
Vgl. DEUTSCHE TELEKOM (2006), S. 35. MAUCHER, zitiert nach BAETGE/JERSCHENSKY (1999), S. 172. Potenzielle Risiken sind solche, die erst dann entstehen, wenn eine Entscheidung getroffen wird. Vgl. SCHORCHT/BRÖSEL (2005), S. 24. Vgl. KEUPER (2004), S. 50 f.
388
MÜLLER/BRÖSEL
spielen erläutert. Im dritten Kapitel erfolgt die Ableitung von Anforderungen an ein effektives und effizientes Risikocontrolling. Das vierte und letzte Kapitel fasst die Ergebnisse der Untersuchung zusammen.
2
Bedeutende Spezifika der TIME-Branche
2.1
Konvergenz
„The Allegheny River forms in Pennsylvania, loops into western New York, and then flows southward into Pennsylvania. The Monongahela River forms in West Virginia and flows northward into Pennsylvania. At the very center of Pittsburgh, these two major waterways converge and become the Ohio River. Until they converge, geographers and everyone who uses them can distinguish them; where they converge, there is neither one nor the other but only a new thing: the Ohio River.“6 Dieses Zitat spiegelt anschaulich das im Alltag vorherrschende Verständnis des Konvergenzbegriffes wider, wonach unter Konvergenz häufig das Verschmelzen vormals getrennter Gegenstände bzw. Sachverhalte verstanden wird. So beschreibt auch YOFFIE Konvergenz als eine „unification of functions – the coming together of previously distinct products that employ digital technologies“7. ROCKENHÄUSER schließt sich diesem Verständnis an, ergänzt es jedoch um das Zusammenwachsen der Wertschöpfungsstrukturen verschiedener Branchen.8 LATZER versteht unter Konvergenz die „Annäherung, Vermengung und Überschneidung bisher getrennter Subsektoren“9, was zur Folge hat, dass die „traditionellen Grenzziehungen zwischen Technologien, Dienstkategorien, Industriesparten, Sektoren, Wirtschaftsräumen und Politikfeldern“10 verschwimmen. Ähnlich wird Konvergenz in einer Studie des BMWI als das Zusammenwachsen von Technologien, aber auch von Märkten, angesehen.11 Gemeinsam ist den hier aufgezeigten Definitionsansätzen die ausschließliche Beschränkung auf das Ergebnis der Konvergenz – ohne darauf einzugehen, wie dieses zustande kommt. Ferner wurden obige Definitionen für ein spezifisches Umfeld und nicht abstrakt formuliert. Überdies fehlt es den Erläuterungen an der Beachtung des Prozesscharakters der Konvergenz. Um dieser Kritik zu entgehen, soll an dieser Stelle der Konvergenzbegriff nach THIELMANN Verwendung finden. Danach stellt die Konvergenz einen „Prozess der Interaktion zwischen Unternehmensumwelt bzw. Wettbewerbsstruktur und Unternehmensstrategie [dar], der zur strukturellen Verbindung bislang getrennter Märkte führt.“12 Dieses Verständnis von Konvergenz berücksichtigt auch den dynamischen Charakter, indem sich Strukturen nur durch das wechselseitige Zusammenspiel von Unternehmenshandlung als interne Komponente und Strukturveränderung als externe Komponente herausbilden können. Hierbei verweist THIEL6 7 8 9 10 11 12
GREENSTEIN/KHANNA (1997), S. 201. YOFFIE (1997), S. 2. Vgl. ROCKENHÄUSER (1999), S. 15. LATZER (1997), S. 16. LATZER (1997), S. 16. Vgl. BMWI (2004), S. 1. THIELMANN (2000), S. 9.
Controlling in der TIME-Branche
389
vor Abschluss der Konvergenz.13 Auch lediglich davon ausgehen, dass sich stets eine „mehr oder weniger deutliche Struktur“14 herausbildet. Im Ergebnis der Konvergenz entsteht aus vormals getrennten Märkten ein neuer Markt, welcher jedoch in unterschiedlichem Verhältnis zu den Basismärkten stehen kann. Daran anknüpfend ergeben sich zwei Ausprägungen der Konvergenz.15 Hierbei gilt es, die kompetitive Konvergenz (a) von der komplementären Konvergenz (b) zu trennen. MANN auf die Möglichkeit einer Divergenz noch HAMEL/PRAHALAD folgen dieser Ansicht, indem sie
(a) Im Rahmen der kompetitiven Konvergenz werden die bestehenden Basismärkte, aus denen der neue Markt generiert wird, durch selbigen ersetzt. Begründet wird dies mit der funktionalen Austauschbarkeit der Produkte auf den Märkten. Nach GREENSTEIN/KHANNA entsteht eine solche Konvergenzausprägung, wenn „different firms develop products with features that become increasingly similar to the features of certain other products.“16 Der Abnehmer erachtet die funktionalen Produkteigenschaften beider Märkte als äquivalent. Daraus wird ersichtlich, dass nicht ein überlegenes Produkt ein unterlegenes einseitig ersetzt, sondern beide Produkte als gleichwertig anzusehen sind,17 woraus der kompetitive Charakter resultiert. (b) Während bei der kompetitiven Konvergenz die Basismärkte in einen neuen Markt übergehen, bleiben die Basismärkte im Rahmen der komplementären Konvergenz bestehen. Gemäß GREENSTEIN/KHANNA liegt eine solche Konvergenzausprägung dann vor, wenn Produkte unterschiedlicher Märkte „work better together than separately or when they work better together now than they worked together formerly.“18 Erst dadurch ist es möglich, neue Nutzergruppen zu generieren. Bereits existierende Nutzergruppen garantieren indessen den Basismärkten ihr weiteres Bestehen.19 Trotz der Unterteilung der Ausprägungen in der Theorie soll auf die Schwierigkeit der Trennung in der Praxis hingewiesen werden. Eine eindeutige Zuordnung ist nur selten möglich. Vielmehr findet sich ein fließender Übergang.20 Aufgrund der Darstellung der beiden Konvergenzausprägungen – anhand von Märkten – wurde bereits eine Einschränkung der Konvergenz auf die Marktebene vorgenommen. Um jedoch die Konvergenz, insbesondere die der TIME-Branche, nachvollziehen zu können, ist es unabdingbar, jene Stufen zu erklären, die eine Konvergenz von Märkten ermöglichen. In der Literatur findet sich eine Vielzahl von Vorschlägen für eine Systematisierung der Konvergenz der TIME-Branche.21 Die Mehrzahl dieser Vorschläge nimmt eine Einteilung in technologische, funktionale und unternehmensbezogene Konvergenz vor. Teilweise erfolgt noch eine Ergänzung hinsichtlich einer Konvergenz des rechtlichen Umfeldes. All diesen 13 14 15 16 17 18 19 20 21
Vgl. THIELMANN (2000), S. 16. HAMEL/PRAHALAD (1995), S. 78 f. Vgl. GREENSTEIN/KHANNA (1997), S. 203 ff. Eine Vierteilung ist bei STIEGLITZ (2004), S. 26 ff., zu finden. GREENSTEIN/KHANNA (1997), S. 203. Vgl. KEUPER/HANS (2003), S. 60. GREENSTEIN/KHANNA (1997), S. 204. Vgl. KEUPER/HANS (2003), S. 61. Hier sei auf das Beispiel von GREENSTEIN/KHANNA (1997), S. 204, verwiesen, wonach eine Uhr und ein Alarm zu einem „Timer“ zusammengeführt werden. Siehe ROCKENHÄUSER (1999), S. 44. Vgl. hierzu EUROPÄISCHE KOMMISSION (1997), S. 1 ff., LATZER (1997), S. 75 ff., STIPP (1999) S. 10, SJURTS (2000a), S. 31, KUNKEL (2003) und WIRTZ (2005), S. 41.
390
MÜLLER/BRÖSEL
Unterteilungen ist gemein, dass sie zwar ausführlich auf die Konvergenz der Anbieterseite eingehen, aber die Abnehmerseite nur mittelbar durch die funktionale Konvergenz berücksichtigen. Um diesem Aspekt Rechnung zu tragen, soll hier auf die Dimensionen sowohl von THIELMANN als auch von STIPP zurückgegriffen werden. Dabei sei erwähnt, dass die jeweils berücksichtigten Stufen nicht linear durchlaufen werden müssen.22 THIELMANN und STIPP unterteilen die technologische (a), die nachfragerseitige (b) und die angebotsseitige (c) Konvergenz. Erst wenn diese Konvergenzdimensionen kumuliert auftreten, findet eine Marktkonvergenz, wie sie seit Längerem in der TIME-Branche zu beobachten ist, statt: (a) Allen vorangestellt ist die technologische Konvergenz, die sich vereinfacht dadurch äußert, dass „The same technical process gradually diffuses into a wide range of industries.“23 In Bezug auf die TIME-Branche nimmt vor allem die Digitalisierung und die Verbreitung des TCP/IP-Referenzmodells die Stellung einer solchen Basistechnologie ein, die sich in andere Branchen ausweitet und dort verfestigt.24 (b) Die nachfragerseitige Konvergenz ist durch die Verknüpfung einstmals getrennter Bedürfnisgruppen gekennzeichnet und stellt eine unabdingbare Voraussetzung für die Konvergenz von Märkten dar.25 Fehlende Bedürfnisse nach multifunktionalen Produkten verursachen folglich Konvergenzbarrieren.26 Somit bedingen die Bedürfnisse bezüglich der Einbettung verschiedener Funktionalitäten in ein Endprodukt die Zusammenführung heterogener Nachfragergruppen vormals getrennter Märkte.27 (c) Neben der Konvergenz auf der Technologie- und der Nachfragerseite ist für eine Verschmelzung der Märkte die angebotsseitige Konvergenz notwendig. Aufgrund der Forderung nach Systemprodukten unter Einhaltung der „ökonomischen Rationalität“28 kommt es zu einem Abbau der Grenzen zwischen unterschiedlichen Branchen. Der wesentliche Aspekt der angebotsseitigen Konvergenz, die wertschöpfungsstufen- und/oder wertschöpfungskettenübergreifend erfolgen kann, ist die Generierung von Synergien,29 wobei unter Synergie das „synchrone Zusammenwirken bisher getrennter Unternehmen [zu verstehen ist], das zu einer Steigerung des Gesamtwertes der zusammenwirkenden Einheiten führt.“30 Im Rahmen der angebotsseitigen Konvergenz wird zunehmend auf strategische Allianzen zurückgegriffen, um fehlende Kompetenzen zu erlangen, ohne diese selbst aufbauen zu müssen, was unter anderem aufgrund von Pfadabhängigkeiten,31 „Time Com-
22 23 24 25 26 27
28 29 30 31
Vgl. EUROPÄISCHE KOMMISSION (1997), S. 2. GREENSTEIN/KHANNA (1997), S. 202. Vgl. SJURTS (2000b), S. 128, und KEUPER/HANS (2003), S. 42. Vgl. KEUPER/HANS (2003), S. 55. Vgl. THIELMANN (2000), S. 11. Ungeachtet dessen findet die nachfragerseitige Konvergenz nicht bei jedem Autor unmittelbare Beachtung. So z. B. bei der EUROPÄISCHEN KOMMISSION (1997) sowie bei LATZER (1997), SJURTS (2000a) und KUNKEL (2003). STIPP (1999), S. 11, kommt zu dem Ergebnis, dass eine rasche Konvergenz des Nutzerverhaltens nicht stattfinden wird. THIELMANN (2000), S. 11. Vgl. KEUPER/HANS (2003), S. 56. BIBERACHER (2003), S. 53. Vgl. BARNEY (1991), S. 107.
Controlling in der TIME-Branche
391
pression Diseconomies“32 und „Asset Mass Efficiencies“33 auch nur selten möglich ist. So sind in der TIME-Branche unterschiedlichste Kooperationen zu beobachten. Wie bereits eingangs dargestellt, subsumiert die TIME-Branche den Telekommunikations-, den Informationstechnologie-, den Medien- sowie den Entertainmentsektor.34 Der Telekommunikationssektor zeigt sich für die Bereitstellung einer Netzinfrastruktur verantwortlich und sichert die Datenübertragung. Der Bereich der Informationstechnologie stellt demgegenüber Hard- und Software bereit. Darunter fallen bspw. die Entwicklung leistungsfähiger CPU oder die Entwicklung von Verfahren zur Datenkompression. Der Mediensektor sorgt indes für die Produktion, Bündelung und Distribution35 von „geistigen, optischen und akustischen Inhalten“36. In der Literatur umfasst der Entertainmentsektor unter anderem Computerspiele, DVD oder Theater.37 WIRTZ beschreibt die TIME-Branche als Konvergenzkern und ordnet sie im Inneren seines Konvergenzringmodells an.38 Die TIME-Branche stellt folglich das Ergebnis der Konvergenz zuvor genannter Branchen dar. Bezeichnend für den Konvergenzkern ist vor allem die Konfiguration vormals getrennter Wertschöpfungsketten einzelner Sektoren hin zu einer integrierten Wertschöpfungskette.39 Während COLLIS/BANE/BRADLEY eine fünfgliedrige lineare Wertschöpfungskette vorschlagen, bilden ZERDICK ET AL. ein sechsstufiges Wertschöpfungsnetzwerk, in dessen Mitte der Kunde angeordnet ist40 (siehe Abbildung 1). Der hohe technische Fortschritt in der Telekommunikationstechnologie und der Informationstechnologie bedingt eine Geschwindigkeitszunahme von Innovationen mit „revolutionärer Tragweite“41. Somit ist die TIME-Branche durch einen sehr hohen Grad an Dynamik gekennzeichnet. Dass die Dynamik weitreichende Auswirkungen auf Unternehmen der TIMEBranche hat und wie die Unternehmen damit umgehen, wird im folgenden Gliederungspunkt gezeigt. Das zweite Charakteristikum der TIME-Branche ist die hohe Komplexität. Auf das Komplexitätsproblem wird im Anschluss an den folgenden Gliederungspunkt eingegangen.42
32 33 34 35 36 37 38 39 40 41
42
DIERICKX/COOL (1989), S. 1507. DIERICKX/COOL (1989), S. 1507. Vgl. SJURTS (2000b), S. 128, und SJURTS (2002), S. 75 ff. Vgl. BÖNING-SPOHR (2005), S. 50. FECHNER (2004), S. 5. Vgl. KEUPER/BRÖSEL (2005), S. 17. Vgl. WIRTZ (1999), S. 15 f. Vgl. COLLIS/BANE/BRADLEY (1997), S. 166 ff., WIRTZ (1999), S. 15 ff., ZERDICK ET AL. (2001), S. 173 ff., und SJURTS (2002), S. 75 ff. Vgl. ZERDICK ET AL. (2001), S. 176. WIRTZ (2001), S. 171. Revolutionäre Änderungen werden auf Quantensprünge der technologischen Entwicklung zurückgeführt. Gekennzeichnet sind diese durch Änderungen großer Teile der Wertschöpfungskette sowie den Zusammenbruch vormals verwendeter Geschäftsmodelle; vgl. HAERTSCH (2000), S. 32 f., und KEUPER (2004), S. 50. Wobei zu erwähnen ist, dass die Dynamik eine Determinante der Komplexität darstellt und somit Dynamik und Komplexität untrennbar sind; vgl. hierzu REUTER (1998), S. 134.
392
MÜLLER/BRÖSEL
Content
Packaging
Transmission Network
Manipulation Infrastructure
Terminals
Packaging
Content
Transmission Kunde
Endgeräte
Navigation Value Added Service
Abbildung 1:
2.2
Wertschöpfungskette und Wertschöpfungsnetzwerk der TIME-Branche43
Dynamik
In der Systemtheorie bezeichnet die Dynamik die Veränderlichkeit von Elementen und Relationen eines Systems im Zeitablauf.44 Zudem stellt sie eine Determinante der Komplexität dar,45 d. h. eine wachsende Dynamik wirkt sich förderlich auf die Komplexität aus.46 In diesem Abschnitt soll eine ausschließliche Betrachtung der Dynamik erfolgen, d. h. andere Determinanten der Komplexität bleiben unberücksichtigt. Dass sich die TIME-Branche in einem sehr dynamischen Umfeld befindet, macht HAMEL deutlich, indem er für die Dynamik neben der Deregulierung, dem technischen Fortschritt und der Globalisierung auch den sozialen Wandel verantwortlich macht.47 Diese vier Determinanten sind in der TIME-Branche besonders ausgeprägt.48
43 44 45 46
47 48
In Anlehnung an COLLIS/BANE/BRADLEY (1997), S. 162 ff., sowie ZERDICK ET AL. (2001), S. 176. Vgl. GROSSMANN (1992), S. 18 f. Vgl. PROBST (1981), S. 9. Ersichtlich wird dies durch die Zunahme von Zuständen aufgrund der Veränderlichkeit von Elementen, wodurch auch die Zahl möglicher Relationen zwischen den Elementen steigt, was wiederum eine höhere Komplexität zur Folge hat; vgl. hierzu KNEER/NASSEHI (2000), S. 40. Vgl. HAMEL (1996), S. 70, und REUTER (1998), S. 136 ff. Dies heben auch HAMEL/PRAHALAD (1995), S. 71 ff., deutlich hervor.
Controlling in der TIME-Branche
393
Charakteristisch für die Dynamik sind kürzere Lebenszyklen und nicht mehr trennbare Marktsegmente, weshalb eine Strategiefindung, die ausschließlich den sich ändernden Markt zugrunde legt, nicht erfolgversprechend ist.49 Infolgedessen ist der alleinige „Market-based view“, der den Markt und die Struktur des Umfeldes als Ausgangspunkt für die Vorgehensweise des Unternehmens wählt, ungeeignet für die Bestimmung der Gesamtstrategie.50 In Anbetracht der Tatsache, dass sich die Ressourcenausstattung eines Unternehmens weniger schnell ändert als die Marktstruktur der konvergierenden TIME-Branche, bietet sich der „Resource-based view“ zur Bestimmung der Unternehmensstrategie an.51 Unternehmen der TIME-Branche stehen dem Problem der Positionierung in der sich neu konfigurierenden Wertschöpfungskette gegenüber. Dazu gilt es zunächst, die Ist-Kernkompetenzen zu identifizieren,52 wobei auch die dahinter stehenden Ressourcen festzustellen sind.53 Dies erfolgt zumeist rekursiv ausgehend von den bestehenden Endprodukten oder aber ausgehend von der Wertschöpfungskette des Unternehmens.54 Um potenzielle Zukunftsmärkte zu orten, muss anschließend ein Industrievorausblick erfolgen. Mit Letzterem soll der Versuch unternommen werden, Zukunftsentwicklungen aufzuzeigen, die auf „insights into trends in technology, demographics, regulations, and lifestyles“55 beruhen. Darauf aufbauend sind zukünftige Produkte sowie die dafür nötigen Kernkompetenzen zu ermitteln.56 Um die Attraktivität der Kernkompetenzen zu erfassen, ist neben der Bedeutung auch auf die Marktrelevanz und die Weiterentwicklungsmöglichkeit zu achten. Dabei erweisen sich Kernkompetenzen als besonders attraktiv, wenn mit den aus ihnen abgeleiteten Kern- und Endprodukten hohe Erlöse erzielt werden. Für die nun folgende Eruierung der Kernkompetenzlücke ist die Kernkompetenzattraktivität der derzeitigen Kernkompetenzsituation gegenüberzustellen.57 Ist ersichtlich, dass Kernkompetenzen einer hohen Attraktivität nicht durch die eigene Kernkompetenzsituation abgedeckt werden, existiert eine Kernkompetenzlücke. Zur Schließung dieser Lücke kann ein Unternehmen neben dem eigenständigen Aufbau der erforderlichen Kernkompetenzen auch „Merger&Acquisition“-Tätigkeiten58 sowie strategische Allianzen59 heranziehen.60 Im Rahmen der letztgenannten Möglichkeit sei an dieser Stelle auf den Coopetition-Gedanken hingewiesen. Selbiger äußert sich in der Kooperation von Unternehmen auf
49 50 51 52 53 54 55 56 57 58 59 60
Vgl. HAMEL/PRAHALAD (1990), S. 80, HAMEL/PRAHALAD (1995), S. 74 f., HAMEL (1996), S. 73, und BAUM/ COENENBERG/GÜNTHER (2004), S. 235 f. Vgl. ROCKENHÄUSER (1999), S. 102. Vgl. BETTIS/HITT (1995), S. 15. Vgl. HAMEL/PRAHALAD (1995), S. 337 ff., und KRÜGER/HOMP (1997), S. 100 ff. Vgl. HAMEL/PRAHALAD (1995), S. 339 f., und HAERTSCH (2000), S. 99. Vgl. BARNEY (1996), S. 175 ff. HAMEL/PRAHALAD (1994), S. 128. Vgl. WERNERFELT (1984), S. 176. Vgl. WOLFRUM/RASCHE (1993), S. 68, und THIELE (1997), S. 78 ff. Siehe zur in diesem Zusammenhang erforderlichen Unternehmensbewertung MATSCHKE/BRÖSEL (2007). Vgl. zur Ressourcenabhängigkeit als Ursache für Kooperationen DOWLING/LECHNER (1998), S. 90 f. Vgl. SJURTS (2000b), S. 129. Siehe ausführlich THIELE (1997), S. 88 ff., der die Möglichkeiten um den Zukauf und den Transfer aus anderen Unternehmensbereichen ergänzt.
394
MÜLLER/BRÖSEL
einem Markt bei gleichzeitiger Wettbewerbssituation auf einem anderen Markt.61 Vom sehr zeit- und kostenintensiven62 Eigenaufbau bisher nicht vorhandener Kernkompetenzen ist aufgrund der hohen Dynamik in der TIME-Branche abzuraten. Wogegen im Zusammenhang mit „Merger&Acquisition“-Tätigkeiten auf die Gefahr der Überkompensation von Synergievorteilen durch Nachteile aus der Komplexitätszunahme eines Unternehmenszusammenschlusses zu achten ist.63 Beispielhaft sei für die Wahl des Geschäftsfeldes und die Schließung von Kernkompetenzlücken auf das Unternehmen Apple Computer verwiesen. Ursprünglich besetzte APPLE lediglich den Hard- und Softwarebereich einschließlich der zur Navigation notwendigen Software.64 Apple weitete – von dieser Position ausgehend – seine Geschäftstätigkeit in Richtung „Medien“ und „Entertainment“ aus. Mit Hilfe des Portals „iTune“ gelang es, erfolgreich in den Bereich der Bündelung unterschiedlicher Inhalte, wie Audio- und Videodaten, vorzudringen65 sowie die Kernkompetenz Abrechnungssysteme zu erwerben. Sowohl der Erfolg des Portals als auch der Erfolg der Endgeräte werden direkt von den angebotenen Inhalten determiniert. Zusammen mit der steigenden Nachfrage nach Content66 führt dies zu einer Erhöhung des Erlösanteils der Inhaltsproduktion innerhalb der gesamten Wertschöpfungskette der TIME-Branche.67 Somit stellt sich die Kernkompetenz der Produktion von Inhalten nach dem Modell von THIELE68 als attraktiv heraus. Apple besaß auf diesem Gebiet keinerlei Kernkompetenz, wodurch eine Kernkompetenzlücke entstand. Zu deren Schließung ging Apple unter anderem eine Kooperation mit NBC Universal ein. Somit konnte der Vertrieb von Inhalten via iTune ausgebaut werden.69 Im Bereich des Netzzuganges und der Übertragung kooperiert(e) Apple Computer mit AT&T Mobility.70 Folglich gelang es Apple Computer, alle Wertschöpfungsstufen der TIME-Branche zu besetzen. Nachdem soeben detaillierter auf den dynamischen Aspekt der TIME-Branche anhand der Veränderung der beteiligten Akteure durch eine Neukonfiguration der Wertschöpfungskette eingegangen sowie der Umgang mit diesem am Beispiel der Unternehmensstrategie dargelegt wurde, soll im Folgenden die Komplexität der TIME-Branche näher untersucht werden.
61
62 63 64 65 66 67 68 69
70
So kooperieren beispielsweise SONY, SAMSUNG, APPLE, HP und DELL, um den „Blu-ray“-Standard gegenüber dem „HD-DVD“-Standard eines von TOSHIBA angeführten Konsortiums durchzusetzen. Zeitgleich konkurrieren diese Unternehmen jedoch auf dem Markt „Notebooks“ miteinander. Vgl. DIERICKX/COOL (1989), S. 1507. Vgl. ROBINS/WIERSEMA (1995), S. 278, und THIELMANN (2000), S. 88. Vgl. APPLE (2005), S. 1. Vgl. APPLE (2005), S. 31. Vgl. BRÖSEL/ZWIRNER (2004) S. 21. Zudem ist ein Anstieg der Nutzung audiovisueller Medien von 362 Minuten im Jahr 1995 auf 465 Minuten im Jahr 2005 festzustellen; vgl. MEDIA PERSPEKTIVEN BASISDATEN (2005), S. 68. Vgl. COLLIS/BANE/BRADLEY (1997), S. 168, EUROPÄISCHE KOMMISSION (1997), S. 12 und S. 19, SJURTS (2000b), S. 129, und KEUPER/HANS (2003), S. 104. Vgl. THIELE (1997), S. 78 ff. Des Weiteren ist im Verkauf des Zeichentrickstudios PIXAR durch STEVE JOBS (CEO und viertgrößter Aktionär bei APPLE) an WALT DISNEY, wodurch JOBS zum größten Einzelaktionär und Mitglied des Board of Directors von WALT DISNEY aufstieg, ein weiterer Vorstoß von APPLE in Richtung Content-Produktion zu sehen; vgl. ECKHARDT (2006), S. 30. Vgl. APPLE (2007), S. 21.
Controlling in der TIME-Branche
2.3
395
Komplexität
Die Erklärung des Komplexitätsbegriffes soll (wiederum) aufbauend auf systemtheoretischen Überlegungen erfolgen. Unter einem System versteht PROBST den Zusammenschluss von „Elementen, die miteinander in Beziehung stehen“71. Indessen kristallisiert LUHMANN die Beziehung zwischen den Elementen stärker heraus, indem er ein System als „Ganzheit einer Menge von Elementen und deren Relationen zueinander“72 ansieht. LEIPOLD schließt sich LUHMANN an, betont jedoch, dass sich ein System selten aus ganzen Elementen zusammensetzt, sondern vielmehr aus bestimmten Elementeigenschaften. Folglich kann ein Element, je nach Elementeigenschaft, unterschiedlichen Systemen angehören.73 In diesem Beitrag wird ein System stets als offen angesehen, was einen Austausch zwischen System und Umwelt sowie die Weiterentwicklung des Systems ermöglicht.74 Unter dem Komplexitätsbegriff wird häufig die Tatsache verstanden, „dass reale Systeme ungeheuer viele Zustände aufweisen können“75. Ein solcher Ansatz vernachlässigt jedoch den zeitlichen Aspekt, wodurch eine lediglich statische Betrachtung erfolgt. Um auch diesem Umstand Rechnung zu tragen, unterteilt PROBST die Determinanten der Komplexität in Anlehnung an FORRESTER in Kompliziertheit und Dynamik.76 Während sich die Kompliziertheit durch die Anzahl und Vielfalt der Elemente, Elementeigenschaften sowie Relationen begründet, zielt die Dynamik auf die Veränderlichkeit von Elementen, Elementeigenschaften und Relationen im Zeitablauf ab.77 Hieraus resultieren die Komplexitätsdimensionen „Vielzahl“ und „Vielfalt“ von sowie „Vieldeutigkeit“ zwischen Elementen, Elementeigenschaften und Relationen. Die vierte Dimension stellt die „Veränderlichkeit“ der Elemente, Elementeigenschaften und Relationen dar.78 Eine Systematisierung von Systemen wird im Folgenden anhand der Dynamik und Kompliziertheit vorgenommen. RÖPKE unterscheidet diesbezüglich – wie in Abbildung 2 dargestellt – vier Komplexitätsausprägungen, die ein System annehmen kann.79
71 72 73 74 75 76 77 78 79
PROBST (1981), S. 111. KNEER/NASSEHI (2000), S. 25. Vgl. LEIPOLD (1988), S. 4. Vgl. PROBST (1981), S. 199. MALIK (1992), S. 186. Vgl. PROBST (1981), S. 149, PICOT/FREUDENBERG (1998), S. 69, und BLISS (2000), S. 128 f. Vgl. SCHRÄDLER (1996), S. 126. Vgl. REISS (1993), S. 58. Vgl. RÖPKE (1977), S. 257 f.
396
MÜLLER/BRÖSEL
Dynamik als Möglichkeit der Veränderung im Zeitablauf
Kompliziertheit
Abbildung 2:
gering
hoch
nicht vorhanden
geringe Komplexität – einfaches System
ziemlich geringe Komplexität – kompliziertes System
vorhanden
gemäßigt hohe Komplexität – relativ komplexes System
sehr hohe Komplexität – äußerst komplexes System
Komplexitätsausprägungen80
Die bisherigen abstrakten Ausführungen werden nun genutzt, um die TIME-Branche und die dort agierenden Unternehmen einer Komplexitätsausprägung zuzuordnen. Auf der Grundlage von Komplexitätstreibern, welche es noch darzustellen gilt, wird die TIME-Branche als äußerst komplexes System identifiziert. Für die Systematisierung der Komplexitätstreiber wird auf die Systemtheorie zurückgegriffen. Dort erfolgt eine Abgrenzung des Systems „Unternehmen“ von seiner Umwelt mit dem Ziel der Komplexitätsreduktion. Hierin liegt letztlich auch das Komplexitätsgefälle81 zwischen System und seiner Umwelt begründet. Dessen Gestaltung zeigt sich für die Überlebensfähigkeit des Systems verantwortlich.82 Für die Existenz eines solchen Gefälles spricht der Zweck der Systemkonstituierung.83 Ein System ist insbesondere dadurch gekennzeichnet, dass es nicht die gleiche Komplexität wie seine Umwelt aufweist.84 Nur so ist es den im System handelnden Elementen, d. h. den Menschen, möglich, Entscheidungen in einer angemessenen Zeit zu treffen.
80 81 82 83 84
In Anlehnung an RÖPKE (1977), S. 257, und PROBST (1981), S. 150. Vgl. LUHMANN (1994), S. 249. Vgl. MALIK (1992), S. 170, und BRÖSEL/DINTNER/KEUPER (2004), S. 12. Vgl. LEIPOLD (1988), S. 4 ff. Vgl. LUHMANN (1994), S. 249, und BLISS (2000), S. 144.
Controlling in der TIME-Branche
397
Auf der anderen Seite stellt sich die Frage, ob die so getroffenen Entscheidungen effektiv im Sinne der Überlebensfähigkeit sind. Letzteres setzt jedoch gemäß dem „Law of requisite Variety“ von ASHBY die Entsprechung von System- und Umweltkomplexität voraus.85 ASHBY formuliert dies am Beispiel einer Spielsituation zwischen Spieler R und Spieler D mit den Worten „only variety in R can force down the variety due to D“.86 Die hier dargestellte Abgrenzung von System und Umwelt stellt auch die Grundlage für eine Aufteilung der Komplexitätstreiber dar. Nach WILDEMANN existieren externe kundenbezogene als auch interne Komplexitätstreiber.87 Dagegen stellt sich KEUPERs Vorgehen als weitaus detaillierter heraus.88 KEUPER erweitert die Differenzierung des externen Komplexitätstreibers, indem er die Markt- von der Gesellschaftskomplexität trennt. Auch der interne Komplexitätstreiber erfährt eine Unterteilung in korrelierte und autonome Unternehmenskomplexität.89 Während Erstere in wechselseitige Beziehung mit der Marktkomplexität tritt und durch die Gesellschaftskomplexität determiniert wird, weist die autonome Unternehmenskomplexität keine direkte Verbindung zur Markt- und Gesellschaftskomplexität auf. Einen Überblick über die Zusammenhänge vermittelt Abbildung 3.
Umweltkomplexität
Unternehmenskomplexität
Marktkomplexität
korrelierte UU-komplexität
Nachfrager-, Nachfragerstruktur-, Wettbewerbsstrukturkomplexität (Beschaffungsmarktstrukturkomplexität)
Gesellschaftskomplexität Komplexität des politischen, des Rechts-, Wirtschafts- und Kultursystems sowie der Technologie
Abbildung 3: 85 86 87 88 89 90
Komplexitätstreiber90
Vgl. BLISS (2000), S. 139. ASHBY (1957), S. 207. Vgl. WILDEMANN (1998), S. 47 ff. Vgl. KEUPER (2004), S. 82 ff. Vgl. BLISS (2000), S. 6 f. Siehe hierzu KEUPER (2004), S. 83.
Kundenstruktur-, Produktkonzept-, Produktionsprogrammstrukturkomplexität sowie Zielkomplexität
autonome UU-komplexität Produktionsprogramm- und Organisationskomplexität, Komplexität des Informations- und Kommunikations- sowie Fertigungssystems
398
MÜLLER/BRÖSEL
Anhand des nun vorliegenden theoretischen Rahmens können die TIME-Branche und die in ihr tätigen Unternehmen als komplexe Systeme charakterisiert werden. Den Ausgangspunkt soll die Marktkomplexität bilden, die im Wandel vom Verkäufer- zum Käufermarkt begründet liegt.91 Während im Verkäufermarkt lediglich die Kosten von Interesse waren, rückt nun auch der Zeitaspekt, z. B. in Form hoher Aktualität oder kurzer Bearbeitungszeiten, in den Fokus der Betrachtung. Darüber hinaus ist der Qualitätsfaktor zu berücksichtigen.92 Um Letzterem gerecht zu werden, müssen die Unternehmen einerseits ein stark individualisiertes Angebot aufgrund heterogener Nachfragerpräferenzen zur Verfügung stellen,93 während sie sich gleichzeitig der Nachfrage nach Systemprodukten gegenübersehen.94 Verantwortlich für die gleichzeitige Ausrichtung auf die drei Erfolgsfaktoren „Kosten“, „Zeit“ und „Qualität“ zeigt sich die hybride Nachfrage, welche die Nachfragekomplexität95 begründet. Da diese ein gesellschaftliches Phänomen darstellt, ist sie auch in der TIMEBranche vorzufinden. Das Aufstreben einer heterogenen Nachfragestruktur durch zunehmende Individualisierung erweist sich ebenfalls als allgemeingültig.96 Jedoch kann dieser Forderung in der TIME-Branche aufgrund der Digitalisierung und anderer technischer Möglichkeiten kostengünstig entsprochen werden,97 was eine überdurchschnittliche Nachfragestrukturkomplexität nach sich zieht. Als Besonderheit konvergierender Märkte und – insbesondere – der TIME-Branche ist hingegen die Forderung nach Systemprodukten anzusehen.98 Da dieser Forderung aufgrund unvollständiger Kernkompetenzen und deren lang andauernder Eigenaufbau häufig nicht durch ein einzelnes Unternehmen einer Branche entsprochen werden kann,99 muss das Unternehmen auf andere Optionen, wie M&A oder Kooperationen, ausweichen. Folge der M&A bzw. der Kooperationen ist eine Zunahme der Kompliziertheit und – aufgrund der Anforderungen an den Erfolgsfaktor Zeit – eine Ausweitung der Dynamik.100 Im Ergebnis führt dies zu einer hohen Wettbewerbsstrukturkomplexität. Durch das Eintreten in neue Geschäftsbereiche findet demnach ein ständiger Wandel der Wettbewerber statt. Neben der behandelten Nachfrage-, Nachfragestruktur- sowie Wettbewerbsstrukturkomplexität zeigt sich für die Komplexität der TIME-Branche im Sinne einer Marktkomplexität nach KEUPER noch die Beschaffungsmarktstrukturkomplexität verantwortlich. Diese wird gemäß KEUPER durch die „Verfügbarkeit der Ressourcen“101 determiniert und bestimmt die Abnehmer-Lieferanten-Beziehung. Dieser Aspekt findet unseres Erachtens jedoch bereits in der Wettbewerbsstrukturkomplexität ausreichend Beachtung. Dort wird im Zusammenhang mit Systemprodukten bereits auf fehlende Ressourcen in Form von Kernkompetenzen eingegan91 92 93 94
95 96 97 98 99 100 101
Vgl. ADAM/JOHANWILLE (1998), S. 7. Vgl. hierzu ROLLBERG (1996), S. 11 f. Vgl. BÖNING-SPOHR (2003), S. 8, und KEUPER (2004), S. 41 ff. Systemprodukte werden als gebündelte Leistungen vormals getrennter Wertschöpfungsketten verstanden, die zur kompletten kundenspezifischen Problemlösung dienen; vgl. ENGELHARDT/KLEINALTENKAMP/RECKENFELDERBÄUMER (1993), S. 415 f., und ROLLBERG (1996), S. 10. Die Nachfragekomplexität spiegelt sich in der Vielschichtigkeit und Dynamik des einzelnen Nachfragers wider; vgl. KEUPER (2004), S. 44. Vgl. PILLER (2001), S. 80 ff. Vgl. PICOT ET AL. (2002), S. 161 ff., und BÖNING-SPOHR (2003), S. 97 ff. Vgl. PICOT ET AL. (2002), S. 157, und BRÖSEL/DINTNER/KEUPER (2004), S. 14 f. Vgl. DIERICKX/COOL (1989) S. 1507 f., BARNEY (1991), S. 107 ff., und DOWLING/LECHNER (1998), S. 94. Vgl. WIRTZ (2001), S. 171. KEUPER (2004), S. 39.
Controlling in der TIME-Branche
399
gen. Da sich solche Lücken häufig auf vor- oder nachgelagerten Stufen der Wertschöpfungskette befinden, sind Abnehmer-Lieferanten-Beziehungen bereits erfasst. Im vorläufigen Ergebnis bleibt festzuhalten, dass die TIME-Branche durch die Komplexitätstreiber „Nachfragekomplexität“, „Nachfragestrukturkomplexität“ sowie „Wettbewerbsstrukturkomplexität“ als (äußerst) komplexes System einzuordnen ist. Darüber hinaus steht die Marktkomplexität, d. h. die Komplexität der TIME-Branche, in wechselseitigem Austausch mit der Gesellschaftskomplexität. Zusammen bilden diese die Umweltkomplexität für die in der TIME-Branche tätigen Unternehmen. So führen Komplexitätstreiber im gesellschaftlichen Umfeld zu einem Anstieg des Wettbewerbs, der wiederum ursächlich für den Anstieg der Marktkomplexität ist.102 Beispiele hierfür sind rechtliche Änderungen, wie die Liberalisierung und Deregulierung des Telekommunikationsmarktes, welche den Markt für neue Anbieter öffneten, was zu sinkenden Preisen und beschleunigten Produktinnovationen führt(e).103 Des Weiteren sind auch Änderungen im politischen System zu erwähnen, die zumindest auf europäischer Ebene einen freien Handel gewährleisten. Von fundamentaler Bedeutung für die TIME-Branche zeigt sich die technologische Komplexität.104 So sind der globale Ausbau der Datennetze und deren gegenseitige Verknüpfung ursächlich für eine Zunahme der internationalen Wettbewerbsbeziehungen. Unterstützt wird dies durch die oben angesprochene Heterogenität der Nachfragestruktur. Um eine Verteilung der Fixkosten neuer Segmente vornehmen zu können, ist eine hohe Nachfrage erforderlich. Der im Rahmen der Segmentierung auftretende Kannibalisierungseffekt,105 bei dem ein neues Segment dem schon bestehenden Segment die Nachfrage entzieht, führt jedoch zu einer sinkenden Fixkostendegression. Ein Ausgleich dessen wird lediglich durch eine räumliche Ausweitung des Marktes, was einen steigenden Internationalisierungsgrad sowie einen erhöhten Wettbewerbsdruck zur Konsequenz hat, erzielt. Als Ergebnis sei an dieser Stelle festgehalten, dass sich die TIME-Branche als äußerst komplexes System im Sinne eines Marktsystems charakterisieren lässt. Abgeleitet von dieser Tatsache weisen die in ihr tätigen Unternehmen ebenfalls einen äußerst hohen Grad an Komplexität auf. Ursächlich dafür zeigt sich ASHBYs Law. Neben einer Vielzahl von Elementen und einem hohen Grad der Verknüpfung dieser Elemente untereinander weist ein äußerst komplexes System auch Veränderungen im Zeitablauf auf. Wie soeben ausführlich erläutert, kann aufgrund dessen die TIME-Branche als äußerst komplexes System eingestuft werden. Im nun folgenden dritten Kapitel werden Eigenschaften komplexer Systeme dargestellt, um hieraus Anforderungen an das Controlling – respektive das Risikocontrolling – zu formulieren.
102 103 104 105
Wettbewerb ist durch Komplexität charakterisiert; vgl. PICOT (1990), S. 120, und REUTER (1998), S. 114 f. So fielen das Netz- und das Sprachdienstmonopol am 01.08.1996 bzw. am 01.01.1998. Die technologische Komplexität wird an dieser Stelle dem Gesellschaftssystem zugeordnet. Vgl. ADAM/ROLLBERG (1995), S. 668, und SJURTS (2000b), S. 134.
400
MÜLLER/BRÖSEL
3
Risikocontrolling im komplexen System der TIME-Branche
3.1
Risikocontrolling – Ein Subsystem des Controllings
Da in der betriebswirtschaftlichen Literatur keine Einigkeit über den Inhalt des Risikocontrollings und darüber besteht, ob dieses überhaupt einer Abgrenzung zum Risikomanagement bedarf,106 soll einleitend der Terminus „Controlling“ vorgestellt werden. Controlling107 wird in Deutschland weitgehend im Sinne von Controllership verstanden, so dass eine Differenzierung zum angloamerikanischen Controlling im Sinne von „Management-Control“, welches sich auf die Steuerung und Führung bezieht, erfolgt. Da das „Management-Control“ von der Unternehmensführung wahrgenommen wird, übernimmt der Controller die Aufgaben des Controllings im Sinne von Controllership. Der vorliegende Beitrag betrachtet Controlling aus funktionaler Sicht und orientiert sich an HORVÁTH. Dieser versteht Controlling als „dasjenige Subsystem der Führung, das Planung und Kontrolle sowie Informationsversorgung systembildend und systemkoppelnd ergebniszielorientiert koordiniert und so die Adaption und Koordination des Gesamtsystems unterstützt.“108 Somit ist das Controlling als Führungsunterstützung anzusehen.109 Da das Risikocontrolling einen Bestandteil des Controllings darstellt,110 lassen sich – ausgehend von der Definition HORVÁTHs – die Ziele des Risikocontrollings ableiten. Neben der Informationsversorgung111 der Unternehmensführung über bestehende und potenzielle Risiken liegen die Ziele vor allem in der Integration von Risikoaspekten in die Planung, Steuerung und Kontrolle sowie in der Koordination des Risikomanagements.112 Auf diese Weise soll die Anpassungsfähigkeit an veränderte Risikosituationen gewährleistet werden.113 Auf Basis der genannten Ziele ergeben sich für das Risikocontrolling folgende Aufgaben: Das Risikocontrolling ist für den Aufbau und die Weiterentwicklung eines Managementinformationssystems verantwortlich, mit dessen Hilfe den Entscheidungsträgern relevante Informationen bereitgestellt werden. Dieser Zweck bedingt neben der Identifikation auch die Beurteilung von Risiken durch das Risikocontrolling.114 Somit hat das Risikocontrolling für ein geeignetes Instrumentarium zur Identifikation und Beurteilung Sorge zu tragen. Des Weiteren sind mögliche Konsequenzen unterschiedlicher Risikosteuerungsmöglichkeiten aufzuzeigen.115 In diesem Zusammenhang sei daran erinnert, dass das Risikocontrolling lediglich eine 106
107 108 109 110 111 112 113 114 115
Auch in der Unternehmenspraxis herrscht Uneinigkeit über das Risikocontrolling. So ergab eine Umfrage bei 111 Kapitalgesellschaften in Deutschland im Jahr 2003, dass 23,6% das Risikocontrolling als Bestandteil des Risikomanagements ansehen, während 40,5% beide nebeneinander anordnen. Die restlichen Unternehmen sehen Risikomanagement und Risikocontrolling als bedeutungsgleich an; vgl. HOITSCH/WINTER/BAUMANN (2006), S. 72. Vgl. zu folgenden Ausführungen HORVÁTH (2003), S. 21 f. HORVÁTH (2003), S. 151, ähnlich auch LÜCK (1998a), S. 11. Vgl. BRAUN (1984), S. 288 f., und LÜCK (1998b), S. 1929. Vgl. DIEDERICHS (2004), S. 24, und SCHORCHT/BRÖSEL (2005), S. 23. Vgl. LÜCK (1998b), S. 1929. Vgl. HOITSCH/WINTER/BAUMANN (2006), S. 71. Vgl. DIEDERICHS (2004), S. 25. Vgl. LÜCK (1998b), S. 1930. Vgl. BAETGE/JERSCHENSKY (1999), S. 173, und HORNUNG/REICHMANN/FORM (2000), S. 158.
Controlling in der TIME-Branche
401
Unterstützungsfunktion wahrnimmt, die keine Verantwortung für die aktive Steuerung der Risiken beinhaltet.116 Darüber hinaus ist das Risikocontrolling für die Ergebniskontrolle im Sinne der Risikoüberwachung zuständig.117 Aufgrund sich verändernder Rahmenbedingungen hat das Risikocontrolling neben der erwähnten Entwicklung eines geeigneten Instrumentariums auch auf dessen Weiterentwicklung zu achten.118 Die dargestellten Ziele und Aufgaben zugrundelegend kann Risikocontrolling folgendermaßen definiert werden: Risikocontrolling ist sowohl als Subsystem des Controllings als auch als Subsystem des Risikomanagements anzusehen, welches neben einem Managementinformationssystem zur Informationsbereitstellung auch die methodischen Grundlagen in Form geeigneter Instrumente für den Risikomanagementprozess entwickelt, um die Planung, Steuerung, Kontrolle und Koordination der Risikopotenziale zu unterstützen und somit die Anpassungsfähigkeit an sich ändernde Risikosituationen zu gewährleisten. Abbildung 4 stellt die Begrifflichkeiten zusammenfassend gegenüber. Führungssystem
¾Schaffung eines Risikobewusstseins ¾Setzung risikopolitischer Grundsätze und Ableitung einer Risikostrategie
Risikocontrolling als Subsystem des Controllings und des Risikomanagements ¾ Etablierung eines risikoorientierten Berichtswesens und einer Dokumentation sowie Erfassung, Analyse und Überwachung der Risiken ¾ Entwicklung einer Fach- und Methodenkompetenz ¾ Entwicklung eines effizienten Risikomanagementprozesses einschließlich eines geeigneten Instrumentariums
¾Steuerung in Kenntnis der bestehenden Risikolage
Abbildung 4:
116 117 118 119
Controlling – Risikocontrolling – Risikomanagement119
Vgl. SAITZ (1999), S. 95. Vgl. BITZ (2000), S. 237. Vgl. HORNUNG/REICHMANN/DIEDERICHS (1999), S. 322. In Anlehnung an HORNUNG/REICHMANN/FORM (2000), S. 158, und DIEDERICHS (2004), S. 27.
Controlling als Subsystem der Unternehmensführung
Risikomanagement als Subsystem der Unternehmensführung
402
3.2
MÜLLER/BRÖSEL
Eigenschaften komplexer Systeme
In der Literatur besteht weitgehend Einigkeit über die Eigenschaften komplexer Systeme. Die bedeutendsten Eigenschaften sind die Nichtlinearität (a), die rückkoppelnden Verhaltensweisen und die damit verbundene Selbstreferenz komplexer Systeme (b), das Streben nach Gleichgewicht und Ungleichgewicht (c) sowie die Irreversibilität von Wirkungszusammenhängen (d) und emergierende Verhaltensmuster (e):120 (a) Die Nichtlinearität121 beruht auf dem gleichzeitigen Ablauf unterschiedlicher Aktivitäten, was wiederum in der hohen Zahl von Relationen zwischen den Elementen und den daraus resultierenden Wechselwirkungen begründet ist. Dies führt dazu, dass einfachgerichtete monokausale Ursache-Wirkungs-Beziehungen keine Anwendung finden.122 Vielmehr werden diese durch mehrdimensionale wechselseitige Ursache-Wirkungs-UrsacheBeziehungen ersetzt. So stellt die durch ein Unternehmen wahrgenommene Umwelt die Ursache für eine unternehmerische Handlung dar, welche als Wirkung anzusehen ist. Infolge der vielfältigen Austauschbeziehungen zwischen Unternehmen und der Unternehmensumwelt sowie der Wechselbeziehungen zwischen den Elementen der Umwelt verändert sich wiederum die Ursache in Form einer Modifikation der Unternehmensumwelt. BLISS fasst diesen Sachverhalt zusammen und bezeichnet Systeme als nichtlinear, „wenn abgegrenzte Aktivitäten oder Ereignisse mehr als ein Ergebnis haben und/oder nicht-proportionale Ergebnisse hervorbringen.“123 Als Konsequenz daraus ergibt sich die Nichtvorhersagbarkeit von Ereignissen bzw. Ergebnissen einer Handlung.124 Letzteres erweist sich insbesondere für die Identifikation von Risiken und der späteren Analyse als hinderlich. (b) Damit einher geht das Phänomen der Rückkopplungen, welches ebenfalls auf der Verknüpfung von Systemelementen beruht. Rückkopplungen stellen zweiseitige Verknüpfungen dar,125 bei denen nicht nur der Input den Output beeinflusst. Auch der Output determiniert den Input.126 Je nachdem, ob die Rückkopplung das System stabilisiert und dieses seinem Ziel näher bringt oder ob das System in seiner Stabilität gefährdet ist, werden zwei Ausprägungen von Rückkopplungen unterschieden. Negative Rückkopplungen sind entgegengerichtete Verknüpfungen von Elementen,127 die durch eine Annäherung von Soll- und Ist-Werten gekennzeichnet sind.128 Führt der Input zu einer Überschreitung des Soll-Wertes durch den Output, wird der Input in die entgegengesetzte Richtung gelenkt – im vorliegenden Fall also verringert. Aufgrund dessen senkt sich wiederum der Output. Somit wird eine Stabilisierung des Systems um den Soll-Wert erreicht. Negative Rückkopplungen finden demzufolge zur Strukturbewahrung Anwendung, indem ein Gleichgewichtszustand angestrebt wird.
120 121 122 123 124 125 126 127 128
Vgl. hierzu im Überblick KEUPER (2004), S. 27 ff. Vgl. BLISS (2000), S. 24 f., und KEUPER (2004), S. 27. Vgl. GROSSMANN (1992), S. 39, und GOMEZ/PROBST (1995), S. 16 f. BLISS (2000), S. 24. Vgl. zu den nichtproportionalen Ergebnissen LEWIN (1993), S. 23 f. Vgl. LEWIN (1993), S. 23 f. Vgl. WAGNER/BEENKEN/GRÄSER (1995), S. 15. Vgl. BEER (1962), S. 45 ff. Vgl. WAGNER/BEENKEN/GRÄSER (1995), S. 15. Vgl. BEER (1962), S. 47, und MALIK (1992), S. 384.
Controlling in der TIME-Branche
403
Im Gegensatz dazu handelt es sich bei einer positiven Rückkopplung um eine gleichgerichtete Verknüpfung von Elementen, die ein Differieren von Soll- und Ist-Wert zur Konsequenz hat.129 Als Beispiel sei der Aktienmarkt erwähnt. Als Input werden hier sinkende Kurse verstanden, die häufig dazu führen, dass die verbleibenden Anleger ihre Wertpapiere veräußern. Dieser Output hat wiederum sinkende Kurse zur Konsequenz, wodurch eine zunehmende Abweichung zum Ausgangswert generiert wird. Folglich führen positive Rückkopplungen zu Strukturveränderungen, die eine Evolution des Systems ermöglichen.130 Des Weiteren zeigt sich die Selbstreferenz, die auf den Überlegungen rückgekoppelter Verhaltensweisen aufbaut, als weitere Eigenschaft komplexer Systeme. Unter Selbstreferenz wird die Beeinflussung eines Systems durch das eigene Handeln verstanden, indem das System „mit sich selbst in Beziehung“131 steht. Erst die Selbstreferenz erlaubt eine darüber hinausgehende Selbstregulierung durch Selbstorganisation des Systems.132 (c) Die Generierung eines Gleichgewichtszustandes ist davon abhängig, ob eine positive oder eine negative Rückkopplung vorliegt. Ein Gleichgewichtszustand zwischen System und Umsystem, welcher sich verantwortlich für die Stabilität des Systems zeigt, kann nur mit Hilfe negativer Rückkopplungen realisiert werden. Auf Letzteren beruht schließlich auch die oben erwähnte Selbstregulierung durch Selbstorganisation – kurz Homöostase. Das Konzept der Homöostase gleicht sowohl interne als auch externe Störungen auf das System durch interne Regelungsvorgänge aus.133 Um das Prinzip der Homöostase näher zu erläutern, sei an dieser Stelle auf ASHBY zurückgegriffen, der zwei Typen von Systemen unterscheidet.134 Neben den multistabilen Systemen sind dies die ultrastabilen Systeme. Kennzeichnend für ultrastabile Systeme, welche nicht nur ein bekanntes Gleichgewicht anstreben, sondern darüber hinaus nach einer Störung ein neues Gleichgewicht suchen,135 sind „zwei sich hierarchisch überlagernde Rückkopplungsmechanismen“136. Der erste Rückkopplungsmechanismus behandelt lediglich geläufige Störungen und versucht das bereits bekannte Gleichgewicht zu erreichen. Treten jedoch bislang unbekannte Störungen auf, führen die bisherigen Verhaltensweisen zu keiner Lösung des Problems. In diesem Fall greifen die Rückkopplungsmechanismen der zweiten Ordnung.137 Im Gegensatz zu den Rückkopplungen erster Ordnung stellen diese Mechanismen keine vordefinierten Verhaltensweisen bereit. Vielmehr testen sie alle dem System zur Verfügung stehenden Reaktionsmöglichkeiten, um den bekannten Gleichgewichtszustand durch eine Änderung der Verhaltensweise zu erreichen. Schlägt dies fehl, muss ein neuer Gleichgewichtspunkt definiert werden.
129 130 131 132 133 134 135 136 137
Vgl. MALIK (1992), S. 385, WAGNER/BEENKEN/GRÄSER (1995), S. 15, und KEUPER (2004), S. 28. Vgl. KEUPER (2004), S. 29. WAGNER/BEENKEN/GRÄSER (1995), S. 24. Vgl. MALIK (1992), S. 390, und WAGNER/BEENKEN/GRÄSER (1995), S. 26 f. Vgl. RÖPKE (1977), S. 38, und MALIK (1992), S. 390. Vgl. BEER (1962), S. 143 ff., RÖPKE (1977), S. 41 ff., MALIK (1992), S. 387 ff., und KEUPER (2004), S. 29 f. Vgl. MALIK (1992), S. 395. RÖPKE (1977), S. 41. Vgl. KEUPER (2004), S. 29.
404
MÜLLER/BRÖSEL
Um nicht das gesamte System zu destabilisieren, wenn lediglich für einen Teilbereich Rückkopplungsmechanismen der zweiten Ordnung angewendet werden, hat ASHBY die multistabilen Systeme eingeführt. Diese stellen eine Sammlung von lediglich zeitweilig interdependenten ultrastabilen Systemen dar und ermöglichen die Strukturbewahrung des Gesamtsystems. Verantwortlich für die so erzeugte Stabilität zeigt sich die autonome Anpassungsfähigkeit einzelner Teilbereiche. Somit liegt die „Stabilität komplexer Systeme [...] in ihrer Veränderlichkeit“138 begründet. Charakteristisch für die Homöostase im Allgemeinen ist die Reaktion des Systems, ohne die Ursache der Störung eingehend zu untersuchen, was vor allem bei äußerst komplexen Systemen häufig gar nicht möglich wäre.139 Da die Unternehmen der TIME-Branche jedoch einem äußerst komplexen Markt gegenüberstehen, der neben vielen Elementen und Interaktionen auch durch eine hohe Veränderlichkeit geprägt ist, reichen die vorhandenen Reaktionsmöglichkeiten häufig nicht, um auf externe Störungen zu reagieren. Demnach befinden sich die Systeme nicht im Gleichgewicht mit dem Umsystem, d. h. ihre „Input- und Outputprozesse [sind nicht] im Lot“140. Aus diesem Grund haben die Systeme gemäß ASHBYs „Law of requisite variety“ ihre Komplexität im Sinne der Vielzahl von Elementen und Relationen zu erhöhen, so dass entsprechende Verhaltensmöglichkeiten generiert werden können. Einer solchen Strukturveränderung ist folglich eine Destabilisierung des Systems immanent. Diese sollte keinesfalls von langer Dauer sein,141 weil die Stabilität für ein System „absolut notwendig ist.“142 Dennoch werden komplexe offene Systeme nicht durch stabile Strukturen dominiert. Vielmehr stellen dissipative Strukturen „den Normalfall dar, was bedeutet, daß sie [– die Systeme –] sich bei Störungen oder externen Fluktuationen gänzlich anders verhalten“143. Die so entstandene Struktur gilt es nun wieder zu stabilisieren. Abschließend bleibt festzuhalten, dass komplexe Systeme sowohl durch ein Streben nach Stabilität im Sinne negativer Rückkopplungen als auch durch Instabilität aufgrund notwendiger Strukturanpassungen gekennzeichnet sind. Dabei führen eine einseitige Ausrichtung auf die Stabilität oder die permanente Instabilität zum Untergang des Systems. WAGNER/BEENKEN/GRÄSER machen diesen Zusammenhang deutlich, wenn sie sagen: „Stabilität auf der einen Seite, Variabilität auf der anderen brauchen sich.“144 (d) Eine weitere Eigenschaft komplexer Systeme liegt in der Irreversibilität, d. h. der „Unwiderrufbarkeit und Unumkehrbarkeit“145 von Wirkungszusammenhängen. Bedingt wird diese durch die Nichtlinearität und die damit verbundenen Rückkopplungen sowie die Selbstreferenz der Systeme. Wie bereits beschrieben, führen eben diese Charakteristika zu einer Veränderung des Systems und somit des Systemverhaltens. Aufgrund dessen wandeln sich auch die Wirkungszusammenhänge, die zwar weiterhin veränderbar blei-
138 139 140 141 142 143 144 145
RÖPKE (1977), S. 43. Vgl. BEER (1962), S. 46. WAGNER/BEENKEN/GRÄSER (1995), S. 20. Vgl. MALIK (1992), S. 385. MALIK (2000), S. 258. ULRICH (1994), S. 18. Vgl. auch REUTER (1998), S. 145. Nach STACEY (1997), S. 224, sind dissipative Strukturen „stabile, erkennbare Formen, die fortwährend aufgelöst und erneuert werden“. WAGNER/BEENKEN/GRÄSER (1995), S. 32. Vgl. hierzu auch STACEY (1997), S. 63 ff. NØRRETRANDERS (1994), S. 522.
Controlling in der TIME-Branche
405
ben, jedoch nicht wieder in exakt die gleiche Ausgangssituation gebracht werden können.146 (e) Ebenfalls symptomatisch für komplexe Systeme sind deren emergierende globale Strukturen. Auf systemtheoretischer Ebene ist unter Emergenz die Generierung globaler Strukturen aufgrund lokaler Wechselwirkungen zwischen den Systemelementen zu verstehen.147 Gemäß LEWIN ist diese „unvorhersehbar und dem unmittelbaren Verständnis entzogen.“148 Ähnlich sieht dies auch KNEER, der davon ausgeht, dass die globalen Strukturen nicht durch die Eigenschaften der Elemente und deren Interaktionen erklärt werden können.149 Rückkopplungen und Selbstreferenz zugrundeliegend beeinflusst die durch lokale Regeln entstandene globale Ordnung wiederum die lokalen Wechselbeziehungen. Verdeutlicht wird dieser Zusammenhang durch Abbildung 5. Determiniert wird die Emergenz nach NØRRETRANDERS durch die Anzahl der Systemelemente. Emergenz liegt demzufolge vor, wenn die Anzahl der Elemente „so groß ist, daß kollektive Wirkungen, Gruppeneigenschaften entstehen können.“150 Diese Aussagen machen deutlich, dass Emergenz lediglich in komplexen Systemen auftreten kann.
Emergente globale Strukturen
Lokale Wechselwirkungen
Abbildung 5:
3.3
Emergente Strukturen151
Anforderungen an ein effektives und effizientes Risikocontrolling
Unter Zuhilfenahme der im vorangegangenen Gliederungspunkt erläuterten Eigenschaften komplexer bzw. äußerst komplexer Systeme erfolgt nun die Formulierung von Kriterien, welche durch ein effektives und effizientes152 Controlling respektive Risikocontrolling zu erfüllen sind. Die Herausarbeitung der Kriterien an ein effektives und effizientes Risikocon146 147 148 149 150 151 152
Vgl. BLISS (2000), S. 27. Vgl. LEWIN (1993), S. 24 ff. LEWIN (1993), S. 47. Vgl. KNEER/NASSEHI (2000), S. 62. NØRRETRANDERS (1994), S. 518. In Anlehnung an LEWIN (1993), S. 25. An dieser Stelle sei erwähnt, dass die Effizienzbestimmung aufgrund fehlender Bezugsgrößen kaum möglich ist; vgl. hierzu FASSE (1995), S. 181. So können zwar die Kosten der Risikoidentifikation ermittelt werden, nicht jedoch deren Erfolg. Deshalb ist es auch schwierig, von Wirtschaftlichkeit im Sinne der Beachtung lediglich relevanter Risiken zu sprechen.
406
MÜLLER/BRÖSEL
trolling erfolgt beispielhaft anhand der Risikoidentifikation, welche zum Aufgabenbereich des Risikocontrollings zählt. So sind durch das Risikocontrolling bereitgestellte Instrumente zur Risikoidentifikation lediglich dann effektiv, wenn diese sowohl eine aktuelle, systematische, vollständige und flexible als auch inhaltlich korrekte Erfassung von Risiken ermöglichen. Ein effizientes Risikocontrolling setzt hingegen noch die Beachtung des Wesentlichkeitsgrundsatzes voraus. Um sowohl die Effizienz als auch die Effektivität zu gewährleisten, müssen die Instrumente des Risikocontrollings den folgenden Anforderungen genügen: (a) Im Rahmen der Erfassung von Risiken komplexer Systeme haben die dafür eingesetzten Instrumente dem Merkmal der Zukunftsbezogenheit zu entsprechen. Während in einfachen Systemen ein Rückgriff auf vergangenheitsorientierte Daten möglich ist, um bestehende und potenzielle Risiken153 ausfindig zu machen, führt selbiges in komplexen Systemen zu keinem Ergebnis.154 Verantwortlich hierfür zeigen sich einige der zuvor genannten Eigenschaften komplexer Systeme. Demnach sind solche durch Nichtlinearität – welche sowohl in positiven als auch in negativen Rückkopplungen auftreten kann –, durch dissipative Strukturen sowie durch Emergenz gekennzeichnet. Nichtlinearität und Rückkopplungen verwehren beispielsweise die Bestimmung zukünftiger Ergebnisse anhand vergangener Daten, weil Nichtlinearität und somit auch Rückkopplungen „a varying effect on an outcome“155 haben. Somit bleibt der Risikoidentifikation lediglich die Orientierung an Datenmaterial, welches eine gewisse Vorlaufzeit gegenüber dem eintretenden Ereignis aufweist, d. h. zukunftsbezogen ist.156 Nur auf diese Weise kann den Anforderungen an eine aktuelle und inhaltlich richtige Risikoidentifikation157 entsprochen werden. (b) Darüber hinaus müssen Instrumente zur Risikoidentifikation in komplexen Systemen dynamisch ausgerichtet sein158, um eine aktuelle und flexible159 Risikoerfassung zu ermöglichen. Genügen in einfachen Systemen noch statische Methoden zum Erkennen von Risiken, reicht dies in komplexen Systemen nicht mehr. Aufgrund der hohen Veränderlichkeit, z. B. der TIME-Branche, ergäbe eine einmal durchgeführte Risikoidentifikation keinen Sinn, weil bereits kurze Zeit später neue Risiken bestehen könnten. Ursächlich für die Forderung dynamischer Instrumente erweisen sich auch diesmal die Nichtlinearität sowie die Rückkopplungen, welche komplexen Systemen eigen sind. So formuliert STACY: „Dynamics is concerned with the path from one state to another, to the next and so on, generated by feedback processes.“160 Des Weiteren verlangen dissipative Strukturen ebenfalls nach Dynamik, um auch revolutionären Änderungen gerecht zu werden.
153 154 155 156 157 158 159 160
Vgl. FASSE (1995), S. 71, und LÜCK (1998b), S. 1925. Vgl. STACEY (1997), S. 41 ff. STACEY (1993), S. 151. Vgl. zur Zukunftsbezogenheit in komplexen Systemen GOMEZ/PROBST (1995), S. 150 ff. Vgl. zur Aktualität der Risikoidentifikation BREBECK/HERRMANN (1997), S. 384. Vgl. GROSSMANN (1992), S. 44, und ADAM/JOHANNWILLE (1998), S. 15. Vgl. DIEDERICHS (2004), S. 98. STACEY (1993), S. 89.
Controlling in der TIME-Branche
407
(c) Ein weiteres Kriterium, welches die Methoden zur Risikoidentifikation in komplexen Systemen zu erfüllen haben, stellt die multiple Einsatzfähigkeit dar.161 Bedingt durch Komplexitätshandhabungsdefekte162 sowie Wirkungsdefekte163 werden nicht sämtliche Risiken auf Gesamtunternehmensebene erkannt, so dass die zur Verfügung stehenden Instrumente auch auf Ebene einzelner Abteilungen anwendbar sein müssen. Ungeachtet dessen ist eine Nutzung auf Gesamtunternehmensebene trotzdem erforderlich, weil auf Abteilungsebene nur Einzelrisiken berücksichtigt werden, jedoch eine Ermittlung des Gesamtrisikos notwendig ist. Nur bei Erfüllung dieses Merkmales ist eine Erfassung aller Elemente und Relationen164 und folglich eine vollständige Identifikation der Risiken möglich. Zudem wird auf diese Weise eine Systematisierung der Risiken erreicht. Das Kriterium der multiplen Einsatzfähigkeit von Instrumenten zur Risikoidentifikation liegt in der Forderung nach Komplexitätsreduktion bei gleichzeitiger Komplexitätsausnutzung begründet. Die bereits angesprochene Delegation der Risikoidentifikation auf Abteilungsebene stellt demnach ein Beispiel für die Komplexitätsreduktion dar. In Anbetracht nicht-linearer, rückgekoppelter, durch Emergenz sowie Gleichgewichts- und Ungleichgewichtsstreben gekennzeichneter Systeme ergeben sich unter anderem Komplexitätshandhabungs- als auch Wirkungsdefekte. Letztere zeichnen sich durch das Fehlen von Ursache-WirkungsBeziehungen aus,165 wodurch eine Bestimmung von Risiken, welche eine ursachenbezogene und eine wirkungsbezogene Komponente aufweisen, nicht mehr möglich ist. Eine Lösung des Problems liegt in der Aufspaltung desselbigen.166 Unter Zuhilfenahme der Delegation auf Abteilungsebene werden Teile der Relationen zwischen den Elementen ausgeblendet, was auf Abteilungsebene zu einer Eingrenzung des anfänglich undurchschaubaren Problems führt. Neben dem Erkennen von Risiken hat ein solches Vorgehen auch eine Strukturierung der Risiken zum Inhalt. Ursächlich hierfür zeigt sich unter anderem die funktionale167 Trennung der Abteilungen. So weist die Abteilung „Marketing“ tendenziell andere Risiken als das Finanzressort auf. Im Zusammenhang mit einer Komplexitätsreduktion ist jedoch der damit verbundene Informationsverlust zu berücksichtigen,168 welcher wiederum ein Nichterfassen von Risiken zur Folge haben kann. Um die Nichterfassung von Risiken zu mindern, ist das gewählte Instrument auch auf Gesamtunternehmensebene anzuwenden. Hierdurch soll die bestehende Komplexität ausgenutzt werden,169 um mögliche Interdependenzen zwischen den einzelnen Abteilungen zu erkennen und somit Transparenz170 zu generieren. Infolgedessen wird an dieser Stelle ersichtlich, welchen Einfluss die Einzelrisiken auf das Gesamtrisiko haben. Aufgrund dieses Wissens kann letztlich auch der Forderung nach Wesentlichkeit171 nachge161 162 163 164 165 166 167 168 169 170 171
Vgl. hierzu ausführlich ADAM/JOHANNWILLE (1998), S. 14. Vgl. hierzu ausführlich KEUPER (2004), S. 22 ff. Vgl. ADAM (1980), S. 382 ff. Vgl. GROSSMANN (1992), S. 44. Vgl. ADAM (1980), S. 382 ff., insbesondere S. 384, und MALIK (2000), S. 36. Vgl. ADAM (1980), S. 129. Auch die prozessuale Gliederung ist zur Strukturierung von Risiken geeignet. Bezüglich des Informationsverlustes aufgrund der Problemteilung und somit der Komplexitätsreduktion äußert PROBST (1981), S. 182: „Immer wenn Varietät vernichtet wird, geht Information verloren.“ Vgl. zur Komplexitätsausnutzung KEUPER/BRÖSEL (2005), S. 25. Vgl. SCHORCHT (2004), S. 86. Vgl. BREBECK/HERRMANN (1997), S. 384.
408
MÜLLER/BRÖSEL
kommen werden, wonach in den auf die Risikoidentifikation folgenden Schritten lediglich relevante Risiken einer eingehenden Behandlung unterliegen. ¾ Nichtlinearität ¾ Wirkungsdefekte ¾ Rückkopplungen ¾ Emergenz ¾ dissipative Strukturen
¾ Nichtlinearität ¾ Rückkopplungen ¾ dissipative Strukturen
¾ Nichtlinearität ¾ Rückkopplungen ¾ Wirkungsdefekte
Zukunftsbezogenheit
¾ Richtigkeit ¾ Aktualität
Dynamik
¾ Aktualität ¾ Flexibilität
multiple Einsatzfähigkeit
¾ Systematisierung ¾ Vollständigkeit auf Abteilungsebene
Komplexitätsreduktion
Komplexitätsausnutzung
Abbildung 6:
4
¾ Vollständigkeit bezüglich des Gesamtrisikos ¾ Transparenz ¾ Wirtschaftlichkeit
Anforderungen an die Risikoidentifikation und deren Konsequenzen172
Fazit
Die in besonderem Maße auf Unternehmen der konvergierenden TIME-Branche zutreffenden Eigenschaften einer hohen Komplexität sowie einer hohen Dynamik determinieren die Anforderungen an die Steuerungsprozesse solcher Unternehmen. Davon betroffen sind ebenfalls das Controlling und somit das Risikocontrolling. Letzteres zeigt sich unter anderem für die Bereitstellung eines Instrumentariums zur Identifikation von Risiken und Chancen verantwortlich. Die Gewährleistung eines Risikocontrollings in Unternehmen der TIME-Branche, welches ein effektives und zugleich effizientes Instrumentarium zur Risikoidentifikation zur Verfügung stellt, setzt die Erfüllung der in diesem Beitrag herausgearbeiteten Kriterien voraus. So hat ein in der TIME-Branche eingesetztes Risikocontrolling einen Zukunftsbezug aufzuweisen und muss den Aspekt der Dynamik – sowohl dem der evolutionären als auch dem der revolutionären Dynamik – beachten. Darüber hinaus ist es erforderlich, dass die vom Risikocontrolling zur Verfügung gestellten Instrumente auf den verschiedenen Unterneh172
Eigene Darstellung.
Controlling in der TIME-Branche
409
mensebenen einsetzbar sind. Die Instrumente müssen folglich auf Gesamtunternehmensebene sowie auf Ebene einzelner Abteilungen anwendbar sein. Erst die kumulative Erfüllung der herausgearbeiteten Kriterien führt zu einem effektiven und effizienten Risikocontrolling. Jedoch ist auch bei einem zweckmäßigen Instrumentenportefeuille vor der Illusion einer vollständigen Erfassung aller potenziellen und bestehenden Risiken zu warnen. Selbiges ist nicht zuletzt der Schwierigkeit, sämtliche Ursache-Wirkungs-Beziehungen ausfindig zu machen, und der konträren Zielsetzung einer wirtschaftlichen Risikoidentifikation geschuldet. Aufgrund der Annäherung weiterer Branchen an die TIME-Branche sind die Anforderungen an das Controlling bzw. das Risikocontrolling auch in diesen Branchen zu übernehmen.
Quellenverzeichnis ADAM, D. (1980): Planungsüberlegungen in bewertungs- und zielsetzungsdefekten Problemsituationen, in: WISU – Das Wirtschaftsstudium, 1980, S. 127–130 (Teil I) und S. 382– 386 (Teil II). ADAM, D./JOHANNWILLE, U. (1998): Die Komplexitätsfalle, in: ADAM, D. (Hrsg.), Komplexitätsmanagement, Wiesbaden 1998, S. 5–28. ADAM, D./ROLLBERG, R. (1995): Komplexitätskosten, in: Die Betriebswirtschaft, 1995, S. 667–669. APPLE (2005): Annual Report 2005, online: http://www.apple.com/investor/, Stand: o. A., Abruf: 13.09.2007. APPLE (2007): Quarterly Report for the quarterly period ended June, 30, 2007, online: http://library.corporateir.net/library/10/107/107357/items/257461/10Q_Q3FY07.pdf, Stand: o. A., Abruf: 13.09.2007. ASHBY, W. R. (1957): An introduction to cybernetics, London. BAETGE, J./JERSCHENSKY, A. (1999): Frühwarnsysteme als Instrumente eines effizienten Risikomanagement und -Controlling, in: Controlling, 1999, S. 171–176. BARNEY, J. B. (1991): Firm Resources and Sustained Competitive Advantage, in: Journal of Management, 1991, S. 99–120. BARNEY, J. B. (1996): Gaining and sustaining competitive advantage, Reading et al. 1996. BAUM, H. G./COENENBERG, A. G./GÜNTHER T. (2004): Strategisches Controlling, Stuttgart 2004. BEER, S. (1962): Kybernetik und Management, Frankfurt am Main 1962. BETTIS R. A./HITT M. A. (1995): The new competitive landscape, in: Strategic Management Journal, 1995, Sonderheft, S. 7–19. BIBERACHER, J. (2003): Synergiemanagement und Synergiecontrolling, München 2003.
410
MÜLLER/BRÖSEL
BITZ, H. (2000): Abgrenzung des Risiko-Frühwarnsystems i. e. S. nach KonTraG zu einem umfassenden Risiko-Managementsystem im betriebswirtschaftlichen Sinn, in: Betriebswirtschaftliche Forschung und Praxis, 2000, S. 231–241. BLISS, C. (2000): Management von Komplexität – ein integrierter, systemtheoretischer Ansatz zur Komplexitätsreduktion, Wiesbaden 2000. BMWI (2004) (Hrsg.): Anforderungen an die Technologie- und Wirtschaftspolitik durch die Konvergenz der elektronischen Medien, online: http://www.bmwi.de/BMWi/Redaktion/ PDF/Publikationen/Dokumentationen/anforderungen-an-die-technologie-und-wirtschaftsp olitik-durch-die-konvergenz-der-elektronischen_20Medien-material-539,property=pdf, bereich=bmwi,sprache=de,rwb=true.pdf, Stand: 2004, Abruf: 18.09.2007. BÖNING-SPOHR, P. (2003): Controlling für Medienunternehmen im Online-Markt – Gestaltung ausgewählter Controlling-Instrumente, Göttingen 2003. BÖNING-SPOHR, P. (2005): Instrumente für die Quantifizierung von Mehrfachnutzungsstrategien, in: Zeitschrift für Controlling und Management, 2005, Sonderheft 2, S. 49–60. BRAUN, H. (1984): Risikomanagement – eine spezifische Controllingaufgabe, Darmstadt 1984. BREBECK, F./HERRMANN, D. (1997): Zur Forderung des KonTraG-Entwurfs nach einem Frühwarnsystem und zu den Konsequenzen für die Jahres- und Konzernabschlußprüfung, in: Die Wirtschaftsprüfung, 1997, S. 381–390. BRÖSEL, G./DINTNER, R./KEUPER, F. (2004): Quo vadis Unternehmensführung? Über die nicht vorhandene Dichotomie von Sach- und Dienstleistungsunternehmen, in: BURKHARDT, T./ KÖRNERT, J./WALTHER, U. (Hrsg.), Banken, Finanzierung und Unternehmensführung – Festschrift für Karl Lohmann, Berlin 2004, S. 11–28. BRÖSEL, G./ZWIRNER, C. (2004): Bilanzierung von Sportrechteverträgen nach HGB, IFRS und US-GAAP aus Sicht eines werbefinanzierten Fernsehsenders, in: MedienWirtschaft – Zeitschrift für Medienmanagement und Kommunikationsökonomie, 2004, S. 21–29. COLLIS, D. J./BANE, P. W./BRADLEY, S. P. (1997): Winners and losers – industry structure in the converging world of telecommunication, computing and entertainment, in: YOFFIE, D. B. (Hrsg.), Competing in the age of digital convergence, Boston 1997, S. 159–200. DEUTSCHE TELEKOM (2006): Jahresabschluss und Lagebericht, online: http://www.downloadtelekom.de/dt/StaticPage/25/43/04/Jahresabschluss2006_254304.pdf, Stand: 13.02.2007, Abruf: 17.09.2007. DIEDERICHS, M. (2004): Risikomanagement und Risikocontrolling, Risikocontrolling – ein integrierter Bestandteil einer modernen Risikomanagement-Konzeption, München 2004. DIERICKX, I./COOL, K. (1989): Asset Stock Accumulation and Sustainability of Competitive Advantage, in: Management Science, 1989, S. 1504–1511. DOWLING, M./LECHNER, C. (1998): Kooperative Wettbewerbsbeziehungen – Theoretische Ansätze und Managementstrategien, in: Die Betriebswirtschaft, 1998, S. 86–102. ECKHARDT, J. (2006): Nemo zieht nach Entenhausen, in: Handelsblatt vom 26. Januar 2006, S. 20. ENGELHARDT, W. H./KLEINALTENKAMP, M./RECKENFELDERBÄUMER, M. (1993): Leistungsbündel als Absatzobjekte, in: Zeitschrift für betriebswirtschaftliche Forschung, 1993, S. 395– 426.
Controlling in der TIME-Branche
411
EUROPÄISCHE KOMMISSION (1997) (Hrsg.): Grünbuch zur Konvergenz, online: http://europa. eu.int/ISPO/convergencegp/97623de.doc, Stand: o. A., Abruf: 11.12.2005. FASSE, F.-W. (1995): Risk-Management im strategischen internationalen Marketing, Hamburg 1995. FECHNER, F. (2004): Medienrecht – Lehrbuch für das gesamte Medienrecht unter besonderer Berücksichtigung von Presse, Rundfunk und Multimedia, Tübingen 2004. GOMEZ, P./PROBST, G. (1995): Die Praxis des ganzheitlichen Problemlösens, Bern et al. 1995. GREENSTEIN, S./KHANNA, T. (1997): What Does Industry Convergence Mean?, in: YOFFIE, D. B. (Hrsg.), Competing in the age of digital convergence, Boston 1997, S. 201–226. GROSSMANN, C. (1992): Komplexitätsbewältigung im Management – Anleitung, integrierte Methodik und Anwendungsbeispiele, Winterthur 1992. HAERTSCH, P. (2000): Wettbewerbsstrategien für Electronic Commerce, Lohmar 2000. HAMEL, G. (1996): Strategy as Revolution, in: Harvard Business Review, 1996, Nr. 4, S. 69–82. HAMEL, G./PRAHALAD, C. K. (1990): The Core Competence of the Corporation, in: Harvard Business Review, 1990, Nr. 3, S. 79–91. HAMEL, G./PRAHALAD, C. K. (1994): Competing for the Future, in: Harvard Business Review, 1994, Nr. 4, S. 122–128. HAMEL, G./PRAHALAD, C. K. (1995): Wettlauf um die Zukunft, Wien 1995. HOITSCH, H.-J./WINTER, P./BAUMANN, N. (2006): Risikocontrolling bei deutschen Kapitalgesellschaften – Ergebnisse einer empirischen Untersuchung, in: Controlling, 2006, S. 69–78. HORNUNG, K./REICHMANN, T./DIEDERICHS, M. (1999): Risikomanagement – Teil I: Konzeptionelle Ansätze zur pragmatischen Realisierung gesetzlicher Anforderungen, in: Controlling, 1999, S. 317–325. HORNUNG, K./REICHMANN, T./FORM, S. (2000): Risikomanagement – Teil II: Wertorientierung und KonTraG als Determinanten des Risikomanagements der metallgesellschaft ag, in: Controlling, 2000, S. 153–161. HORVÁTH, P. (2003): Controlling, München 2003. KEUPER, F. (2004): Kybernetische Simultaneitätsstrategie, Berlin 2004. KEUPER, F./BRÖSEL, G. (2005): Controlling-Instrumente in der TIME-Branche – Anforderungen und Gestaltungsempfehlungen im Spannungsfeld von Effektivität, Komplexität und Effizienz, in: Zeitschrift für Controlling und Management, 2005, Sonderheft 2, S. 16–27. KEUPER, F./HANS, R. (2003): Multimedia-Management, Wiesbaden 2003. KNEER, G./NASSEHI, A. (2000): Niklas Luhmanns Theorie sozialer Systeme – eine Einführung, München 2000. KRÜGER, W./HOMP, C. (1997): Kernkompetenzen-Management – Steigerung von Flexibilität und Schlagkraft im Wettbewerb, Wiesbaden 1997.
412
MÜLLER/BRÖSEL
KUNKEL, C. L. (2003): Der Dienst im Kern des Konvergenzprozesses – Funktionale Konvergenz der Branchen Telekommunikation, Medien und Informationstechnologie, Berlin 2003. LATZER, M. (1997): Mediamatik – Die Konvergenz von Telekommunikation, Computer und Rundfunk, Opladen 1997. LEIPOLD, H. (1988): Wirtschafts- und Gesellschaftssysteme im Vergleich – Grundzüge einer Theorie der Wirtschaftssysteme, Stuttgart 1988. LEWIN, R. (1993): Die Komplexitätstheorie – Wissenschaft nach der Chaosforschung, Hamburg 1993. LÜCK, W. (1998a): Elemente eines Risiko-Managementsystems – Die Notwendigkeit eines Risiko-Managementsystems durch den Entwurf eines Gesetzes zur Kontrolle und Transparenz im Unternehmensbereich (KonTraG), in: Der Betrieb, 1998, S. 8–14. LÜCK, W. (1998b): Der Umgang mit unternehmerischen Risiken durch ein Risikomanagementsystem und durch ein Überwachungssystem, in: Der Betrieb, 1998, S. 1925–1930. LUHMANN, N. (1994): Soziale Systeme – Grundriß einer allgemeinen Theorie, Frankfurt am Main 1994. MALIK, F. (1992): Strategie des Managements komplexer Systeme, Bern et al. 1992. MALIK, F. (2000): Systemisches Management, Evolution, Selbstorganisation – Grundprobleme, Funktionsmechanismen und Lösungsansätze für komplexe Systeme, Bern 2000. MATSCHKE, M. J./BRÖSEL, G. (2007): Unternehmensbewertung, Wiesbaden 2007. MEDIA PERSPEKTIVEN (2005): Basisdaten, herausgegeben im Auftrag der Arbeitsgemeinschaft der ARD Werbegesellschaften, Frankfurt am Main 2005. NØRRETRANDERS, T. (1994): Spüre die Welt – Die Wissenschaft des Bewußtseins, Reinbek bei Hamburg 1994. PICOT, A. (1990): Strukturwandel und Wettbewerbsdruck, in: Zeitschrift für betriebswirtschaftliche Forschung, 1990, S. 119–134. PICOT, A. ET AL. (2002): Internet-Ökonomie revisited, in: KUBICEK, H. ET AL. (Hrsg.), Innovation@Infrastruktur – Jahrbuch Telekommunikation und Gesellschaft, Heidelberg 2002, S. 153–164. PILLER, F. T. (2001): Mass Customization – ein wettbewerbsstrategisches Konzept im Informationszeitalter, Wiesbaden 2001. PROBST, G. J. B. (1981): Kybernetische Gesetzeshypothesen als Basis für Gestaltungs- und Lenkungsregeln im Management – eine Methodologie zur Betrachtung von ManagementSituationen aus kybernetischer Sicht, Bern 1981. REISS, M. (1993): Komplexitätsmanagement (I), in: WISU – Das Wirtschaftsstudium, 1993, S. 54–60. REUTER, J. (1998): Komplexität und Dynamik der Implementierung von Wettbewerbsstrategien, Wiesbaden 1998. ROBINS, J./WIERSEMA, M. F. (1995): A resource-based approach to the multibusiness firm – Empirical analysis of portfolio interrelationships and corporate financial performance, in: Strategic Management Journal, 1995, S. 277–299.
Controlling in der TIME-Branche
413
ROCKENHÄUSER, J. (1999): Digitale Konvergenz und Kompetenzenmanagement, Wiesbaden 1999. ROLLBERG, R. (1996): Lean Management und CIM aus Sicht der strategischen Unternehmensführung, Wiesbaden 1996. RÖPKE, J. (1977): Die Strategie der Innovation – eine systemtheoretische Untersuchung der Interaktion von Individuum, Organisation und Markt im Neuerungsprozeß, Tübingen 1977. SAITZ, B. (1999): Risikomanagement als umfassende Aufgabe der Unternehmensleitung, in: SAITZ, B./BRAUN, F. (Hrsg.), Das Kontroll- und Transparenzgesetz – Herausforderungen und Chancen für das Risikomanagement, Wiesbaden 1999, S. 69–98. SCHORCHT, H. (2004): Risikomanagement und Risikocontrolling junger Unternehmen in Wachstumsbranchen – Konzeptionen eines theoriegeleiteten Handlungsrahmens für die praxisinduzierte Unternehmenssteuerung, Berlin 2004. SCHORCHT, H./BRÖSEL, G. (2005): Risiko, Risikomanagement und Risikocontrolling im Lichte des Ertragsmanagements, in: KEUPER, F./ROESING, D./SCHOMANN, M. (Hrsg.), Integriertes Risiko- und Ertragsmanagement, Wiesbaden 2005, S. 3–33. SCHRÄDLER, J. (1996): Unternehmensberatung aus organisationstheoretischer Sicht, Wiesbaden 1996. SJURTS, I. (2000a): Chancen und Risiken im globalen Medienmarkt – Die Strategien der größten Medien-, Telekommunikations- und Informationstechnologiekonzerne, in: HANS-BREDOW-INSTITUT (Hrsg.), Internationales Handbuch für Hörfunk und Fernsehen 2000/2001, Baden-Baden 2000, S. 31–45. SJURTS, I. (2000b): Die Fusion AOL – Time Warner: Eine strategietheoretische Erklärung, in: Zeitschrift Führung + Organisation, 2000, S. 128–138. SJURTS, I. (2002): Integration der Wertschöpfungskette im globalen Medienmarkt – eine Analyse und Erklärung der Strategien der größten Medienkonzerne der Welt, in: HANS-BREDOW-INSTITUT (Hrsg.), Internationales Handbuch Medien 2002/2003, Baden-Baden 2002, S. 75–87. STACEY, R. D. (1993): Strategic management and organisational dynamics, London 1993. STACEY, R. D. (1997): Unternehmen am Rande des Chaos – Komplexität und Kreativität in Organisationen, Stuttgart 1997. STIEGLITZ, N. (2004): Strategie und Wettbewerb in konvergierenden Märkten, Wiesbaden 2004. STIPP, H. (1999): Convergence Now?, in: The International Journal on Media Management, 1999, S. 10–13. THIELE, M. (1997): Kernkompetenzorientierte Unternehmensstrukturen – Ansätze zur Neugestaltung von Geschäftsbereichsorganisationen, Wiesbaden 1997. THIELMANN, B. (2000): Strategisches Innovations-Management in konvergierenden Märkten – Medien- und Telekommunikationsunternehmen in Online-Diensten und im digitalen Fernsehen, Wiesbaden 2000. ULRICH, H. (1994): Reflexionen über Wandel und Management, in: GOMEZ, P./MÜLLERSTEWENS, G./WUNDERER, R./HAHN, D. (Hrsg.), Unternehmerischer Wandel – Konzepte zur organisatorischen Erneuerung, Wiesbaden 1994, S. 5–29.
414
MÜLLER/BRÖSEL
WAGNER, R. H./BEENKEN, D. H./GRÄSER, W. (1995): Konstruktivismus und Systemtheorie – und ihre Wirkung auf unsere Vorstellung von Unternehmen, in: WAGNER, R. H. (Hrsg.), Praxis der Veränderungen in Organisationen, Göttingen 1995, S. 13–38. WERNERFELT, B. (1984): A Resource-based View of the Firm, in: Strategic Management Journal, 1984, S. 171–180. WILDEMANN, H. (1998): Komplexitätsmanagement durch Prozeß- und Produktgestaltung, in: ADAM, D. (Hrsg.), Komplexitätsmanagement, Wiesbaden 1998, S. 47–68. WIRTZ, B. W. (1999): Convergence Processes – Value Constellations and Integration Strategies in the Multimedia Business, in: The International Journal on Media Management, 1999, S. 14–22. WIRTZ, B. W. (2001): Electronic Business, Wiesbaden 2001. WIRTZ, B. W. (2005): Medien- und Internetmanagement, Wiesbaden 2005. WOLFRUM, B./RASCHE, C. (1993): Kompetenzorientiertes Management, in: Thexis, 1993, Nr. 5/6, S. 65–70. YOFFIE, D. B. (1997): Introduction – CHESS and Competing in the Age of Digital Convergence, in: YOFFIE, D. B. (Hrsg.), Competing in the age of digital convergence, Boston 1997, S. 1–35. ZERDICK, A./ PICOT, A./SCHRAPE, K./ARTOPÉ, A./GOLDHAMMER, K./LANGE, U. T./VIERKANT, E./ LÓPEZ-ESCOBAR, E./SILVERSTONE, R. (2001): Die Internet-Ökonomie – Strategien für die digitale Wirtschaft, Berlin et al. 2001.
MARKOWITZ meets Real Estate DIRK LINOWSKI und SVEN HARTMANN Steinbeis-Hochschule Berlin und Massey University
1 Einführung ..................................................................................................................... 417 2 Real-Estate-Investitionen ............................................................................................... 418 3 Modelltheoretische und anwenderseitige Hindernisse ................................................... 418 4 Ein Beispiel.................................................................................................................... 420 5 Meta-Assets ................................................................................................................... 423 6 Ausblick ......................................................................................................................... 424 Quellenverzeichnis................................................................................................................ 424
MARKOWITZ meets Real Estate
1
417
Einführung
MARKOWITZ legte in den 1950er Jahren die Grundlagen für analytisch fundierte Diversifikationsstrategien bei risikobehafteten Finanzanlagen.1 Für den Anleger geht es dabei um die Frage, wie er einen gegebenen Geldbetrag mit möglichst geringem Risiko in eine Reihe unterschiedlicher Anlagegüter investieren soll, so dass er eine gewünschte Mindestrendite erwarten darf. Ziel ist also die Bestimmung eines Portfolios, d. h. der relativen Anteile der Anlagegüter an der Gesamtinvestition, das unter den bekannten Präferenzen des Anlegers optimal ist. MARKOWITZ wies darauf hin, dass für einen rational handelnden Anleger nur effiziente Portfolios2 in Frage kommen, und beschrieb, wie sich die Menge der effizienten Portfolios unter gewissen Annahmen bestimmen lässt. Die (zukünftige) Rendite eines Portfolios wird dabei als Zufallsvariable betrachtet, deren Standardabweichung3 als Maß für das Risiko des Portfolios dient. Als Eingangsparameter des MARKOWITZ-Modells dienen die Erwartungswerte, Standardabweichungen und Korrelationen der (zukünftigen) Renditen der Anlagegüter, die praktisch zumeist mit Hilfe historischer Daten geschätzt werden. Zu den wesentlichen Annahmen des MARKOWITZ-Modells zur Portfolio-Optimierung gehören, ¾ dass die Anlagen beliebig teilbar sind, ¾ dass der Kauf einer Anlage deren Gleichgewichtspreis nicht beeinflusst, und ¾ dass die Renditen der Anlagealternativen normalverteilt sind. Die erste Annahme bedeutet praktisch, dass der zu investierende Geldbetrag viel größer als der Preis einer einzelnen Einheit jedes Anlagegutes ist. Die zweite Annahme gilt als erfüllt, wenn kontinuierlich große Mengen der jeweiligen Anlagegüter gehandelt werden. Das darf zum Beispiel bei Blue-Chip-Aktien unterstellt werden. Aus der dritten (eher technischen) Annahme folgt, dass die Renditeverteilung der Anlagegüter und aus ihnen gebildete Mischportfolios vollständig durch die genannten Eingangsparameter bestimmt sind. Unter den Annahmen des MARKOWITZ-Modells lassen sich die effizienten Portfolios mathematisch hinreichend einfach bestimmen. Die Risiko-Erwartete-Rendite-Kombinationen der effizienten Portfolios bilden dabei die so genannte Effizienzlinie.4 Zu beachten ist dabei, dass die Effizienzlinie natürlich davon abhängt, ob man Leerverkäufe (Shortsales) zulässt oder nicht und ob man die Aufnahme zusätzlicher Liquidität zulässt oder nicht. Es muss weiterhin darauf hingewiesen werden, dass darüber hinausgehende (in der Praxis durchaus auftretende) Forderungen die mathematische Behandlung des Portfolio-Optimierungsproblems erheblich erschweren können. Dazu zählen zum Beispiel Unter- und Obergrenzen für die Anlageanteile oder Schranken für die Anzahl der im Portfolio vertretenen Anlagealternativen.
1
Man vergleiche dazu MARKOWITZ (1952) und MARKOWITZ (1959).
2
Eine ausführliche Darstellung des Markowitz-Modells findet man in ELTON ET AL. (2007). Ein Portfolio dominiert ein anderes Portfolio, wenn seine erwartete Rendite nicht geringer und sein Risiko nicht größer als die entsprechenden Parameter des zweiten Portfolios sind. Ein Portfolio, das von keinem anderen Portfolio dominiert wird, nennt man effizient.
3
Die Tauglichkeit der Standardabweichung als Risikomaß in der Portfolio-Optimierung wurde vielfach kritisiert und eine Reihe alternativer Risikomaße vorgeschlagen; vgl. ELTON ET AL. (2007) und insbesondere COLEMAN/ MANSOUR (2005) im Fall von Real-Estate-Anlagen.
4
Man betrachte dazu auch die Abbildungen 1, 2 und 3.
418
2
LINOWSKI/HARTMANN
Real-Estate-Investitionen
Mit einem geschätzten Anlagevermögen von weltweit ca. 695 Mrd. USD in Real Estate Investment Trusts (REIT) im Jahre 2006 (MSCI World Index) gehören institutionell gemanagte Anlagen in Immobilien neben Aktien- und Anleihenfonds zu den qualitativ und quantitativ wichtigsten Anlageklassen. Während das Management von Renten- und Aktienfonds seit mehr als zwanzig Jahren immer weiter „mathematisiert“ wurde,5 bewegte sich diesbezüglich in der Immobilienbranche lange relativ wenig. Dies hat nicht nur mit einer anderen, „rechnungswesenlastigeren“ Kultur6 der Immobilienfondmanager zu tun, sondern auch mit zum Teil erheblichen Hindernissen, quantitative Diversifikationsstrategien praktisch umzusetzen.
3
Modelltheoretische und anwenderseitige Hindernisse
Will man das klassische MARKOWITZ-Modell auf Immobilien anwenden, stößt man auf einige Hindernisse, die sich einerseits direkt aus dem Modell ergeben, andererseits aber auch den zugrunde liegenden Modellannahmen geschuldet sind. Dazu zählen insbesondere: ¾ Immobilien sind in Regel nicht teilbar und (derzeit noch) nicht leerverkaufbar.7 Die Frage, ob ein Investor in eine Immobilie investieren sollte, ist damit eine „0/1“-Entscheidung: Entweder man erwirbt die gesamte Immobilie („1“) oder man verzichtet auf sie („0“). ¾ Die Renditeverteilungen sind nicht normal. Gerade bei Gewerbeimmobilien kommt es häufig zu Überlagerungen der Wertentwicklung der Objekte mit der Entwicklung der Mieteinnahmen.8 ¾ Die Preise (insbesondere) von Premium-Objekten hängen von den vorhergehenden Transaktionen desselben oder der wenigen ähnlichen Objekte ab. ¾ Die Dichte der Daten, die zur Schätzung der Modellparameter verwendet werden können ist bei weitem geringer als bei Aktien oder Renten.9 So existieren in der Regel keine täglichen Preisinformationen zu Immobilien.
5
Quantitative Modelle erfreuen sich seit dem Erfolg der auf Arbitragefreiheit beruhenden Modelle zur Bewertung von Derivaten, insbesondere des Black-Scholes-Modells, in den späten 1970er Jahren großer Popularität in der Finanzbranche.
6
Man macht sich den kulturellen Unterschied rasch klar, wenn man die Inhaltsverzeichnisse von Standardwerken zu Real Estate, z. B. GELTNER ET AL. (2007), und zu Investments, z. B. ELTON ET AL. (2007), nebeneinander legt.
7
Der einflussreiche amerikanische Ökonom ROBERT SHILLER schlägt, wenn auch aus anderen Gründen, die Einführung von liquiden Immobilienindizes vor; vgl. SHILLER (2003).
8
COLEMAN/MANSOUR (2005) untersuchen empirische Verteilungen der Rendite von Immobilien und beschreiben, wie sich deren Abweichungen von der Normalverteilung auf die effizienten Portfolios auswirken.
9
PAGLIARI/WEBB/DEL CASION (1995) beschreiben, welchen Einfluss die Qualität, mit der sich Modellparameter schätzen lassen, auf die Bewertung und Auswahl von Immobilienportfolios hat.
MARKOWITZ meets Real Estate
419
¾ Die Anlagezeit ist zumeist von mittlerer oder längerer Dauer. Je länger die betrachtete Anlageperiode, umso problematischer ist die Schätzung der Modellparameter. Dies wird insbesondere bei Gewerbeimmobilien durch den Einfluss von Konjunkturzyklen mit stochastischen Perioden verkompliziert. ¾ Sowohl das Budget als auch die risikofreie Verzinsung bestimmen die Anlageentscheidung mit. Das Problem verkompliziert sich bei Einführung von Ober- und Untergrenzen für Anlageobjekte oder -gruppen. ¾ Immobilienportfolios werden oft von einigen wenigen sehr großen Objekten dominiert. Gerade diese Objekte sind jedoch oft nicht in hinreichend kurzer Zeit liquidierbar. Verkäufe großer Objekte „mit Ansage“ können jedoch zu deutlichen Abschlägen beim Marktpreis und zu Verzerrungen bei der Bewertung von Objekten führen. ¾ Mit wachsendem Anlagevermögen wachsen oft auch die Anlageobjekte. Einige der beobachteten Probleme verstärken sich damit noch zusätzlich. Neben den modelltheoretischen Hindernissen gibt es auch einige nicht zu vernachlässigende „mentale“ Hürden zu überwinden. Auf Seiten des Fondmanagements findet sich bis heute überraschend häufig die Einstellung, dass die Intuition oder „gute Nase“ der Einkäufer durch nichts zu ersetzen sei. Dank der Portfolio-Theorie findet bei der Betrachtung von Aktien und Bonds eine hohe Abstraktion von der einzelnen Anlage statt, indem diese durch die Verteilungen ihrer Renditen beschrieben werden. Immobilien werden andererseits häufig (und oft nicht zu Unrecht) als „einzigartige“ Anlageobjekte betrachtet und entziehen sich aufgrund dieser Sichtweise den gängigen Abstraktionsschemata. Methodisch entspricht der Erwerb von Immobilien in diesen Fällen eher einem (nicht-systematischen) Stock-Picking. Genau das fand aber auch bei Aktien und Renten vor der „Mathematisierung“ des Anlageprozesses statt. Die Auswahl „guter“ Assets ist bei Renten- oder Aktienfonds prinzipiell von gleicher Bedeutung wie bei Immobilienfonds. Im Gegensatz zu letzteren wird die Diversifikation bei Renten- und Aktienfonds allerdings nicht mehr naiv umgesetzt. Natürlich müssen quantitative Diversifikationsstrategien in der Praxis mit Bedacht eingesetzt werden. Abgesehen vom eher seltenen Fall der Inaugurierung eines Immobilienfonds werden oft nur Teiloptimierungen in Betracht kommen. Dass sich die in der Praxis durchaus erheblichen Transaktionskosten relativ unproblematisch durch Zuschlagsterme in ein quantitatives Modell integrieren lassen, ist angesichts der Komplexität des Problems leider nur ein geringer Trost. Das folgende, bewusst sehr einfach gehaltene Beispiel illustriert einige wesentliche Probleme, die bei der Anwendung des klassischen MARKOWITZ-Modells auf Immobilien auftreten. Man erkennt dabei, dass die Effizienzlinie an Bedeutung verliert, weil sich die entsprechenden Risiko-Erwartete-Rendite-Kombinationen mit Immobilien im Allgemeinen nicht realisieren lassen. Vielmehr findet man nun eine abzählbare Menge von erreichbaren Risiko-ErwarteRendite-Kombinationen vor, unter denen man wie bisher diejenigen auswählt, die nicht von anderen Immobilienportfolios dominiert werden. Allerdings können mit Immobilien nicht mehr alle gewünschten Zielrenditen erreicht werden. Will man die Zielrendite erhöhen, muss man teilweise erhebliche Sprünge bei Risiko und erwarteter Rendite in Kauf nehmen, wobei das Austauschverhältnis zwischen erwarteter Rendite und Risiko durchaus uneinheitlich ist. Das ist unter anderem der Tatsache geschuldet, dass sich nicht jedes Budget vollständig auf die verfügbaren Immobilien verteilen lässt. Vielmehr verbleibt bei effizienten Immobilien-
420
LINOWSKI/HARTMANN
portfolios oft eine nicht unerhebliche Liquidität, so dass dem risikofreien Zinssatz ein größerer Einfluss auf die erwartete Rendite des Gesamtportfolios zufällt.
4
Ein Beispiel
Gegeben sei ein Budget von 1 Mio. Euro und vier Anlagealternativen A, B, C und D. Der Anlagehorizont betrage 1 Jahr. Die erwarteten Renditen seien 5% für Anlage A, 10% für Anlage B, 15% für Anlage C und 20% für Anlage D. Die Standardabweichungen der Renditeverteilung seien 5% für Anlage A, 10% für Anlage B, 15% für Anlage C und 20% für Anlage D. Die Renditeverteilungen der Anlagen C und D seien mit einem Faktor von 0,2 korreliert, alle anderen Anlagen seien paarweise unkorreliert. Unter diesen Annahmen lässt sich die Effizienzlinie der klassischen MARKOWITZ-Theorie bestimmen. Insbesondere findet man auch das Portfolio kleinsten Risikos (716 Tsd. Euro in Anlage A, 179 Tsd. Euro in Anlage B, 71 Tsd. Euro in Anlage C und 34 Tsd. Euro in Anlage D) mit einer erwarteten Rendite von 7,1% und einer Standardabweichung der Renditeverteilung von 4,2%. In der Praxis verlangt man nun in der Regel nicht, dass das gesamte Budget investiert wird. Im klassischen MARKOWITZ-Modell wird daher eine weitere, risikofreie Anlagealternative angenommen. Für die risikofreie Anlage betrachten wir drei Fälle: eine (sichere) Rendite von 0%, 2% bzw. 4%. Die jeweiligen Effizienzlinien sind in den Abbildungen 2, 3 und 4 dargestellt.
Immobilien im Portfolio A B AB C AC BC ABC D AD BD ABD CD ACD BCD ABCD Abbildung 1:
Verbleibende Liquidität (in %) 100 70 70 40 70 40 40 10 70 40 40 10 40 10 10 -20
Risiko (ı in %) 0,00 1,50 3,00 3,35 4,50 4,74 5,41 5,61 6,00 6,18 6,71 6,87 8,19 8,32 8,72 8,85
Erwartete Rendite (ȝ in %) Bei risikofreiem Zins rf = 0%
Bei risikofreiem Zins rf = 2%
Bei risikofreiem Zins rf = 4%
0,0 1,5 3,0 4,5 4,5 6,0 7,5 9,0 6,0 7,5 9,0 10,5 10,5 12,0 13,5 15,0
2,0 2,9 4,4 5,3 5,9 6,8 8,3 9,2 7,4 8,3 9,8 10,7 11,3 12,2 13,7 14,6
4,0 4,3 5,8 6,1 7,3 7,6 9,1 9,4 8,8 9,1 10,6 10,9 12,1 12,4 13,9 14,2
Erreichbare Portfolios als Kombinationen von bis zu vier Beispielimmobilien, sortiert nach Risiko
MARKOWITZ meets Real Estate
421
Handelt es sich bei den vier Anlagealternativen um Immobilien, stellt sich die Situation für den Investor anders dar. Für unser Beispiel nehmen wir einen aktuellen Marktpreis von 300 Tsd. Euro für jede der vier Immobilien an. Tabelle 1 stellt alle in Frage kommenden Handlungsalternativen für den Investor dar. Eine Investition in alle vier Immobilien (ABCD) ist aufgrund der Budgetbeschränkungen nur möglich, wenn zusätzliche Liquidität aufgenommen wird. Anderenfalls verbleibt eine Liquidität von 10%, 40% bzw. 70% je nachdem, ob in drei, zwei oder eine Immobilie investiert wurde. Wie im klassischen MARKOWITZ-Modell nehmen wir an, dass Liquidität zum risikofreien Zins angelegt bzw. beschafft werden kann. Abbildungen 1, 2 und 3 zeigen die RisikoErwartete-Rendite-Kombinationen der mit unseren Beispielimmobilien erreichbaren Portfolios im Vergleich zu den Effizienzlinien des klassischen MARKOWITZ-Modells. 18 Effizienzlinie ohne risikofreies Asset
16 14
Effizienzlinie mit risikofreiem Asset
12
Erreichbare Portfolios bei Immobilien
Rendite (ȝ)
10 8 6 4 2 0 0
2
4
6
8
10
Risiko (ı)
Abbildung 2:
Effizienzlinie und erreichbare Portfolios bei risikofreiem Zins rf = 0%
Wir interessieren uns nun insbesondere für Immobilienportfolios, die nicht von anderen Immobilienportfolios dominiert werden. Bei einem risikofreien Zins von 0% werden die Portfolios C, D, AD, BD und CD dominiert und scheiden damit als Handlungsalternativen für den risiko-aversen Investor aus. Bei einem risikofreien Zins von 2% oder 4% scheiden dagegen nur die Portfolios D und AD aus Effizienzgründen aus. Die verbleibenden Portfolios sind unter den Immobilienportfolios effizient. Es fällt jedoch auf, dass sie teilweise deutlich unterhalb der Effizienzlinie des klassischen MARKOWITZ-Modells liegen. Unter den genannten Modellannahmen muss ein Investor daher bei gleicher Risiko-Rendite-Struktur der Anlagealternativen und gleicher Risikobereitschaft mit geringeren Renditen rechnen, wenn er in Immobilien investiert.
422
LINOWSKI/HARTMANN
18 Effizienzlinie ohne risikofreies Asset
16 14
Effizienzlinie mit risikofreiem Asset
12
Erreichbare Portfolios bei Immobilien
Rendite (ȝ)
10 8 6 4 2 0 0
2
4
6
8
10
Risiko (ı)
Abbildung 3:
Effizienzlinie und erreichbare Portfolios bei risikofreiem Zins rf = 2%
18 Effizienzlinie ohne risikofreies Asset
16 14
Effizienzlinie mit risikofreiem Asset
12
Erreichbare Portfolios bei Immobilien
Rendite (ȝ)
10 8 6 4 2 0 0
2
4
6
8
Risiko (ı)
Abbildung 4:
Effizienzlinie und erreichbare Portfolios bei risikofreiem Zins rf = 4%
10
MARKOWITZ meets Real Estate
423
Weiterhin muss angemerkt werden, dass die Bestimmung der effizienten Immobilienportfolios deutlich aufwendiger ist als die Bestimmung der Effizienzlinien im klassischen MARKOWITZ-Modell. Im Prinzip bleibt einem nur die Durchmusterung aller in Frage kommenden Handlungsalternativen (Exhaustive Search). Das liegt unter anderem auch daran, dass kein ökonomisch sinnvolles Tangentialportfolio existiert. Den damit verbundenen Aufwand macht man sich schnell klar, wenn man bedenkt, dass die Anzahl der als Anlagealternativen in Frage kommenden Immobilien in der Praxis bei weitem größer ist als in unserem Beispiel.
5
Meta-Assets
Mit der Anzahl der potentiellen Anlageobjekte steigt natürlich auch der Entscheidungsaufwand für den Anleger, da für jede einzelne Immobilie eine Kaufentscheidung getroffen werden muss. Anwenderseitig wäre einiges gewonnen, wenn man diesen Aufwand durch geeignete Abstraktion beschränken könnte. Hier bietet sich die Bildung von Meta-Assets an, die durch Zusammenfassung von Immobilien entstehen, deren Renditen sich weitgehend homogen verhalten. Im Idealfall, wenn das Budget hinreichend groß im Vergleich zum Marktpreis der einzelnen Immobilien ist, lässt sich so das Diskretisierungsproblem umgehen oder zumindest abschwächen, so dass bei der Bestimmung der Portfolio-Anteile keine Rücksicht mehr auf die Natur der Anlagegüter genommen werden muss.10 Grundidee der Meta-Assets ist es, Immobilien mit Hilfe geeigneter Dimensionen zu kategorisieren, wie z. B. Region, Nutzungsart, Baujahr, Zustand und Größe. Einzelnen Immobilien werden dann durch ihre Ausprägungen in diesen Dimensionen charakterisiert. Die gewählten Ausprägungen können dabei nominal-, ordinal- oder intervallskaliert sein. In der Dimension Nutzungsart könnten die in Frage kommenden Ausprägungen zum Beispiel Privat-Eigennutzung, Privat-Vermietung, Handel, Büro und Industrie lauten. Meta-Assets sollten dann aus Immobilien gleicher oder hinreichend ähnlicher Ausprägungen bestehen. Ein Asset „Villa in Berlin-Zehlendorf“ könnte zum Beispiel durch die folgenden Ausprägungen definiert sein: ¾ Region: „Südwest-Berlin“, Nutzungsart: „Privat“, Baujahr: „1918–1930“, Zustand: „gut“, Größe: „500 m2 und größer“ Ob die resultierenden Meta-Assets sinnvoll sind, muss im konkreten Fall ex post untersucht werden. Dabei ist darauf zu achten, dass die Meta-Assets sowohl hinreichend umfangreich als auch hinreichend homogen sein sollten.
10
PAGLIARI/WEBB/DEL CASION (1995) klassifizieren Immobilien nach ihrer Nutzungsart und untersuchen die Anwendung des klassischen MARKOWITZ-Modells auf derartige Meta-Assets.
424
6
LINOWSKI/HARTMANN
Ausblick
Versicherungsunternehmen waren, was die Anwendung quantitativer Methoden betrifft, konservativer als Banken, Immobilienfonds sind konservativer als Aktien- und Rentenfonds. Solveny II folgte Basel II.11 Bisher wurden insbesondere Untersuchen zu optimalen Asset-Klassen-Mischungen, also zu Aktien, Anleihen und Immobilien in Makroportfolios, angestellt12. In Zukunft werden Mikrostrategien, d. h., quantitative Diversifikationsstrategien „eine Ebene darunter“ in den Blickpunkt rücken. MARKOWITZ-basierte Optimierungen sollten sich, der Bedeutung dieser AssetKlasse entsprechend, auch bei institutionell gemanagten Immobilienfonds durchsetzen. Wie bei Aktien oder Renten können keine verlässlichen Punktschätzungen zu zukünftigen Werten erwartet werden. Das macht die Anwendung robuster Diversifikationsstrategien umso dringender. Die kurzfristige Unsicherheit bei Real-Estate-Anlagen wird jedoch aus den erwähnten Gründen weiterhin größer sein als bei Renten und Aktien. Es bleibt abzuwarten, inwieweit Securitization und Indexprodukte die Liquiditätsprobleme verbessern werden.13 Die Autoren dieses Beitrages zeigen sich hier vorsichtig optimistisch.
Quellenverzeichnis ANDERSON, R. I./SPRINGER, T. M. (2003): REIT Selection and Portfolio Construction – Using Operating Efficiency as an Indicator of Performance, in: Journal of Real Estate Portfolio Management, 2003, Nr. 1, S. 17–28. COLEMAN, M. S./MANSOUR, A. (2005): Real Estate in the Real World – Dealing with NonNormality and Risk in an Asset Allocation Model, in: Journal of Real Estate Portfolio Management, 2005, Nr. 1, S. 37–54. ELTON, E. J./ GRUBER, M. J./BROWN, S. J./GOETZMANN, W. N. (2007): Modern Portfolio Theory and Investment Analysis, New York 2007. FELDMAN, B. E. (2003): Investment Policy for Securitized and Direct Real Estate, in: Journal of Portfolio Management, 2003, S. 112–121. FIRSTINBERG, P./ROSS, S./ZIEGLER, R. (1988): Real Estate – The Whole Story, in: Journal of Portfolio Management, 1988, Nr. 3. GELTNER, D. M./MILLER, N. G./CLAYTON, J./EICHHOLTZ, P. (2007): Commercial Real Estate Analysis and Investments, Mason 2007. GUIRGUIS, H./VOGEL, R. (2006): Asymmetry in Regional House Prices, in: Journal of Real Estate Portfolio Management, 2006, Nr. 3, S. 293–298. 11
Zu den Auswirkungen von Solveny II auf die Risikovorsorge vergleiche man auch LINOWSKI (2006).
12
Der interessierte Leser sei hier zum Beispiel auf KALBERG/LIU/GREIG (1996) und WAGGLE/AGRRAWAL (2006) verwiesen.
13
Man vergleiche hierzu auch FELDMAN (2003).
MARKOWITZ meets Real Estate
425
KALBERG, J. G./LIU, C. H./ GREIG, D. W. (1996): The Role of Real Estate in the Portfolio Allocation Process – Real Estate Economics, 1996, S. 359–377. LINOWSKI, D. (2006): Asset Liability Management im Kontext von Solvency II – Edition Risikomanagement, Frankfurt 2006. MARKOWITZ, H. (1952): Portfolio Selection, in: Journal of Finance, 1952, Nr. 1, S. 77–91. MARKOWITZ, H. (1959): Portfolio Selection – Efficient Diversification of Investments, New York 1959. PAGLIARI, J. L./WEBB, J. R./DEL CASION, J. J. (1995): Applying MPT to Institutional Real Estate Portfolios – The Good, the Bad and the Uncertain, in: Journal of Real Estate Portfolio Management, 1995, Nr. 1, S. 67–88. SHILLER, R. (2003): The New Financial Order – Risk in the 21st Century, New Jersey 2003. WAGGLE, D./AGRRAWAL, P. (2006): The Stock-REIT Relationship and Optimal Asset Allocation, in: Journal of Real Estate Portfolio Management, 2006, Nr. 3, S. 209–222.
Integrierte Unternehmensplanung zur Steuerung von Projekt und Periode – Ein Vorgehensmodell RAINER HÖNEMANN, STEPHAN NIGGEMANN und ROLAND SCHRÖDER Softlab Group und BMW AG
1
Hintergrund und Herausforderung ................................................................................. 429 1.1 Hintergründe für Systeme der Unternehmensplanung ......................................... 429 1.2 Fachliche Herausforderungen .............................................................................. 430 1.3 Technische Herausforderungen ............................................................................ 431 2 Theorie der Planung ....................................................................................................... 433 2.1 Input der Planung ................................................................................................. 434 2.2 Elemente der Planung .......................................................................................... 434 2.3 Methoden und Prozesse ....................................................................................... 435 2.4 Subsysteme .......................................................................................................... 437 2.5 Ergebnisse ............................................................................................................ 437 3 Vorgehensmodell zur Entwicklung und Implementierung eines integrierten Unternehmensplanungssystems ..................................................................................... 438 3.1 Fachliche Schritte................................................................................................. 438 3.2 Technische Schritte .............................................................................................. 440 3.3 Vorgehensmodell ................................................................................................. 443 4 Zusammenfassung ......................................................................................................... 447 Quellenverzeichnis................................................................................................................ 448
Integrierte Unternehmensplanung zur Steuerung von Projekt und Periode
1
429
Hintergrund und Herausforderung
Zum Begriff der „integrierten Unternehmensplanung“ sind unterschiedliche Definitionen zu finden. Im folgenden Artikel wird unter einer integrierten Unternehmensplanung die Zusammenfassung aller Teilplanungen eines Unternehmens zur Darstellung eines Unternehmensergebnisses verstanden. Implementierungsmethoden und Anwendungsbeispiele für eine erfolgreiche Einführung von ressort-, segment- oder produktübergreifenden Planungssystemen sind selten bzw. nicht vorhanden. Das im Nachfolgenden dargestellte Vorgehensmodell zeigt den Weg zu einer erfolgreichen Implementierung eines integrierten Unternehmensplanungssystems.
1.1
Hintergründe für Systeme der Unternehmensplanung
Die integrierte Unternehmensplanung ist für viele Unternehmen nur ein Begriff, von dem sie oft nur den zweiten Teil, nämlich die Planung, umsetzen und anwenden. Den Integrationsgedanken in Bezug auf die Planung nehmen derzeit verstärkt Beratungsunternehmen aufgrund steigender, meist externer Anforderungen an die Berichterstattung der Unternehmen auf. Abbildung 1 zeigt, wie sich die Integration der Unternehmensplanung in einem Systemverbund gestaltet. Unter Systemverbund wird in diesem Zusammenhang das Zusammenwirken von Dachsystem und zwei oder mehr Subsystemen verstanden. Das Dachsystem bildet das System für die Gesamtplanung, die Subsysteme beinhalten die Teilplanungen. Systemverbund mit Dachsystem und integrierten Subsystemen
Konzernsicht Dachsystem Konzernplanung Produkt-/Projektsicht Subsystem Entwicklungsressort
Subsystem Sachanlagenzugang und Abschreibungen
Subsystem proportionale Erträge und Kosten
Ressortsicht
Abbildung 1:
Beispiel für einen Systemverbund mit den unterschiedlichen Perspektiven der Nutzgruppen auf die Daten
430
HÖNEMANN/NIGGEMANN/SCHRÖDER
Unternehmen sehen zwar in einer integrierten Unternehmensplanung eine große Chance zur Prozessverbesserung, z. B. in Hinblick auf Ressourcenbindung und Erhöhung der Planungsqualität. Wie Studien1 jedoch zeigen, werden in einem Großteil der Unternehmen Tabellenkalkulationsprogramme für die Unternehmensplanung verwendet. Der Einsatz von spezieller Planungssoftware wird nur von wenigen Unternehmen genutzt. Die Bestätigung des Einsatzes von auf dem Markt verfügbarer Planungssoftware kann aber noch nicht als Kriterium für das Bestehen einer integrierten Unternehmensplanung in einem zusammenhängenden System bzw. Systemverbund verstanden werden. Gerade bei großen Unternehmen mit Konzernstrukturen oder starken, abweichenden (Ressort-)Meinungen wird der Planungsbegriff und -prozess unterschiedlich verstanden und gelebt. Daraus resultieren oft heterogene Systemlandschaften, deren Integration in einen Systemverbund nahezu unmöglich ist. Die Vereinbarkeit der Teilplanungen gestaltet sich dadurch oft als langwieriger Abstimmprozess, an dessen Ende zwar eine Gesamtplanung steht, deren Herkunft und Zusammensetzung jedoch nur noch für die Ersteller nachvollziehbar ist. Um die systemseitige Abbildung der integrierten Unternehmensplanung erfolgreich durchführen zu können, bedarf es der Berücksichtigung sowohl der fachlichen als auch der technischen Herausforderungen. Nur das sinnvolle Zusammenwirken beider Anforderungsprofile kann eine erfolgreiche Implementierung der integrierten Unternehmensplanung sicherstellen. Aus dem Wesen der Planung ergeben sich bereits einige Grundherausforderungen, die durch die unternehmensspezifischen Anforderungen ergänzt werden müssen.
1.2
Fachliche Herausforderungen
Bei den fachlichen Herausforderungen handelt es sich im Wesentlichen um Themen, die der Planungsprozess im Unternehmen mit sich führt. Die Gesamtplanung ergibt sich – sowohl fachlich als auch technisch – aus der Summe seiner Teilplanungen der Ressorts bzw. Unternehmensbereiche. Die Definition von Übergabepunkten von einer Teilplanung an die Gesamtplanung ist in diesem Zusammenhang zwingend erforderlich. Mit dieser Definition findet gleichzeitig die saubere Festlegung von Rollen und Verantwortlichkeiten statt, was in Hinblick auf eine spätere Berechtigungssteuerung im Systemverbund ohnehin durchgeführt werden muss. Das unternehmensweite Planungssystem vereint die fachlichen Anforderungen aus den unterschiedlichen Ressorts oder Unternehmensbereichen unter dem Dach eines Systemverbunds. Demnach müssen übergreifende Prozesse und Strukturen bis zu einem definierten Grad festgelegt werden, um stets die Integrität für die Gesamtplanung zu gewährleisten. Hierbei entsteht bereits ein erster Zielkonflikt, der sich zwischen vereinheitlichten Prozessen und Strukturen und den individuellen Anforderungen der meist dezentralen Teilplanungssysteme offenbart. Trotz teilweise heterogener Planungsprozesse in den Subsystemen sind einheitliche Planungsprämissen für die gesamte Unternehmensplanung zu definieren.
1
In folgenden Studien wurden Unternehmen zu ihrer Softwareunterstützung bei der Planung befragt: FORRESTER TECHSTRATEGY RESEARCH (2003) und INSTITUT FÜR BUSINESS INTELLIGENCE (2004).
Integrierte Unternehmensplanung zur Steuerung von Projekt und Periode
431
Als weitere große fachliche Herausforderung ist der Charakter von Planungsprozessen zu nennen. Im Gegensatz zur Buchführung und zum Teil auch zum Rechnungswesen, die gesetzlichen Anforderungen bzgl. Detaillierung, Darstellungsart usw. genügen müssen, weist die Planung in Bezug auf diese Kriterien nahezu alle Freiheitsgrade auf. Daraus resultiert die Notwendigkeit der Definition von Leitplanken für Kriterien wie z. B. die Granularität der Daten zu definierten Planungszeitpunkten oder -zeiträumen. Für die Planung wird hohe Flexibilität verlangt, z. B. bei temporär mangelnden Datenquellen. Dies erfordert Systemfunktionen, die die Volatilität in den Planungsprozessen auffangen und verarbeiten können, ohne die Stabilität des Planungssystems zu beeinflussen und weiterhin die Auswertungsmöglichkeiten zu gewährleisten. Eine weitere Herausforderung resultiert aus der Definition der Planungsprozesse. Neben der bereits angesprochenen Definition von Rollen und Verantwortlichkeiten stellt die Definition von im System umzusetzenden Anforderungen und „manuell“2 durchzuführenden Prozessschritten einen wichtigen Schritt dar. Um die durchgeführte Planung messen zu können, bedarf es der Anbindung der Abrechnungssysteme des Unternehmens. Vor diesem Hintergrund ist der bestehende Planungsprozess mit den verwendeten Steuergrößen dahingehend zu untersuchen, ob eine Durchgängigkeit der Steuergrößen zu den Abrechnungsgrößen gewährleistet werden kann. Andernfalls kann die Planungsqualität nur schwer gemessen werden, was die Untersuchung und Prüfung der bisher verwendeten Steuergrößen notwendig macht. Die Berücksichtigung der unterschiedlichen Perspektiven auf die Daten ist je nach Verantwortungsbereich im Rahmen der Planungsprozesse notwendig. Gerade bei den sehr unterschiedlichen Sichtweisen zwischen einer Projekt- und Periodenberichterstattung stellt die Gewährleistung einer konsistenten Datenbasis, die die Anspruchsgruppen in ihrer spezifischen Perspektive analysieren können, eine große Herausforderung dar. Zur Sicherstellung dieser Fragestellung ist gegebenenfalls der bestehende Planungsprozess zu überdenken bzw. anzupassen. Während der gesamten Konzept- und Umsetzungsphase bei der Einführung eines Unternehmensplanungssystems stellt der ständige Abgleich der fachlichen Anforderungen mit den systemtechnischen Anforderungen und Möglichkeiten eine große Herausforderung dar. Schließlich wird ein neues System im täglichen Gebrauch nur dann vertrauensvoll genutzt, wenn der Endanwender es als „sein“ System bezeichnen kann. Gerade bei bestehenden Prozessen und Systemen wird eine Neugestaltung nicht unmittelbar auf große Zustimmung bei den zukünftigen Anwendern stoßen.
1.3
Technische Herausforderungen
Die technischen Herausforderungen ergeben sich in erster Linie aus den bestehenden ITStrukturen sowie den IT-technischen Vorgaben des Unternehmens. Die regionale und globale Verteilung der Standorte ist in diesem Zusammenhang ein nicht zu verachtender Faktor. Neben der geografischen Verteilung spielen die bestehende IT-Systemlandschaft und die damit verbundenen, bereits erworbenen Lizenzen für Softwarekomponenten eine weitere wichtige Rolle. Ob Standardsoftware mit bestehenden Lizenzverträgen eingesetzt werden kann oder 2
Unter manuellen Prozessschritten werden Vorgänge verstanden, die außerhalb des Systems, z. B. in Form einer Nebenrechnung, durchgeführt werden. Die Ergebnisse werden dann in das System überspielt, ohne die Berechnungsgrundlagen ebenfalls zu übertragen.
432
HÖNEMANN/NIGGEMANN/SCHRÖDER
eine Individualprogrammierung für die Umsetzung notwendig ist, lässt sich allerdings erst nach hinreichender Analyse der fachlichen Herausforderungen und Anforderungen beantworten. Bei der Entscheidung für Standardsoftware stellen die Tool-Auswahl (siehe Kap. 3.2) sowie die IT-Architekturentscheidung für das neue System einen wesentlichen Meilenstein dar. Es stellt sich ebenfalls die Frage nach dem Betrieb der späteren Anwendung und ob das Unternehmen sich überhaupt in der Lage sieht, dies zu bewerkstelligen. Dabei ist bei Beauftragung eines externen Dienstleisters für die Umsetzung darauf zu achten, dass die Unabhängigkeit gegenüber diesem für den Zeitraum nach der Umsetzung in Bezug auf Wartung und Betrieb gesichert ist. Neben den primär Soft- und Hardware-Herausforderungen sind auf technischer Seite weitere Herausforderungen mit meist unternehmensspezifischer Ausprägung für eine erfolgreiche Umsetzung zu meistern. Sowohl die logische Datenmodellierung als Kommunikationsmittel zwischen Fachseite und IT-Vertretern als auch die daraus resultierende technische (physische) Datenmodellierung im System bilden den Kern des späteren Systems. Für das logische Datenmodell gilt die vollständige Abbildung der fachlichen Anforderungen, die nur unter Mitwirken der Fachvertreter erreicht werden kann. Als große Herausforderung im Bereich der Datenmodellierung ist die Berücksichtigung der planungsspezifischen Faktoren wie Volatilität, Flexibilität und zeitabhängige Granularität der Daten zu nennen, was bei gleichzeitiger Stabilität zu gewährleisten ist. Unter Stabilität wird in diesem Zusammenhang die Konstanz im Datenmodell verstanden, um Migrationsaufwendungen möglichst gering zu halten. Der unter den fachlichen Herausforderungen angeführte Aspekt zur Bereitstellung von konsistenten Daten für die Projekt- und Periodenberichterstattung stellt Herausforderungen, im Wesentlichen auf die Datenmodellierung dar. Das Datenmodell muss in diesem Zusammenhang sicherstellen, dass aus einer konsistenten Datenquelle jede gewünschte Auswertung erzeugt werden kann. Jede Veränderung von Werten muss demnach in der späteren Anwendung für alle Nutzer nachvollziehbar sein, gerade wenn die Werterfassung von fachbereichsfremden Nutzern kommt. Als weitere technische Herausforderung ist im Rahmen der Konzeption die Entwicklung möglichst generischer Ansätze zu nennen. Dies bietet einerseits Vorteile für den Fall der Erweiterung der Systemlandschaft, andererseits reduziert dies die Entwicklungsaufwendungen im Systemverbund selbst, wenn entsprechende Komponenten auf mehrere Subsysteme gleichermaßen angewendet werden können. Basierend auf den dargestellten fachlichen und technischen Herausforderungen für die Einführung eines integrierten Unternehmensplanungssystems werden im Folgenden die Spezifika der Planung kurz aufgeführt.
Integrierte Unternehmensplanung zur Steuerung von Projekt und Periode
2
433
Theorie der Planung
„Planung ist der Ersatz des Zufalls durch den Irrtum.“ Dieses WINSTON CHURCHILL zugeordnete Bonmot beschreibt auch heute noch treffend das Dilemma aller Planungsansätze. Sie sind alle genauso richtig wie falsch. Ist also Planung obsolet? Der Satz war zu seiner Zeit wohl eher auf die politische als auf die betriebswirtschaftliche Planung bezogen. Dennoch scheint der Irrtum als solches angesichts der Vielzahl von Planungsmethoden, -elementen und -prozessen planungsimmanent zu sein. Die Frage, die moderne Planungssysteme beantworten müssen, ist also nicht „Wie vermeide ich den Irrtum?“, sondern „Wie verringere ich den Grad seiner Überraschung?“ Der Planungsbegriff wird in der Literatur in allen Facetten beschrieben. Für diesen Beitrag ist die Definition „ […] als systematischer und rationaler Prozess auf der Grundlage meist unvollkommener Informationen zur Lösung von Entscheidungsproblemen unter Beachtung subjektiver Zielvorstellungen […]“3 am geeignetsten. Mit dieser Definition sollen nun die Grundlagen der Planung skizziert werden, um die Einordnung des im Kap. 3 beschriebenen Planungsmodells zu erleichtern. Abbildung 2 veranschaulicht die Grundlagen der Planung. Grundlagen der Planung
Input
Informationen
Elemente
Ziele
Ressourcen
3
Teilplan
Teilplan
Grundlagen der Planung
KLEIN/SCHOLL (2004), S. 2.
Maßnahmen
strategisch
Output
Abbildung 2:
Träger
operativ
Methoden und Prozesse
Subsysteme
Termine
Teilplan
Ergebnisse
Teilplan
Teilplan
434
HÖNEMANN/NIGGEMANN/SCHRÖDER
Die Grafik zeigt die wesentlichen Merkmale der Planung. Sie gelten sowohl für das einfache lineare Modell (Vorjahr + x%), als auch für hochkomplexe Planungsansätze in denen sämtliche materiellen und finanziellen Transaktionen der Unternehmung über Teilpläne in Kennzahlensysteme aggregiert werden. Der Integrationsgrad der Planung lässt sich darin messen, inwieweit die im Folgenden detaillierter dargestellten Planungskomponenten in einem System zu finden sind und miteinander „kommunizieren“ können.
2.1
Input der Planung
Dass Informationen den wesentlichen Input der Planung liefern, ist trivial. Es gilt jedoch die planungsrelevanten Informationen zu beschaffen und den Planungsträgern zeitgerecht zur Verfügung zu stellen. Das Manko besteht darin, dass sich diese Informationsbasis nur beschränkt für die Beurteilung zukünftiger Situationen eignet. Sie muss aber in der Lage sein, belastbare Prämissen abzuleiten, auf denen die Planung beruhen soll. Die Informationen stammen als vorhandenes Material aus eigenen Quellen, die meist aus den Daten der Vergangenheit gespeist werden (z. B. Produktionsfaktoren, Prozesszeiten, Ressourcenverfügbarkeit und -beschaffung, Preise). Zudem können sie extern, als Informationsprodukt, beschafft werden (z. B. Marktforschung, Benchmarking, Onlinedatenbanken). Die Informationsbeschaffung stellt in Zeiten hochverfügbarer interner und externer Datenbanken keinen wirklichen Engpass dar. Nahezu jede Information steht ubiquitär zur Verfügung. Um jedoch eine sinnvolle und fehlerfreie Zuordnung der Daten zu gewährleisten ist eine eindeutige Begrifflichkeit unverzichtbar. Die Praxis hat gezeigt, dass viele Planungsprozesse aufgrund der unterschiedlichen Nomenklatur der internen Daten (und im höheren Maße der externen Daten) aufwändige Überleitungen benötigen, die stark ressourcenbindend sind. So scheitern viele Ansätze zur integrierten Planung bereits am Produktbegriff, oder richtiger an den verschiedenen Produktbegriffen in einem Unternehmen. Eine valide und transparente Informationsbasis ist die Voraussetzung für kurze Planungsdurchlaufzeiten. Sie schafft die Möglichkeit umfassender Simulationen und trägt somit letztlich zur Akzeptanzsteigerung der gesamten Planung bei.
2.2
Elemente der Planung
Ziele4 im weitesten Sinne sind das zentrale Element jeder Planung. Sie initiieren die Planung und können deren Ergebnis sein. Ziele oder Zielvorgaben können für das gesamte Portfolio unternehmerischen Handelns gesetzt werden. Im Grunde genommen lässt sich jede in die Zukunft gerichtete, unternehmensbezogene Aussage als planungsrelevantes Ziel formulieren. Es ist eine zentrale Führungsaufgabe, die Unternehmensziele zu definieren und zu kommunizieren. Sie bilden das Gerüst für die strategische und operative Planung (siehe Kap. 2.3).
4
Angelehrt an die Darstellung bei HORVATH (2006), S. 153 f.
Integrierte Unternehmensplanung zur Steuerung von Projekt und Periode
435
Für die weitere Betrachtung sollen hier nur die Ziele von Bedeutung sein, die sich auf quantitative Kennzahlen beziehen.5 Der wohl immer noch gebräuchlichste Kennzahlenkatalog ergibt sich aus dem DuPont-Chart und zeigt den Return on Investment als führende Kennzahl. Daneben gibt es eine Vielzahl individuell zusammengestellter Kennzahlenkataloge, deren Zielsetzungen sich generisch aus der Unternehmensentwicklung ergeben, aber auch exogen, etwa durch Stakeholder, vorgegeben werden können. Unter Ressourcen werden alle finanziellen Mittel verstanden, deren Einsatz, Bedarf und Verfügbarkeit6 die Planung bestimmen. Der Mittelbedarf wird dabei meistens aus Mengenplanungen (z. B. Absatzplan, Produktionsplan) abgeleitet. Die Träger der Planung sind auf der einen Seite diejenigen, die die Ergebnisse der Planung zu verantworten haben und in der Regel an deren Umsetzung gemessen werden, also alle Ebenen der Unternehmensführung. Auf der anderen Seite sind es die Planungausführenden, das Controlling. Da die Planung eine der Kernaufgaben des Controllings ist, wird diese auch hier koordiniert und realisiert. Die Planungsträger haben die Aufgabe die Vollständigkeit der Zielabbildung sicherzustellen und die unternehmensinterne Abstimmung der Planung zu gewährleisten. Zur Umsetzung der Ziele werden Maßnahmen definiert und bewertet. Dazu ist es notwendig, die Konsequenz der Maßnahme hinsichtlich der Zielerreichung und des Ressourcenverbrauchs bestimmen zu können. In den seltensten Fällen kann sich hier auf eine Maßnahme konzentriert werden. In der Regel werden mehrere Alternativen verglichen und diskutiert. Die Definition der Maßnahme wird dann in Abhängigkeit vom Beitrag zur Zielerrechung, von der Validität der zu Grunde gelegten Informationen und der internen Umsetzungsfähigkeit durchgeführt. Planung determiniert nicht nur den Verbrauch von Ressourcen, sondern benötigt selbst Ressourcen zur Durchführung. Es bedarf also einer Planung der Planung, in der die Termine von Zielsetzungen, Maßnahmendiskussion, Maßnahmendefinitionen, Ergebnispräsentation, etc. festgelegt werden.
2.3
Methoden und Prozesse
Mit den oben beschriebenen Elementen ist die eigentliche Planung durchzuführen. Die dabei häufig verwendete, fristen- und reichweitenbezogene Klassifizierung der Planung in strategische, taktische und operative Planung soll hier nicht vertiefend erläutert werden. Vielmehr soll hier die Planungsrichtung im Mittelpunkt stehen. Die Top-Down-Planung als eher strategische Planungsrichtung formuliert die Ziele und Maßnahmen auf den oberen hierarchischen Ebenen (Unternehmen, Geschäftsfeld, Märkte). Sie wird meist zentralistisch durchgeführt. Die Planungsergebnisse sind Vorgaben für die darunter liegenden Ebenen. Da die Top-DownPlanung weniger formalistisch aufgebaut ist, besteht die Herausforderung darin, Regeln zu definieren, damit die notwendigen Maßnahmen und Ressourcen in den Teilplänen der darun5
6
Zur Verknüpfung qualitativer und quantitativer Ziele wird auf die Literatur u. a. zur Balanced Scorecard verwiesen. Das in diesem Artikel beschriebene Modell kann zwar auch qualitative Kennzahlen aufnehmen, eine detailliertere Darstellung würde hier jedoch zu weit führen. Vgl. WILD (1974), S. 51.
436
HÖNEMANN/NIGGEMANN/SCHRÖDER
ter liegenden Ebenen abgebildet werden können. Die Top-Down-Planung hat aufgrund ihrer langfristigen Ausrichtung geringe Änderungszyklen, die hier definierten Ziele gelten in der Regel über das Geschäftsjahr hinaus. Dies hängt allerdings wesentlich von der gewählten Planungstiefe ab. Mit einem entsprechenden Modell besteht durchaus die Möglichkeit z. B. ausgehend von den Absatzzielen eines Produktes und den bekannten Prozesszeiten für Herstellung und Vertrieb ein Kostenstellen- und Kostenartenplanung für diese Bereiche abzuleiten. In der Praxis wird jedoch die dazu notwendige Flexibilität des Ressourceneinsatzes selten vorhanden sein. Der hohe Unsicherheitsgrad der Planungsaussagen kann über Simulationen minimiert werden. Dabei ist sicherzustellen, dass die Simulationsparameter transparent bleiben und die Simulationsergebnisse im Planungssystem zur weiteren Verfügung erhalten bleiben, um später diese Alternativen auf ihre Tauglichkeit bei geänderten Rahmenbedingungen einschätzen zu können. Der Vorteil des Top-Down-Ansatzes besteht in dem geringen Koordinationsbedarf, weil der Abstimmungskreis überschaubar ist. Dem steht der Nachteil des erhöhten Planungswiderstandes und daraus resultierender geringer Planungsmotivation gegenüber.7 Die Bottom-Up-Planung hat eher operativen Charakter. Die Planung findet auf den unteren hierarchischen Ebenen meist für das zukünftige Geschäftsjahr statt. Statt der strategischen Ziele steht hier der optimale Ressourceneinsatz im Vordergrund. Sie basiert auf der Kostenstellen- und Kostenartenplanung der Funktionsbereiche und kann bis zur Unternehmensebene hoch aggregiert werden. Der augenscheinliche Vorteil dieser Methode liegt in der hohen Planungsmotivation der Planungsträger. Die Gefahr besteht jedoch in der „Hochrechnung“ der Planwerte auf der Basis der Ist-Werte unter Vernachlässigung geänderter externer Parameter. Die einfache Zielerreichung wird in die Planung über diverse Puffer „eingebaut“, so dass eine wirkliche Auseinandersetzung mit den „Fehlern und Irrtümern“ der Vergangenheit und den Zielen der Zukunft nicht stattfindet. Zudem ergibt sich ein wesentlich höherer vertikaler und horizontaler Koordinations- und Abstimmungsbedarf. Die logische Konsequenz der genannten Vor- und Nachteile ist die Kombination beider Verfahren, das so genannte „Gegenstrom“-Verfahren.8 Der offensichtliche Nachteil dieser Methode scheint der noch höhere Ressourcenverbrauch der Planung selbst zu sein, weil nunmehr „jeder“ plant. Bei genauerer Betrachtung reduziert sich der Nachteil aber auf ein Optimierungsproblem. Zunächst ist keine Gleichzeitigkeit der Planungsaktivitäten notwendig, der Planungsprozess findet praktisch begleitend statt. Er muss lediglich in einem Planungssystem stattfinden, das diesen „Workflow“ unterstützt.9 Des Weiteren liefert diese Methode den TopDown- und den Bottom-Up-Planern die Möglichkeit, die notwendigen Maßnahmen abzustimmen und in einem Regelkreis eine ressourcen- und zielkonforme Lösung zu finden. Auch hier ist das Argument des hohen Zeitbedarfs damit zu entkräften, dass dieser Regelkreis nicht unbedingt den umfassend abgestimmten Konsens zum Ziel haben muss, sondern letztlich dem hierarchischen Führungsprinzip gehorcht.
7 8 9
Vgl. FISCHER (2005), S. 53. Vgl. HORVATH (2006), S. 177 f. Vgl. FISCHER (2005), S. 54.
Integrierte Unternehmensplanung zur Steuerung von Projekt und Periode
437
Die Vorteile aus beiden Methoden addieren sich demnach. Die hohe Planungstransparenz, die zielkonformen, operativen Maßnahmen und die Integration der Teilpläne zu einem Gesamtplan führen zu einer hohen Planungsakzeptanz und -motivation. Die eigentliche Herausforderung an ein Planungssystem besteht nun darin, diese Komplexität abzubilden und zu beherrschen. Über die eingangs beschriebene eindeutige Nomenklatur hinaus, muss ein funktionierender Workflow etabliert werden, der jedem Planungsträger zu jeder Zeit den Status seiner (und den der anderen) Planungsaktivitäten zeigt. Simulationen und/oder Versionen sind ziel- und zeitbezogen vorzuhalten. Abhängigkeiten, insbesondere bei unterschiedlicher Fristigkeit der Pläne, sind aufzuzeigen und fortwährend zu überprüfen.
2.4
Subsysteme
Die Teilpläne sind bereits in Kap. 2.3 erwähnt worden. Eine standardisierte Aufstellung von Teilplänen wird in der Literatur nicht erwähnt. Die Komplexität der Planung und die Verfügbarkeit der Planer bestimmt letztlich die Aufspaltung in einzelne Pläne. Klassisch ist sicher die Erstellung von Absatz-, Umsatz- und Produktionsplänen, sowie von Ergebnis-, Investitions- und Finanzplänen. Darüber hinaus kann aber jeder dieser Pläne nochmals für Regionen, Gesellschaften, Segmente, Produkte, etc. differenziert erstellt werden. Dabei verhält sich die gesamte Planungslandschaft wie eine Amöbe. Sie verändert permanent ihr Aussehen. Organisationsveränderungen folgen meist nicht den Fristigkeiten der Pläne, so dass Teilpläne unterjährig entstehen und mit Wirksamkeit des Gesamtplanes bereits wieder überholt sind. Jeder der Teilpläne muss also flexibel in den Gesamtplan einzubauen sein, wobei stets die Relevanz des Teilplans für die Zielgröße im Auge behalten werden muss, um die Vollständigkeit zu gewährleisten. Zudem bildet jeder Teilplan eine in sich autarke Planung ab, der mit einer der oben beschriebenen Methoden erstellt wurde. Dies gilt insbesondere für die Planung von Projekten, die aperiodisch erstellt werden. Um nun die Dekompensation der Top-Down-Planung und Aggregation der Bottom-Up-Pläne zu gewährleisten, ist jedem Planungsdatum, also der ausgeplanten Größe der Ressource, ein Merkmal mitzugeben, in welchen Plänen es mit welcher „Konsolidierungsvorschrift“ erscheint.
2.5
Ergebnisse
Die Entdeckung des Irrtums setzt die Kontrolle voraus. Die Planung ist bis hier unabhängig von der Kontrolle beschrieben worden. Es ist selbsterklärend, dass Planung ohne Kontrolle nicht sinnvoll ist. Ohne Kontrolle werden keine Abweichungen aufgezeigt und keine Handlungsalternativen (das Gegensteuern) gefordert. Die Kontrolle setzt voraus, dass die Planungsergebnisse den Ist-Ergebnissen gegenübergestellt werden können. So ist bereits bei der Festlegung der Ziele und Maßnahmen die Messbarkeit der Zielerreichung im Ist zu prüfen. Zeiträume, Hierarchieebenen und Verantwortlichkeiten sind für Plan- und Ist-Daten zu synchronisieren, um eindeutige Aussagen zum Grad der Zielerreichung zu erlauben und wirksame Abweichungsanalysen zu ermöglichen. Zudem ist die Dynamik der Ist-Daten zu berücksichtigen. Märkte, Organisationen und Produktportfo-
438
HÖNEMANN/NIGGEMANN/SCHRÖDER
lios ändern sich im Planungszeitraum nicht selten, so dass Plan-Ist-Beziehungen flexibel abbildbar sein müssen. Diese Anforderungen gehen jedoch mehr in Richtung Reporting; die Planung muss lediglich auf den Merkmalsraum der Ist-Daten referenzieren können. Klassische ERP10-Systeme oder Stand-Alone-Lösungen mit Tabellenkalkulationsprogrammen sind hier überfordert. Sie mögen valide, GoB11-konforme Ist-Daten bzw. schnelle Ad-hoc-Planungen bereitstellen können. An der Darstellung der steuerungsrelevanten Ergebnisse werden sie aufgrund nicht oder nur aufwändig produzierbarer Beziehungen scheitern. Die bereits mehrfach angesprochene Planakzeptanz wird sich wegen mangelnder Transparenz und Nachvollziehbarkeit der Plan- und Ist-Daten ebenfalls nicht einstellen. Das folgende Kapitel zeigt nun, wie Data-Warehouse-Applikationen erfolgreich den Ansprüchen an Integration, Transparenz, Verfügbarkeit, Simulationsfähigkeit und Reduktion des Planungsaufwands gerecht werden können.
3
Vorgehensmodell zur Entwicklung und Implementierung eines integrierten Unternehmensplanungssystems
Um ein integriertes Planungssystem erfolgreich im Unternehmen zu verankern, bedarf es einer detaillierten Planung sowohl der fachlichen als auch der technischen Schritte zur Konzeption und Umsetzung. Das nachfolgend dargestellte Vorgehensmodell zeigt eine solche Methodik auf. Eine strikte Trennung zwischen fachlichen und technischen Schritten ist im Rahmen einer Implementierung in jedem Fall zu vermeiden, wird hier allerdings zur Verdeutlichung dieser beiden Disziplinen durchgeführt. Schließlich bedarf es der Transferleistung der Fachanforderungen in die technische Umsetzung bei zu erzielender hoher Akzeptanz im späteren Anwenderkreis.
3.1
Fachliche Schritte
Die fachliche Vorgehensweise kann in zwei wesentliche Teilaspekte untergliedert werden: ¾
Definition des Gesamtsystems mit Fokus auf die Planungsprozesssicht
¾
Definition der einzelnen Systembestandteile mit Fokus auf den fachlichen Umfang pro System
Die Definition des Umfangs des zukünftigen Unternehmensplanungssystems stellt den zentralen Schritt für die daraus resultierende Abbildung der Planungsprozesse und den darauf folgenden Aufbau des Planungssystems dar. Bei der Abgrenzung des zukünftigen Systems ist einerseits festzulegen, welche Teilplanungen (z. B. Ressorts, Beteiligungen, Profit Center) Bestandteil des Systems werden sollen und andererseits in welcher Detaillierung die jeweilige Planung abgebildet und in Zukunft durchgeführt werden soll. Über diese Definition der zu berücksichtigenden Teilplanungen wird gleichzeitig festgelegt, ob im Rahmen der Gesamt10 11
Abkürzung für Enterprise Resource Planning. Abkürzung für Grundsätze ordnungsgemäßer Buchführung.
Integrierte Unternehmensplanung zur Steuerung von Projekt und Periode
439
planung das Unternehmen vollständig oder nur ein Ausschnitt abgebildet wird. Ziel sollte in jedem Fall die vollständige Erfassung sämtlicher Planungsebenen sein, um im System Durchgängigkeit und Nachvollziehbarkeit dauerhaft zu gewährleisten. Nach Definition des Systemumfangs folgt die Analyse und Dokumentation der Planungsprozesse. Dabei haben sich in der Praxis eine entsprechende Analyse der Ist-Situation sowie die Definition des gewünschten Soll-Zustands bewährt. Das sich ergebende Delta zwischen Ist und Soll markiert dabei den Handlungsbedarf, der im System zu berücksichtigen ist und demnach auch eine Prozessveränderung mit sich führt. Die aufgedeckten Potenziale zu Prozessverbesserungen sollten in jedem Fall genutzt werden, auch wenn bei der Durchführung von IT-Projekten gerne der Systemaspekt als einziges Ziel gesehen wird. Die Konzeption von neuen Systemen führt stets Prozessveränderungen mit sich, allein schon aufgrund bewusst erzeugter Leitplanken und eingeschränkten Freiheitsgraden im Vergleich zur reinen Verwendung von Tabellenkalkulationsanwendungen. Im Rahmen der Prozessdefinition sind sämtliche Schritte im Planungsprozess aufzuführen, wobei besonders darauf zu achten ist, dass sich die beteiligten Fachstellen in den Definitionen der Prozesse und Prozessschritte wieder finden. Dies trägt wesentlich zur späteren Akzeptanz bei den zukünftigen Nutzern bei. Zu jedem Planungsschritt ist die entsprechende Detaillierung der Planung, die Planungsebene, mit aufzunehmen. Auf Basis dieser Definition pro Prozessschritt können anschließend die Prozessschritte der Gesamt- oder einer Teilplanung zugewiesen werden. Damit findet ein erster Schritt zur Aufteilung statt, was in welchem Systemteil umgesetzt werden kann (Definition der Systembestandteile). Dem Dachsystem werden dabei alle Schritte, die zur Erstellung der Gesamtunternehmensplanung notwendig sind, zugewiesen. Die Subsysteme vereinen sämtliche Planungsvorgänge, die nur für die jeweilige Teilplanung relevant sind. So findet bereits bei der fachlichen Definition der Planungsprozesse eine Modularisierung der zu konzipierenden und umzusetzenden Planungsfunktionalitäten statt. Aus der fachlichen Definition der Systemmodule ergeben sich zukünftige Schnittstellen zwischen den einzelnen Planungen und damit zwischen den Systembestandteilen. Der Detaillierungsgrad des Dachsystems stellt dabei den minimalen Detaillierungsgrad für die Subsysteme dar. Entsprechende Teilplanungen müssen sich demnach in die vorgegebene Detaillierung des Dachsystems überführen lassen bzw. idealerweise lediglich durch Aggregation darstellbar sein. Die Festlegung der Detaillierung für jeden Übergabepunkt stellt eine wesentliche Leitplanke für die sich anschließende Konzeption des Subsystems dar. Dem Dachsystem kommt in diesem Zusammenhang die Rolle der vorgebenden Instanz zu, weil die Gesamtplanung in einer festgelegten Detaillierung dargestellt werden soll (Top-Down-Vorgabe). Die Festlegung der Planungsprozesse und deren Zugehörigkeit im Systemverbund sowie die Definition der Übergabepunkte (Schnittstellen) stellen die Rahmenbedingungen für die sich nun anschließende Konzeption der einzelnen Systeme dar. Die Vorgehensweise unterscheidet sich zwischen Dach- und Subsystem nur marginal. Vor der vollständigen Konzeption der späteren Anwendung sind alle Soll-Prozessschritte eines Systems auf folgende Fragestellungen hin zu untersuchen:
440
HÖNEMANN/NIGGEMANN/SCHRÖDER
¾ Bedarf dieser Prozessschritt einer systemtechnischen Umsetzung oder ist eine entkoppelte Bearbeitung außerhalb des Systems denkbar bzw. aus Anwendersicht vorteilhaft? ¾ Kann das System bei diesem Prozessschritt eine Prozessverbesserung (Beschleunigung, Vorberechnung, usw.) herbeiführen? ¾
Handelt es sich bei dem untersuchten Prozessschritt um eine zwingend erforderliche Anforderungen, die im System umgesetzt werden muss? Ist dies nicht der Fall, ist im Rahmen einer Kosten-Nutzen-Analyse zu prüfen, mit welchen Aufwendungen die Umsetzung der fachlichen Anforderung verbunden ist.
Anschließend wird das zukünftige System auf Basis der Prozesse vollständig in Bezug auf seine Bestandteile definiert. Zu diesen Bestandteilen gehören einerseits Erfassungsarten12 für die einzelnen Planungsschritte sowie Planungsfunktionalitäten, die aus definierten Planungsparametern neue Werte und Daten erzeugen. Andererseits sind alle Zusammenstellung von Daten in Form von Berichten und Auswertungen zu definieren. Beim Dachsystem findet die Konzeption bis zum definierten Übergabepunkt statt, bei allen Subsystemen beginnt die Konzeption ab dem Übergabepunkt und erstreckt sich bis zur letztmöglichen Detaillierung und Planungstiefe. Um für die spätere technische Umsetzung die Schnittstellen-Definition eindeutig zu halten, müssen alle Änderungen, die sich aus der Konzeption der einzelnen Systeme ergeben, dokumentiert und an die betroffenen Systeme weitergereicht werden. Für diesen Fall eignet sich – je nach Projektorganisation – die Rolle eines fachlichen und auch technischen Integrators oder auch die Einführung einer regelmäßigen Integrationsrunde, der mindestens ein Vertreter aus jedem System beiwohnen sollte. Während der gesamten Konzeptionsphase sollte immer wieder der Kontakt zu den späteren Anwendergruppen gesucht werden, um einerseits mögliche Prozessveränderungen unmittelbar in der Konzeption zu berücksichtigen und andererseits den Projektfortschritt an die zukünftigen Nutzer zu kommunizieren. Ziel bei der Kommunikation sollte stets der Gedanke sein, wo sich der Anwender bereits jetzt schon im System wieder finden kann. Gerade beim Anforderungsdesign ist die Kommunikation mit den Fachstellen unumgänglich. Der offene Austausch über Kernanforderung und Nice-to-have-Funktionalitäten sollte zwischen den Systemverantwortlichen und den Fachstellen vorbehaltlos geführt werden können. Ein schlankes Prozessdesign mit möglichst wenigen Ausnahmen erhöht die Lebensdauer des Systems – gerade vor dem Hintergrund der Volatilität und Flexibilität von Planungsprozessen – und trägt zu Transparenz in der späteren täglichen Anwendung bei.
3.2
Technische Schritte
Bei der technischen Vorgehensweise liegt der Fokus einerseits auf der Auswahl der entsprechenden IT-Infrastruktur und andererseits auf der technischen Umsetzung der fachlichen Anforderung. Beide Aspekte sind dabei immer gemeinsam zu betrachten, da fachliche Anforderungen in einem entsprechenden Softwareprodukt schließlich darstellbar sein müssen.
12
Unter Erfassungsarten werden die unterschiedlichen Wege der Versorgung des Systems mit Daten verstanden. Dazu gehören z. B. Schnittstellen zur Bereitstellung über Dateien oder eingabebereite Oberflächen, die die Daten dann unmittelbar im System ablegen.
Integrierte Unternehmensplanung zur Steuerung von Projekt und Periode
441
Die Anforderungsanalyse stellt einen wesentlichen ersten Schritt dar, um einen entsprechenden Überblick über die Tragweite der Systemeinführung zu bekommen (siehe Abbildung 3). Dabei sind die grundsätzlichen Zielsetzungen, die mit dem neuen System verfolgt werden, sowie die sich daraus ergebenden Einflüsse auf die Organisation zu untersuchen. Gerade bei starker regionaler Verteilung der Standorte des Unternehmens ist dieser Aspekt besonders zu beachten. Den zentralen Punkt der Anforderungsanalyse stellt die Prüfung der funktionalen und technischen Anforderungen dar. Unter technischen Aspekten werden unter anderem Integrationsmöglichkeiten in die bestehende IT-Systemlandschaft, Sicherheitsaspekte, Nutzerverwaltung und Performance-Management verstanden. Hinzu kommen Möglichkeiten der Datenanbindung und das Betriebsmodell. Die fachlichen Aspekte umfassen Darstellungs- und Auswertungsmöglichkeiten (grafisch, tabellarisch), Durchführung von Simulationen und Arten der Datenerfassung (Datei-Import, Oberflächen zur Datenerfassung, Schnittstellen zu bestehenden Systemen).
Anforderungskriterien ...an die Zielsetzung
...an die Organisation
¾ Erhöhung der Planungsfrequenz ¾ Senkung der Planungskosten
¾ Bottom-Up-, TopDown- oder GegenstromVerfahren
¾ Hohe Skalierbarkeit der Anwendung
¾ Definition der Planungsdimensionen (Objekte, Granularität, Ebenen)
¾ Steigerung der Planungstransparenz ¾ Verkürzung der Planerstellung
¾ Detaillierung des Planungsprozesses
...an die Applikation ¾ Integration in vorhandene ITLandschaft ¾ Effizientes PerformanceManagement ¾ Sicherheit und UserVerwaltung ¾ Möglichkeit der Datenanbindung ¾ Funktionale Anforderungen an das Front-End (u. a Reporting, Analyse, Grafik, etc.)
Abbildung 3:
Anforderungen an den Systemverbund
Das Ergebnis der Anforderungsanalyse stellt der Anforderungskatalog dar, mit dem dann eine entsprechende Tool-Evaluierung zur Identifizierung einer geeigneten Softwarelösung für die Umsetzung durchgeführt werden kann. Diese kann grob in vier wesentliche Untersuchungsgegenstände unterteilt werden. Den wichtigsten Aspekt stellt das Funktionsspektrum des untersuchten Tools dar. Die formulierten fachlichen Anforderungen sind gegen den Leistungsumfang einer jeden Softwarelösungen zu prüfen und z. B. mittels eines Abdeckungsgrads zu bewerten. Die Aspekte der Systemverwaltung sollten in Hinblick auf die technischen Anforderungen untersucht werden, wie z. B. Nutzerverwaltung, Sicherheit. Neben der Bewertung der Softwarelösungen gegenüber dem Anforderungskatalog ist auch das Produkt in Hinblick auf Technologiereife, Hersteller-Support, Sprachvarianten usw. sowie der Hersteller selbst (Geschäftsentwicklung, Referenzen, Verfügbarkeit qualifizierter Mitarbeiter etc.) zu
442
HÖNEMANN/NIGGEMANN/SCHRÖDER
bewerten. Der Kostenaspekt vor dem Hintergrund von Lizenz- und Wartungsgebühren sowie Update-Möglichkeiten bei Release-Wechseln ist ebenfalls pro Produkt zu quantifizieren. Bei der Tool-Auswahl sollte in jedem Fall berücksichtigt werden, inwieweit einzelne Softwarelösungen bereits im Unternehmen eingesetzt werden, weil dies einerseits leicht zu beschaffende Informationen zu Fragen z. B. des Betriebs liefert und andererseits die Möglichkeit der Einsparung bei Lizenzgebühren bietet. Der Verbreitungsgrad spezieller Softwareprodukte zur Unternehmensplanung ist im deutschen Umfeld insgesamt als gering anzusehen. Erstaunlicherweise sind viele Produkte der Mehrheit der mit der Planung beauftragten Mitarbeiter meist nicht einmal bekannt. Unter den speziellen Tools zur Unternehmensplanung ist SAP SEM-BPS13 – aufgrund der Vormachtstellung von SAP am deutschen Markt – das am häufigsten eingesetzte nicht Excel-basierte Planungsprodukt. Danach folgen die großen Anbieter aus dem Business-Intelligence- und Corporate-Performance-Management-Umfeld wie Hyperion14, MIS15 und Cognos16. Seltener eingesetzt, jedoch nicht zwangsläufig unbekannter, sind Nischenprodukte, die das Thema „Planung“ entweder von der Business-Intelligence-Ebene oder von der operativen ERP-Seite kommend umsetzen.17 Aufgrund der Komplexität der Aufgabenstellung zur Darstellung einer integrierten Unternehmensplanung zur Steuerung von Projekt und Periode eignen sich die Produkte der TopAnbieter des Planungssegmentes am besten aufgrund des großen Funktionsumfangs und hoher Anpassungsfähigkeit. Nach erfolgter Entscheidung zur Softwarelösung kann auf technischer Seite mit der Konzeption des Systems begonnen werden. Der erste Schritt zur Überführung der fachlichen Anforderungen stellt das logische Datenmodell des zukünftigen Systems in entsprechender Notation18 dar. Das logische Datenmodell dient der Kommunikation und der Abstimmung mit den Fachbereichen. Es ist mit maßgeblicher Beteiligung des Fachprojektteams zu erarbeiten, allerdings unter Federführung der verantwortlichen IT-Vertreter. Es sollte der Anspruch bestehen, dass sowohl Fach- als auch IT-Vertreter auf einer Ebene zum logischen Datenmodell diskutieren können. Das logische Datenmodell beinhaltet sämtliche fachlichen Zusammenhänge und Beziehungen zwischen den einzelnen Planungsobjekten, die grafisch mit Hilfe der entsprechenden Modellierungssprache veranschaulicht werden kann. Es dient weiterhin zur Prüfung der Vollständigkeit des Systems sowie zur Definition der Schnittstellen zwischen Dachsystem und den Subsystemen. Bestandteile des logischen Datenmodells sind einerseits Klassen19 zur Abbildung des Planungsprozesses sowie solche zur Darstellung der unterschiedlichen Planungsobjekte (z. B. Produkte, Gesellschaften). Andererseits enthält es den Wert bzw. die unterschied13 14 15 16 17 18 19
„SAP“ und „SAP SEM-BPS“ sind Marken der SAP AG. „Hyperion“ ist eine Marke der Hyperion Solutions Corporation. „MIS“ ist eine Marke der MIS AG. „Cognos“ ist eine Marke von Cognos Incorporated. Eine umfangreiche Übersicht zu den Softwarelösungen im Bereich Planung stellen die BARC-Studien „Planung und Budgetierung“ und „Integrierte Unternehmensplanung“ dar. Als Notation eignet sich die Modellierungssprache UML (Unified Modelling Language). Klassen (am Beispiel der Modellierungssprache UML) beschreibt eine Menge von Ausprägungen mit gleichen Merkmalen und Einschränkungen.
Integrierte Unternehmensplanung zur Steuerung von Projekt und Periode
443
lichen Werte – im Data-Warehouse-Kontext auch als Kennzahl(en) bezeichnet, die im Rahmen einer Planung erfasst werden können. Die Definition des logischen Datenmodells sollte vom Dachsystem ausgehend auf die Subsysteme durchgeführt werden. Hintergrund ist, dass die vom Dachsystem die Planungsgranularität vorgegeben wird, mit der die Daten aus den Subsystemen mindestens geliefert werden müssen (Definition der Übergabepunkte). Ausgehend von diesem Datenmodell kann dann eine entsprechende, tiefer gehende Detaillierung des logischen Datenmodells für die einzelnen Subsysteme durchgeführt werden, wobei jedem Subsystem bei Unabhängigkeit zu anderen Subsystemen alle Freiheitsgrade zur Verfügung stehen. Um den unterschiedlichen Anforderungen in den Subsystemen gerecht zu werden, sollte die Vorgabe aus dem Dachsystem möglichst schlank sein. Aufbauend auf dem logischen Datenmodell wird das physische Datenmodell entwickelt. Es stellt die endgültige Überführung des logischen Datenmodells in das ausgewählte Datenbanksystem dar. Über das physische Datenmodell wird die physische Form der Speicherung und der Datenzugriffe festgelegt. Gerade die physische Modellierung der Übergabepunkte der Subsysteme an das Dachsystem stellt eine große Herausforderung dar. Im Rahmen der Modellierung stehen mehrere Möglichkeiten zur Verfügung z. B. über entsprechende Attributierungen, Direktkontierungen oder Ableitungen die notwendigen Informationen für das Dachsystems den Planungsbuchungen der Subsysteme mitzugeben. Folgendes Beispiel verdeutlicht diese Problematik: Die Planungen im Dachsystem werden auf Ebene von Zielvereinbarungsgrößen dargestellt, was den Übergabepunkt darstellt. In den Subsystemen werden die Planungen hingegen auf Ebene von Kostenarten durchgeführt. Über eine entsprechende Attributierung der Kostenarten in den Subsystemen kann die Anforderung des Dachsystems zur Darstellung der Planungen auf Ebene der Zielvereinbarungsgrößen erfüllt werden. Weitere Umsetzungsalternativen sind, dass die Zielvereinbarungsgröße direkt mitkontiert werden oder sich auf Basis einer Zuordnungstabelle ableiten lassen. Welche Methode zur Kopplung zwischen Dach- und Subsystem zielführend ist, sollte im Einzelfall entschieden werden. User-Akzeptanz und Performance sollten hierbei auf jeden Fall im Vordergrund stehen.
3.3
Vorgehensmodell
Das nachfolgend dargestellte Vorgehensmodell stellt die Zusammenführung der aufgeführten fachlichen und technischen Schritte dar. Ergänzend enthält es die wesentlichen Tätigkeiten, die nur in Zusammenarbeit zwischen Fachstellen(-vertretern) und IT-Vertretern erfolgreich durchgeführt werden können. Dazu zählt der wichtigste Punkt im Rahmen des Projekts: die Überführung und der Transfer der fachlichen Anforderungen in das technische Design des zukünftigen Systems. Bevor das Vorgehensmodell zur erfolgreichen Einführung eines integrierten Unternehmensplanungssystems erläutert wird, werden vier im Folgenden kurz dargestellte Prinzipien aufgeführt, von der die Gestaltung des Systemverbunds geleitet sein sollte:
444
HÖNEMANN/NIGGEMANN/SCHRÖDER
¾
Prinzip der Standardisierung (Standardisierung bedeutet die Vereinheitlichung von z. B. Methoden, Begriffen und Prozessen. Dies kann sich im Bereich der Softwareerstellung und -entwicklung positiv auf die Entwicklungsaufwendungen aufgrund von Wiederverwendbarkeit aber auch auf die Verständlichkeit im Rahmen der Programmierung und Dokumentation auswirken)20
¾
Prinzip der Hierarchisierung (Hierarchisierung dient der Reduktion der Komplexität durch die hierarchische Aufteilung des Problems in untergeordnete Teilprobleme)21
¾
Prinzip der Modularisierung (Modularisierung dient der Zerlegung eines Problems oder Systems in abgeschlossene Teile [Module]. Die Module müssen dabei – im Gegensatz zur Hierarchisierung – nicht über- oder untergeordnet im Verhältnis zueinander stehen.)22
¾
Prinzipien der Problem- und Systemspezifikation (Diese Prinzipien gewährleisten eine vollständige Aufnahme der Anforderungen und eine darauf aufbauende Konzeption des zukünftigen Systems. Dazu zählen das Prinzip der Vollständigkeit, das Prinzip der Intersubjektivität und das Prinzip der Integrierbarkeit.)23
Das Vorgehensmodell unterteilt sich in zwei zeitlich voneinander zu trennende Phasen: die Phase des Prozess- und IT-Architekturdesigns und die Phase des Applikationsdesigns (siehe Abbildung 4). In der ersten Phase wird der zu konzipierende Systemverbund als Einheit gesehen. Alle fachlichen Prozesse, Gegebenheiten und Anforderungen werden gesamthaft analysiert und beurteilt. In dieser Phase wird auf Basis der definierten Zuständigkeiten die Trennung zwischen Gesamt- und Teilplanungen vorgenommen sowie die Schnittstellendefinition durchgeführt. Neben der fachlichen Definition ist in dieser Phase auch bereits eine Entscheidung in Bezug auf die IT-Architektur zu treffen. Ein geeigneter Kriterienkatalog zur Bewertung unterschiedlicher Software ist in Kapitel 3.2 aufgeführt. Bei der Wahl der IT-Architektur ist auf Durchgängigkeit im gesamten Systemverbund zu achten, um einerseits Komplikationen bei der Anbindung der unterschiedlichen Systeme zu vermeiden und andererseits die gesamte Planungsanwendung als eine Einheit auch im Unternehmen zu positionieren.
20 21 22 23
Vgl. BIETHMANN/MUCKSCH/RUF, S. 303 f. Vgl. BIETHMANN/MUCKSCH/RUF, S. 318 f. Vgl. BIETHMANN/MUCKSCH/RUF, S. 319f . Vgl. BIETHMANN/MUCKSCH/RUF, S. 325 ff.
Integrierte Unternehmensplanung zur Steuerung von Projekt und Periode
Prozess- und ITArchitekturdesign
445
Applikationsdesign
Subsystem
Dachsystem
Zeit FachSeite
Definition des Gesamtsystems
FachSeite
ITSeite Übergreifende Funktionen
Abbildung 4:
Test &
Abgrenzung von Gesamt- und Teilplanung ITSeite
Fachliche Definition der Applikation
Analyse und Definition der Planungsprozesse Festlegung von Übergabepunkten Festlegung der IT-Architektur
Technische Definition der Applikation
Implementierung
Fachliche Definition der Applikation
Test &
Technische Definition der Applikation
Implementierung
Integration zwischen den Systemen Kommunikation an die zukünftigen Anwender
Vorgehensmodell für die einzelnen Phasen
Auf Basis der Modularisierung des Systemverbunds kann dann in der zweiten Phase jedes System nahezu losgelöst konzipiert und entwickelt werden. Durch die Festlegung der Schnittstellen in der ersten Phase (Prinzip der Standardisierung) ist allen Projektbeteiligten bekannt, wie entsprechende Ergebnistypen in der Konzeption gestaltet werden müssen. Die Aggregation von Daten aus den Teilplanungen zum geforderten Detaillierungsgrad für die Gesamtplanung kann dem Prinzip der Hierarchisierung folgend gelöst werden. Für die Konzeption eines IT-Projekts hat sich in den letzten Jahren ein Phasenmodell entwickelt, dass je nach Unternehmen, Branche oder Inhalt unterscheiden kann. Das IT-Projekt wird dabei i. d. R. in vier aufeinander folgende Phasen unterteilt: Grobkonzept, Fachkonzept, DV-Konzept und Implementierung. Das Grobkonzept beinhaltet die Analyse der bestehenden Situation sowie eine erste Beschreibung der umzusetzenden Anforderungen und Funktionalitäten des neuen Systems. Hauptaugenmerk liegt auf der klaren fachlichen Abgrenzung des Projektumfangs. In der Fachkonzeptphase werden die identifizierten fachlichen Anforderungen ausspezifiziert. IT-technische Rahmenbedingungen wie Sicherheitsaspekte, Archivierung oder Performanceanforderungen werden festgelegt. Das DV-Konzept beinhaltet als Abschluss der Konzeption die technische Umsetzung des im Fachkonzept festgelegten Umfangs. Es bildet die Grundlage für die sich anschließende Implementierungsphase. Über alle drei Konzeptphasen hinweg ist eine Verschiebung des Schwerpunkts von der Fachseite zur IT-Seite festzustellen. Abbildung 5 zeigt diese Verschiebung auf, die auch in der Ressourcenplanung für das Projekt berücksichtigt werden sollte.
446
HÖNEMANN/NIGGEMANN/SCHRÖDER
Verteilung der Verantwortung
Verantwortung
IT
Fachbereich Grobkonzept
Fachkonzept
DVkonzept
Projektphase
Abbildung 5:
Veränderung der Verantwortung zwischen Fachseite und IT während der Projektlaufzeit
Zentraler Punkt in der Verschiebung der Verantwortlichkeiten von der Fachseite zur IT stellen der Transfer und die Übersetzung der fachlichen Anforderungen in eine technische Sprache dar. Dies geschieht in Form des logischen Datenmodells, welches nur in Zusammenarbeit zwischen Fachstelle und IT-Verantwortlichen erstellt werden kann. Die Fachstelle kann anhand dessen die Vollständigkeit ihrer Anforderungen nachvollziehen, die IT-Seite bekommt so die Übersicht der zu berücksichtigenden Umfänge und kann sich seinerseits bereits Gedanken zur physischen Umsetzung im späteren System machen. Das oben dargestellte Phasenmodell für die Durchführung von IT-Projekten, ob in dargestellter Form oder in entsprechender Abwandlung, sollte für jedes einzelne System des Systemverbunds verwendet werden. So kann einerseits eine entsprechende Vorgabe für die Ergebnistypen der einzelnen Konzepte vorgegeben werden und andererseits wird gewährleistet, dass in vergleichbarer Form dokumentiert wird. Den Beginn der Konzeptionsphase stellt das Dachsystem dar, weil dessen Vorgaben – sowohl in fachlicher als auch in technischer Natur – die Grundlage für die Konzeption der Subsysteme darstellt. Eine Überlappung der Konzeptphasen zwischen Dachsystem und Subsystemen zur Beschleunigung der Einführung des Planungssystems ist durchaus möglich, birgt allerdings auch Risiken im Fall von Änderungen z. B. zwischen Grob- und Fachkonzept. Aus diesem Grund sollte die Konzeptionsphase der Subsysteme mit Abschluss des Fachkonzepts des Dachsystems beginnen, um Stabilität in den fachlichen Aspekten zu gewährleisten. Falls technische Konzeptänderungen im Dachsystem noch auftreten, können diese aufgrund des zeitlichen Versatzes noch in die Konzeption der Subsysteme einfließen. Während der gesamten Projektlaufzeit kommt der Kommunikation eine Schlüsselrolle zur Erlangung einer hohen Akzeptanz unter den späteren Anwendern zu. Sie umfasst einerseits die ständige Statusabgabe zu Projektfortschritt und -erfolg und andererseits der offene Austausch zu technisch aufwendig umzusetzenden Fachanforderungen aber auch fertig gestellten
Integrierte Unternehmensplanung zur Steuerung von Projekt und Periode
447
Umsetzungskonzepten und deren Bewertung durch die Fachstellen. Schon zu Beginn des Projekts sollte der Rahmen für die Einführung einer Standard-Software im Vergleich zur Nutzung von Tabellenkalkulationsanwendungen aufgezeigt werden. Dabei ist besonders auf die dann zur Verfügung stehende einheitliche Datenbasis aber auch auf die eingeschränktere Flexibilität einzugehen. Um die Wahrnehmung des Projekts und dessen Ziels zu prüfen, eignet sich z. B. eine regelmäßige Umfrage unter den zukünftigen Nutzern zu den neusten Erkenntnissen aus dem Projekt.
4
Zusammenfassung
In Praxis und Theorie kursiert eine Vielzahl von Ansätzen, die sich alle dem Ziel der optimalen Planung, der verlässlichen Irrtumsreduktion widmen. Das beschriebene Vorgehensmodell zeigt, dass bei der Wahl des geeigneten Planungsansatzes nicht eine standardisierte Methodik im Vordergrund stehen muss, sondern ein individueller, auf die Unternehmensstruktur und -prozesse abgestimmter Lösungsansatz. Der Grad der Integration ist dabei abhängig von der Fähigkeit Unternehmensdaten einheitlich abzubilden, um damit Ziele auf Teilpläne zu dekompensieren bzw. Teilpläne zum Gesamtplan zu aggregieren. Die Transparenz der Planung wird geschaffen durch klar definierte Rahmenbedingungen, die allen Planungsträgern zeitgerecht zur Verfügung stehen. Die Flexibilität entsteht durch die intelligente Datenhaltung in einem Data Warehouse und bedarf darüber hinaus einer offenen Zugriffs- und Verknüpfungslogik. Dies und die Forderung an ein umfassendes, ziel- und adressatengerechtes ErgebnisReporting müssen an den Möglichkeiten der technischen Machbarkeit gespiegelt werden, um das Verlangen der Planungsträger nach Abbildung jeder Eventualität in Grenzen halten zu können. Gerade in Hinblick auf eine ressourcenschonende Planungsdurchführung sollte die Maxime „Weniger ist Mehr“ gelten. Der Verzicht auf die detaillierte Abbildung auch des letzten „Winkels“ des Unternehmens ist meist sinnvoller, als eine, am Ende doch nur scheingenaue, Vollständigkeit anzustreben. Unter Beachtung dieser Leitplanken und der umfassenden Einbindung aller von der Planung „Betroffenen“ gelingt es, eine Planung mit vertretbaren Aufwand zu installieren, die motiviert, Veränderungswillen kommuniziert, eine hohe Akzeptanz erreicht und damit letztlich den Irrtum beherrschbar macht.
448
HÖNEMANN/NIGGEMANN/SCHRÖDER
Quellenverzeichnis BIETHAHN, J./MUCKSCH, H./RUF, W. (2000): Ganzheitliches Informationsmanagement, Band II – Entwicklungsmanagement, München 2000. FISCHER, R. (2005): Unternehmensplanung mit SAP SEM/SAP BW, Bonn 2005. FORRESTER TECHSTRATEGY RESEARCH (2003): Enterprise Visibility makes decisions profitable, o. O. 2003. HORVÁTH, P. (2006): Controlling, München 2006. INSTITUT FÜR BUSINESS INTELLIGENCE (2004): Empirische Studie – Integrierte Unternehmensplanung, o. O. 2004. KLEIN, R./SCHOLL, A. (2004): Planung und Entscheidung, München 2004. WILD, J. (1974): Grundlagen der Unternehmensplanung, Hamburg 1974.
Autorenverzeichnis BAUR, JOSEF: Dipl.-Kfm., geb. 1972, Studium der Betriebswirtschaftslehre an der FernUniversität in Hagen mit dem Schwerpunkt Unternehmensgründung, -nachfolge und -bewertung. 19952000 Berufsausübung im Bankensektor in der Tschechischen Republik im Bereich des Unternehmensaufbaus und der Unternehmensentwicklung sowie 20002005 in Deutschland im Bereich Projektsteuerung und Ablaufoptimierung. Derzeit tätig als Program Manager Deutschland für ein weltweit führendes Software Unternehmen. BITTELMEYER,CLAUDIA: Dipl.-Kffr., geb. 1976, Referentin Beteiligungsfinanzierung KfW Bankengruppe, Frankfurt am Main. Zuvor: Wissenschaftliche Mitarbeiterin an der Professur für Finanzierung und Banken, Justus-Liebig-Universität Gießen, sowie bei der IPB IP Bewertungs-AG, Hamburg. Studium der Betriebswirtschaftslehre an der JustusLiebig-Universität Gießen und der School of Business, Economics and Law, Göteborg University. BOROWICZ, FRANK: Dr. rer. pol., Dipl.-Oec., geb. 1972, Professor und Studiengangsleiter an der Berufsakademie Karlsruhe und Habilitand an der FernUniversität in Hagen. Promotion am Lehrstuhl für Betriebswirtschaftslehre, insbesondere Organisation und Planung, FernUniversität in Hagen, Tätigkeiten als Associate Consultant bei AT Kearney und KarstadtQuelle AG, dort zuletzt als Bereichsleiter Mergers & Acquisitions in einem Teilkonzern, Arbeits- und Forschungsgebiete: Management von Mergers & Acquisitions, Interessenkonflikte bei Mergers & Acquisitions, Fairness Opinions und allgemein Strategisches Management. BRÖSEL, GERRIT: Professor Dr. rer. pol. habil., Dipl.-Kfm., Instandhaltungsmechaniker, Bankkaufmann, geb. 1972, seit 10/2007 Professor für Allgemeine Betriebswirtschaftslehre/ Rechnungswesen an der Hochschule Magdeburg-Stendal (FH), Standort Stendal, 01/200309/2007 Wissenschaftlicher Assistent am Fachgebiet Rechnungswesen/Controlling, Fakultät für Wirtschaftswissenschaften, Technische Universität Ilmenau, 09/199812/2002 Prüfungsassistent und -leiter der international tätigen Wirtschaftsprüfungsgesellschaft PwC Deutsche Revision. Arbeits- und Forschungsgebiete: Rechnungswesen, Controlling, Unternehmensbewertung, Wirtschaftsprüfung, Finanzwirtschaft, Konvergenzmanagement (www.konvergenz-management.com). ECKMANN, TIM: Diplom Wirtschaftsjurist für Deutsches und Europäisches Wirtschaftsrecht, geb. 1979, seit 03/2006 Consultant bei der Softlab Group im Bereich Finance Business Consulting mit den Schwerpunkten Risiko Management im Außenhandel, Supply Chain Security, AEO, Außenwirtschaftsrecht, Zollrecht, Präferenzrecht, Strategisches Zoll Management, Prozess Management, Supply Chain Management und SAP GTS, Studium des Deutschen und Europäischen Wirtschaftsrechts an der Universität Siegen 10/1999 10/2006, Studium der Rechtswissenschaften an der Université de Lausanne (Schweiz), 03/200507/2005 Praxissemester bei der Infineon Technologies AG im Bereich Contract Management mit den Schwerpunkten Lizenzrecht, gewerblicher Rechtsschutz und Vertragscontrolling, 03/200607/2006 Diplomand bei der Henkel KGaA mit dem Thema: Die Optimierung des Compliance Managements im internationalen Handel durch Einsatz des SAP Global Trade Service unter besonderer Berücksichtigung geänderter globaler und insbesondere europarechtlicher Rahmenbedingungen.
450
Autorenverzeichnis
EHRHART, NICK: Dipl.-Volksw., geb. 1977, Referent Volkswirtschaftliche Abteilung KfW Bankengruppe, Frankfurt am Main, Forschungsschwerpunkte: Unternehmensfinanzierung, speziell Innovations- und Beteiligungsfinanzierung. Studium der Volkswirtschaftslehre und der Politikwissenschaft an der Universität Tübingen. EMBERGER, HANNES: Dr. oec., Dipl.-Kfm., geb. 1967, Projektmanager für Finanz- und SAPProjekte, verantwortlich für das Thema Finance Performance bei der Softlab Group, zuvor ca. zehn Jahre bei KPMG Consulting als Berater und Projektmanager tätig. Arbeitsgebiete: Consulting im Bereich Controlling, Konsolidierung, Finanz- und Rechnungswesen sowie Beratung im Umfeld SAP Financials. Projekt-Erfahrung in nationalen und internationalen Großprojekten in Industrie, Banken, Versicherungen und Medienunternehmen. FASSNACHT, ANDREAS: M. Sc., lic. oec. HSG, geb. 1976, Wissenschaftlicher Mitarbeiter am Institut für Accounting, Controlling und Auditing der Universität St. Gallen (HSG). Davor Associate Director im Bereich Investment Banking bei UBS. Arbeits- und Forschungsgebiete: Rechnungslegung, Unternehmensbewertung, Kapitalmarktforschung. GADATSCH, ANDREAS: Prof. Dr. rer. pol., Dipl.-Kfm., Dipl.-Betriebswirt, Industriekaufmann, geb. 1962, Studium der Betriebswirtschaftslehre und der Wirtschaftswissenschaften mit den Schwerpunkten Controlling und Rechnungswesen, Promotion im Bereich Wirtschaftsinformatik. 1986–2000 in verschiedenen Unternehmen (Jean Walterscheid GmbH, Uni Cardan Informatik GmbH, Klöckner Humboldt Deutz AG und Deutsche Telekom AG) als Berater, Projektleiter und IT-Manager tätig, zuletzt als Leiter Arbeitsplatzsystem-Management und IT-Sicherheit im zentralen Informationsmanagement der Deutschen Telekom AG. Wintersemester 2000/2001 Professur für Betriebswirtschaftslehre, insb. Organisation und Datenverarbeitung an der Fachhochschule Köln, Sommersemester 2002 Professur für Betriebswirtschaftslehre, insb. Wirtschaftsinformatik an der Fachhochschule Bonn-Rhein-Sieg in St. Augustin, Arbeits- und Forschungsgebiete: Einsatzmöglichkeiten betriebswirtschaftlicher Standardanwendungssoftware, Geschäftsprozess- und Workflow-Management sowie IT-Controlling. Zahlreiche Beratungsprojekte, Vorträge, Seminare, Workshops und Konferenzleitungen für Unternehmen unterschiedlicher Branchen auf den vorgenannten Fachgebieten. Mitglied in Programmkomitees, Mitveranstalter und Referent auf zahlreichen wissenschaftlichen nationalen und internationalen Fachkonferenzen. Veranstalter der regelmäßigen Fachtagungen IT-Controlling und Prozesscontrolling in Sankt Augustin. Mitherausgeber einer Schriftenreihe zur anwendungsorientierten Wirtschaftsinformatik beim VDM- Verlag Dr. Müller, Saarbrücken. Wahrnehmung von Lehraufträgen an weiteren Hochschulen (z. B. Fachhochschule Bielefeld, Fachhochschule Gießen, Universität Siegen). Gutachtertätigkeit für die Akkreditierungsagentur AQAS e. V. und die Deutsche Forschungsgesellschaft (DFG).
Autorenverzeichnis
451
GISON-HÖFLING, TINA: Magister Artium der Politischen Wissenschaft, Soziologie und Volkswirtschaft an der Universität Stuttgart und der Haute École des Sciences Politiques mit Schwerpunkt Erwachsenenbildung in Krisengebieten, geb. 1962, Managing Director der internationalen Personalberatung PROGNOSIS – Recruiting the future mit Sitz in der Schweiz. Engagement für unterschiedliche Non-Government-Organisationen und Unternehmen in Lateinamerika, dem Nahen Osten und Asien. Danach langjährige Tätigkeit als wissenschaftliche Mitarbeiterin am Fraunhofer Institut für Arbeitswirtschaft und Organisation in Stuttgart in den Bereichen der internationalen Forschung und Beratung neuer Formen der Arbeitsorganisation in hoch automatisierten Produktionsunternehmen. Seit 1993 Führungskraft im Top-Management führender IT- und Telekommunikations-Unternehmen mit den Schwerpunkten Merger & Akquision, Human Resource Management und umfassende Unternehmensrestrukturierungen. Zertifizierte Management-Trainerin und Fairness Coach. VON GLAHN, CARSTEN:
Dr. rer. pol., Dipl.-Ing., Dipl.-Wirtsch.-Ing., geb. 1968, Program Director für Transition & Transformation von Shared Services sowie für Outsourcing bei der Siemens AG, Siemens IT Solutions and Services in Atlanta, GA, USA. Davor KPMG Consulting; Beratungsschwerpunkte: Strategische Kooperationsplanung, Organisationstransformationen, Überleitungen von HGB nach US-GAAP, Business Planung und Unternehmensgründung. Forschung und Lehre an der Universität Hamburg, der Technischen Universität München und der Syracuse University, School of Information Studies, Syracuse, New York. Allgemeine Forschungsgebiete und Publikationen zu den Schwerpunkten Luft- und Raumfahrttechnik, eCommerce, Zentralisation, Shared Services, Outsourcing, Offshoring, Leasing, Finance & Controlling, konzerninterne Märkte, Service Management, Brokerkonzeptionen und Führungstheorien.
HÄFNER, MICHAEL: Dipl.-Betriebswirt (FH), geb. 1970, Abteilungsleiter bei der Unternehmensberatung Softlab Group, verantwortlich für Finance Business Consulting in der Finance Transformation Unit, 1997–2006 bei KPMG Consulting/BearingPoint GmbH, zuletzt Senior Manager und verantwortlich für die Solution Merger and Integration (in Germanics) sowie co-verantwortlich für Finance Transformation (in Europa), Programm- und Projektleitung erfolgreicher Gestaltungen und Optimierungen des Finanzbereiches bei internationalen Konzernen, Entwicklung bzw. Weiterentwicklung der Methodologie und Praxis u. a. für Finance Assessments, IFRS/US-GAAP Conversion, Fast Close, Balanced Scorecard und Post Merger Integration, bis 1997 Finanzcontroller bei der LOCTON GmbH. HARTMANN, SVEN: Prof. Dr. nat. habil., Dipl.-Mathematiker, geb. 1969, Professor of Information Systems an der Massey University (Neuseeland). 1995–2002 Wissenschaftlicher Mitarbeiter/Assistent für Mathematische Optimierung an der Universität Rostock. Seit 2002 Associate/Full Professor für Informationssysteme an der Massey University. Seit 2002 Deputy Director des Information Science Research Centre an der Massey University. Forschungsgebiete: Datenbanken und Informationssysteme, Business Intelligence, Optimierung, Knowledge Management, Finance IT.
452
Autorenverzeichnis
HIENDLMEIER, ALEXANDRA: Dipl.-Kulturwirtin, B. A., Lic., geb. 1975, Teamleiterin bei der Unternehmensberatung Softlab Group, verantwortlich für das Segment Unternehmenssteuerung/Controlling innerhalb der Finance Transformation Unit/Finance Business Consulting, bis 2007 Senior Project Manager und Prokuristin bei Horváth & Partners und dort verantwortlich für das Segment Controlling für Banken, Projektleitung bei der erfolgreichen Gestaltung und Umsetzung von innovativen Reporting-, Planungs- und Controlling-Konzepten, Weiterentwicklung von Controlling-Konzepten für Banken. HINTZPETER, REIMER: Dr. phil., Dipl.-Psych., geb. 1954, Geschäftsführender Gesellschafter Hintzpeter & Partner Management Consultants (gegründet 1990), Beratungsschwerpunkte: Marktangangs-/Multichannelstrategien im b2c- und b2b-Geschäft (Distanzhandel/Retail/Accountmanagement); Leistungsportfolio: Strategie- und Konzeptentwicklung, Führung interdisziplinärer/internationaler Projektteams, Implementierung der Ergebnisse in den Wirkbetrieb, Planung und Begleitung von Organisationsveränderungsprozessen. Gesellschafter feldacht kommunikation (gegründet 2002) und feldsieben marketing service (gegründet 2005). Wissenschaftlicher Mitarbeiter am Lehrstuhl für Kommunikationspsychologie und Organisationsentwicklung, Fachbereich Psychologie der Universität Hamburg (1985–1990). Studienschwerpunkte Organisations-, Betriebsund Kommunikationspsychologie, Betriebswirtschaftslehre. Zuvor Leitung Marketing und Vertrieb Handel CosMed im eigenem Unternehmen. HÖNEMANN, RAINER: Dipl.-Kfm., geb. 1966, Senior Project Manager bei der Softlab Group. KESSELMEYER, BODO: Dr. rer. pol., Dipl.-Wirtschaftsing., Certified Public Accountant, geb. 1968, Geschäftsführender Gesellschafter der Unternehmensberatung und des Systemhauses ANUBO XBRL GmbH & Co. KG (www.anubo.com), mit Schwerpunkt auf den Prozessen für die unternehmensgruppenweite Bilanzierung, die externe Berichterstattung sowie für das Corporate Performance Management, Chair der XBRL Task Force der German CPA Society (www.gcpas.org), Leiter der Arbeitsgruppe IFRS des XBRL Deutschland e. V. (www.xbrl.de), Referent und Autor zahlreicher Veröffentlichungen über XBRL. KEUPER, FRANK: Prof. Dr. rer. pol. habil., Dipl.-Kfm., geb. 1966, Inhaber des Lehrstuhls für Betriebswirtschaftslehre, insbesondere Konvergenz- und Medienmanagement (www. lehrstuhl-keuper.com), Steinbeis-Hochschule Berlin Wissenschaftliche Hochschule für Unternehmensführung und Innovationen (Lehrstuhlförderer Nextevolution Management Consultants GmbH), Geschäftsführer und Akademischer Leiter des Sales & Service Research Center Hamburg an der Steinbeis-Hochschule Berlin (Förderer T-Punkt Vertriebsgesellschaft mbH), Gastprofessor an der Universität Tai’an (Provinz Shandong/China), diverse Dozenturen an europäischen Hochschulen. 10/200203/2004 Vertretungsprofessur für Betriebswirtschaftslehre, insbesondere Risikomanagement und Controlling, Fachbereich Rechts- und Wirtschaftswissenschaft der Johannes GutenbergUniversität Mainz, Arbeits- und Forschungsgebiete: Neue Medien, Investitions- und Finanzierungstheorie, Produktion, Kostenplanung und -steuerung, strategische Unternehmensführung, Unternehmensplanung und -steuerung, Konvergenzmanagement (www.konvergenz-management.com), Kybernetik, Systemtheorie, Betriebswirtschaftslehre für „Kleine und mittlere Unternehmen“ (KMU).
Autorenverzeichnis
453
KNECHT, STEFAN: Dipl.-Wirtschafts.-Ing., CFA, CPA, geb. 1971, Senior Manager im Bereich Valuation & Strategy von PricewaterhouseCoopers, Schwerpunkte: Beratung von Unternehmen der Hochtechnologie- und Telekommunikationsbranche im Rahmen von Transaktionen sowie Integrations- und Restrukturierungsprozessen. KOZISEK, NIKI: Dipl.-Kfm. (FH), Bankkaufmann, geb. 1974, Senior Consultant im Bereich SAP BI für die Softlab Group, zugleich Leitung des Stammdatenteams im Beschaffungsverbund der BMW Group im Rahmen des Projektes PRO-F-IT, zuvor externer Berater für das Stammdatenmanagement der Deutschen Post World Net, Beratertätigkeiten bei der Knowledge Intelligence AG sowie Simon-Kucher & Partners, Bankkaufmann bei der Deutschen Ausgleichsbank (heute KfW Bankengruppe), Arbeitsgebiete: Controlling, (Konzern-)Reporting, Stammdatenmanagement, Business Intelligence, Data Warehouse, Unternehmensplanung, Projektmanagement, IKS- & SOXThemen, Branchenkompetenz in Banking/Finance, Construction Industry, Logistics und Automotive. Mitarbeit an diversen Fachpublikationen. KRUG, THOMAS: Dipl.-Kfm., geb. 1961, seit 05/2005 Vice President Global Shared Services – Accounting & Finance (GSS A&F) der Siemens AG, 20012005 Vice President Financial Reporting & Management Reporting der Siemens AG, 19992001 Leiter des US GAAP- und US-Listing-Projekts der Siemens AG, davor verschiedene Funktionen im In- und Ausland bei der Siemens AG. LEIBFRIED, PETER: Prof. Dr. oec., Dipl.-Oec., MBA, Certified Public Accountant, geb. 1971, Inhaber des KPMG-Lehrstuhls für Audit und Accounting an der Universität St. Gallen (HSG), Geschäftsführender Direktor das dortigen Instituts für Accounting, Controlling und Auditing (www.aca.unisg.ch), Gründer und Geschäftsführer der Akademie für Internationale Rechnungslegung Stuttgart (www.internationale-rechnungslegung.de), CoFounder und Aufsichtsratsvorsitzender der Unternehmensberatungsgesellschaft FAS AG Stuttgart (www.fas-ag.de), Chairman der German CPA Society (www.gcpas.org), Arbeits- und Forschungsgebiete: Rechnungslegung, Wirtschaftsprüfung, Corporate Governance, Unternehmensbewertung. LINOWSKI, DIRK: Prof. Dr. rer. pol. Dr. h. c., Dipl.-Mathematiker, geb. 1965, Inhaber des Union-Investment Stiftungslehrstuhls für Asset Management, Steinbeis-Hochschule Berlin Wissenschaftliche Hochschule für Unternehmensführung und Innovationen, Distinguished Guest Professor für Financial Risk Management an der Shanghai Normal University (China) seit 2004, Programmdirektor MBA an der University of Latvia (Lettland) seit 2005. Diverse Dozenturen an europäischen Hochschulen. 06/200109/2003 Assistant Professor an der Universiteit Nijmegen (Niederlande), 10/2003–04/2004 Visiting Professor an der Tongji University, Shanghai (China). Forschungsgebiete: Optimierung von Immobilienfonds, Corporate Governance in Transition Economies.
454
Autorenverzeichnis
MAALEJ, RACEL: Dipl.-Ing., geb. 1976, Teamleiter für Finance Business Consulting in der Finance Transformation Unit der Softlab Group, verantwortlich u. a. für die Beratung im Umfeld Zoll und Außenhandel sowie Indirekte Steuern mit den Schwerpunkten Risikomanagement im Außenhandel, Supply Chain Security, Global Supply Chain Finance, Custom Management, AEO, Präferenzen, Strategisches Zollmanagement und Prozessmanagement, bis 2006 Manager der Practice „Finance Excellence“ bei der Unternehmensberatung Bearingpoint mit dem Beratungsfokus auf internationale Rechnungslegung IFRS/US-GAAP, Konzernkonsolidierung, Prozessgestaltung und Optimierung im Finanzbereich, Konzeption und Einführung von Mehr-GAAP-Reporting-Lösungen, Harmonisierung von externem und internem Rechnungswesen, Einführung von Steuerungssystemen sowie die Begleitung von Transformationsprozessen im Rahmen von M&A-Aktivitäten. MARK, KLAUS: Dr. rer. pol., Dipl.-Volksw., geb. 1974, Referent Volkswirtschaftliche Abteilung KfW Bankengruppe, Frankfurt am Main, Forschungsschwerpunkte: Unternehmensfinanzierung insb. Venture Capital und Mikrofinanzierung, Bewertung komplexer und intangibler Vermögensgegenstände. Zuvor: Consultant bei der Warth & Klein Wirtschaftsprüfungsgesellschaft, Düsseldorf, im Bereich Corporate Finance & Advisory. Promotion und Assistententätigkeit an der RWTH Aachen, Lehrstuhl für Betriebliche Finanzwirtschaft. Studium der Volkswirtschaftslehre an der Universität Bonn. MÜLLER, SVEN: Dipl.-Kfm., geb. 1981, seit 06/2006 Wissenschaftlicher Mitarbeiter am Fachgebiet Rechnungswesen/Controlling der Fakultät für Wirtschaftswissenschaften an der Technische Universität Ilmenau, seit 06/2006 Projektmitarbeiter in der Entwicklungspartnerschaft „WiKoM – Wissens- und Kompetenzmanagement“. Arbeits- und Forschungsgebiete: Controllinginstrumente in der TIME-Branche, Fragen der Unternehmens- und Medienrechtsbewertung, Risikocontrolling, internationale Rechnungslegung. NIGGEMANN, STEPHAN: Dipl.-Wirtsch.-Ing., geb. 1979, Controller Langfristplanung bei der BMW Group, zugleich externer Doktorand am Lehrstuhl für Wirtschaftsinformatik, insb. Systementwicklung der Technischen Universität Dresden. OLLIGES, OLAF: Dipl. Wirtschaftsingenieur (FH), geb. 1969, Senior Project Manager im Bereich Finance Transformation Unit (FTU) der Softlab Group, Ausbildung zum Bankkaufmann mit anschließendem Studium an der Fachhochschule München. Seit 1997 tätig als Berater in den Branchen Finanzdienstleistung und Corporates in den Bereichen Controlling, Accounting, Treasury und Risikomanagement mit dem Schwerpunkt SAP. 01/1999–10/2006 Senior Berater bei der SAP Systems Integration AG mit den fachlichen Schwerpunkten Rechnungslegung nach IFRS, Umsetzung der Eigenkapitalvorschriften nach Basel II sowie Risiko- und Ertragscontrolling. Seit 11/2006 tätig als ITProjektleiter und Prozessarchitekt im Bereich Corporate Finance, u. a. für die Finanzund FX-Exposureplanung in einem Automobilkonzern. PAPE, CHRISTIAN: Dipl.-Kfm. (FH), geb. 1978, Leiter Unternehmensentwicklung/Risikomanagement SAGA GWG (www.saga-gwg.de), Geschäftsführer GWG Gewerbe Gesellschaft für Kommunal- und Gewerbeimmobilien mbH (www.gwg-gewerbe.de), Arbeits- und Forschungsgebiete: Unternehmensplanung und -steuerung immobilienwirtschaftlich ausgerichteter Unternehmen sowie Investitions- und Finanzierungstheorie.
Autorenverzeichnis
455
PUCHTA, DIETER: Dr. rer. soc., Dipl.-Vw., geb. 1950, seit 2004 Vorstandsvorsitzender der Investitionsbank Berlin, 2003–2004 Mitglied des Vorstands der Landesbank Berlin, 2002–2003 Mitglied des Vorstands der L-Bank, Stuttgart und Karlsruhe, 2000–2003 ebendort Bankdirektor und Bereichsleiter für Wirtschaftsförderung, 1992–2000 Professor für allgemeine Betriebswirtschaftslehre mit den Schwerpunkten Steuern und Finanzierung an der Hochschule Konstanz und Vorsitzender des Finanzausschusses im Landtag von Baden-Württemberg, 1981 Promotion mit einer Dissertation über die Deutsche Bundesbank zum Thema „Inflation und Deutsche Bundesbank: Elemente einer politisch-ökonomischen Theorie der schleichenden Inflation mit endogenisiertem Zentralbankverhalten“, zuvor 1970–1974 Studium der Volks- und Betriebswirtschaftslehre sowie der Verwaltungswissenschaften an den Universitäten Konstanz und Freiburg. RÖDER, STEFAN: MBE, Diplom-Betriebswirt (BA), Bankkaufmann, geb. 1979, seit 2007 Wissenschaftlicher Mitarbeiter am Lehrstuhl für Betriebswirtschaftslehre, insb. Medienund Konvergenzmanagement, Steinbeis-Hochschule Berlin í Wissenschaftliche Hochschule für Unternehmensführung und Innovationen, Akademischer Leiter und Geschäftsführer Prof. Dr. rer. pol. habil. Frank Keuper; von 20032007 Vorstandsassistent und Leiter des Vorstandsstabs in der Investitionsbank Berlin (IBB); Arbeits- und Forschungsgebiete: Strategisches IT-Management und IT-Controlling. SCHRÖDER, ROLAND: Dipl.-Kfm., geb 1958, Senior Project Manager bei der Softlab Group. SCHUBERT, PETER: Dipl.-Ökonom, geb. 1959, Studium der Wirtschaftswissenschaft an der Bergischen Universität Wuppertal mit den Schwerpunkten Steuern, Revision, Organisation und Controlling. Berufsstart in der Revision eines Touristikunternehmens in Frankfurt. Fortsetzung der Berufslaufbahn als Controller bei Mannesmann Mobilfunk in Düsseldorf (heute Vodafone). Anschließend über zehn Jahre als Unternehmensberater und Manager auf diversen internationalen Projekten bei Deloitte Consulting mit den Schwerpunkten internationale Rechnungslegung, Controlling und Treasury tätig. Spezialisierungen: Wertmanagement, Transferpreise und Shared Services. Seit September 2006 als Senior Project Manager bei der Softlab Group im Bereich Finance Transformation Unit (FTU). Derzeit mit den Themen Multiprojektmanagement sowie der Anbindung zwischen operativer und strategischer Planung beauftragt. VINCENTI, AURELIO J. F.: Dr. med., Dr. rer. pol., Studium der Medizin mit Promotion an der Friedrich-Alexander-Universität Erlangen sowie Studium der Wirtschaftswissenschaften mit Promotion an der FernUniversität in Hagen. Ärztliche Berufsausübung vor allem in der Neurologie und Psychiatrie. Betriebswirtschaftliche Tätigkeit im Bereich Controlling. Aktuell wissenschaftlicher Mitarbeiter am Lehrstuhl für Betriebswirtschaftslehre, insbesondere Unternehmensgründung und Unternehmensnachfolge der FernUniversität in Hagen. Gegenwärtige Forschungsschwerpunkte liegen vorwiegend auf den Gebieten Unternehmensgründung (vor allem Gründungsfinanzierung) und Gesundheitswesen.
456
Autorenverzeichnis
VOLKWEIN, BERTRAM: Dipl.-Kfm., geb. 1975, seit 11/2001 bei BMW, seit 02/2005 in der Konzernberichterstattung verantwortlich für das Segment Finanzdienstleistungen sowie für die Vertriebs- und Finanzdienstleistungsgesellschaften UK und Irland, Projekte bei BMW: Vereinheitlichung der internen und externen Konzernberichterstattung (abgeschlossen), Roll-out eines neuen Konzernkontenplans auf Basis von SAP-BCS (abgeschlossen), aktuell weltweiter Roll-out des einheitlichen Kontenplans auf alle Vertriebsund Finanzdienstleistungsgesellschaften sowie Finanzholdings. WOLEK, MAREK TADEUSZ: Dipl.-Kfm., geb. 1980, Senior Consultant im Bereich Valuation & Strategy von PricewaterhouseCoopers, Schwerpunkte: Beratung von Unternehmen im Hinblick von Corporate-Finance-Fragen, insbesondere bei internationalen Expansionen von Unternehmen aus Wachstumsmärkten und den sich hieraus ergebenden Chancen und Risiken für europäische Unternehmen, regionale Fokussierung auf CEE- und CISStaaten sowie auf Süd- und Ost-Asien. ZIMMERMANN, VOLKER: Dr. rer. pol., Dipl.-Volksw., geb. 1968, Referent Volkswirtschaftliche Abteilung KfW Bankengruppe, Frankfurt am Main, Forschungsschwerpunkte: Innovationen, Beteiligungskapitalmarkt. Zuvor: Wissenschaftlicher Mitarbeiter im Zentrum für Europäische Wirtschaftsforschung (ZEW), Mannheim. Studium der Volkswirtschaftslehre an der Universität Konstanz.
Stichwortverzeichnis A
D
AEO ĺ Authorized Economic Operator Assets, intangible o Vermögensgegenstände, immaterielle Auktionsverfahren 272, 351, 357 ff. Außenwirtschaftsrecht 199, 217 Authorized Economic Opertator 198 f., 203 ff., 210, 219 ff.
Datenmodellierung 432 Dynamik 13, 88, 92, 153, 155, 179, 387, 391 ff., 437
B Balanced Scorecard 32, 148, 156, 235 ff., 243 f., 333, 435 Berichterstattung durch XBRL 281 ff., 289 ff., 292 ff. Beschlusscontrolling 108, 120 f. Bewertung von Wohnungsgesellschaften 306 ff. Bewertungsstandard 252, 271 ff. Bewilligung, zollrechtliche 220 Bodyleasing 66 Bookbuilding-Verfahren 351 f., 354 ff. Börsengang 303, 351 f., 359 ff. Brown Field 27 Business Intelligence 129 ff., 138, 158 f., 165 ff., 324, 341, 430, 442 Business Technology 129 Business Volume Indicators 30, 32 f. BVI ĺ Business Volume Indicators
C Cash Flow, Free 9, 328, 330 ff. China 20, 44, 64, 71 f., 135, 179 ff., 221, 229, 284 Compact-Modell 199, 206, 208 ff. Compliance 5, 24 f., 28, 33, 130 f., 165, 185, 187, 190 Compliance Management 42, 184 f., 192 Controlling 5 f., 9 f., 23, 42, 79, 89 f., 129 f., 133, 137, 140, 150, 160 ff., 184, 190, 201, 238, 242, 244 f., 292 f., 324 f., 332 ff., 387, 399 ff., 435 Corporate Governance 6, 90, 154, 158, 200
E Effektivität 41, 43 ff., 85 ff., 130 f., 154, 162, 377, 406, von IT-Systemen 130 ff. Effizienz 41, 44, 47, 50 ff., 85 ff., 130 ff., 151 ff., 162, 206, 237 f., 335, 405 f., 417, 419 f., von IT-Systemen 130 ff. EHUG ĺ Gesetz über elektronische Handelsregister und Genossenschaftsregister sowie das Unternehmensregister Electronic Meeting Systems 86, 121 Emissionsbank 351, 355, 359, 361 ff. Emissionsverfahren 352, 355 ff. Emittent 352, 354 ff. EMS ĺ Electronic Meeting Systems ERP-Systeme 63, 129 ff.
F Festpreisverfahren 351 ff. Finanzanalyse, externe 289 Finanz-IT 129, 166, 293 f. Finanzplanung 311, 324 ff. Flexibilisierung von IT-Systemen 135 f. Flexibilität 52, 70, 109, 133, 135 ff., 154, 159 ff., 198, 205, 289, 312, 341, 408, 431 f., 436, 440, 447 Förderbank 97 f., 106
G Geschäftsmodelle in der Wohnungswirtschaft 303 ff. Gesetz über elektronische Handelsregister und Genossenschaftsregister sowie das Unternehmensregister 288 Gewerbliche Schutzrechte o Intellectual Property Global Sourcing 221 Green Field 27 Gremienmanagement 85 ff.
Stichwortverzeichnis
458
H Harmonisierung 24, 28 f., 44 ff., 129, 133 ff., 154, 162, 168 f., 202 f. Hausbankprinzip 251, 261 f. Hedging 169, 346 Human Resources 34, 172 f., 184, 190 ff.
Kooperation 14, 44, 51, 54 ff., 78 f., 86, 95, 190, 201. 393 f. Koopetition 51, 55 f. Kostenersparnis 24, 29, 78 KPI ĺ Key Performance Indicators Kreditsicherheiten 252, 256, 262 ff.
I
L
IFRS ĺ International Financial Reporting Standards IKS ĺ Kontrollsystem, internes Immobilienfonds 419, 424 Immobilienportfolio 305, 309, 418 f., 421, 423 Indien 21, 64, 71 f., 135, 179 ff., 229 Innovation 11, 22, 55, 135, 235, 243, 251, 257 ff., 391 Insourcing 29, 68 f. Intangible Assets Monitor 237 f. Integrität 5, 10 f., 15, 89, 184, 430 Intellectual Property 184, 187 ff., 251 ff. International Financial Reporting Standards 5, 24 f., 88, 130, 133, 136, 168, 173, 185, 230, 238, 240 f., 283 ff., 315, 326, 328 ff., 342 Investor 159, 179, 272, 286 ff., 303, 314, 323, 325, 342, 344 ff., 352 ff., 418, 421 Investor-Relationship-Management 344 ff. Isolierbarkeit 40 f. IT-Offshoring 63, 66 IT-Outsourcing 63, 68 IT-Strategie 96, 103, 116, 118
Leistungsmessung 32 f., 76 Liquiditätsplanung 323 ff. Logistikkosten 200 ff.
K Kapitalmarkt 88, 157, 272, 290 f., 313 ff., 323, 326 f., 330 Kategorisierbarkeit 40 f. Kaufpreisallokation 240 f. Key Performance Indicators 30, 32 f., 345 Komplexität 10 f., 20, 31 f., 48 ff., 69, 72, 75, 85, 88 f., 147, 187, 202, 208, 275, 308 f., 324, 373, 387, 391 ff., 395 ff., 437, 442, 444 Kontrollsystem, internes 23, 25, 33 f., 89, 108, 186, 206, 216
M M&A o Mergers & Acquisitions Make or Buy 68 f., 76 Marke 189 f., 232 f., 242, 252, 262 ff. MARKOWITZ-Modell 417 ff. Medien 387, 391 Mergers & Acquisitions 25, 154, 162, 179 ff., 184 f., 187, 190, 192, 398 Meta Asset 423 Mission 97 f., 104, 148, 150 ff., 182 f. Mittelstand 251 f., 256, 261 ff. Modularisierbarkeit 40, 42, 48 f.
N Nearshore 63 ff., 71 ff. Netzwerk 51 ff. Normierbarkeit 40, 42, 46 f.
O Offshoring 63, 73 ff., 135, 167 Optimierung 85, 92 ff., 139, 207, 325 f., 331 ff., 417, 424, 436 Organisation 7 ff., 92, 148 ff., 154 f., 202, 208, 213 ff., 237 f., 441 Outsourcing 29, 64, 68 ff., 94, 132, 134 f., 154, 160, 167, 171, 183
P Patent 189, 230 f., 252, 263 ff. Perspektive, systemische 9 Planung, multiple 333, 339, Top-down 155, 435 f., 437, 441 Bottom-up 155, 436 f., 441
Stichwortverzeichnis
Planungsprozess 155, 325 f., 430 ff. Preisbildung 313, 357 f., 362 f., 366 ff. Prinzipal-Agenten-Konflikte 251, 257
Q Qualitätsverbesserung 24, 28
R Rating-Agenturen 323, 344 Real Estate Investment Trust 418, 421 Referenzmodell 86, 90, 95, 108, 118 ff. REIT ĺ Real Estate Investment Trust Risikocontrolling 90, 387 f., 400 ff. Risikoidentifikation 405 ff. Risikomanagement 89 f., 132, 184, 198, 200, 203, 206, 211, 387, 400 f. Risikomaß 417
459
T Tabellenkalkulationsprogramm 284 f., 294, 430, 438 TIME-Branche 387 ff., 400 ff. Tool-Evaluierung 441 Transition-Prozess 30 f. Transparenzrichtlinie-Umsetzungsgesetz 288 TUG ĺ Transparenzrichtlinie-Umsetzungsgesetz
U Underpricing 351 f., 362 ff. Unternehmensplanung, integrierte 323, 332 f., 346, 429 f., 438 Unternehmenswertorientierung 323, 330 US Securities and Exchange Commission 200, 285 f., 289 ff.
S
V
SAP 20, 24, 131, 148, 339 ff., 442 Sarbanes Oxley-Act of 2002 5, 23, 130, 186, 293 Schlüsselkompetenz 11, 15 SEC ĺ US Securities and Exchange Commission Shared-Accounting-Service 19 ff. Shared-Accounting-Service-Center 19 ff. Shared-F&A-Service 39 ff. Shared-F&A-Service-Center 40 f., 44 ff. Shared-Service-Center 35 f., 68, 70, 134 f., 154, 160 f., 293 Sitzungsmanagement 90, 92, 115 Skandia-Navigator 236 f., 242 Stakeholder-Relationship-Management 323, 344 f. Standardisierbarkeit 40, 42, 44 ff., 283 Standardisierung 24, 28 f., 41 ff., 108, 132 f., 154, 162 ff., 229, 444 f., durch XBRL 281, 288, 291 ff. Strategie 12 ff., 69 ff., 96, 103, 116, 118, 147 ff., 151 ff., 182, 187 ff., 197, 202, 243, 339, 387, 393 f., 401, 417 ff. Strategieentwicklung 147 f., 152 f. Strategy Map 156 Synergien 21, 35, 46, 52, 118, 151, 214, 221 f., 390, 394 System 6 ff., 116, 392, 395 ff., 400 ff.
Venture Capital 251 f., 259 ff. Verfahren, kapitalwertorientiertes 233, 241, kostenorientiertes 234, 241, marktpreisorientiertes 232 f., 241 Vision 76, 97 f., 104, 148, 150 ff., 182 f., 289 ff. Vermögensgegenstände, immaterielle 166, 232 ff., 237 f., 251 ff., 264 ff. Vermögenswerte, immaterielle ĺ Vermögensgegenstände, immaterielle Virtualisierungsverbund 51, 56 f.
W Wertschöpfungskette 39, 54, 180, 189 f., 198, 200 ff., 214, 217 ff., 229, 254, 391 ff., globale 198, 200 Wettbewerbsfähigkeit 22 ff., 57, 197 f., 201, 207, 242 Wirklichkeitskonstruktion 11 Wirtschaftsskandal 5 Wohnungsunternehmen 303, 307 ff. Workflow 116, 121, 134, 165, 436 f. Working Capital 325 ff., 337, 341, 346
460
X XBRL ĺ eXtensible Business Reporting Language eXtensible Business Reporting Language 281 ff.
Z Zeichnungsgewinn 351, 356 ff. Zertifizierungsprozess 198, 200, 206 ff. Zollkontrolle 198, 200 ff. Zollrecht 198 ff., 202, 204 ff., 214 Zollrechtliche Bewilligung ĺ Bewilligung Zugelassener Wirtschaftsbeteiligter ĺ Authorized Economic Operator Zusammenarbeit mit dem Business 154, 161 ZWB ĺ Authorized Economic Operator
Stichwortverzeichnis