Dependenz und Valenz Dependency and Valency HSK 25.1
≥
Handbücher zur Sprach- und Kommunikationswissenschaft Handbooks of Linguistics and Communication Science Manuels de linguistique et des sciences de communication Mitbegründet von Gerold Ungeheuer (†) Mitherausgegeben 1985⫺2001 von Hugo Steger
Herausgegeben von / Edited by / Edite´s par Herbert Ernst Wiegand Band 25.1
Walter de Gruyter · Berlin · New York 2003
Dependenz und Valenz Dependency and Valency Ein internationales Handbuch der zeitgenössischen Forschung An International Handbook of Contemporary Research Herausgegeben von / edited by ´ gel, Ludwig M. Eichinger, Hans-Werner Vilmos A Eroms, Peter Hellwig, Hans Jürgen Heringer, Henning Lobin 1. Halbband / Volume 1
Walter de Gruyter · Berlin · New York 2003
앝 Printed on acid-free paper which falls within the guidelines 앪 of the ANSI to ensure permanence and durability.
ISBN 3-11-014190-6 Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über ⬍http://dnb.ddb.de⬎ abrufbar. ” Copyright 2003 by Walter de Gruyter GmbH & Co. KG, 10785 Berlin, Germany. All rights reserved, including those of translation into foreign languages. No part of this book may be reproduced or transmitted in any form or by any means, electronic or mechanical, including photocopy, recording or any information storage and retrieval system, without permission in writing from the publisher. Printed in Germany Typesetting: META-Systems GmbH, Wustermark Binding: Lüderitz & Bauer-GmbH, Berlin Coverdesign: Rudolf Hübler, Berlin
Inhalt / Contents 1. Halbband / Volume 1 Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Preface . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
I.
1. 2. 3. 4. 5. 6. 7.
Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften The Dependency and Valency Paradigm in the Arts and Sciences Klaus Mainzer, Das Abhängigkeitskonzept in den Wissenschaften . . . . Stefan Pongo´, Die Wertigkeitsmetapher . . . . . . . . . . . . . . . . . . . . Kurt Otto Seidel, Valenzverwandte Ansätze in der Antike . . . . . . . . . Lauri Seppänen, Mit der Valenz verwandte Begriffe im Mittelalter: ein Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Jonathan Owens, Valency-like Concepts in the Arabic Grammatical Tradition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dieter Cherubim, Valenzverwandte Ansätze in Humanismus und Aufklärung: ein Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Klaus Mudersbach, Mathematische und logische Rekonstruktion des Abhängigkeits- und Valenz-Konzepts . . . . . . . . . . . . . . . . . . . . . .
II.
Lucien Tesnie`re und seine Zeit Lucien Tesnie`re and his Times
8. 9. 10.
Jean Fourquet, Lucien Tesnie`re. Ein Zeugnis 1933⫺1993 . . . . . . Hans Jürgen Heringer, Lucien Tesnie`re. Sein Leben . . . . . . . . . . John Ole Askedal, Das Valenz- und Dependenzkonzept bei Lucien Tesnie`re . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bernhard Engelen, Die Wortartenlehre bei Lucien Tesnie`re . . . . . Gerd Wotjak, Zu Tesnie`res Semantikkonzept . . . . . . . . . . . . . . Edeltraud Werner, Das Translationskonzept Lucien Tesnie`res . . . Hans Jürgen Heringer, Die Junktionstheorie Lucien Tesnie`res . . . Richard Waltereit, Negation und Frage bei Lucien Tesnie`re . . . . . Peter Koch, Metataxe bei Lucien Tesnie`re . . . . . . . . . . . . . . . . Hans-Werner Eroms, Die Wegbereiter einer deutschen Valenzgrammatik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11. 12. 13. 14. 15. 16. 17.
XI XV
... ... . . . . . . .
. . . . . . .
1 7 14 20 26 32 37
67 70
. . . . . . .
80 100 108 115 129 139 144
...
159
VI
Inhalt / Contents
III.
Dependenz. Grundlagen und Grundfragen Dependency. Basic Principles and Basic Issues
18.
Willy Van Langendonck, The Dependency Concept and its Foundations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Igor Mel’cˇuk, Levels of Dependency Description: Concepts and Problems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pa´l Uzonyi, Dependenzstruktur und Konstituenzstruktur . . . . . . . . . Hans-Werner Eroms, Hans Jürgen Heringer, Dependenz und lineare Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Peter Colliander, Dependenzstruktur und grammatische Funktion . . . Stanley Starosta, Dependency Grammar and Lexicalism . . . . . . . . . Wha-Young Jung, Rektion und Kongruenz in der Dependenzgrammatik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Norbert Bröker, Formal Foundations of Dependency Grammar . . . . . Elisabeth Leiss, Empirische Argumente für Dependenz . . . . . . . . . . . Henning Lobin, Dependenzgrammatik und Kategorialgrammatik . . . . Thomas Michael Groß, Dependency Grammar’s Limits ⫺ and Ways of Extending Them . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19. 20. 21. 22. 23. 24. 25. 26. 27. 28.
IV.
Valenz. Grundlagen und Grundfragen Valency. Basic Principles and Basic Issues
29. 30. 31.
Gisela Zifonun, Grundlagen der Valenz . . . . . . . . . . . . . . . . . . . . Joachim Jacobs, Die Problematik der Valenzebenen . . . . . . . . . . . . Hans-Joachim Meinhard, Ebenen der Valenzbeschreibung: Die logische und die semantische Ebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . Norbert Richard Wolf, Ebenen der Valenzbeschreibung: Die syntaktische Ebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rüdiger Harnisch, Ebenen der Valenzbeschreibung: die morphologische Ebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Christina Gansel, Valenz und Kognition . . . . . . . . . . . . . . . . . . . . Viktor S. Xrakovskij, Valenz und Sprachtypologie . . . . . . . . . . . . . . Charles Fillmore, Valency and Semantic Roles: the Concept of Deep Structure Case . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Klaus Welke, Valenz und semantische Rollen: das Konzept der ThetaRollen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Marcel Vuillaume, Valenz und Satzbauplan . . . . . . . . . . . . . . . . . . Henrik Nikula, Valenz und Pragmatik . . . . . . . . . . . . . . . . . . . . .
32. 33. 34. 35. 36. 37. 38. 39.
V.
Dependenzielle Theorien Dependency Theories
40. 41. 42. 43.
Richard Hudson, Word Grammar . . . . . . . . . . . . . . . . . Stanley Starosta, Lexicase Grammar . . . . . . . . . . . . . . . Sylvain Kahane, The Meaning-Text Theory . . . . . . . . . . . Eva Hajicˇova´, Petr Sgall, Dependency Syntax in Functional Generative Description . . . . . . . . . . . . . . . . . . . . . . . .
170 188 230 247 263 270 282 294 311 325 331
352 378 399 404 411 422 444 457 475 484 499
....... ....... .......
508 526 546
.......
570
Inhalt / Contents
44. 45. 46. 47. 48. 49. 50. 51.
Peter Hellwig, Dependency Unification Grammar . . . . . . . . . . . . . Klaus Schubert, Metataxe: ein Dependenzmodell für die computerlinguistische Praxis . . . . . . . . . . . . . . . . . . . . . . . . . . . Karel Oliva, Dependency, Valency and Head-Driven Phrase-Structure Grammar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Srinivas Bangalore, Aravind K. Joshi, Owen Rambow, Dependency and Valency in Other Theories: Tree Adjoining Grammar . . . . . . . . . . . Dan Maxwell, The Concept of Dependency in Morphology . . . . . . . Henning Lobin, Konzeptuelle Semantik als dependenzielle Theorie . . . Wolfgang Menzel, Semantische Netze und Dependenzgrammatik . . . . Claudia Villiger, Dependenzielle Textmodelle . . . . . . . . . . . . . . . . .
VI.
Valenz: Schwerpunkte der Forschung Valency: Core Research Areas
52. 53. 54. 55. 56. 57. 58. 59. 60.
Marja Järventausta, Das Verb als strukturelles Zentrum des Satzes . . . Irma Hyvärinen, Der verbale Valenzträger . . . . . . . . . . . . . . . . . . . Angelika Storrer, Ergänzungen und Angaben . . . . . . . . . . . . . . . . . Marja Järventausta, Das Subjektproblem in der Valenzforschung . . . . Heinz Vater, Valency Potency and Valency Realization . . . . . . . . . . Fritz Pasierbsky, Toward a Classification of Complements . . . . . . . . Kjell Johan Sæbø, Valency and Context Dependence . . . . . . . . . . . . Wolfgang Teubert, Die Valenz nichtverbaler Wortarten: das Substantiv Thomas Michael Groß, The Valency of Non-Verbal Word Classes: the Adjective . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gertrud Gre´ciano, Probleme der Valenz in der Phraseologie . . . . . . . .
61.
2. Halbband (Überblick über den vorgesehenen Inhalt) / Volume 2 (Preview of Contents) VII.
Grammatische Phänomene unter Dependenz- und Valenzgesichtspunkten Grammatical Phenomena as Seen from Dependency and Valency Viewpoints
62.
Ludwig M. Eichinger, Wortstellung: die verbalen Teile ⫺ Interne Valenzen und Klammerhierarchie Ursula Hoberg, Wortstellung: valenzgebundene Teile und Positionspräferenzen Erwin Koller, Wortstellung: textfunktionale Kriterien John Ole Askedal, Infinitivkonstruktionen Wilhelm Oppenrieder, Subjekt- und Objektsätze Henrik Nikula, Unpersönliche Konstruktionen Renate Pasch, Adverbial- und Relativsätze Eva Breindl-Hiller, Präpositionalphrasen Josef Schmid, Die „freien“ Dative Roman Sadzin´ski, Konversen und Diathesen
63. 64. 65. 66. 67. 68. 69. 70. 71.
VII
593 636 660 669 678 684 691 703
717 738 764 781 794 803 814 820 835 843
VIII
72. 73. 74. 75. 76. 77. 78.
Inhalt / Contents
Henning Lobin, Koordination in Dependenzgrammatiken Wilfried Kürschner, Negation in Dependenzgrammatiken Thomas A. Fritz, Modalität in Dependenzansätzen Hans-Werner Eroms, Diskurspartikeln und Modalwörter Jürgen Erich Schmidt, Serialisierung in der Nominalphrase Stefan Schierholz, Flexion in der Nominalphrase Ludwig M. Eichinger, Dependenz in der Wortbildung
VIII. Dependenz in der maschinellen Sprachverarbeitung Dependency in Computer-Based Language Processing 79. 80. 81.
Peter Hellwig, Parsing with Dependency Grammars Helmut Horacek, Generierung mit Dependenzgrammatiken Klaus Schubert, Maschinelle Übersetzungen mit Dependenzgrammatiken
IX.
Dependenz und Valenz in der kontrastiven Linguistik Dependency and Valency in Contrastive Linguistics
82.
Marja-Leena Piitulainen, Dependenz und Valenz in der kontrastiven Syntax: ein Überblick Rudolf Emons, Kontrastive Fallstudie: Deutsch ⫺ Englisch Albrecht Plewnia, Kontrastive Fallstudie: Deutsch ⫺ Französisch Teresa Bianco, Kontrastive Fallstudie: Deutsch ⫺ Italienisch Christian Fandrych, Kontrastive Fallstudie: Deutsch ⫺ Spanisch Norbert Nübler, Kontrastive Fallstudie: Deutsch ⫺ Russisch Christoph Schatte, Kontrastive Fallstudie: Deutsch ⫺ Polnisch Ulrich Engel, Kontrastive Fallstudie: Deutsch ⫺ Serbisch/Kroatisch Emilia Baschewa-Monova, Kontrastive Fallstudie: Deutsch ⫺ Bulgarisch Sperant¸a Sta˘nescu, Kontrastive Fallstudie: Deutsch ⫺ Rumänisch Siamak Mohadjer-Ghomi, Kontrastive Fallstudie: Deutsch ⫺ Persisch Irma Hyvärinen, Kontrastive Fallstudie: Deutsch ⫺ Finnisch Jan Daugaard, Contrastive Case Study: German ⫺ Danish Peter Bassola, Kontrastive Fallstudie: Deutsch ⫺ Ungarisch Abdesrazzaq Msellek, Kontrastive Fallstudie: Deutsch ⫺ Arabisch Han Wanbeng, Kontrastive Fallstudie: Deutsch ⫺ Chinesisch Susumu Zaima, Kontrastive Fallstudie: Deutsch ⫺ Japanisch Lie Kwang-Sook, Mi-Kyung Hong, Kontrastive Fallstudie: Deutsch ⫺ Koreanisch
83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. 94. 95. 96. 97. 98. 99.
X.
Das Valenzkonzept in der Grammatikographie The Valency Concept in Grammaticographical Studies
100.
Ulrich Engel, Das Valenzkonzept in der Grammatikographie: ein Überblick Dorothea Kobler-Trill, Anita Schilcher, Das Valenzkonzept in Referenzgrammatiken: deutsche Schulgrammatiken und Sprachbücher
101.
Inhalt / Contents
102. 103. 104.
Karl-Ernst Sommerfeldt, Das Valenzkonzept in Referenzgrammatiken: Gebrauchsgrammatiken Elke Hentschel, Das Valenzkonzept in Referenzgrammatiken: Handbuchgrammatiken Maria Thurmair, Das Valenzkonzept in Referenzgrammatiken: Grammatiken für Deutsch als Fremdsprache
XI.
Das Valenzkonzept in der Lexikographie The Valency Concept in Lexicography
105.
Jaqueline Kubczak, Valenzinformationen in allgemeinen einsprachigen Wörterbüchern Peter Bassola, Valenzinformationen in allgemeinen zweisprachigen Wörterbüchern Helmut Schumacher, Deutschsprachige Valenzwörterbücher Winfried Busse, Valenzwörterbücher in anderen Sprachen Ludwig M. Eichinger, Kontrastive zweisprachige Valenzwörterbücher
106. 107. 108. 109.
XII.
Das Valenzkonzept in der Sprachgeschichtsforschung: ausgewählte Bereiche The Valency Concept in Research into the History of Language: Selected Areas
110. 111. 112. 113. 114. 115. 116. 117.
Hans Jürgen Heringer, Prinzipien des Valenzwandels Jarmo Antero Korhonen, Valenzwandel am Beispiel des Deutschen Albrecht Greule, Historische Fallstudie: Althochdeutsch Hans-Joachim Solms, Historische Fallstudie: Mittelhochdeutsch Jarmo Antero Korhonen, Historische Fallstudie: Frühneuhochdeutsch Rosemarie Lühr, Historische Fallstudie: Altsächsisch Herbert Schendl, Historische Fallstudie: Alt- und Mittelenglisch Peter Stein, Claudia Benneckenstein, Historische Fallstudie: Altfranzösisch Tama´s Forga´cs, Historische Fallstudie: Altungarisch
118.
XIII. Das Valenzkonzept in weiteren Forschungsbereichen The Valency Concept in Other Areas of Research 119. 120. 121. 122.
Franz Simmler, Varietätenlinguistik: Fachsprachen Bernhard Sowinski, Varietätenlinguistik: Sprache der Literatur Franz Patocka, Varietätenlinguistik: Dialekte Heidrun Gerzymisch-Arbogast, Valenz und Übersetzung
IX
Vorwort Zielsetzungen Neben der generativen Grammatik, die zunächst den Satz als rekurrente Anwendung gleicher Regelteile konstitutionell aufgebaut und im Bedarfsfall umgeordnet angesehen hat, haben sich etwa zur gleichen Zeit, in den fünfziger Jahren, andere Konzeptionen entwickelt, die stärker auf die funktionale Seite des Satzes abgestellt waren. Denn nicht nur die gesamte linguistische Tradition, auch die neueren formalen Theorien fordern eine funktional erklärende, der Bedeutung der Sätze gerecht werdende Konzeption. Solchen Anforderungen werden unter den neueren grammatischen Konzeptionen die Dependenz- und Valenztheorien gerecht. ‘Dependenz’ als grammatisches Konzept, das die gerichtete Verkettung von Wörtern zum Ausgang nimmt, und ‘Valenz’ als komplementäre Annahme, dass Wörter Leerstellen um sich eröffnen, die zu füllen sind, haben sich als fruchtbare grammatische Ansätze erwiesen, mit denen die Grundstruktur von Sätzen und auch die Ausbaumöglichkeiten erfasst werden können. Ansätze zu solchen Sichtweisen sind an verschiedenen Stellen entwickelt worden, besonders im deutschen und französischen Bereich. Im letzteren ist das Werk von Lucien Tesnie`re, Ele´ments de Syntaxe Structurale von 1959, ein methodischer Entwurf, in dem sowohl ‘Valenz’, als syntaktisches Grundprinzip, insbesondere des Verbs, und ‘Dependenz’ als syntaktisches Steuerungsprinzip, in einer Weise verbunden sind, mit der strukturalistische, und darin von der ‘Bedeutung’ von Sätzen weitgehend abstrahierende Ansätze deutlich überschritten werden. Die Rezeption dieses Ansatzes, Eigenentwicklungen auf der Basis vergleichbarer Annahmen und gegenseitige Beeinflussung haben zu einer inzwischen weitverzweigten Forschungslage geführt. Das Handbuch gibt einen Überblick über den Stand der Forschung, aus dem zweierlei deutlich wird: Einerseits sind die Grundannahmen von Dependenz und Valenz in ihrer Einfachheit und Stringenz Prinzipien, die wesentliche Einsichten über die Struktur des Satzes ermöglichen. Darin sind sie auch von eminent praktischer Bedeutung. Die einzelsprachliche und die kontrastive Linguistik haben eine Fülle von Arbeiten, vor allem Kompendien und Handbücher hervorgebracht, mit denen die Syntax ihren zentralen Platz in der Grammatik rechtfertigt. Das zweite ist, dass die genannten Prinzipien auch in grammatischen Theorien, die zunächst anders aufgebaut waren, eine Rolle spielen. Von der allgemeinen Syntax, in der Fremdsprachenforschung und -praxis und in der Computerlinguistik werden Elemente der Valenzkonzeption und der Dependenztheorie genutzt. Mit den Grundprinzipien können so gut wie alle grammatischen Phänomene dargestellt werden. Es werden ebenso theoretische Linguisten angesprochen wie Praktiker aus allen linguistischen Sparten, insbesondere Lehrende des Mutter- und Fremdsprachenunterrichts sowie an der linguistischen Datenverarbeitung Interessierte.
Aufbau des Handbuchs Das Handbuch stellt im ersten Teilband zunächst die wissenschaftsgeschichtlichen Voraussetzungen der Konzeptionen dar und behandelt sodann die einzelnen Theorie-
XII
Vorwort
teile ausführlich. Theorie und Empirie wird gleichermaßen Rechnung getragen. Das Kapitel I stellt die Idee und die Ausarbeitungsmöglichkeiten der Abhängigkeit und der Valenz in einem weiteren wissenschaftstheoretischen und wissenschaftsgeschichtlichen Rahmen vor. Es verfolgt zunächst den Gedanken der Abhängigkeit in Mathematik, Logik und Naturwissenschaften, sodann den Weg der Grundidee über die Ausbildung der Wertigkeitsmetapher in die Geisteswissenschaften und insbesondere in die Grammatik. Das Kapitel II ist dem eigentlichen Begründer der Valenzlehre, Lucien Tesnie`re, gewidmet. Es behandelt seinen Ansatz wissenschaftsgeschichtlich und bringt ihn in den Zusammenhang seiner wissenschaftlichen Biographie. Darüber hinaus werden die Komponenten der Tesnie`reschen Theorie in Einzelbeiträgen dargestellt und expliziert. Nach einer Würdigung der Persönlichkeit Tesnie`res und seiner Tätigkeiten als Lehrer und Forscher wird sein grammatisches System in den Grundzügen beschrieben und die einzelnen Bausteine der Tesnie`reschen Theorie werden dargestellt. Den Schluss des Kapitels bildet ein Abschnitt, der den Auffassungen über Wertigkeiten und den sich daraus ergebenden Konsequenzen für die Grammatik in der neueren germanistischen Tradition nachgeht. Das Kapitel III hat die Funktion, die Grundlagen des Dependenzbegriffes darzustellen und die mit diesem Ansatz verbundenen Grundfragen zu diskutieren. Zunächst erfolgt eine Grundlegung von ‘Dependenz’ als grammatikologisches Konzept. Hier werden die Reichweite des Abhängigkeitsbegriffs und die sich daraus ergebenden Konsequenzen für die Grammatikschreibung dargestellt. Sodann erfolgt die für dieses Kapitel besonders wichtige Gegenüberstellung der Begriffe der Dependenz und der Konstituenz, weiter das Verhältnis von dependenzieller Struktur und linearer Ordnung. Die oft behauptete, aber selten im einzelnen dargelegte enge Beziehung zwischen Dependenzgrammatik und Kategorialgrammatik ist Gegenstand eines Artikels. Das Kapitel wird abgeschlossen mit einer Diskussion der Grenzen dependenzieller Systeme und der Darstellung einiger bereits vorgeschlagener Erweiterungen. Das Kapitel IV klärt die grundlegenden Annahmen der Valenztheorie und zeigt die Reichweite des Valenzbegriffes auf. Zunächst wird auf dem Hintergrund der Forschung „Valenz” als allgemeine Eigenschaft von Wörtern, Leerstellen um sich zu eröffnen, bestimmt. An der Valenz des Verbs werden exemplarisch wesentliche Eigenschaften dieser Bindungskapazitäten der Wörter erarbeitet und in ihren Auswirkungen auf die Syntax verfolgt. Andere Wortarten werden einbezogen. In der Forschung hatte sich frühzeitig gezeigt, dass eine genaue Bestimmung der Ebenen, auf denen sich die Steuerungseigenschaften der Wörter, insbesondere des Verbs niederschlagen, nötig ist. Generell werden die Valenzschichtungen beschrieben, wobei das zunächst als einheitlich erscheinende Phänomen der Valenz differenziert und problematisiert wird. Es wird die Kognitionsforschung einbezogen und die Sprachtypologie. Ebenfalls ein universales Raster betrifft das Konzept der ‘Tiefenkasus’ (Kasusrollen, Theta-Rollen), das derzeit in allen gängigen semantischen und syntaktischen Theorien einen zentralen Platz einnimmt. In den folgenden Artikeln werden die ‘Tiefenkasus’ aus der Sicht der Valenzlehre behandelt, d. h. es wird die Kompatibilität mit bzw. die Redundanz zu den durch Valenz geforderten Aktanten und den Circonstanten in Rechnung gestellt. Weiter werden Satzmodelle und pragmatische Aspekte behandelt. Kapitel V gibt zunächst einen Überblick über die grammatischen Theorien, die ganz oder zu Teilen dependenzbasiert sind. Sodann werden Aus- und Einwirkungen dependenzieller Grundannahmen für nichtsyntaktische Komponenten der Grammatik disku-
Vorwort
XIII
tiert. Im einzelnen werden folgende Ansätze behandelt: Die Word Grammar, die Lexicase Grammar, das Meaning-Text-Modell, die Functional Generative Description, die Dependenzielle Unifikationsgrammatik. Die Reichweite des Dependenzprinzips als Ordnungsrelation und Strukturierungsmöglichkeit führt zu teilweise völlig neuen Einsichten und hat Auswirkungen auf benachbarte Teiltheorien und grammatische Gesamtkonzeptionen. Kapitel VI hat die in der modernen Valenzforschung am häufigsten thematisierten und am intensivsten diskutierten Probleme zum Gegenstand. Besonderes Gewicht liegt auf denjenigen Fragen, die den theoretischen Anspruch der Valenzforschung als einer lexikonbasierten grammatischen Teiltheorie begründen, unter anderem die Frage des Zentralregens, die grundlegende Unterscheidung zwischen Ergänzungen und Angaben, das Subjektsproblem und die Valenz bei anderen Wortarten und in der Phraseologie. Der zweite Teilband beginnt mit einer ausführlichen Darstellung grammatischer Phänomene unter Dependenz- und Valenzgesichtspunkten. Die Nutzung von Dependenz und Valenz in der maschinellen Sprachverarbeitung schließt sich daran an. Die restlichen Kapitel behandeln die kontrastive Linguistik, die Grammatikographie, die Lexikographie, die historische Linguistik und weitere linguistische Forschungsbereiche, in denen Dependenz und Valenz von Wichtigkeit sind. Kapitel VII zeigt Folgendes: Die dependenziellen Verhältnisse, welche von der Valenz des Verbs herzuleiten sind, müssen sich als Instruktionen in der syntaktischen Kodierung wiederfinden. Die Artikel dieses Kapitels behandeln unter anderem Stellungsmuster des Deutschen, besonders die Satzklammer, Infinitivkonstruktionen, Subjekt- und Objektsätze, unpersönliche Konstruktionen, die sogenannten freien Dative, das Passiv und andere Diathesen und die Negation. Weitere Schwerpunkte sind die Modalität, Diskurspartikeln und Modalwörter sowie die Nominalphrasen und die Wortbildung. Kapitel VIII behandelt die Anwendung des dependenzgrammatischen Ansatzes im Rahmen der Computerlinguistik. Das Kapitel beginnt mit einer Darstellung der grundsätzlichen Aufgaben eines Parsers und gängiger Verfahren bei der Erzeugung von Dependenzstrukturen. Es folgen vertiefende Artikel zu ableitungs- und valenzbasierten Parsern. Weitere zentrale Anwendungsbereiche der Dependenzgrammatik liegen in der Entwicklung und Funktion maschineller Übersetzungssysteme und der maschinellen Erkennung gesprochener Sprache. In Kapitel IX wird zunächst ein Überblick gegeben, welche Rolle Valenz und Dependenz in kontrastiven Darstellungen spielen und welche spezifische Ausformung generelle Annahmen und Probleme kontrastiver Behandlung hier finden. In den weiteren Artikeln dieses Teils wird die in diesem Bereich für verschiedene Sprachpaare im Vergleich mit dem Deutschen geleistete Arbeit dargestellt, systematisiert und vorhandene Beschreibungen werden ausgebaut. In allen diesen Artikeln wird von einem dependenziellen Rahmen ausgegangen. Die verbale Valenz steht im Vordergrund. Die Artikel sind einheitliche abhängigkeitsgrammatische Sprachvergleiche. Kapitel X belegt, in welcher Weise der Valenzbegriff in die Grammatikschreibung aufgenommen worden ist. Zunächst erfolgt ein Überblick, in dem unter anderem gezeigt wird, dass derzeit so gut wie alle Grammatiken in irgendeiner Weise valenzbasiert sind. Sodann werden sogenannte Schulgrammatiken daraufhin untersucht, in welcher Weise die Valenz aufgenommen, motiviert und u. a. zur Beschreibungsvereinfachung genutzt wird. Analoge Fragestellungen, abgestimmt auf die jeweilige Zwecksetzung, werden für Gebrauchsgrammatiken, grammatische Handbücher und Grammatiken für den Unterricht in Deutsch als Fremdsprache angegangen.
XIV
Vorwort
Im Kapitel XI werden die Voraussetzungen und die Ergebnisse valenzlexikologischer Unternehmungen dargestellt und zwar in ein- und zweisprachigen Wörterbüchern sowie in für die DaF-Praxis entworfenen kontrastiven zweisprachigen Valenzwörterbüchern. Kapitel XII hat die historische (synchrone wie diachrone) Dimension der Valenzforschung zum Gegenstand, zunächst den allgemeinen Valenzwandel. Danach folgt eine Reihe von historischen Fallstudien. Kapitel XIII schließt das Handbuch ab und stellt verschiedene Bezüge zu anderen linguistischen Forschungsbereichen her, in denen das Konzept der Valenz bereits eine Rolle gespielt hat, unter anderem zur Varietätenlinguistik und zur Übersetzungswissenschaft.
Dank Unser Dank gilt den Autoren der Artikel, die zum Teil eine längere Wartezeit in Kauf genommen haben, dem Verlag für die hervorragende Betreuung und exzellente Gestaltung des Bandes, schließlich den Helfern und Helferinnen in Passau, Maurice Flatscher, Katrin Flexeder, Carina Hofmann, Guta Rau, Thomas Stolz und Imelda Wagner, ohne deren Einsatz der Band nicht fertig geworden wäre. Vilmos A´gel, Szeged Ludwig M. Eichinger, Mannheim Hans-Werner Eroms, Passau Peter Hellwig, Heidelberg Hans Jürgen Heringer, Augsburg Henning Lobin, Gießen
Preface Goals of the Handbook In addition to generative grammar, which viewed the sentence as being constituted, in the first place, by a recursive use of the same regular structures that could, when necessary, be rearranged, other conceptions were developed at about the same time, during the fifties, which laid greater emphasis on the functional side of the sentence. For it is not just the whole of traditional linguistic theory, but, equally, the more recent formal theories which demand a conception of the sentence that both explains its function and does justice to its meaning. Amongst the more recent grammatical conceptions, dependency and valency theories meet such demands extremely well. “Dependency”, as a grammatical concept which assumes that words are arranged in meaningfully interconnected chains, as well as “valency”, describing the complementary assumption that words open up slots around themselves which need to be filled, have proved to be fruitful grammatical approaches to comprehending the basic structure of sentences and to grasping the ways in which the latter can be extended. Such theoretical approaches have been developed in various places, in particular by linguists in the German and French-speaking world. It is from the latter that Lucien Tesnie`re’s “Ele´ments de Syntaxe Structurale” originates, a work published in 1959. Tesnie`re’s methodological stance is to link “valency” as the basic syntactical principle, especially for the verb, and “dependency” as the governing principle of syntax in a way that clearly transcends structuralist theories or theories which are largely removed from the “meaning” of sentences. The reception of Tesnie`re’s ideas, together with independently developed theories based on comparable assumptions, and the mutual influence exercised by one on the other, have today combined to create a broad body of research. The handbook provides an overview of the current status of this research, in which two things are demonstrated quite clearly. In the first place, the basic assumptions of dependency and valency represent principles, which, in their simplicity and stringency, offer vital insights into the structure of the sentence. They are thus of eminently practical significance. Both language-specified and contrastive linguistics have produced a wide range of works, above all compendia and handbooks, in which the central roˆle taken by syntax in grammar has been justified. In the second place, the above-mentioned principles also play a part in grammatical theories, which were originally based on different premises. Elements taken from the valency conception and dependency theory are used by general syntax, in foreign-language research and practice and in computer linguistics. The basic principles can be used to depict virtually every grammatical phenomenon. Theoretical linguists will find this handbook just as useful as practitioners in all the various fields of linguistics, in particular both native-language and foreign-language teachers and all those interested in the linguistic side of data processing.
XVI
Preface
Contents In its first volume, the handbook begins by presenting the historical background of the theories in which the conceptions are rooted and then goes on to deal in detail with the individual elements of the theory. Equal consideration is given to theoretical and empirical work. Chapter I introduces the concepts of dependency and valency, together with the opportunities for further elaborating these ideas, in the wider context of academic theory and the history of ideas. It begins by tracing the concept of dependency in mathematics, logic and the natural sciences. It then goes on to trace the course taken by the basic concept, via the elaboration of the valency metaphor, as it was adopted in the arts and, in particular, in the study of grammar. Chapter II is devoted to the founder of valency theory proper, Lucien Tesnie`re. It deals with his theory in the context of the history of ideas and relates it to his academic biography. Over and above this, the components that go to make up Tesnie`re’s theory are elaborated and elucidated in separate articles. After Tesnie`re’s biographical history, as well as his activities as a teacher and his research work have been assessed, the basic characteristics of his grammatical system are described, and the individual elements on which Tesnie`re’s theory is built are portrayed. The chapter concludes with a section, which explores the various views on valencies and the consequences that the latter have had on grammar in recent German studies. In Chapter III, the object is to describe the basic principles of the dependency concept and to discuss the basic issues involved with this theoretical approach. To begin with, a basic definition of “dependency” as a concept belonging to grammaticographical theory is undertaken: the scope of the dependency concept and the resulting consequences for grammatical studies are portrayed. The following articles deal with a central issue in this chapter, namely the confrontation of the two concepts dependency and constituency, and with the problems concerning the relationship between dependency structures and linear organisation. Furthermore the close relationship between dependency grammar and categorial grammar, a link that has been often posited, but seldom depicted in detail, is looked into. The chapter concludes with a discussion of dependency systems’ limits and a description of some of the ways that have been suggested to date to extend them. Chapter IV clarifies what the fundamental premises in valency theory are and demonstrates the scope of the valency concept. It begins by defining “valency”, against the background of the body of research work, as the general property of words to open up slots around themselves. The essential features pertaining to words’ capacity to bind are demonstrated, using the valency of the verb as a classic example, and the effects of this on syntax are pursued. Other categories of words are also included. Research demonstrated at an early stage the importance of determining at precisely what levels words, especially verbs, unfold their governing properties. The layers on which valency operates are described generally, whilst distinctions are drawn, and questions raised, that cast new light onto the, at first glance, uniform phenomenon of valency. It is an equally universal pattern that is involved with the concept of the “deep structure case” (case roˆles, theta roˆles), which at present occupies a central position in all the current semantic and syntactical theories. In the following articles, the “deep structure cases” are dealt with from the viewpoint of valency theory, i. e. their compatibility with or, as the case may be, redundancy vis-a`-vis the actants and circonstants demanded by valency theory is considered. Furthermore clause models and pragmatic aspects are dealt with.
Preface
XVII
Chapter V begins by providing a “tour d’horizon” over the grammatical theories that are partly or wholly dependency-based. This is followed by a discussion of the impact and influence exerted by basic dependency assumptions on some of the nonsyntactical components of grammar. Each of the following individual approaches is dealt with: word grammar, lexicase grammar, the meaning-text model, functional generative description and“dependency unification grammar”. The scope of the dependency principle as an ordering factor and structuring tool can at times open up entirely new insights and it has an impact on juxtaposing sub-theories and overall grammatical conceptions. Chapter VI focusses on those issues that have been most commonly tackled and most intensively debated in modern valency research. Particular weight is given to those questions upon which rest the theoretical claim propounded by valency research for its being a lexicon-based grammatical sub-theory, for example the question of the central verb (Regens), the fundamental distinction between complements and adjuncts, problems concerning the subject, furthermore valencies of other word classes, and also valencies in phraseology. The second volume begins with a detailed description of grammatical phenomena as seen from dependency and valency viewpoints. This is followed by chapters on the application of dependency and valency concepts in computer-based language processing. The remaining chapters deal with contrastive linguistics, grammaticography, lexicography, historical linguistics and other areas of linguistic research in which dependency and valency play a significant roˆle. Chapter VII shows how the dependency relationships derived from the valency of the verb have to re-emerge as instructions in the syntactical coding. The articles in this chapter are dealing with word orders that are peculiar to the German language, especially the sentence frame, infinitive constructions, subject and object clauses, impersonal constructions, the so-called free datives, the passive voice and other diatheses, as well as negation. Other main issues are modality, as well as discourse particles, modal words, noun phrases and word formations. Chapter VIII treats the application of dependency grammar theory in the context of computer linguistics. The chapter begins with a description of the fundamental tasks performed by a parser and outlines the current processes used to produce dependency structures. This is followed by articles that go into more detail, firstly, on derivationand valency-based parsers. Other key areas in which dependency grammar is used are to be found in the development and running of computer-based translation systems and in computer recognition of the spoken language. In Chapter IX an overview is provided showing the roˆle played by valency and dependency in contrastive studies and indicating what specific form is taken in this area by the general assumptions and problems of contrastive linguistics. The remaining articles in this section describe the work done in this area on various language pairs, in each case German in comparison with another language: the work is systematized and existing descriptions are expanded. All articles take a dependency framework as their point of departure. Verbal valency plays a preeminent roˆle. The articles represent a homogenous series of language comparisons based on dependency grammar. Chapter X illustrates the reception of the valency concept in grammatical studies. To begin with, an overview is presented which shows, among other things, that today virtually all grammars are in some way based on valency. This is followed by an analysis of school grammar books to see how valency is received and motivated in them and used to simplify descriptions. Analogous questions, tailored to the respective object of interest, are addressed in relation to the stan-
XVIII
Preface
dard grammar books, to grammatical handbooks and in relation to the grammar books used to teach German as a foreign language. In Chapter XI, a look is taken at the premises on which efforts to use valency in lexicographical work have been based, together with the results that have been achieved regarding monolingual and bilingual dictionaries, as well as contrastive, bilingual valency dictionaries designed for the teaching of German as a foreign language. Chapter XII examines the historical (synchronic and diachronic) dimension of valency research. Valency changes in general are dealt with, followed by historical case studies. The handbook closes with Chapter XIII, which establishes links with other areas of linguistic research where the valency concept has already played a roˆle, for instance variety linguistics and translation disciplines.
Acknowledgements We extend our deepest thanks to the authors, who took on rather long periods of waiting, to the publishers for their exceptional support and the excellent design of this volume, and last but not least to all our helpers in Passau, Maurice Flatscher, Katrin Flexeder, Carina Hofmann, Guta Rau, Thomas Stolz and Imelda Wagner, without whose efforts this book would not have been finished. Vilmos A´gel, Szeged Ludwig M. Eichinger, Mannheim Hans-Werner Eroms, Passau Peter Hellwig, Heidelberg Hans Jürgen Heringer, Augsburg Henning Lobin, Gießen
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften The Dependency and Valency Paradigm in the Arts and Sciences 1. Das Abhängigkeitskonzept in den Wissenschaften 1. 2. 3. 4. 5. 6.
Logische Abhängigkeit von Begriffen Mathematische Abhängigkeit von Axiomen und Axiomensystemen Maschinelle Abhängigkeit von Regeln und Kalkülen Dependenz und Valenz in den Naturwissenschaften Kausale Abhängigkeit von Ereignisketten Literatur in Auswahl
Das Abhängigkeitskonzept der Wissenschaften bezieht sich nicht nur auf die grammatikalische Verkettung von Wörtern. Es reicht von der logischen Abhängigkeit von Begriffen, Regeln, Sätzen, Axiomen- und Hypothesensystemen bis zur kausalen Abhängigkeit von Atomen, Molekülen, Strukturen, Ereignisketten und dynamischen Systemen. Damit werden methodische Grundlagenfragen der formalen Wissenschaften wie Logik, Mathematik und Informatik, aber auch der empirischen Wissenschaften wie Physik, Chemie und Biologie berührt.
1.
Logische Abhängigkeit von Begriffen
In formalen Sprachen werden Begriffe, Sätze und Axiomensysteme durch Prädikatoren, Formeln und Formelsysteme dargestellt, die aus formalen Zeichen nach formalen Regeln erzeugt werden. Um das logische Abhängigkeitskonzept von Begriffen, Sätzen und Axiomensystemen zu verstehen, muss daher zunächst das Konzept einer formalen Sprache S eingeführt werden. Grundlage ist eine nichtleere Menge (‘Alphabet’) von Grundzeichen, mit denen die wohlgeformten Ausdrücke der formalen Sprache definiert werden. So enthält das Alphabet A der Quantorenlogik 1. Stufe 1) abzählbar viele Individuenvariab-
len x0, x1, x2, …, 2) Individuenkonstanten ci, n-stellige Funktionskonstanten fni und Prädikatenkonstanten Pni als nicht-logische Konstanten, 3) Junktoren (z. B. ∧, ∨ für ‘und’ und ‘oder’), Allquantor ( ) und Existenz quantor ( ) als logische Konstanten, 4) Hilfszeichen wie z. B. Klammern und Komma. Endliche Folgen solcher Grundzeichen heißen Worte über dem Alphabet A. Der Ausdruckskalkül von S legt fest, welche Worte die Terme und die Formeln von S sind. Wenn keine Unklarheiten entstehen, werden die Indizes fortgelassen und bequemere Zeichen verwendet, also z. B. der Term f (x, y) aus der 2-stelligen Funktionskonstanten f und den Individuenvariablen x und y, die Formel P (x) ∧ Q (z) aus den 1-stelligen Prädikatenkonstanten P, Q und den Individuenvariablen x, z. Unter einer zum Alphabet passenden Interpretation stehen Terme für Gegenstände aus einem Objektbereich (z. B. die Menge der natürlichen Zahlen) und Formeln für Aussagen (z. B. wahre oder falsche Aussagen der Zahlentheorie). In diesem Fall wird ein System von Formeln auch (formale) Theorie über den betreffenden Gegenstandsbereich genannt. Ein Grundbegriff einer Theorie T heißt abhängig von den übrigen Grundbegriffen von T, wenn er aus diesen Grundbegriffen nach den Definitionsregeln der Sprache von T definierbar ist. So ist z. B. der Begriff ‘Schimmel’ als weißes Pferd in der Zoologie abhängig von den Begriffen ‘Pferd’ und ‘Weiß’, der Begriff ‘Wasser’ als H2O in der Chemie von den Begriffen ‘H-Atom’ (Wasserstoff) und ‘O-Atom’ (Sauerstoff). In formalen Sprachen werden Grundbegriffe durch Prädikatenkonstanten bzw. Prädikatoren bezeichnet. Allgemein heißt ein k-stelliger Prädikator P (x, …, xk) genau dann definierbar in einer
2
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
Theorie T, wenn es in T eine Formel D mit den folgenden Eigenschaften gibt: 1) die Variablen x1, …, xk sind sämtlich voneinander verschieden, 2) D enthält keine anderen Variablen als x1, …, xk, 3) D enthält außer Grundzeichen und bereits definierten Zeichen der Theorie keine nicht-logischen Konstanten, 4) die Äquivalenz P (x1, …, xk,) ↔ D (bzw. die zugehörige allquantorische Formel) ist in T ableitbar. Ein Grundbegriff einer Theorie T heißt unabhängig von den übrigen Grundbegriffen von T, wenn er nicht aus diesen Grundbegriffen nach den Definitionsregeln der Sprache von T definierbar ist. So sind die Grundbegriffe der euklidischen Geometrie wie z. B. ‘Punkt’ und ‘Gerade’ in der Hilbertschen Formalisierung voneinander unabhängig. Allerdings gibt es kein allgemeines logisches Verfahren, um festzustellen, ob Grundbegriffe einer Theorie voneinander unabhängig sind. Wegen der Unentscheidbarkeit der Quantorenlogik gibt es nämlich kein algorithmisches Verfahren, um für eine beliebige Formel zu entscheiden, ob sie in der Quantorenlogik ableitbar ist oder nicht. Insbesondere gibt es kein allgemeines Entscheidungsverfahren, ob eine beliebige Formel der Bedingung 4) der Definierbarkeit quantorenlogisch ableitbar ist oder nicht. Für die Unabhängigkeit von Grundbegriffen sind daher Definierbarkeitskriterien von besonderem Interesse. Bereits 1900 hatte der italienische Logiker A. Padoa ein Nichtdefinierbarkeitskriterium vorgeschlagen. Es beruht auf der Einsicht, dass ein k-stelliger Prädikator P (x1, …, xk) von den übrigen Prädikatoren einer Theorie T sicher dann unabhängig ist, wenn man zwei Interpretationen I1 und I2 von T finden kann, die beide den gleichen Individuenbereich haben, für alle von P verschiedenen Prädikatoren von T übereinstimmen, aber für mindestens ein Beispiel von Individuenkonstanten c1, … ck die Aussage P (c1, … ck) bei I1 wahr und bei I2 falsch ist.
2.
Mathematische Abhängigkeit von Axiomen und Axiomensystemen
Padoas Kriterium der Unabhängigkeit von Grundbegriffen orientiert sich an einem auf G. Peano zurückgehenden Verfahren, um die Unabhängigkeit der Axiome einer formalen
Theorie festzustellen. Mathematikhistorisch hatte sich die Frage nach der Unabhängigkeit eines Axioms erstmals an dem Problem entzündet, ob das Parallelitätsaxiom aus den übrigen Axiomen der euklidischen Geometrie logisch folgt oder nicht. Historische Beweisversuche des Parallelitätsaxioms führten tatsächlich nur auf mathematisch äquivalente Lehrsätze. So ist z. B. die Aussage, dass es auf einer Ebene durch einen Punkt außerhalb einer Geraden genau eine Parallele gibt, äquivalent damit, dass die Winkelsumme im Dreieck zwei rechte Winkel beträgt. Die Negation des Parallelitätsaxioms führt dann zu den beiden Möglichkeiten, dass es unendlich viele oder keine Parallele durch einen Punkt zu einer Geraden gibt. Äquivalent damit ist die Aussage, dass die Winkelsumme im Dreieck kleiner oder größer als zwei rechte Winkel ist. Ersetzt man das Parallelitätsaxiom jeweils durch eine der beiden Negationsmöglichkeiten, erhält man eine von zwei möglichen nicht-euklidischen Geometrien. Allgemein heißt ein Axiom einer Theorie T genau dann unabhängig von den übrigen Axiomen dieser Theorie, wenn es nicht aus diesen Axiomen logisch folgt. Um zu beweisen, dass das Parallelitätsaxiom nicht aus den übrigen Axiomen der euklidischen Geometrie folgt, wird eine Interpretation der formalen Theorie der Geometrie angegeben, in der das Parallelitätsaxiom nicht gilt, aber alle übrigen Axiome der euklidischen Geometrie wahr sind. Fasst man die euklidischen Axiome als Formeln auf, so sind ihre Grundbegriffe wie z. B. ‘Punkt’, ‘Gerade’, ‘Ebene’ formal nichts anderes als Variablen für Prädikatoren, die wir unterschiedlich interpretieren können. Nach einem Modell von F. Klein werden ‘Punkte’ als die Punkte im Innneren eines fest vorgegebenen Kreises, ‘Geraden’ als die Sehnen dieses Kreises (ohne Eckpunkte) und ‘Ebene’ als das Innere der Kreisscheibe (ohne Randpunkte) interpretiert (Abb. 1a). In diesem Fall gelten alle Axiome der euklidischen Geometrie bis auf das Parallelitätsaxiom: Es gibt nämlich durch einen Punkt im Inneren der Kreisscheibe unendlich viele Kreissehnen, die eine vorgegebene Kreissehne nicht schneiden, d. h. in der Kleinschen Interpretation gibt es unendlich viele ‘Geraden’ durch einen ‘Punkt’, die eine vorgegebene ‘Gerade’ nicht schneiden. Während dieser Unabhängigkeitsbeweis auf die nichteuklidische hyperbolische Geometrie führt, gelangen wir mit folgender Interpretation zur nichteuklidischen sphärischen Geometrie. Als ‘Ebene’ wird die unbe-
3
1. Das Abhängigkeitskonzept in den Wissenschaften
grenzte Oberfläche einer Kugel, als ‘Gerade’ werden die Großkreise (Äquator) der Kugeloberfläche, als ‘Punkte’ diametrale Punktpaare der Kugeloberfläche interpretiert. Wieder gelten (bei geeigneten Änderungen der Anordnungsaxiome) die euklidischen Axiome bis auf das Parallelitätsaxiom: Da alle Großkreise sich in diametralen Punktpaaren schneiden, gibt es diesmal keine ‘Gerade’ (Großkreis) durch einen ‘Punkt’ (diametrales Punktpaar) außerhalb einer vorgegebenen ‘Gerade’ (Großkreis), die diese ‘Gerade’ (Großkreis) nicht schneidet.
Fraenkel) ohne Auswahlaxiom widerspruchsfrei sei, dann ergibt sich eine widerspruchsfreie Theorie sowohl durch Hinzunahme des Auswahlaxioms (nach K. Gödel 1938) als auch durch Hinzunahme der Negation des Auswahlaxioms (nach P. J. Cohen 1963). Dieser Unabhängigkeitsbeweis lässt sich wenigstens als Nachweis der Verträglichkeit des Auswahlaxioms mit der übrigen Mengenlehre und Mathematik auffassen. Allgemein heißt eine Formel unabhängig von einem formalen Axiomensystem, wenn sie von diesem System nicht abhängig ist, d. h. wenn weder die Formel noch ihre Negation aus dem Axiomensystem folgerbar ist. Folgerbarkeit ist ein semantisches Abhängigkeitskonzept und bedeutet, dass jede wahre Interpretation (Modell) des Axiomensystems auch eine wahre Interpretation der gefolgerten Formel ist.
3. Abb. 1.1: Unabhängigkeitsbeweis des Parallelitätsaxioms in der hyberbolischen (a) und sphärischen (b) Geometrie
Im Hilbertschen Formalisierungsprogramm wird die Unabhängigkeit eines formalen Axiomensystems zu einer allgemeinen Forderung. Danach soll kein Axiom aus den übrigen Axiomen eines Axiomensystems folgerbar sein. Andernfalls handelt es sich um einen im Axiomensystem beweisbaren Lehrsatz und das Axiomensystem ist überbestimmt. Unabhängigkeitsbeweise führen heute zu zentralen Grundlagenfragen der modernen Mathematik. Da alle mathematischen Theorien mengentheoretisch formulierbar sind, können sie letztlich auf die (axiomatische) Mengenlehre zurückgeführt werden. Sie ist in diesem Sinn die fundamentale Theorie der Mathematik. Ähnlich wie über das Parallelitätsaxiom in der Geometriegeschichte entstand eine Debatte darüber, ob einzelne umstrittene Axiome der Mengenlehre unabhängig sind oder nicht. Es handelt sich dabei um Axiome, die wie z. B. das Auswahlaxiom zu nicht-abzählbaren und nicht-konstruktiven Mengenbildungen führen. Für nicht-konstruktive Verfahren stellt sich nämlich verschärft das Problem einer widerspruchsfreien Rechtfertigung. Setzt man allerdings (ohne bisher vorliegenden Beweis) voraus, dass die axiomatische Mengenlehre (in der Version von Zermelo-
Maschinelle Abhängigkeit von Regeln und Kalkülen
Davon zu unterscheiden ist die Ableitbarkeit als syntaktisches Abhängigkeitskonzept. Eine Zeichenreihe (z. B. Formel) heißt ableitbar in einem formalen Zeichenkalkül (z. B. formales Axiomsystem), wenn sie durch endlich viele Anwendungen von Regeln des Kalküls hergestellt werden kann. In diesem Sinn lässt sich der 1. und 2. Gödelsche Unvollständigkeitssatz auch als Unableitbarkeitssatz auffassen. Danach beweist der 1. Gödelsche Satz eine syntaktische Unabhängigkeit, nämlich daß für jedes widerspruchsfreie formale Axiomensystem, in dem die Arithmetik repräsentiert werden kann, eine Formel angebbar ist, die ebenso wie ihre Negation im System nicht ableitbar ist. Auch der 2. Gödelsche Satz beweist ein syntaktisches Unabhängigkeitskonzept, dass nämlich unter bestimmten Voraussetzungen eine Formel, mit der die Widerspruchsfreiheit des formalen Systems behauptet wird, nicht im System ableitbar ist. Nicht nur Zeichenreihen, sondern auch Regeln von Kalkülen lassen sich als syntaktische Abhängigkeitskonzepte auffassen. Eine Regel heißt unabhängig von den übrigen Regeln eines Kalküls, wenn sie im Kalkül nicht ableitbar ist. In diesem Fall gibt es mindestens eine Zeichenreihe, die im Kalkül mit dieser Regel ableitbar, aber ohne diese Regel nicht ableitbar ist. Die syntaktische Abhängigkeit von Zeichenreihen und Regeln lässt sich im Prinzip auch von Automaten und Maschinen realisie-
4
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
ren. So können z. B. endliche Automaten Texte und andere sprachliche Informationen verarbeiten. Ein endlicher (deterministischer) Automat besteht aus endlich vielen Inputund Outputkanälen, endlich vielen Zuständen und einem endlichen Speicher. Zwei Regeln geben eindeutig an, wie bestimmte Input- und Zustandszeichen in neue Zustände bzw. Outputzeichen transformiert werden. Ein Beispiel der Informatik sind Compiler, d. h. Programme, die Befehle in einer dem Nutzer verständlichen Programmiersprache in die Maschinensprache eines Computers übersetzen. Der Teil eines Compilers, der jede Zeichengruppe auf ihre Zulässigkeit prüft, heißt lexikalischer Scanner. Durch syntaktische Analyse von Abhängigkeiten unterscheidet ein endlicher Automat eine unendliche Zahl richtig gebildeter Zeichenketten von einer unendlichen Zahl falsch gebildeter. Voraussetzung ist, wie S. C. Kleene 1956 zeigte, dass es sich um eine sogenannte reguläre Sprache handelt. Kurz gesagt ist es bei einer regulären Sprache möglich, alle ihre Worte zu analysieren, indem von links nach rechts ein Symbol nach dem anderen gelesen wird, ohne zurück- oder vorausschauen zu müssen. Die Zulässigkeit eines Zeichens hängt höchstens von dem Zeichen ab, das unmittelbar links von dem zu beurteilenden Zeichen steht. Die Voraussetzung entspricht der Beschränktheit endlicher Automaten, die weder künftige Zustände voraussehen noch sich vergangene merken können, sondern aufgrund ihres momentanen Zustandes und Inputs einen Übergang in den nächsten Zustand wählen. Jenseits der endlichen Automaten und regulären Sprachen gibt es eine Hierarchie stärkerer Maschinen und allgemeiner Sprachen, die N. Chomsky in einer Hierarchie möglicher Modelle für natürliche Sprache geordnet hat. Dazu werden die grammatikalischen Regeln der Sprache gelockert und die Automaten durch Speicherzellen ergänzt. Ein Beispiel ist der Keller-Automat, der kontextfreie Sprachen erkennt, bei denen die Zulässigkeit eines Symbols vom linken und vom rechten Nachbarn abhängt. Hebt man diese Beschränkung auf, so erhält man kontextabhängige Sprachen, bei denen weit auseinanderliegende Symbole miteinander in Beziehung stehen. Solche kontextsensitiven Sprachen werden von linear beschränkten Automaten erkannt, in denen sich jede von endlich vielen Speicherzellen in wahlfreiem Zugriff erreichen lässt.
In regulären, kontext-freien und kontextsensitiven Sprachen kann rekursiv entschieden werden, ob eine Zeichenkombination endlicher Länge zur Sprache gehört oder nicht. Dazu braucht man nur alle Zeichenreihen bis zu dieser Länge zu erzeugen und mit der vorliegenden Zeichenkombination zu vergleichen. Ist diese Forderung nicht erfüllt, werden Maschinen von der Komplexität der Turing-Maschine notwendig. Eine TuringMaschine ist ein endlicher Automat, der freien Zugriff auf einen unbegrenzt großen Speicher hat. Es gibt allerdings komplexe nicht-rekursive Sprachen, deren Zeichenreihen auch eine Turing-Maschine nicht in endlicher Zeit erkennen kann. Programmgesteuerte Computer sind technische Realisationen von universellen Turing-Maschinen. Hier zeigen sich also Grenzen von Computern bei der Bewältigung syntaktischer Abhängigkeiten.
4.
Dependenz und Valenz in den Naturwissenschaften
Die formalen und grammatikalischen Konzeptionen von Dependenz und Valenz haben Vorgänger in den empirischen Wissenschaften. So wie die Ausdrücke formaler Sprachen aus atomaren Bausteinen von Zeichen erzeugt werden, setzen sich auch Stoffe und Strukturen der Natur aus Atomen und Elementarteilchen zusammen. B. Russell sprach deshalb vom logischen Atomismus in Analogie zum Atomismus der Naturwissenschaften. Atomare Dependenz bedeutet, dass Eigenschaften und Wirkungen von Stoffen von ihrer atomaren Zusammensetzung abhängen. Valenz ist ein chemisches Konzept aus dem Periodensystem der Elemente. Gemeint ist damit die Eigenschaft eines Atoms, Ions oder Radikals, sich mit anderen Atomen, Ionen oder Radikalen in definierten Verhältnissen zu kombinieren. Grundlage ist das Periodensystem, in dem die Elemente nach ihrem Atombau und ihren physikalischen und chemischen Eigenschaften angeordnet sind. Atome besitzen einen positiv geladenen Kern, der aus Protonen und Neutronen besteht. Im Bohrschen Atommodell wird der Atomkern von schalenförmigen Bahnen von Elektronen eingeschlossen, die negativ geladen sind. Das gesamte Atom ist nach außen neutral, da die gleiche Anzahl von Protonen und Elektronen über die gleiche, aber entgegengesetzte Ladungseinheit verfügt. Wird dem Atom ein negatives Elek-
5
1. Das Abhängigkeitskonzept in den Wissenschaften
tron entzogen, so überwiegt die Anzahl der positiv geladenen Protonen. In diesem Fall entsteht ein positiv geladenes Atom, das als Ion bezeichnet wird. Das einfachste Atom besteht also aus einem Proton und einem Elektron wie das H-Atom (Wasserstoff). Das nächste Atom verfügt über zwei Protonen und zwei Elektronen etc. Dieses Kombinationsprinzip lässt sich allerdings nicht beliebig fortsetzen, da Atomkerne mit zu vielen Protonen instabil werden und unter Aussendung radioaktiver Strahlung zerfallen. Jedenfalls ist es naheliegend, die empirisch bekannten chemischen Elemente durch ihre verschiedene Protonenzahl zu unterscheiden. Im Periodensystem werden daher alle Elemente mit steigender Protonenzahl in einer Reihe geordnet. Dabei folgen einander besonders ähnliche Elemente in bestimmten Abständen, die als Perioden bezeichnet werden. Es gibt eine sehr kurze Periode mit 2 Elementen, zwei kurze mit je 8 Elementen, zwei lange mit je 18 Elementen und eine sehr lange mit 32 Elementen. Ordnen wir die Elemente mit ähnlichen Eigenschaften untereinander, so ergeben sich die chemischen Gruppen. Dabei werden acht Hauptgruppen unterschieden, die mit römischen Ziffern bezeichnet werden. So umfasst Gruppe I die Alkalimetalle wie z. B. Kalium und Natrium. Gruppe VII sind die Halogene mit z. B. Chlor, Brom und Jod. Gruppe VIII sind die Edelgase. Die Gruppennummer gibt jeweils an, wie viele Elektronen auf der äußeren Schale vorhanden sind. Damit wird es möglich, die Valenz oder Wertigkeit eines Elements zu bestimmen. Valenz wird in der Regel ausgedrückt durch die Anzahl von H-Atomen oder anderen einwertigen Atomen (z. B. Cl Chlor, Na Natrium), mit denen sich ein Atom des betreffenden Elements zu einem Molekül verbinden kann. Praktisch erleichtert die Kenntnis der Valenz dem Chemiker, chemische Formeln aufzustellen und sich zu merken. Am häufigsten kommt die I-, II- und III-Valenz vor, während die höchste VIII-Valenz sehr selten ist. Das gleiche Element kann verschiedene Valenz aufweisen. So ist z. B. das Eisen Fe im grünen FeCl2 zweiwertig, aber im braunen FeCl3 dreiwertig. Es ist offensichtlich, wie das grammatikalische Konzept der Dependenz und Valenz in Analogie zur Chemie zu verstehen ist. In der Grammatik meint Dependenz die gerichtete Verkettung von Wörtern und entspricht damit der chemischen Verbindung, wie sie insbesondere bei gestreckten Polymer-
ketten vorliegt (z. B. Äthylen): CH2-CH2CH2-CH2-CH2-CH2-. Die Bindungskräfte, die die Atome zu Molekülen oder die Moleküle zu Verbindungen höherer Ordnung vereinigen, sind sehr verschieden. Anschaulich entstehen sie durch die Verformung der Elektronenhüllen bei gegenseitiger Annäherung der Atome. In der Grammatik meint Valenz, dass Wörter Leerstellen um sich eröffnen, die mit Wörtern besetzt werden können. Diese Vorstellung entspricht der chemischen Valenz, mit der die Möglichkeit z. B. eines Atoms charakterisiert wird, sich mit anderen Atomen zu verbinden. Bei diesen Analogien muss man sich allerdings wissenschaftstheoretisch darüber klar sein, dass es sich beim Bohrschen Atommodell nur um eine vereinfachte Annäherung an die atomare Wirklichkeit handelt. Keinesfalls darf man sich Elektronen als kleine Planeten vorstellen, die auf festen Bahnen um den Atomkern wie um eine Sonne kreisen. Für Planeten lässt sich der Zustand im Sinne der Klassischen Mechanik zu jeder Zeit mit beliebiger Genauigkeit angeben, in dem Ort und Impuls bestimmt werden. Für Elektronen im Größenbereich des Planckschen Wirkungsquantums h gilt jedoch die Heisenbergsche Unschärferelation. Danach ist es prinzipiell unmöglich, Ort und Geschwindigkeit zugleich mit beliebiger Genauigkeit zu messen: Um so genauer wir den Ort messen, um so unschärfer streut der Impulswert und umgekehrt. Die atomare Wirklichkeit der Quantenmechanik ist also kein Lego-Baukasten, in dem atomare Bausteine nach den Gesetzen der klassischen Mechanik zusammensetzbar sind. Analog stellt sich für die Grammatik natürlicher Sprachen die Frage, in welchem Maße der logische Atomismus von formalen Sprachen auf die sprachliche Wirklichkeit übertragbar ist.
5.
Kausale Abhängigkeit von Ereignisketten
Von zentraler Bedeutung für die empirischen Wissenschaften ist die kausale Abhängigkeit bzw. Unabhängigkeit von Ereignissen und Zuständen. Ereignisse werden durch drei Ortskoordinaten im 3-dimensionalen Raum und eine Zeitkoordinate bestimmt. Eine Planetenbahn ist dann eine Ereigniskette, die durch die Gravitationseinwirkung der Sonne verursacht wird. Zustände von Systemen werden durch Zustandsfunktionen bestimmt, die
6
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
z. B. von Ort und Impuls oder Zeit und Energie des Systems abhängen können. So beschreibt ein Elektron zwar keine kausale Ereigniskette im Sinne einer eindeutigen Planetenbahn um einen Atomkern. Dennoch ist die kausale Entwicklung seiner Zustände eindeutig durch die ψ-Funktion der Quantenmechanik bestimmt: Der spätere ψ-Zustand zum Zeitpunkt t2 ⬎ t1 hängt eindeutig vom vorausgehenden ψ-Zustand zum Zeitpunkt t1 ab, auch wenn wir in einem ψ-Zustand z. B. Ort und Impuls nach der Heisenbergschen Unschärferelation nicht gleichzeitig mit beliebiger Genauigkeit messen können. Für die Alltagswelt des Menschen spielen diese quantenmechanischen Einschränkungen kaum eine Rolle. Kausale Abhängigkeiten von Ereignisketten sind grundlegend von der Wettervoraussage über die ärztliche Diagnose bis zur Rechtsprechung. Häufig sind wir jedoch auf statistische Angaben angewiesen. Zwei Ereignisse heißen statistisch unabhängig, wenn die Wahrscheinlichkeit des einen Ereignisses die Wahrscheinlichkeit des anderen Ereignisses nicht beeinflusst. Bei statistisch unabhängigen Ereignissen ist die Wahrscheinlichkeit des gemeinsamen Auftretens gleich dem Produkt der Wahrscheinlichkeiten des Auftretens der Einzelereignisse. So sind die Ergebnisse aufeinanderfolgender Würfelereignisse bei einem fairen Würfel statistisch unabhängig. Andernfalls sprich man von statistischer Relevanz. In diesem Fall ist die bedingte Wahrscheinlichkeit p (A/B) für das Eintreten von A bei vorausgesetztem Eintreten von B verschieden von der Wahrscheinlichkeit p (A) für das Eintreten von A ohne vorausgesetztes Eintreten von B, d. h. p (A) ⫽ p (A/B). Zwei Ereignisse, die kausal abhängen, besitzen offenbar statistische Relevanz. Umgekehrt muss die statistische Relevanz zweier Ereignisse aber keine gegenseitige kausale Abhängigkeit bedeuten. So erhöht das plötzliche Fallen der Barometeranzeige (A) zwar die Wahrscheinlichkeit eines Sturms (B), d. h. p (B/A) ⬎ p (B), ohne aber seine Ursache zu sein. Allerdings hängen beide Ereignisse von einer gemeinsamen Ursache ab, nämlich dem Herannahen eines Tiefdruckgebiets. In der Alltagswelt gehen wir gewöhnlich davon aus, dass ähnliche Ursachen ähnliche Wirkungen in der gleichen Größenordnung hervorrufen: Hängen wir z. B. ein kleines Gewicht an eine Feder, dann wird sie nur wenig gedehnt. Bei einem großen Gewicht wird die Feder entsprechend stark gedehnt. Das trifft
aber nur bei kausalen Abhängigkeiten zu, die wie das Hookesche Federgesetz die lineare Abhängigkeit einer Wirkung von einer Ursache bestimmen. Bei komplexen Systemen, wie einer Wetterlage, bei der viele Größen in verschiedenen Luftschichten gleichzeitig aufeinander einwirken und viele Ursachen und Wirkungen miteinander nichtlinear rückgekoppelt sind, kann sich Instabilität und Chaos ausbreiten. In diesem Fall können sich kleinste lokale Ereignisse wie z. B. ein kleiner Wirbel oder im Prinzip der Flügelschlag eines Schmetterlings zu globalen Veränderungen des Gesamtsystems aufschaukeln. Man spricht deshalb auch populär vom Schmetterlingseffekt in chaotischen Systemen. Gemeint ist die sensible Abhängigkeit ihrer kausalen Ereignisketten von geringsten Veränderungen der Anfangsbedingungen. Komplexe nichtlineare Systeme sind besonders lebende Organismen, in denen viele Zellen wechselwirken und sensibel auf Veränderungen reagieren können. In der Evolutionstheorie wird die Frage diskutiert, ob die heutige Vielfalt der Arten das alleinige Ergebnis von Evolutionsstrategien aus Selektion, Mutation und Selbstreproduktion ist oder auch von externen Zufallsereignissen (z. B. globale Katastrophen wie Meteoriteneinschläge und Vulkanausbrüche) abhängt. Schließlich geht es um die Emergenz von Geist und Bewusstsein in der Evolution. Das traditionelle Leib-Seele-Problem diskutiert seit altersher die Frage, wie und ob Leib und Seele kausal voneinander abhängen. Modern geht es um die Frage, wie Kognition, Bewusstsein und Sprache von der Dynamik des Gehirns abhängt. Fest steht heute, dass die Grammatik menschlicher Sprachen zwar nicht aus den biochemischen Gesetzen des Gehirns abgeleitet werden kann. Es gibt auch keine einzelnen Nervenzellen, die denken, sprechen und fühlen können. Allerdings waren es die kollektiven und nichtlinearen Wechselwirkungen der grauen Zellen vieler Autoren, die dieses Buch über sprachliche Dependenz und Valenz möglich machten.
6.
Literatur in Auswahl
Coulson, Charles A. (1961): Valence. New York. Ebbinghaus, Heinz-Dieter/Hermes, Hans/Hirzebruch, Friedrich/Koecher, Max/Mainzer, Klaus/ Prestel, Alexander/Remmert, Reinhold (1992): Zahlen (⫽ Grundwissen Mathematik Bd. 1). Berlin (3. Aufl.).
7
2. Die Wertigkeitsmetapher Mainzer, Klaus (1980): Geschichte der Geometrie. Mannheim. Mainzer, Klaus (1995): Computer – Neue Flügel des Geistes? Die Evolution computergestützter Technik, Wissenschaft, Kultur und Philosophie. Berlin (2. Aufl.). Mainzer, Klaus (1988): Symmetrien der Natur. Ein Handbuch der Natur- und Wissenschaftsphilosophie. Berlin.
Mainzer, Klaus (1999): Zeit. Von der Urzeit zur Computerzeit. München (3. Aufl.). Mittelstraß, Jürgen (Hg.) (1980⫺1996): Enzyklopädie Philosophie und Wissenschaftstheorie Bde. 1⫺4, Stuttgart. Salmon, Wesley C. (1984): Scientific Explanation and the Causal Structure of the World. Princeton, N.J.
Klaus Mainzer, Augsburg (Deutschland)
2. Die Wertigkeitsmetapher 1. 2. 3. 4. 5. 6.
Linearisierung und Abhängigkeit Naturwissenschaften und Sprache Linguistik und Naturwissenschaften Die Metapher als ein auf Irrtum beruhender Vergleich Der Valenzbegriff ⫺ Metapher oder Struktureigenschaft? Literatur in Auswahl Die ganze Physik ist eine einzige Tautologie; Benutze für die Darstellung nur passende Tensoren, Und die Gesetze reduzieren sich allesamt auf das Faktum, Dass man mit ihnen das Gemessene beschreiben kann. Das ist die Quintessenz der deskriptiven Theorien. (William Empson, Physiker und Dichter)
Der vorliegende Beitrag behandelt Kontaktpunkte zwischen natur- und geisteswissenschaftlicher Sicht- und Denkweise. Die Valenztheorie ⫺ ähnlich wie viele andere Bereiche der Sprachwissenschaft ⫺ ist zwar letzten Endes das Ergebnis einer inneren Entwicklung linguistischer Bemühungen und Auseinandersetzungen, wurde aber auch durch Entwicklungstendenzen und Denkweisen der Naturwissenschaften stark beeinflusst. Andererseits greifen auch Naturwissenschaftler immer mehr nach Mitteln der Geisteswissenschaften, insbesondere dort, wo das klassische naturwissenschaftliche Konzept und die Mathematisierbarkeit nicht als das einzige Kriterium der Wissenschaftlichkeit gelten. Ein bereits von der klassischen Rhetorik verwendetes Mittel, das Naturwissenschaftler womöglich öfter benutzen als Geisteswissenschaftler, sind die „kleinen Lügen“, die Metaphern.
1.
Linearisierung und Abhängigkeit
Eines der charakteristischen Merkmale der menschlichen Intelligenz ist zweifelsohne die Fähigkeit, Informationen in geordneter Reihenfolge auszudrücken. Im Unterschied zu unseren nächsten Verwandten unter den Primaten befindet sich das Zentrum, das beim Sprechen eine Schlüsselrolle spielt, gleich über dem linken Ohr. Affen besitzen ein solches laterales Zentrum nicht, ihre Lautäußerungen werden durch ein für das Sprechen weniger geeignetes Zentrum zwischen den beiden Hemisphären koordiniert. Die Fähigkeit zu sprechen setzt voraus, dass der Mensch seine Gedanken in geordneter linearer Reihenfolge hervorbringen kann. Diese geordnete Artikulation, ohne die wir kaum intelligenter wären als die Primaten, nennen wir Syntax. Hier wird Syntax in einem weiteren Sinne verstanden, als sie gewöhnlich interpretiert wird. Tiere, etwa die in freier Wildbahn lebenden Schimpansen, verwenden zwar etwa drei Dutzend verschiedene „Wörter“. Informationen, die sie ihren Artgenossen vermitteln wollen, können sie etwa durch ständiges Wiederholen verstärken, sie sind aber nicht in der Lage, drei verschiedene Signale miteinander zu kombinieren. Obwohl die menschliche Sprache nur etwa vierzig phonetische Minimaleinheiten (Phoneme) kennt, kann der Mensch durch Kombinierung von bedeutungslosen Signalen sinnvolle Ausdrücke bilden, durch ihre weitere Zusammenfügung auch solche Äußerungen, die er vorher noch nie gehört hat. (Calvin 1999: 12). Wenn wir unsere Gedanken in sprachliche Form umsetzen, entsteht eine eindimensional geordnete Formation. Ihre Strukturierung ist aber zweidimensional: ihre quantifizierbaren Elemente haben nicht nur ihren Anfang und
8
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
ihr Ende, sondern auch eine Tiefe, deren hierarchische Strukturiertheit nur unter Einbeziehung qualitativer Merkmale nachweisbar ist. Wenn wir also die „Kräfte“, die die satzkonstruierenden Elemente „zusammenhalten“, berücksichtigen, können wir den Satz als hierarchisches Gebilde „zweidimensional“ darstellen. Der Satz als lineare Folge von Konstituenten ist quantitativ „messbar“. Er besteht aus einer endlichen Menge von Elementen, aber die Gesamtsumme ist keine bloße Addition der satzkonstruierenden Elemente. Da der Grad der Zusammengehörigkeit von Elementen des Satzes nicht unbedingt durch ihre unmittelbare syntaktische Nähe gegeben wird, brauchen wir zur Strukturbeschreibung und Interpretation eine angemessene Theorie. Neben der Generativen Transformationsgrammatik hat sich in den letzten Jahrzehnten die Valenz- und Dependenzgrammatik als alternative Theorie und Beschreibungsverfahren etabliert.
2.
Naturwissenschaften und Sprache
Wenn wir uns über die Wirklichkeit Gedanken machen, denken wir an die Kategorien von Raum, Zeit und Materie sowie an eine angenommene Kraft, die aufgrund kausaler Gesetzlichkeit wirkt und das Universum als Ganzes zusammenhält. „Zeit, Raum und ‘Kausalität’ sind die primären Faktoren der objektiven Wirklichkeit und ihr gemeinsames Fundament. Es sind die Fäden des Gewebes, welches wir Wirklichkeit nennen.“ (vgl. Verycken 1994). Die Feststellung, dass sich unsere Welt ständig verändert und entwickelt, gehört zweifelsohne zu den geläufigsten Banalitäten. Um die in ständigen Veränderungen begriffene Welt zu erforschen, die Art und Weise sowie die Ursache der Veränderungen ausfindig machen zu können, brauchen wir nicht nur auf entsprechend hohem technischen Niveau stehende Mechanismen, sondern auch ein Mittel, um die Erscheinungsformen oder Zusammenhänge benennen zu können. Solange wir uns in der von uns direkt wahrnehmbaren Wirklichkeit bewegen, scheinen beobachtete Phänomene und der gesunde Menschenverstand in Einklang zu stehen. Raum und Zeit betrachtet man als reale, unveränderliche Kategorien, die unabhängig vom beobachtenden Subjekt existieren. Zwei fundamentale Neuorientierungen im zwanzigsten Jahrhundert, Einsteins Relativi-
tätstheorie und Max Plancks Quantenmechanik, haben unsere Vorstellungen über die Beschaffenheit der Welt grundlegend verändert. Dinge werden nicht einfach wahrgenommen oder entdeckt, sondern sie werden häufig von dem Menschen selbst erschaffen oder erfunden. Unsere Logik ist so beschaffen, dass wir auch Phänomene, die sich unseren Vorstellungskräften entziehen, als etwas Reales oder zumindest geistig Vorstellbares interpretieren. Wir könnten das tun, indem wir uns der Sprache bedienen. Die Sprache besitzt die Fähigkeit, durch alltägliche Benennungsformen auch die kompliziertesten Erscheinungen der Welt zu benennen. Vor kaum achtzig Jahren schien die Beschaffenheit der Welt (und damit auch die der Sprache) unkompliziert und durch einfache mechanische Formeln erkenn- und interpretierbar zu sein. Viele Naturwissenschaftler waren der Meinung, im Geiste des von Isaac Newton geschaffenen mechanistischen Weltbildes, bereits alles entdeckt zu haben bzw. die Geheimnisse der Welt bald erforschen zu können. Die menschliche Sprache wurde ebenfalls als ein einfach funktionierender Mechanismus verstanden, den man „verbessern“ und dessen Unvollkommenheiten man beseitigen kann. Man kreierte leicht erlernbare, logische Sprachen, in denen jedem Ding der Welt ein einziges Wort entsprechen sollte. Ein Umdenken wurde in den Wissenschaften durch revolutionäre Konzepte wie Einsteins Allgemeine (1905) und Spezielle Relativitätstheorie (1915), Werner Heisenbergs Unschärferelation (1927) oder Max Plancks Quantentheorie (1931) hervorgerufen. Diese revolutionären Vorstellungen über die Natur, die Entstehung des Kosmos sowie die Beschaffenheit der Materie, deren Richtigkeit empirisch erst Jahrzehnte später bewiesen wurde, haben nicht nur das menschliche Vorstellungsvermögen beeinflusst, sie haben auch in den Geisteswissenschaften bleibende Spuren hinterlassen.
3.
Linguistik und Naturwissenschaften
Einzelne Wissenschaftszweige können voneinander isoliert nicht existieren. Neue Einsichten oder einfach nur kurzfristige Modetrends in einem Wissenschaftszweig können anderen Wissensgebieten neue Impulse geben, die nicht selten zur Entstehung neuer Theorien führen. Auch Konzepte und Beschreibungsverfahren, die in den Naturwissenschaften
2. Die Wertigkeitsmetapher
verwendet werden, finden häufig in linguistische Denkweisen und Theorien ihren Eingang. Von Linguisten selbst werden sie oft nur auf Umwegen aufgegriffen, da sie, bevor sie in linguistischen Theorien angewandt werden, oft einen weiten Weg zurücklegen müssen. Ein gutes Beispiel dafür ist die Prototypensemantik oder die holistische Sprach-/ Weltbetrachtung, bei denen viele Linguisten beteuern, dass diese modernen Bedeutungsbeschreibungen Methoden der kognitiven Psychologie verwenden, um die Inhaltsseite der Sprache dort, wo die klassische Komponentenanalyse offenbar ihre Grenzen erreicht hat, beschreiben zu können. Diese Methode ist in der kognitiven Psychologie selbst ein „Importartikel“. Man hat es dem Anschein nach mit einer Vermengung von miteinander nicht vereinbarten Sichtweisen zu tun. Die Strukturierung der Sprache und die Beschaffenheit der Natur sind offenbar verschieden. Was Sprache und Physik miteinander verbindet, sind zunächst einmal die technischen Geräte, mit deren Hilfe man in der Phonetik sprachliche Erscheinungsformen quantitativ messen kann. Neuerdings stehen uns technische Geräte zur Verfügung, die die Sprache digitalisieren und visualisieren können. Sie können aber nur deswegen funktionieren, weil Wissenschaft und Technik ohne eine eigene „Sprache“ und ohne sprachwissenschaftliche Vorarbeit nicht mehr denkbar sind. Naturund Geisteswissenschaftler können ihren Forschungsgegenstand nur dann beschreiben und erklären, wenn sie auf der Grundlage der menschlichen Sprache eine Metasprache benutzen. Diese Metasprache ist oft der „Normalsprache“ ähnlich oder kann auf einer höheren Abstraktionsstufe die Fom einer mathematischen Formelsprache annehmen. Eine mathematische Formelsprache, der sich auch die Linguistik immer wieder bedient, muss nicht zwangsläufig eine höhere Abstraktionsstufe bedeuten. Wollen wir in der Physik etwa im Makrokosmos oder im subatomaren Bereich das Unvorstellbare, das Rätselhafte benennen, gebrauchen wir oft ein einfaches seit der Antike bekanntes Mittel: die Metapher.
4.
Die Metapher als ein auf Irrtum beruhender Vergleich
Die Metapher (gr. metaphora, lat. translatio), eine der Tropen der klassischen Rhetorik, spielt als sprachliches Mittel nicht nur in der
9 Poesie, sondern auch in den Geistes- und Naturwissenschaften eine bedeutende Rolle. Der Begriff, den bereits Isokrates (436⫺338 v. Chr.) als rhetorischen Terminus verwendet hat, beruht auf einer Bedeutungsübertragung von einem Begriff auf einen anderen Begriff. Sie ist daher nicht einfach als (neuer) Name, sondern als dynamisches Zeichen, als semantischer Prozess zu betrachten. Eine Metapher beruht, wie seit Cicero und Quintilian bekannt, auf einem „Irrtum“, der zugleich auf Möglichkeiten der richtigen Lösung hinweist. Ein als Metapher verwendeter Begriff unterscheidet sich von dem banalen, alltäglichen Gebrauch eines Wortes. Wenn ein Maler, Bildhauer oder Fotograf gegensätzliche, extreme Momente darstellen will, so wählt er auch Lösungen, die sich vom Alltäglichen, vom Banalen unterscheiden. „Wenn ein Terminus so aus dem geistigen Raum herausgenommen wird, für den er definiert wurde, wird er nur Metapher und bedarf möglicherweise einer neuen Definition. Damit ist das Wesen der Metapher zwar nicht erschöpft, aber wir haben hier doch einen wesentlichen Zug der symbolischen metaphorischen Sprache.“ (vgl. Ogden/Richards 1974). Wie bereits erwähnt, bedeutet die Quantentheorie neben Einsteins Relativitätstheorie eine radikale Abkehr von der klassisch-deterministischen Weltsicht. Dass hier die Quantentheorie erwähnt wird, liegt nicht einfach daran, dass Ansätze dieser Weltsicht in verschiedenen Konzeptionen über die Sprache immer häufiger auftauchen. Jede neue Theorie bedarf einer neuen Sprachverwendung, indem sie häufig nach metaphorischem Sprachgebrauch greift. Der neue Sprachgebrauch taucht später nicht selten in anderen Wissenschaftszweigen auf. Die Valenz- und Dependenzgrammatik wurde durch die Denkweise der Naturwissenschaften und durch die neue „Sprachverwendung“ tiefer betroffen, als man oft annimmt. Wir können den subatomaren Bereich mit unserem makrophysischen Alltagsdenken, indem wir uns in quantifizierbaren Abschnitten von Raum und Zeit bewegen, nicht erfassen. Hier entsteht eine unüberbrückbare Kluft zwischen den Alltagsvorstellungen und denen der Quantentheorie. Von den Naturwissenschaften werden häufig Begriffe postuliert, denen scheinbar kein existierender Gegenstand zuzuordnen ist. Grundbausteine der Materie werden nicht entdeckt, sondern eher aus Gründen der theoretischen Zweckdienlichkeit eingeführt. Elementarteilchen, die ei-
10
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
gentlich nicht einmal Objekte im uns geläufigen Sinne sind, werden mit Begriffen aus der Alltagssprache benannt. Zur Erklärung von Beobachtungen werden im ausgehenden zwanzigsten Jahrhundert häufig Metaphern verwendet. Der britische Physiker J. J. Thomson führte, um beobachtete Phänomene deuten zu können, den Begriff des Elektrons ein. Natürlich kann das Elektron direkt nicht beobachtet werden, man bekommt es nur als aufblitzendes Pünktchen auf dem fluoreszierenden Schirm zu sehen. Obwohl die Existenz des Elektrons erst 1932 durch den englischen Physiker James Chadwick nachgewiesen wurde, wurde der Begriff bereits 1912 von dem dänischen Physiker Niels Bohr für die Darstellung des Atommodells verwendet, von dem sich auch Linguisten inspirieren ließen. Sämtliche Eigenschaften von Atomen und Molekülen können durch die Wechselwirkungen der Elektronen miteinander und mit dem Atomkern erklärt werden. Da die Sprache offensichtlich über solche „Teilchen“ nicht verfügt, stößt eine linguistische Deutung dieser Metapher in der Valenztheorie offenbar auf Schwierigkeiten. Wir können noch weitere Metaphern in den Naturwissenschaften nennen, auf die Linguisten in ursprünglicher oder modifizierter Form zurückgreifen, wie etwa Feld als ein grundlegender Begriff zur Darstellung von Zuständen und Wirkungen, Feldtheorie, Quant als die kleinste Menge von irgendetwas (man denke an erkenntnistheoretische oder semantische Minimaleinheiten wie Noeme und Seme), Quantensprung (man denke an Konzeptionen der Valenzerweiterung und -reduzierung), Quark (vgl. Murray Gell-Mann 1961), Photon (obwohl 1905 von Einstein postuliert, verwendet man den Begriff erst seit 1926). Physiker scheinen bei der Bezeichnung ihres Forschungsobjektes einfallsreicher zu sein als ihre Zeitgenossen in den Bereichen der Geisteswissenschaften. Ein in der Physik bekanntes Beispiel soll dies verdeutlichen. Als 1964 Murray Gell-Mann die Gesetze der kleinsten Bausteine der Materie mathematisch zu formulieren versuchte, entlehnte er den Namen Quarks aus James Joyces Roman Finnegans Wake. Da Gell-Manns Modell schön und elegant war und trotz der Tatsache, dass man ihre Existenz bis 1986 nicht beweisen konnte, fiel es den Physikern offenbar schwer, diese Konzeption „zu den Akten zu legen“ (vgl. Brockmann 1991, 99). Inzwischen hat man sechs dieser kleinsten Grundbausteine
der Materie, die selbst nie isoliert in Erscheinung treten können, postuliert. Parallelen gibt es in den linguistischen Bestrebungen der sechziger und siebziger Jahre unseres Jahrhunderts, Wortbedeutungen als „Summe“ von Elementarpartikeln (Seme, Noeme etc.) zu ermitteln. Die semantische Analyse hat jedoch nie die Schönheit und den Einfallsreichtum der Quark-Hypothese erreicht. Die Quarks als angenommene Grundbausteine der Materie verhalten sich, als besäßen sie eine Eigenschaft, die man als „Farbe“ (engl. flavour oder flavor) bezeichnet. Neben Ladungszuständen (positiv und negativ) werden diesen Grundbausteinen auch komplementäre „Farben“ und „Antifarben“ (rot, gelb, blau) zugesprochen. Die Linguistik hat anscheinend keine „eigene“ Quark-Hypothese. Das Streben nach Exaktheit dort, wo es keine Eindeutigkeit geben kann, hat dazu geführt, dass sich die in den 70er Jahren zum Programm erklärte exakte Bedeutungsbeschreibung in vielen Bereichen als undurchführbar erwies. Da unsere normale Wahrnehmung auf makrophysische Körper und auf die Beziehungen zwischen ihnen gerichtet ist, können wir Dinge um uns herum beobachten, untersuchen, Messungen unterziehen, seien sie statisch oder dynamisch, ohne dabei die objektive Welt damit zu beeinflussen. In der subatomaren Welt verhalten sich die Dinge anders. Es ist unmöglich, eine Messung durchzuführen, ohne dabei das Gemessene nicht zu beeinflussen. Auf subatomarer Ebene versagt unser herkömmlicher Begriffsapparat. Wenn eine Erscheinung gemessen wird, existiert sie im nächsten Augenblick nicht mehr. Man braucht eine neue Denkweise, neue Begriffe, um mikrophysikalische Phänomene beschreiben und erklären zu können. Das gegenwärtig vertretene Atommodell entspricht unseren Kenntnissen aus der Schulzeit längst nicht mehr. Proton und Neutron sind keine terminalen, nicht weiter teilbaren Korpuskula, sie sind stets gebundene Zustände noch kleinerer Teilchen, die man allgemein, wie bereits erwähnt, als Quarks bezeichnet. Die Quarks sind wahrscheinlich auch nicht die allerkleinsten subatomaren Teilchen, aber wir sind nicht in der Lage, diese Zustände der Materie zu erfassen. Daher brauchen wir einen Begriffsapparat, der unserem täglichen Erfassungsvermögen entspricht: das sind die „kleinen Lügen“, die Metaphern. Metaphern spielen in den Wissenschaften aber noch eine weitere, nicht weniger wichtige Rolle. Im Arsenal der Natur- und Geis-
2. Die Wertigkeitsmetapher
teswissenschaften haben Metaphern, wie der verstorbene Philosoph Ernst Nagel gezeigt hat, Einfluss auf die Art und Weise, wie der Mensch Aspekte der individuellen, kulturellen und gesellschaftlichen Existenz wahrnimmt und deutet. Die naturwissenschaftlichen, philosophischen und ethischen Deutungen eines Platon oder Aristoteles wollten die damalige „Rechtsordnung“ der Sklavenhaltergesellschaft rechtfertigen. Das Weltbild des Ptolemaios oder fast ein Jahrtausend später die Ansichten des Thomas von Aquin wollten die damalige gesellschaftliche Ordnung auf Erden als göttlich gegeben bestätigen. Die Mechanik von Isaac Newton war nicht einfach „ein physikalisches Paradigma zur Erklärung des Verhaltens mechanischer Systeme; sie diente zumindest zeitweise auch als theoretisches Rüstzeug in wissenschaftlichen Diskussionen über die Existenz Gottes oder über die Berechtigung der monarchischen Regierungsform“ (vgl. Brockmann 1991, 162 f.). Das Paradigma vom Überleben von Ch. Darwin passte in das frühkapitalistische System des 19. Jh. zur Rechtfertigung einer rücksichtslosen Ausbeutung und eines rücksichtslosen wirtschaftlichen Wettbewerbs, „eines ebenso rücksichtslosen Imperialismus in der Außenpolitik, einer extrem individualistischen und amoralischen Ethik, aber auch bestimmter pädagogischer Konzepte usw.“ (vgl. Brockmann 1991, 162 f.). Nun deutet vieles darauf hin, dass das kooperative Verhalten in der Evolution ebenso wichtig war und ist wie die (rücksichtslose) natürliche biologische Selektion oder das nach hierarchischen Ordnungsprinzipien vorgestellte Universum. Der Gedanke des kooperativen Verhaltens der Elementarteilchen aber auch der Lebewesen, der gegenwärtig von einigen Wissenschaftlern vertreten wird, könnte ein Impuls dafür sein, dass neben der hierarchischen Organisiertheit sprachlicher Einheiten dieser Aspekt berücksichtigt wird.
5.
Der Valenzbegriff ⫺ Metapher oder Struktureigenschaft?
Der Begriff Valenz oder Wertigkeit im Sinne von Bindungsvermögen chemischer Elemente wurde in die Chemie im Jahre 1868 eingeführt. Man hatte empirisch ergründet, dass es unterschiedliche Typen von Kombinationen von Elementen gibt. Mit dem Begriff Valenz oder Wertigkeit bezeichnete man die Eigenschaft eines Elementes, die Anzahl anderer
11 Atome festzulegen, mit denen ein Atom des Elementes kombiniert werden kann. Sie entspricht den freien elektrischen Ladungen der Ionen. Ursprünglich wurde die Wertigkeit hinsichtlich der höchsten Anzahl von Wasserstoffatomen definiert. Wasserstoff wurde als Eichmaß ausgewählt, weil Forscher entdeckt hatten, dass ein Wasserstoffatom nur in der Kombination mit einem einzigen Atom vorkommen kann und daher als das einfachste aller chemischen Elemente betrachtet wurde. Auf diesem Wege konnte man feststellen, dass die typische Wertigkeit des Sauerstoffatoms 2 (wie im Wasser, also H2O), von Stickstoff 3 (NK3, Ammoniak) und des Chlors 1 (wie in Chlorwasserstoff, HCl) beträgt. Auf diesem Wege war es möglich, allen Elementen typische Wertigkeiten zuzuschreiben, auch wenn ihre Kombination mit dem Wasserstoffatom unbekannt war. In der Chemie werden unter Valenz zwei Dinge verstanden: das Bindungsvermögen der Elemente, also seine Wertigkeit; mit dem Begriff Valenz bezeichnet man aber auch die Anzahl der an ein Atom (an das Verb) gebundenen anderen Elemente. Zur Chronik der Valenztheorie gehört die allgemein bekannte Tatsache, dass der französische Linguist Lucien Tesnie`re den Begriff der Valenz in die Sprachwissenschaft eingeführt hat. Als Ausgangspunkt diente die Übernahme einer vereinfachten, der Wirklichkeit kaum entsprechenden Darstellung der Atomstruktur. Von Linguisten wird der Valenz- oder Dependenzansatz neben der Generativen Transformationsgrammatik gerne als die zweite Theorie oder das Beschreibungsverfahren der zweiten Hälfte des 20. Jahrhunderts angesehen. Diese Behauptung erscheint ein wenig übertrieben. Nachforschungen in mehreren Werken enzyklopädischer Art ergaben keinen Hinweis, um diese Behauptung zu bestätigen. In der Encyclopaedia Britannica finden sich unter valence oder valency lediglich Hinweise auf die Physik bzw. Chemie. Die slowakische Enzyklopädie der Sprachwissenschaft kennt zwar die Begriffe Valenz und Valenztheorie, erklärt aber die Dependenzgrammatik als eine Weiterentwicklung der GTR in semantischer Richtung, betont also die semantischen Kasus Fillmorescher Prägung. L. Tesnie`re war nicht der erste, der auf die Frage, welche Elemente sich an das Verb knüpfen, eine mögliche Antwort gegeben hat. Zu einer Zeit, als die Chemie vorübergehend über andere Naturwissenschaften Dominanz
12
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
erlangte, lag der Gedanke nahe, die „passenden Tensoren“, d. h. die Vorstellungen, die man von der Atomstruktur und der Wertigkeit des Atoms hatte, auf den Satz zu übertragen. Etwa hundert Jahre früher, wie die ungarische Linguistin I. H. Molna´r (1973, 123 ff.) berichtet im Zeitalter der Entdeckungen in der Astronomie, fand I. Brassai im Sonnensystem ein Bezugsgleichnis zum Satz. Im System, das man Satz nennt, so Brassai, sei das herrschende Zentrum das Verb, das die Planeten, die die Grammatiken als Subjekt, Objekt oder Umstandswörter bezeichnen, an sich zieht, diese wiederum zögen andere Himmelskörper, die Monde, an (vgl. H. Molna´r 1973, 125). Etwa ein Jahrhundert später verglich L. Tesnie`re ⫺ im Geiste der naturwissenschaftlichen Schulung der Gelehrten seiner Epoche ⫺ den Satz mit der Wertigkeit des Atoms. Obwohl Tesnie`res Gleichnis einerseits ein überholtes physikalisches Erkenntnisniveau übernimmt, war seine Erkenntnis, dass das Verb nicht nur einfach das strukturelle Zentrum des Satzes sei, sondern die Anzahl und Qualität der Aktanten bestimmt, eine neue Vorstellung in der Sprachwissenschaft. Man könnte noch weitere Linguisten nennen, in deren Auffassungen vor, aber auch nach Tesnie`re das Valenzgleichnis zum Vorschein kommt. So werden etwa die Kasuslehre von Jakobson und deren Weiterentwicklung bei Kuryłowicz in valenztheoretischen Einführungen erwähnt. Unerwähnt bleibt die Leistung von E. Paulı´ny, der bereits 1943 die Ansicht vertrat, dass eigentlich jedes Verb aus drei Komponenten besteht: der Handlung selbst, dem Agens und dem Patiens. Diese drei Komponenten lassen sich unterschiedlich kombinieren. Paulı´ny verstand unter verbaler Intention die Gerichtetheit des durch das Verb ausgedrückten Geschehens sowohl auf die Ausgangsgröße (Agens) als auch auf die Zielgröße (Patient). Laut dieser Konzeption setzt eine (verbale) Handlung voraus: „einen Vollzieher der Handlung, ein Agens …, die Handlung selbst … und den Gegenstand, auf den sich die Handlung bezieht“. (vgl. Paulı´ny 1943, 93, dt. Resümee). In dieser Formulierung ⫺ abgesehen davon, dass die ursprüngliche Formulierung nicht nach exakten linguistischen Kriterien geschah ⫺ wurde die verbale Handlung auf einer logisch-semantischen Ebene aufgefasst. Das Verb wurde ins Zentrum der Satzstruktur gerückt, und der explizite oder implizite Ausdruck der Valenzpartner wurde von der Semantik des Verbs
abhängig gemacht. Agens, als Entität der Tiefenstruktur (diesen Begriff verwendet er natürlich nicht), muss nicht identisch mit dem syntaktischen Subjekt und Patient mit dem syntaktischen Objekt sein. Paulı´ny hat in seiner Konzeption ein semantisch und syntaktisch gleichwertiges Merkmal gefunden, das zur Grundlage der slowakischen akademischen Grammatik wurde. Noch stärker wurde die Konzeption von J. Oravec durch die naturwissenschaftliche Denkweise beeinflusst. Nach dem Vorbild der Naturwissenschaften der sechziger Jahre unterscheidet er „starke Valenz“, die in den Valenzgrammatiken unter dem Begriff obligatorische Aktanten/Ergänzungen erscheint, und „schwache Abhängigkeit“, bei der „nur die syntaktische Unterordnung, die Zusammengehörigkeit des untergeordneten Gliedes“ (vgl. Oravec 1967, 19) mit dem Valenzträger (er verwendet den Begriff übergeordnetes Satzglied) signalisiert wird. Oravec entnimmt das Gedankengut samt entsprechenden Metaphern der Physik der 20er und 30er Jahre und schafft damit ein statisches Modell, ohne dabei von der Valenztheorie Tesnie`rescher Prägung Notiz zu nehmen. Verfolgt man die weitere Entwicklung des Valenzkonzeptes in den siebziger und achtziger Jahren, so hat man den Eindruck, dass dabei das Weltbild, das Naturwissenschaftler geschaffen haben, immer stärker in den Vordergrund tritt. Valenzbindung bedeutet in der Chemie unmittelbaren Kontakt zwischen zwei Elementen, unmittelbare „Berührung“. Die Anzahl von Wasserstoffatomen als Vergleichsbasis ist aber, wie sich herausgestellt hat, keine zufriedenstellende Lösung des Problems der chemischen Kombinationen von Elementen. Erst 1916 konnten der amerikanische Chemiker G. N. Lewis und der deutsche Forscher W. Kossel auf die Frage dadurch eine befriedigende Antwort liefern, dass sie in die Erklärung ein hypothetisches Element einbezogen. Sämtliche chemischen und physikalischen Eigenschaften von Atomen und Molekülen lassen sich durch die elektronischen Wechselwirkungen der Elektronen miteinander und mit dem Atomkern erklären. Es gibt offensichtlich Kräfte, die das ganze Universum zusammenhalten. Für komplizierte wechselseitige Beziehungen sind Kräfte wie Gravitation „verantwortlich“, die auf alle Teilchen im Mikro- und Megakosmos wirkt. Sie hat zwei grundlegende Eigenschaften: Sie
2. Die Wertigkeitsmetapher
wirkt auf weite Entfernungen und ist immer anziehend. Die stärkste Kraft ist die elektromagnetische Kraft, die auf elektrisch geladene Teilchen wie Quarks und Elektronen wirkt. Diese Kraft ist äußerst stark und überfordert unser Vorstellungsvermögen: Die elektromagnetische Kraft zwischen zwei Elektronen ist 1942mal größer als die Gravitation. Es ist eine für den „gesunden Menschenverstand“ unvorstellbare Energie. Zwei Körper, die sich durch Gravitation anziehen, lassen sich leicht voneinander trennen. Sollten miteinander durch elektromagnetische Kraft verbundene Teilchen voneinander getrennt werden, würde dies zu einer gewaltigen Explosion führen. Das ist die Kraft, die in der Physik für die Valenz „verantwortlich“ ist. Wie diese Kraft funktioniert, gehört zweifelsohne zu den Problemen, die wir nie werden direkt beobachten können. Der Valenzbegriff ist hier trotzdem nicht überflüssig; er ist eine Metapher, die viele andere Kräfte der Materie zusammenfasst. Unmittelbar beobachtbare Kräfte, die die Valenz auslösen, gibt es in der Sprache offenbar nicht. Nimmt man in der Sprache ⫺ in Analogie zu virtuellen physikalischen Teilchen ⫺ die Existenz virtueller (offenbar semantischer) Einheiten an, geht man wie der Quantenphysiker vor: Es werden Komponenten „erfunden“, die es offenbar in der vom Linguisten dargestellten Form nicht gibt, ohne die er aber nicht in der Lage wäre, auf die Frage nach dem Funktionieren der menschlichen Sprache eine Antwort geben zu können. Wenn wir darüber diskutieren, nach welchen genauen Kriterien die Valenz ermittelt werden kann, oder nach welchen Kriterien valenzgebundene Glieder von der freien unterschieden werden können, auf welcher Ebene der Valenzbegriff angesetzt werden kann, „ob es sich bei der Valenz um eine formale oder/und eine begriffliche Kategorie … handelt“ (vgl. Stepanowa/Helbig 1981, 123), führen wir offenkundig eine unfruchtbare Diskussion. Mit dem Begriff Valenz werden, wie das in den Geisteswissenschaften des öfteren der Fall ist, unterschiedliche Sachverhalte bezeichnet, die unter Umständen begrifflich differenziert werden können und müssen. Eine andere Möglichkeit wäre, auf den Valenzbegriff zu verzichten, da die verschiedenen Interpretationen zu Verwirrungen führen können. Das will aber niemand tun. Die Valenz-Metapher ist schön und elegant, nicht nur weil sie nützlich ist. In der Physik würde wohl niemand auf die Quarkhypo-
13 these verzichten, weil deren konkrete „Existenz“ noch nicht bewiesen worden ist. Wir werden nie in der Lage sein, ein „reales“ Quark zu Gesicht zu bekommen. „Existenz“ bedeutet im subatomaren Bereich keine „materielle“ Erscheinungsform im Sinne der Alltagssprache. Wir haben es hier auch „nur“ mit einer Metapher zu tun, die dazu dient, Phänomene, die mit unserer Alltagslogik nicht im Einklang stehen, verständlich zu machen. Wir sind zwar in der Lage, konkrete Sätze zu beobachten und zu analysieren, aber nach welchen Kriterien ein Satz „beobachtet“ wird, hängt davon ab, für welche Theorie sich der Beobachter entscheidet. Die Dependenzgrammatik ist nur eine der mehreren Möglichkeiten. In der Sprachwissenschaft hat sich die Valenz-Metapher als ein brauchbares Mittel erwiesen, weil man damit diffizile Strukturzusammenhänge vergegenwärtigen kann. Es ist offensichtlich nicht möglich, die wahre „sprachliche Ursache“ der Valenz zu entschleiern. Wie es Theoretikern nicht nur in den Natur-, sondern auch in den Geisteswissenschaften so oft ergeht, hat man sich in eine Idee verliebt. Auch wenn diese Idee auf die reale Ebene (strukturell, terminologisch, im Hinblick auf ihre praktische Nutzbarkeit) unterschiedlich projiziert wird und ihre theoretischen Ansätze oft divergent interpretiert werden, ist und bleibt sie eine der führenden theoretischen und in der Praxis brauchbaren linguistischen Theorien des ausgehenden zwanzigsten Jahrhunderts, auch wenn sie im Grunde ein auf „Irrtum“ beruhender Vergleich ist. Am Anfang des Beitrages haben wir auf den Einfluss naturwissenschaftlicher Denkweisen auf die Geisteswissenschaften hingewiesen. Es erscheint angemessen, den Aufsatz mit einem naturwissenschaftlichen Lehrsatz abzuschließen. Die zweite These der Quantentheorie besagt, dass man bei der Untersuchung eines Phänomens das untersuchende Subjekt miteinbeziehen muss. Es gibt kaum eine andere linguistische Disziplin, die von den untersuchenden Subjekten so stark mitbestimmt wäre, wie die Valenz- und Dependenzgrammatik. Im Sinne der Möglichkeit, stets neue Hypothesen zu bilden, mag es auf die Stärke der Theorie deuten, für die praktische Adaptierbarkeit, z. B. im DaF-Unterricht außerhalb des deutschsprachigen Raumes, könnte man es als essentiellen Mangel der Theorie auslegen.
14
6.
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
Literatur in Auswahl
Barrow, John D. (1996): Poˆvod vesmı´ru. (The Origin of the Universe). Bratislava. Brockmann, John (1991): Einstein, Gertrude Stein, Wittgenstein & Frankenstein. Die Geburt der Zukunft. Die Bilanz eines naturwissenschaftlichen Weltbildes. München. ˇ o sa stane o chvı´l’u? Calvin, William H. (1999): C In: domino fo´rum 11, 12. Encyclopædia Britannica. Multimedia CD 98. Multimedia Edition. Hawking, Stephen W. (1991): Strucˇna´ historie cˇasu. Od velke´ho trˇesku k cˇerny´m dı´ra´m (A Brief History of Time. From the Big Bang to Black Holes). Praha. Molna´r, Ilona H. (1973): A vonzat proble´ma´i e´s a nyelv közle´si funkcio´ja (Probleme der Valenz und ´ ldie kommunikative Funktion der Sprache). In: A tala´nos Nyelve´szeti Tanulma´nyok IX, 123 ff.
Ogden, Charles Kay/Richards, Ivory Armstrong (1974): Die Bedeutung der Bedeutung. Eine Untersuchung über den Einfluß der Sprache auf das Denken und über die Wissenschaft des Symbolismus. Frankfurt. Oravec, Jan (1967): Väzba slovies v slovencˇine. Bratislava. Paulı´ny, Jan (1943): Sˇtruktu´ra slovenske´ho slovesa. Bratislava. Stepanowa, Marija D./Helbig, Gerhard (1978): Wortarten und das Problem der Valenz in der deutschen Gegenwartssprache. Leipzig. Verycken, Laurent (1994): Formen der Wirklichkeit ⫺ Auf den Spuren der Abstraktion. Penzberg. Vila´girodalmi Lexikon (1982), Bd. VIII. Budapest.
Stefan Pongo´, Nitra (Slowakei)
3. Valenzverwandte Ansätze in der Antike 1. 2. 3. 4. 5. 6.
Antiker Grammatikbegriff Quellen Aussagen zu Valenz- und Dependenzaspekten im Einzelnen Terminologie Zusammenfassung Literatur in Auswahl
1.
Antiker Grammatikbegriff
Eine systematische Behandlung von Valenz und Dependenz findet sich bei den antiken Grammatikern nicht. Dementsprechend fehlt auch eine feste Terminologie. Es ist also zunächst der Platz zu bestimmen, an dem Aussagen zu Valenz oder Dependenz implizit zu erwarten sind. Grammatik im antiken Verständnis umfasst die gesamte Kunde von der Literatur; zu ihr gehören eng aufeinander bezogen Textkritik, Textexegese, Sacherklärung, Worterklärung, schließlich als Grammatik i. e. S. systematische Sprachbeschreibung (vgl. Ax 1982, 96 f.; 1991, 277 f.). „Grammatik ist die auf Erfahrung (empeirı´a) beruhende Kenntnis dessen, was meistens von den Dichtern und Prosaschriftstellern gesagt wird“, definiert Dionysios Thrax (GG I 1, ⬘ 1). Sextus Empiricus (Bury 1987) erweitert in seiner Diskussion dieser Definition die empirische Grundlage der Grammatik auf den Sprachgebrauch überhaupt (Adversus mathematicos I 64) und unterscheidet als Teilgebiete der
Grammatik i. w. S. (I 91⫺93) Sacherklärungen (historikon [historischer Teil]), Aussagen zur Sprache einzelner Autoren (idiaiteron [spezieller Teil]) und einen technischen Teil (technikon), der die Regeln hinsichtlich der sprachlichen Elemente auf verschiedenen Beschreibungsebenen vom Laut/Buchstaben über Silbe und Redeteil bis hin zum Satz behandelt. Für Augustinus (De ordine II 12) umfasst die Grammatik die Verfügung über Sprache als Mittel mündlicher und schriftlicher Kommunikation (litteratio), die Lehre von den für Buchstaben, Silben und für die 8 Redeteile (octo genera verborum) geltenden Regeln, schließlich die Kenntnis der Schriften (litteratura). Valenz- oder dependenzorientierte Aussagen sind vornehmlich im technischen Teil der Grammatik im Zusammenhang der systematischen Behandlung der Redeteile (insbes. des Verbs) und ihrer Kombinationsregeln (Syntax) zu erwarten. Zusätzlich behandeln die Grammatiker einzelne Fragen der Sprachrichtigkeit in Bezug auf Flexion (Barbarismen) und Syntax (Soloecismen); im Rahmen der Beschäftigung mit solchen Soloecismen kann auch die Verbsyntax eine Rolle spielen.
2.
Quellen
Grammatische Reflexion der Antike entspringt primär aus zwei verschiedenen Quellbereichen (vgl. dazu Steinthal 21890/91; Pfeiffer 21978):
15
3. Valenzverwandte Ansätze in der Antike
2.1. Dialektische Analyse Die Dialektiker befassen sich notwendig mit Fragen der grammatischen Richtigkeit, da nur grammatisch richtige Sätze eine logische Analyse zulassen. Aussagen zur Grammatik und zur Dialektik sind hier oft nicht zu trennen. Aristoteles behandelt die Grammatik des Satzes vor allem in ‘Peri hermeneias’ und in der ‘Poetik’. Großen Einfluß auf die späteren Grammatiker haben die Ergebnisse der stoischen Dialektik (Gründung der stoischen Schule um 300 v. Chr.; keine Werke erhalten, Fragmente bei Hülser 1987); hier finden sich früh Aussagen, die Valenzgesichtspunkte einbeziehen. 2.2. Homer-Philologie Sprachveränderungen im Hellenismus stellen seit dem 3. Jh. v. Chr. zunehmend die Aufgabe, den Homer-Text textkritisch zu untersuchen und inhaltlich wie sprachlich zu erklären. Diese Arbeit führt zunächst allerdings nicht zu zusammenhängenden grammatischen Darstellungen. Weder die Werke der Alexandriner Aristophanes von Byzanz (ca. 257⫺180 v. Chr.) oder Aristarch von Samothrake (ca. 216⫺144 v. Chr.) noch die der Pergamener sind erhalten. Die Fragmente und Zitate bei anderen Autoren geben keine Hinweise auf valenzbezogene Aussagen (vgl. Ax 1991). Die erste erhaltenene Darstellung der Grammatik stammt möglicherweise von Dionysios Thrax (160⫺90 v. Chr.). Seine Autorschaft und die Datierung des Werkes sind umstritten (Kemp 1991, 307 ff.), die Forschung neigt vielfach zu einer späteren Datierung auf das 3.⫺5. Jh. n. Chr.; allerdings repräsentiert die ‘Techne grammatike’ (GG I 1; Übersetzung von Kemp 1986) auch in diesem Fall ältere Quellen. Dionysios Thrax verbindet stoische und philologische Traditionen, die Grammatik emanzipiert sich von Rhetorik und Dialektik. Die Syntax behandelt er nicht, seine Aussagen zum Verb beschränken sich auf Aspekte der Formenbildung. Ausführlich beschäftigt sich Apollonios Dyskolos (1. H. 2. Jh. n. Chr.) mit der Syntax; sein Werk ‘Peri syntaxeo¯s’ (GG II; Übersetzungen von Buttmann 1877; Householder 1981) ist die einzige erhaltene griechische Behandlung syntaktischer Fragen. Die lateinischen Grammatiker bauen auf den Ergebnissen der griechischen Grammatik auf. Von Varros (116⫺27 v. Chr.) ‘De lingua latina’ (Kent 1967) sind die Bücher zu syntaktischen Themen (XIV⫺XXV) nicht erhal-
ten. Aelius Donatus (4. Jh. n. Chr.) behandelt in seiner ‘Ars minor’ nur die Redeteile, in seiner ‘Ars maior’ zusätzlich Buchstabe und Silbe sowie Barbarismen (GL IV); die Syntax bleibt unberücksichtigt. Auf Apollonios Dyskolos und andere Vorläufer stützt sich Priscian (6. Jh. n. Chr.), der das 17. und 18. Buch seiner ‘Institutiones grammaticae’ der Syntax widmet (GL II/III). Neben Donat, der vornehmlich im Elementarunterricht verwendet wurde, vermittelt vor allem Priscian das grammatische Wissen der Antike ins Mittelalter.
3.
Aussagen zu Valenz- und Dependenzaspekten im Einzelnen
Valenz- und Dependenzaspekte werden kaum direkt angesprochen. Doch finden sich in verschiedenen Kontexten Aussagen, die zeigen, dass die damit verbundenen grammatischen Phänomene bereits von antiken Grammatikern erkannt und berücksichtigt wurden. (Ich verwende im Folgenden teilweise die moderne Terminologie; vgl. aber 4.) 3.1. Vollständigkeit Der Satz (logos) wird von Dionysios Thrax (GG I 1, ⬘ 11) definiert als eine grammatisch richtige Verbindung von Wörtern, die einen vollständigen Sinn (dianoia autotele¯s) ausdrückt. Apollonios Dyskolos legt diese Definition (GG II, I 1 f.) seiner Syntax zugrunde (autotele¯s logos), spätere Grammatiker wiederholen sie. Priscian, der in seiner Syntax stark von Apollonios Dyskolos abhängig ist, definiert: Oratio est ordinatio dictionum congrua, sententiam perfectam demonstrans [Ein Satz ist eine kongruente Anordnung von Wörtern, die einen vollständigen Sinn ausdrückt.] (Institutiones grammaticae II 15, vgl. auch XVII 2/3). Vollständigkeit orientiert sich an der Bedeutung (dianoia; sententia), ist also vor allem semantisch bestimmt. Die Aussagen der Grammatiker stehen in der Tradition der aristotelischen und stoischen Dialektik. Ein vollständiger Satz muss Subjekt und Prädikat enthalten, damit sein Inhalt als wahr oder falsch bestimmt werden kann, und hierauf richtet sich das Interesse der Dialektiker. Aristoteles stellt dabei Nomen (Subjekt) und Verb (Prädikat) auf eine Stufe. Beide sind zur Bildung einer Aussage erforderlich; ein Verb allein bezeichnet „kein wirkliches Ding“ (Peri hermeneias 16b). Die Stoiker dagegen unterscheiden zwei Arten
16
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
von Ausdrücken (lekta): die vollständigen, z. B. Aussagen (axio¯mata), und die unvollständigen, die Prädikate (kate¯gore¯mata), die, obwohl unvollständig, dennoch eine vernünftige Vorstellung repräsentieren (Hülser Nr. 696, vgl. auch Nr. 874 ff.). Zur Vollständigkeit benötigt eine Aussage ein explizites Subjekt; der Ausdruck graphei [er-schreibt] gilt als unvollständig im Unterschied zu Sokrates graphei. Allerdings findet sich der Begriff des Subjekts bei den Stoikern nur mit Einschränkung (vgl. Baratin 1991, 201). Bei der Analyse der Prädikate gehen sie vom Verb aus, von dem her sie sowohl die grammatische Form des (logischen) Subjekts als auch der verbabhängigen Ergänzungen (prosthe¯che¯) charakterisieren (vgl. Baratin 1991, 199 ff.). Sie systematisieren die Verben nach den Kategorien ‘persönlich/unpersönlich’ und ‘vollständig/unvollständig’ (Hülser Nr. 791, vgl. auch Nr. 696, 792⫺799): (1) Verben, die allein mit einem Nomen im Nominativ eine vollständige Aussage bilden ⫽ persönliche vollständige Prädikate (symbama): Sokrates geht herum. (2) Verben, die mit einem Nomen in einem obliquen Kasus eine vollständige Aussage bilden ⫽ unpersönliche vollständige Prädikate (parasymbama): Es gereut den Sokrates. (3) Verben, die neben einem Nomen im Nominativ eine Ergänzung in einem obliquen Kasus benötigen, um eine vollständige Aussage zu bilden ⫽ persönliche unvollständige Prädikate (elatton e¯ kate¯gore¯ma bzw. symbama): Platon liebt, nämlich den Dion. (4) Verben, die neben einem Nomen in einem obliquen Kasus (als logisches Subjekt) eine Ergänzung in einem obliquen Kasus benötigen ⫽ unpersönliche unvollständige Prädikate (elatton e¯ parasymbama): Es ist … an … gelegen, nämlich dem Sokrates an Alkibiades. Da bei einem Teil der Fälle Verb und Prädikat zusammenfallen [(1) und (2)], wird nicht immer deutlich zwischen dem grammatischen Redeteil Verb und dem im Rahmen einer dialektischen Analyse der Aussage von der logischen Funktion her definierten Prädikat getrennt (zur Unterscheidung vgl. Hülser Nr. 570, 570A). Die Notwendigkeit einer Ergänzung ergibt sich aus den Bedingungen der logischen Aussagenanalyse, sie beruht auf einem semantisch-ontologischen Vollständigkeitskriterium und ist primär nicht gramma-
tisch begründet und kein inhärentes Merkmal des Verbs als Redeteil. Apollonios Dyskolos übernimmt die stoische Einteilung (III 155 ⫽ Hülser Nr. 794; vgl. auch III 187 ⫽ Hülser Nr. 795, sowie den Kommentar ebd., 946⫺949). Am Beginn seiner Syntaxdarstellung entwickelt er eine Art Weglassprobe (I 14 f.): Alle Elemente eines Satzes mit Ausnahme von Nomen bzw. Pronomen (in Subjektfunktion) und Verb (als Prädikat) können entfallen, ohne dass der Satz unvollständig wird. Da Apollonios Dyskolos ein intransitives Verb wählt (fallen), trifft dies für sein Beispiel zu. Es geht hier allerdings nicht um eine Charakterisierung von Verben, sondern um den Nachweis des Vorrangs von Nomen und Verb gegenüber den übrigen Redeteilen; an anderer Stelle (I 16) schreibt Apollonios Dyskolos im Einklang mit den Dialektikern dem Nomen die primäre Rolle zu. Dennoch geht er bei seinen weiteren syntaktischen Überlegungen fast nur vom Verb aus; ein eigenständiger Subjektsbegriff fehlt ihm wie den Stoikern ⫺ er spricht stattdessen immer vom Nominativ (onomastikos). Im vollständigen Satz fordert das Verb die Besetzung der Subjekt/(Nominativ)-Stelle, bestimmte Verbtypen benötigen zudem eine weitere Ergänzung in einem obliquen Kasus (I 46; III 8, 82). Apollonios Dyskolos unterscheidet zwischen notwendigen Ergänzungen und Angaben. Ein Satz wie: Platon lebt kann ergänzt werden durch im Hause; bei Verben, die Affekte eines Subjekts bezeichnen, kann die Ursache dieses Affekts genannt werden (Theon kommt um vor Trauer); in diesen Fällen benötigen die Verben aber die Ergänzung nicht (autoteleia [Nichtergänzungsbedürftigkeit]). Ein Satz wie Tryphon liebt ist dagegen ohne Ergänzung unvollständig (he¯mite¯les). Allerdings erkennt Apollonius Dyskolos (III 156, vgl. auch 158, 182), dass philei [liebt] auch ohne Ergänzung grammatisch richtig gebraucht werden kann, wenn nämlich allein ein Gemütszustand bezeichnet werden soll (dieser Mensch liebt); mit der Ergänzung (den Dionysios) gilt ihm der Satz jedoch als vollständiger (exergastikote¯ron). Damit ist das Phänomen freier Valenzen angesprochen. Priscian schließt sich eng an Apollonios Dyskolos an, auf den er sich häufig beruft: Weglassprobe (XVII 12/13), Vorrang des Nomens vor dem Verb (XVII 14), Notwendigkeit von Nomen und Verb zur Bildung eines vollständigen Satzes (XVII 12), stoische Systematik der Prädikate mit veränderter Termi-
3. Valenzverwandte Ansätze in der Antike
nologie (XVIII 4/5 ⫽ Hülser Nr. 798). Auch bei ihm fehlt ein eigener Subjektsbegriff, er spricht dafür von nomen oder nominativus (z. B. XVII 93). Im Zusammenhang der persönlichen ergänzungsbedürftigen Verben führt er dabei den Begriff der Transitivität (transitio) ein, stellt also eine Verbindung zur grammatisch-semantisch bestimmten Kategorie der transitiven Verben her. 3.2. Verbrektion Die Verbsyntax behandelt Apollonios Dyskolos vor allem im 2. Teil von Buch III (III 54 ff.). Die Relation Verb⫺Subjekt (⫽ Nomen im Nominativ) gerät kaum in den Blick; hier wirkt sich das Fehlen eines eigenen Subjektbegriffs aus. Auch ein Begriff für das Prädikatsnomen fehlt (vgl. z. B. II 47). Apollonius Dyskolos unterscheidet (II 48) zwischen Verben, die in sich vollständig sind (autotele¯s) und somit keine Ergänzung benötigen, und unvollständigen, damit ergänzungsbedürftigen Verben (elleipe¯s). Die Ergänzungsbedürftigkeit transitiver Verben ist semantisch begründet: die Verbbedeutung impliziert den Übergang einer Handlung (diabasis; metabasis) von einer Person auf eine andere Person/ Sache (III 148: pros hypokeimenon ti diabibazetai [geht über auf einen anderen Gegenstand]), fordert also eine Ergänzung „von Natur aus“ (III 83: rhe¯ma physei phere¯tai ep’ aitiatike¯n [das Verb fordert von Natur aus einen Akkusativ]). Fehlt bei einem transitiven Verb die Ergänzung oder steht diese im falschen Kasus, liegt ein Konstruktionsfehler (Soloecismus) vor (III 8). Da der Infinitiv als die allgemeinste, am wenigsten markierte Verbform (III 60: aparemphaton [nicht mitbezeichnend]) gilt, geht Apollonios Dyskolos zunächst von ihm aus. Handlungsleere Verben (III 58: Modalverben; III 67: unpersönliche Verben) müssen durch einen Infinitiv erweitert werden, der die jeweilige Handlung bezeichnet. Syntaktisch verhält sich der Infinitiv wie die entsprechende finite Verbform (III 78 ff.); dies gilt übrigens auch für das Partizip (III 190). Ausführlich wird die Rektion der Verben dargestellt (III 158 ff.). Die vom jeweiligen Verb bedingten unterschiedlichen Kasus werden semantisch begründet: Der Akkusativ steht, wenn eine Handlung gleich welcher Art (körperlich oder geistig) vom Subjekt ausgeht und sich auf ein anderes richtet (III 159, 168); der Genitiv wird benutzt, wenn das Verb ein (Mit-)Leiden (III 170, 173, 186) oder ein Besitzverhältnis ausdrückt (III 174); der Dativ ist erforderlich bei
17 einem Verb, das Erwerb, Nutzen, Gewinn (III 177: peripoie¯sis) oder eine gegenseitige Handlung (III 185) bezeichnet. Auch der weiteren Unterteilung dieser semantisch-syntaktisch bestimmten Verbgruppen liegen Bedeutungskriterien zugrunde. Mehrwertige Verben werden ebenfalls diskutiert, wobei wiederum das Phänomen der freien Valenz in den Blick gerät. Nach Apollonios Dyskolos ergibt sich aus dem Dativ in einem Satz wie: ich bringe dir den Wein notwendig der Akkusativ, da das Verb zwar ohne Dativ-Ergänzung verwendbar ist, bei Gebrauch der Dativ-Ergänzung aber auch die Akkusativ-Ergänzung benötigt (III 183). Bei Präfigierung (III 149) oder Kausativierung (III 153) ändert sich die Rektion des Verbs. Weitere Hinweise finden sich im Rahmen der Behandlung der Diathese. Bereits bei den Stoikern findet sich die Beobachtung, dass die Passivbildung nur bei einem Verb möglich ist, das eine syntaktische Verbindung mit einem Genitiv oder einem Akkusativ eingeht (poiei te¯n syntaxin), nicht bei einer Verbindung mit einem Dativ (Hülser Nr. 803, vgl. auch Nr. 696). Der gleiche Gedanke begegnet erweitert bei Apollonios Dyskolos: Der Übergang der durch das Verb bezeichneten Handlung auf etwas anderes (Transitivität) ist Voraussetzung der Passivfähigkeit (III 148 ff.) ⫺ im Gegensatz zu den (intransitiven) Verben ohne Übergangsbewegung (III 150: autopatheia). Verben, die ohne obliquen Kasus nur mit dem Nominativ konstruiert werden können, bilden im Gegensatz zu Verben, die eine Ergänzung benötigen, kein Passiv (III 157). Auch bei der Behandlung der Verbrektion dominieren semantisch-ontologische Kriterien. Die Rektion ist kein grammatikinternes Phänomen, die Notwendigkeit von Ergänzungen wie auch deren jeweilige Kasusform werden aus der Verbsemantik abgeleitet. Priscian übernimmt wesentliche Aussagen von Apollonios und bezieht diese auf das Lateinische. Vielfach stellt er dabei kontrastive Überlegungen an (bes. XVIII 157 ff.: illi ⫺ nostri; Attici ⫺ Romani); Verben der Sinneswahrnehmung etwa werden im Griechischen mit dem Genitiv, im Lateinischen mit dem Akkusativ konstruiert (XVIII 153). Ein Satz benötigt zur Vollständigkeit mindestens Nomen und Verb: nulla oratio sine iis completur [kein Satz ist ohne sie vollständig] (XVII 12). Ein Teil der Verben wird nur mit Nominativen verbunden (ad nominativos coniunguntur solos), andere benötigen oblique
18
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
Kasus (obliquos desiderant casus) (XVII 13): non enim omnia verba obliquos desiderant casus nominum vel pronominum, quomodo omnes obliqui casus verba desiderant, quoniam quaedam ex his perfecta sunt et absoluta, quaedam defectiva [nicht alle Verben benötigen Nomina oder Pronomina in obliquen Kasus, so wie alle obliquen Kasus Verben benötigen, da ja einige von ihnen (allein) vollständig und eigenständig sind, andere mangelhaft] (XVII 83). Solche absoluten Verben bilden allein mit einem Nominativ eine constructio perfecta (XVIII 135). Damit nimmt Priscian die Unterscheidung von ergänzungs- und nichtergänzungsbedürftigen Verben bei Apollonios Dyskolos auf. Allerdings können absolute Verben auch nicht-notwendige Erweiterungen (Angaben) haben (XVIII 135). Wie Apollonios unterscheidet Priscian (XVIII 136) einen transitiven und einen absoluten Gebrauch des gleichen Verbs bei semantischer Modifikation (Beispiel: amat). Auch für ihn ist der Infinitiv das verbum generale (XVIII 40), finite wie infinite Verbformen verhalten sich in Bezug auf Ergänzungen gleich (XVIII 156 f.). Auch Priscian geht wesentlich vom Verb aus, wenn er syntaktische Relationen im Satz beschreibt. Dies zeigt sich etwa in der Systematisierung der Verben nach dem Kriterium des verbspezifischen Kasusanschlusses (XVIII 127 ff.), in der Priscian wiederum Apollonios folgt. Im Rahmen von Ausführungen zum Genus verbi (genus sive significatio verbi […], quam diathesin Graeci vocant) behandelt Priscian auch den Zusammenhang zwischen Transitivität und Passivfähigkeit der Verben. Im Schlussabschnitt seiner Syntax (XVIII 157 ff.) stellt er ein kontrastiv angelegtes Lexikon der Verbrektion lat. und griech. Verben zusammen, das alphabetisch nach den griech. Verben geordnet ist. Mehr als Apollonios Dyskolos stellt Priscian den Gesichtspunkt der Transitivität, des Übergangs der Verb-Handlung auf ein anderes, in das Zentrum seiner Unterscheidung von Konstruktionstypen. Da dieser Übergang in der Verbsemantik gründet, ist die Einteilung einerseits semantisch orientiert, andererseits verbzentriert. Eine intransitive Ausdrucksweise (intransitiva elocutio) liegt vor, wenn kein Übergang stattfindet, etwa beim Gebrauch von Nominativen (XIV 15), bei der transitiven Ausdrucksweise richtet sich die vom Nominativ ausgehende Handlung auf eine andere Person, dafür ist ein obliquer Kasus erforderlich (XIII 23: non aliter igitur potest proferri is, in quem aliquid agitur,
nisi per obliquos casus [jener, auf den sich eine Handlung bezieht, kann nur durch oblique Kasus benannt werden]). Neben der intransitiven (XIV 14: percurrit homo excelsus) und der transitiven Konstruktion (XIII 23: Aristophanus Aristarchum docuit; tu mihi dixisti) nennt er die reziproke (XIII 23: Phemius se docuit) und die retransitive Konstruktion (XII 12: orare iussit […] ut ad se venias). Da Priscian ausführlicher als Apollonios Dyskolos die Syntax des Nomens in einem eigenständigen Abschnitt (XVIII 1⫺39) behandelt, gibt er auch Hinweise zur Form des Anschlusses an Nomina, vor allem an Adjektive, die eine Teilklasse der Nomina sind (z. B. XVIII 28: gloriosus laude). Den jeweils erforderlichen Kasus begründet Priscian auch hier semantisch, da die verschiedenen Kasus semantisch gefüllt sind; bei Verbalnomina orientiert sich der Kasus am syntaktischen Verhalten des zugrundeliegenden Verbs (XVIII 24 f.).
4.
Terminologie
Für die Beschreibung der valenzverwandten grammatischen Phänomene findet sich bei Apollonios Dyskolos keine einheitliche Terminologie. Dies zeigt sich vor allem in einer großen Zahl von Ausdrücken, die für die Bezeichnung der Verb-Nomen-Relationen verwendet werden. Am begrenztesten ist der Wortschatz zur Bezeichnung der Transitivität und Intransitivität von Verben. Hierfür wird vornehmlich metabasis ‘Übergang’ mit einer Reihe von Ableitungen (metabatikos; ametabatos) verwendet, daneben diabasis, ebenfalls mit Ableitungen (diabatikos; diabibazetai; adiabibastos). Die konkrete Bedeutung ‘Übergang einer Handlung von einer auf eine andere Person/Sache’ steht im Vordergrund; es handelt sich noch nicht um einen rein auf grammatische Relationen bezogenen Terminus. Wesentlich vielfältiger sind die Ausdrücke, mit deren Hilfe die Relation Verb⫺obliquer Kasus beschrieben wird. Wohl am häufigsten begegnet pheretai epi ‘zielt hin auf, bezieht sich auf’, manchmal auch das Kompositum sympheretai epi ‘stimmt überein, verträgt sich mit’. Neben der Verb-Kasus-Relation werden damit auch die Adverb-Verb- und die Präposition-Nomen/Pronomen-Beziehung bezeichnet. Oft finden sich aitei und apaitei ‘fordert, verlangt’, vornehmlich im Rahmen der Behandlung der Verbrektion.
19
3. Valenzverwandte Ansätze in der Antike
Daneben gibt es eine Vielzahl weiterer Ausdrücke, etwa Zusammensetzungen mit syn: synartatai ‘verknüpft, verbindet’; syndedetai ‘verbindet, fügt zusammen’; synechei ‘enthält, führt mit sich’; sympleketai ‘verbindet’; syntassetai ‘bezieht sich auf’; synteinei ‘bezieht sich auf, zielt hin auf’; synyparchei ‘besteht zusammen mit’. Weitere Möglichkeiten zur Benennung der Beziehung sind: epartatai ‘verbindet’; epidechetai ‘lässt zu, nimmt zu sich’; epize¯tei ‘begehrt, verlangt’; katanta ‘gelangt, nimmt zu s.’; paradechetai ‘nimmt an, erhält, nimmt zu sich’; paralambanetai ‘zieht an sich, verbindet sich mit’; proslambanei ‘nimmt zu sich’; charizetai ‘wünscht, stimmt überein mit’; cho¯rei ‘enthält’. Die große Zahl oft synonymer Ausdrücke verweist darauf, dass die Phänomene noch keine endgültige begriffliche Klärung erfahren haben. Auch zwischen Rektion des Verbs und Abhängigkeit vom Verb, also der Richtung der Verb-Ergänzung-Relation, wird terminologisch nicht geschieden; die gleichen Verben können verwendet werden, ggf. in passivischer Form. Priscian benutzt für die Beziehung zwischen Verb und Ergänzung die Ausdrücke iungi, adiungi, coniungi, construi, desiderare und exigere. Auch hier gibt es also noch keine einheitliche Terminologie. Die Richtungen der Relation werden nicht unterschieden. Die in der mittelalterlichen Priscian-Kommentierung seit dem 12. Jh. vorherrschenden Ausdrücke regere und dependere verwendet er noch nicht. Demgegenüber erscheint die Kategorie des Handlungsübergangs (transitio; transitive, intransitive), die sich bereits bei Apollonios Dyskolos findet, bei Priscian terminologisiert und als Grundlage syntaktischer Einteilungen (Konstruktionstypen; Verbklassen) ausgeweitet.
5.
Zusammenfassung
Bereits in der griechischen Grammatik werden valenzverwandte Phänomene aufgenommen und in den syntaktischen Beschreibungen berücksichtigt. Trotz der von der Dialektik vorgegebenen Grundlage einer SubjektPrädikat- bzw. Nomen-Verb-Struktur mit Vorrang des Nomens ist die konkrete Darstellung syntaktischer Probleme in großem Maß verbzentriert. Eine wichtige Rolle spielen dabei Valenzphänomene, während der Dependenzgedanke nicht auftaucht. Valenz wird vornehmlich in zwei Analysekontexten thematisiert, im Rahmen von Überlegungen
zur Vollständigkeit des Satzes (dianoia autotele¯s; oratio perfecta) und zur Verbrektion (katalle¯lia; sermo congruus). In Hinblick auf die Frage nach der Vollständigkeit eines Satzes werden, vielfach im Rückgriff auf die Stoa, notwendige Ergänzung, freie Valenz und Angabe unterschieden. Im Zusammenhang der Behandlung der Verbrektion werden die Verben nach ihrem jeweiligen Kasusanschluss klassifiziert. Unterschiedliche Verbsemantik bedingt Rektionsunterschiede. Die lateinische Grammatik nimmt diese Ergebnisse in teilweise reduzierter Form auf. Indem sie den Aspekt der handlungsfundierten Transitivität betont, gewinnt sie ein einheitlicheres syntaktisches Beschreibungskriterium, das das Verb und sein syntaktisches Verhalten deutlicher in den Mittelpunkt rückt, als dies die Tradition vorgibt. Das Kriterium erlaubt die Aufstellung von verborientierten Konstruktionstypen. Die syntaktische Form der Nominalgruppe wird stärker beleuchtet. Von verbbezogenen Abhängigkeitsstrukturen sprechen weder die griechischen noch die lateinischen Grammatiker; dieser Aspekt tritt erst in der mittelalterlichen Grammatiktheorie ergänzend zum Rektionsbegriff, der seinerseits nun auch terminologisch schärfer gefasst wird. Gemeinsam ist bis in diese Zeit, dass die syntaktischen Relationen auf eine semantisch-ontologische Basis bezogen werden.
6.
Literatur in Auswahl
Ax, Wolfram (1982): Aristarch und die „Grammatik“. In: Glotta 60, 96⫺109. Ax, Wolfram (1991): Sprache als Gegenstand der alexandrinischen und pergamenischen Philologie. In: Schmitter, Peter (Hg.) (1991), 275⫺301. Baratin, Marc (1991): Aperc¸u de la linguistique stoı¨cienne. In: Schmitter, Peter (Hg.) (1991), 275⫺301. Blank, David L. (1982): Ancient Philosophy and Grammar. The Syntax of Apollonius Dyscolus (⫽ American classical studies. 10). Chico, Calif. Bury, Robert G. (Hg.) (1987): Sextus Empiricus with an English translation. Bd. 4: Adversus Mathematicos. Against the Professors. Cambridge/ London. Buttmann, Alexander (1877): Des Apollonios Dyskolos vier Bücher Über die Syntax übersetzt und erläutert. Berlin. Grammatici Graeci (1878⫺1910). Hg. von R. Schneider, G. Uhlig u. a. 4 Tle in 11 Bden. Leipzig. ND Hildesheim 1979. ⫽ GG. Grammatici Latini (1855⫺80). Hg. H. Keil. 8 Bde. Leipzig. ND Hildesheim 1961. ⫽ GL.
20
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
Householder, Fred W. (1981): The Syntax of Apollonios Dyscolos. Translated, and with commentary (⫽ Amsterdam Studies in the Theory and History of Linguistic Science. III 223). Amsterdam. Hülser, Karlheinz (Hg.) (1987): Die Fragmente zur Dialektik der Stoiker. Neue Sammlung der Texte mit deutscher Übersetzung und Kommentar. 4 Bde. Stuttgart/Bad Cannstatt. Kemp, Alan (1986): The Techne´ Grammatike´ of Dionysius Thrax. In: Historiographica Linguistica 13, 343⫺363. Kemp, Alan (1991): The Emergence of Autonomous Greek Grammar. In: Schmitter, Peter (Hg.) (1991), 302⫺333. Kent, Roland G. (Hg.) (1967): Varro on the Latin Language with an english translation (⫽ The Loeb Classical Library). 2 Bde. London/Cambridge.
Pfeiffer, Rudolf (1978): Geschichte der klassischen Philologie. Von den Anfängen bis zum Ende des Hellenismus. München (2. Aufl.). Pinborg, Yan (1975): Classical Antiquity: Greece. In: Thomas A. Sebeok (Hg.): Historiography of Linguistics (⫽ Current Trends in Linguistics. Bd. 13). The Hague/Paris, 69⫺126. Schmitter, Peter (Hg.) (1991): Sprachtheorien der abendländischen Antike (⫽ Geschichte der Sprachtheorie, Bd. 2). Tübingen. Steinthal, Heymann (1890/1891): Geschichte der Sprachwissenschaft bei den Griechen und Römern mit besonderer Rücksicht auf die Logik. 2 Tle. Berlin (2. Auflage).
Kurt Otto Seidel, Essen (Deutschland)
4. Mit der Valenz verwandte Begriffe im Mittelalter: ein Überblick 1. 2. 3.
Verlangen und Erfüllung: Scholastik Potenz und Akt des Satzes: Modistik Literatur in Auswahl
1.
Verlangen und Erfüllung: Scholastik
Der Begriff Valenz war dem Mittelalter fremd. Ein fundamentaler Gedanke der mittelalterlichen Philosophie und Theologie war jedoch mit ihm grundsätzlich verwandt; er umfasste allerdings das ganze kreatürliche Sein. Der Gedanke besagt, dass die Seinsweise dieses Seins ein unaufhörliches Erfüllen des jedem Geschöpfe innewohnenden Verlangens ist, die gottgegebenen Möglichkeiten (die „Leerstellen“) zu aktualisieren. Und da die Sprache nichts anderes als Abbild dieser stets ergänzungsbedürftigen Welt war, galt dies auch für sie. Zur Klärung der hier in Frage kommenden Begriffe wie „Mangel“, „Übel“ etc. zieht man am besten einschlägige ontologische und epistemische Grundzüge des aristotelisch-dominikanischen Realismus heran, der das ganze Hochmittelalter souverän dominierte. (Zu weiteren Schulen vgl. Pinborg 1967.) Alle Erkenntnistheoretiker der Zeit waren ja Realisten, und die christlichen Philosophen müssen es immer sein (Gilson 1950, 259). Die christliche Philosophie war realistisch, da sie die vom subjektiven Einfluss unabhängigen, äußeren realia als solche untersuchte.
Aber die realia waren für sie die (ursprünglich aristotelischen) in re-Ideen, d. h. die universellen Wesenheiten, die Gott im Schöpfungsakt in die kreatürlichen Dinge eingegossen hatte: der Realismus war damit zugleich objektiver Idealismus (Sertillanges 1954, 429). Entscheidend war, dass diese aus der strengen Ordnung der Ideen bestehende Welt, der ordo universi, der menschlichen Erkenntnis zugänglich war. Durch die Erkennbarkeit der Ideen war die Vorrangstellung der Epistemologie vor der Ontologie gesichert ⫺ denn nur das Erkannte kann untersucht werden (Thomas von Aquin 1955, I, 84, 1). Hieraus ergab sich der enorme Wert der Sprache, denn sie war einfach mit der Erkenntnis identisch (Sertillanges 1954, 694). Sprache hieß ja im Mittelalter alles, was Ausdruck eines gegebenen Inhalts war, und Erkenntnis war Ausdruck der gotterschaffenen Ideen der Dinge. Vor allem war diese Erkenntnislehre äußerst optimistisch: intelligibile et intellectus sunt unum. Das hieß, dass im Erkenntnisakt das intentionale Sein des Objektes mit dem des Subjektes eins wurde. Im Erkenntnissubjekt zeigte sich dies als die seeleninnere species expressa, d. h. als das innere Wort, verbum cordis. Darin erschöpfte sich das sprachlich und epistemisch Signifikante. Das verbum vocis konstituierte nichts, für die Scholastik hatte es folglich nur die weniger wichtige äußere Mitteilungsfunktion. Die Modisten machten einen schließlich missglückten Versuch, seine Rolle stark zu betonen.
4. Mit der Valenz verwandte Begriffe im Mittelalter: ein Überblick
Mangel, Übel, Entbehren etc. als zu erfüllende „Leerstellen“ ergaben sich mit Notwendigkeit aus der Struktur des dominikanischen Realismus, dessen tragende Prinzipien die aristotelischen Dichotomien materia-forma und potentia-actus waren. Die erste Dichotomie, die Lehre des Hylemorphismus, war fundamental. Sie besagt, dass jede kreatürliche Entität aus den konstituierenden Prinzipien Materie-Form besteht. Zugleich legte sie die für das vorliegende Thema zentralen Begriffe Mangel und Erfüllung (Sättigung) als Prinzipien alles geschöpflichen Seins, Werdens und Sprechens fest. Die zweite Dichotomie Potenz-Akt ist eine Folge der ersten und mit dieser nahe verwandt. 1.1. Materie Materie als metaphysische Größe bedeutet nichtverwirklichte Möglichkeit. Es scheint eine Erfahrungstatsache zu sein, dass jedes Entstehen an reale Möglichkeiten gebunden ist. Eine Statue kann man aus einem Marmorblock machen, nicht aber aus der Luft. Aristoteles hat diese Erfahrung auf das ganze Sein und Werden ausgedehnt und damit die sehr einflussreiche Kategorie Materie begründet. Wenn nun keine Substanz wie ein Marmorblock als reale Materie für ein Werden vorhanden ist, so muss eine quasi irreale Kategorie materia prima herangezogen werden, eine reine Möglichkeit ohne jede weitere Realität. Materie selbst ist kein aktuell Seiendes. Als Möglichkeit ist sie voll und ganz auf Realisierung angelegt. Deshalb wird ihr in der scholastischen Literatur ein dynamischer Charakter zugewiesen. Sie ist „ein Streben nach Sein“ (Wirklichkeit), was zugleich ein Streben nach dem Guten (bonum) bedeutet, denn bonum convertitur cum ente [Gut und Sein sind austauschbar] (Thomas von Aquin 1955, I, 6, 3, ob. 1.). Folglich ist die Materie selbst mit Mangel an Sein gleichbedeutend, was seinerseits die Definition des Übels ist. Die ganze Natur ist eben immer „hinter etwas her“, weshalb die Materie ein Vermögen darstellt, eine Empfänglichkeit für gewisse Verwirklichungen, weil sie „ihrer ermangelt, ihrer beraubt ist, sie entbehrt, denn ihre Empfänglichkeit enthält sie schon“ (Sertillanges 1954, 333 f.). 1.2. Form Wirklich und erkennbar ist eine Entität erst durch die Form bzw. Idee, Wesenheit; sie befriedigt das Verlangen der Materie. Eine Be-
21
friedigung des natürlichen Verlangens ist in statu viae jedoch nie total, sie bleibt immer ein winziger Schritt. Deshalb ist jedes Weltding eine Mischung aus Möglichkeit und Wirklichkeit. Nur Gott ist actus purus [reine Wirklichkeit]; reine Materie wäre ein Nichts. Dies ist der letzte Grund des ewigen Strebens der ganzen Schöpfung, auch der Erkenntnis und Sprache, denn actus est prior potentia [Wirklichkeit ist vor Möglichkeit]. Die aristotelische Dichotomie MaterieForm soll diese Doppelheit der Weltdinge zeigen. Sie soll zugleich und vor allem den Wandel erklären, dem die ganze Kreatur (auch Erkenntnis und Sprache) unterliegt. Die Doppelnatur bedeutet jedoch keinen Dualismus. Die Form ist zwar wirklich, sie hat jedoch keine unabhängige Existenz: „Eigentlich gesprochen ist sie nicht, sondern es ist etwas durch sie; sie ist bloß Prinzip des Seins“ (Sertillanges 1954, 344). Was wir „Ding“ nennen, ist immer einfach, denn ens et unum convertuntur [Ding und eins sind austauschbar]: die Wissenschaft macht in ihm Unterscheidungen zu ihren eigenen Zwecken. 1.3. Potenz Nach dem Gesagten brauchen über die zweite aristotelische Dichotomie Potenz-Akt für das vorliegende Thema nur noch zwei Aspekte genannt zu werden. Zum einen kann die Potenz als ein jeder natürlichen Spezies zugewiesener Platz in der aus den Ideen bestehenden, strengen Weltordnung verstanden werden. So kommt beispielsweise der Idee humanitas alles Menschenmögliche zu, eine praktisch unerschöpfliche Fülle der Möglichkeiten, die jedoch durch die übrigen Ideen des ordo universi, z. B. durch bestia und angelus, eingeschränkt sind. Zum anderen ist die Aktualisierung des Möglichen eine gottgestiftete Verpflichtung, denn gerade darin bestand der Heilsweg der Seele. Entsteht nun im Inneren eines Menschen beispielsweise das innere Wort homo, so taucht sofort eine typisch menschliche Spannungslage auf. Dem innerlich ausgesprochenen Wort homo wird intuitiv-unmittelbar, als Gabe, die significatio [Bedeutung] humanitas geschenkt, die jedoch nur eine inhaltsleere quidditas [Identität] darstellt, die allgemeine Einsicht also, dass es sich um einen Menschen handelt. Homo eröffnet somit bloß einen äußerst breiten, leeren Rahmen, der eindringlich nach Ausfüllung sucht. Es ist die lebenslange Verpflichtung des Menschen, diese
22
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
„Leerstelle“ mit richtigem Inhalt zu füllen. Dies gilt für jedes kategorematische Sprachelement (Seppänen 1985, 62 ff.). 1.4. Akt Die Dominikaner waren aristotelische Intellektualisten. Sie versuchten vor allem nachzuweisen, dass die Aktualisierung der gottgegebenen Potenzen ⫺ die Schmälerung der „Leerstellen“ ⫺ nur mit Hilfe des Verstandes durchzuführen war. Das stärkste Argument hierfür leiteten sie von der Art des Erkenntnisaktes ab. Die Definition dieses Aktes kennen wir schon (vgl. 1): intelligibile in actu et intellectus in actu sunt unum, [im Erkenntnisakt sind Ding und Verstand eins]. Wird hier der Verstand als passiver intellectus possibilis aufgefasst, in den die aktive Wirklichkeit einströmt, so ist die Erkenntnis unfehlbares Abbild der Wirklichkeit, denn der Spiegel lügt nicht. Im gleichen Zusammenhang wird oft ein anderer wichtiger Satz angeführt: Erkenntnis ist Sein. Was im Akt der Erkenntnis nämlich eins wird, sind die ursprünglich göttliche Form des Objekts und das Erkenntnisvermögen. Da nun eine Entität nur durch die Form im vollen Sinne ein Seiendes, d. h. eine Substanz ist und als solche Teil des Erkennenden wird, so bedeutet jeder Erkenntnisakt einen Zuwachs des wirklichen Seins auf Kosten des Möglichen. Sehr wichtig ist, dass das Sein mit Gut gleichbedeutend ist, und dass Gott selbst das Sein schlechthin ist, Deus est esse. Die Konsequenz scheint unausweichlich: Erkenntnis bzw. Sprache als innerseelischer, unfehlbarer Ausdruck der göttlichen Ideenwelt leitet den Christen auf dem Wege zu Gott. Irrtümer ließ erst der aktive Verstand des Menschen entstehen. Hieß es im Mittelalter beispielsweise allgemein, die intuitiv-passiv empfangene Idee humanitas sei als animal rationale zu analysieren, so war jedem klar, dass diese Deutung, die nur ein menschliches Urteil [iudicium] war, sich einmal als unwahr erweisen konnte. Auch deshalb war es nur mit der größten Anstrengung möglich, die durch die Ideen eröffneten Lücken erfolgreich zu schließen. 1.5. Forschungslage Aus der Zeit vor Tesnie`re hat die Forschung der Neuzeit recht wenig mit der modernen Valenztheorie Vergleichbares zu bieten. In seiner „Sprachtheorie“ vom Jahre 1934 hat Karl Bühler (1982, 226 ff.) zwar mit ausdrücklichem Verweis auf die Scholastiker be-
hauptet, diese hätten mit dem Terminus connotatio, [Mitbezeichnung], die moderne Lehre der Leerstellen der Wörter begründet (Bräuer 1974, 267 ff.). Bühler stützt sich dabei auf John Stuart Mill, der ähnliche Behauptungen aufgestellt hat. Bühler und Mill gehen jedoch nicht auf die philosophischen Begründungen der Leerstellen ein. Außerdem kannten die Scholastiker (Schütz 1958) und Modisten das Wort connotatio praktisch nicht, obgleich der Begriff besonders bei den letzteren einer der wichtigsten war; der technische Terminus dafür war consignificatio. Als Theologen und Seelsorger begnügten sich die Scholastiker gemeinhin mit den philosophisch-theologischen Grundlagen des Sprachmangels. Ihre zumeist wenigen Beispiele betrafen unerfüllte Potenzen der Einzelwörter. Bezeichnend ist, dass in dem umfangreichen Buch von Franz Manthey über die Sprachphilosophie des Thomas von Aquin das Kapitel „Satz“ nur vier Seiten in Anspruch nimmt (Manthey 1937, 146 ff.). Die Modisten hingegen beschäftigten sich eingehend mit den Fragen der Syntax.
2.
Potenz und Akt des Satzes: Modistik
Auch die wichtigsten Modisten des Mittelalters waren aristotelische Realisten. Sie waren natürlich auch Theologen und Philosophen, denn Sprache hatte ja nur als wesentlicher Bestandteil der beiden Disziplinen einen einsehbaren Wert (ein reiner Linguist im modernen Sinn wäre eine gottlose und absurde Vorstellung gewesen). Somit war von vornherein klar, dass die philosophische Begründung der syntaktischen Potenz mit der der eben dargestellten der Einzelwörter (vgl. 1) prinzipiell zusammenfiel. In den modistischen Traktaten sind denn auch die vertrauten aristotelischen Dichotomien materia-forma und potentia-actus die tiefsten Erklärungsgrundlagen. Hinzu kommen noch die aristotelischen causa efficiens und causa finalis. Vorgreifend soll darauf hingewiesen werden, dass der Begriff der mangelhaften und vollständigen syntaktischen Fügung von dem modernen grundsätzlich abweicht. Eine Stellungnahme zur modistischen Syntax ist weitgehend auf die Diasynthetica (Kap. XLV⫺LIV) der Grammatica Speculativa des Thomas von Erfurt angewiesen. Thomas war zweifellos der Höhepunkt der kurzlebigen Modistik des Mittelalters (ca. 80
4. Mit der Valenz verwandte Begriffe im Mittelalter: ein Überblick
Jahre: 1270⫺1350) und seine Syntax ist die umfangreichste und am besten organisierte der Modistik. Die Grammatik von Thomas erschien gegen Ende der modistischen Ära und stellt eine Art Zusammenfassung praktisch aller wichtigen Ideen der früheren Modisten dar. Philosopisch vertrat Thomas einen gemäßigten Aristotelimus (Bursill-Hall 1972, 26 ff. und Pinborg 1967, 131 ff.). Auch die Pionierarbeit von Bursill-Hall über die modistische Semantik und Philosophie beruht wesentlich auf den Gedanken von Thomas. Der andere Pionier der Modistikforschung, Pinborg, schenkt der dänischen Schule der Dacer mehr Aufmerksamkeit und konzentriert sich stark auf die Geschichte und auf handschriftliche Quellen der Grammatiktheorie. 2.1. Ziel der Syntaxforschung Gegenstand der modistischen Syntaxforschung waren die Bedingungen des vollkommenen Satzes (perfectio). Die Vollkommenheit wurde jedoch nicht wie heute durch die Sprachkompetenz der Sprecher/Hörer bestimmt, sie wurde eher definitorisch festgelegt, und zwar mit philosophischen Argumenten. Drei Argumente waren maßgeblich. Erstens musste der perfekte Satz der außersprachlichen Realität entsprechen, so wie diese sich im modus intelligendi zeigte, denn sonst wäre er logisch falsch und sprachlich nicht kongruent. Das Verlangen des innerseelischen Verstandesurteils war aber bereits gesättigt, wenn mindestens zwei durch modi significandi zusammenfügbare Konstituenten vorhanden waren. (Als Abbild zeigte das Urteil ja, dass zwei entsprechende Ideen der Realität eine sinnvolle Kombination bildeten.) Zweitens hatte der starke Einfluss der Logik auf die Grammatik dazu geführt, dass die Grundform des Satzes aus zwei und nur zwei Elementen zu bestehen hatte. So meinte Thomas von Erfurt (1972, LIV, 119), lego sei vom Standpunkt des Hörers kein Satz, es müsse ego lego lauten, und lego librum Vergilii sei keine Grundform (kein einfacher Satz), darin seien zwei Syntagmen enthalten, nämlich lego librum und liber Vergilii. Zum dritten wurde die Zweigliedrigkeit (z. B. suppositum-appositum, d. h. Subjekt-Prädikat) durch den für die ganze Scholastik typischen aristotelischen Binarismus (Materie-Form, Potenz-Akt etc.) begünstigt (Thomas von Erfurt 1972, XLV, 89). 2.2. Das ergänzungsbedürftige Satzglied Die gegenseitigen Beziehungen dieser zwei Grundglieder wurden ausschließlich durch Dependenz bestimmt: das eine Glied war De-
23
pendent, das andere Terminant (Thomas von Erfurt 1972, XLV ff.). Schwierig war die Bestimmung des abhängigen und des determinierenden Gliedes, d. h. praktisch der Vorrangstellung des Substantivs oder des Verbs. Thomas von Erfurt (1972, LXVII, 91) gibt hierfür eine ganz allgemeine Definition: Illud autem constructibile est dependens, quod ratione alicuius modi significandi tantum petit vel exigit; illud vero constructibile est terminus, quod ratione alicuius modi significandi tantum dat, vel concedit. [Das Konstruktionsglied ist dependent, das aufgrund irgend eines Bezeichnungsmodus nur [um Ergänzungen] bittet oder [sie] verlangt; aber determinierend ist das Glied, das aufgrund eines Bezeichnungsmodus nur [Erfüllung des Verlangens] gibt oder gewährt.] Ähnliche Definitionen findet man oft, z. B. bei Radulphus Brito (vgl. Pinborg 1984, VII, 507): […] dependens est quid in potentia, quia est suae dependentiae terminum appetens. Terminus autem […] est quid in actu, quia est dependentiae terminum dans. [Dependent ist etwas Potentielles, da es nach der Terminierung seiner Abhängigkeit hungert. Terminant aber ist etwas Aktuelles, da es der Abhängigkeit die Erfüllung gibt.] Die von Thomas und Radulphus gegebenen Definitionen des abhängigen und determinierenden Satzgliedes beruhen ganz auf den aristotelisch-scholastischen Dichotomien Materie-Form und Potenz-Akt, die auch für die Einzelwörter galten. Thomas meint, dass das dependente, d. h. in sich mangelhafte Glied nur bittet oder verlangt, und das determinierende nur gibt oder gewährt. Radulphus ist noch deutlicher: Das abhängige Glied ist im Zustande der Potenz und hungert nach Erfüllung, die ihm das determinierende Glied als Akt gibt. Somit kann festgestellt werden, dass die (aristotelisch-realistische) Syntax der Modisten im Grunde durch Dependentien bestimmt ist. Bedingung einer Dependenz ist natürlich die Tatsache, dass das eine Glied des Satzes in sich mangelhaft (nur potentielles Glied) ist, d. h. eine „Leerstelle“ eröffnet, die ausgefüllt werden muss, damit ein Kernsatz vollständig wird. Über die Qualität der beiden Glieder geben deren modi significandi Auskunft. Auch in den Sätzen und sonstigen Syntagmen zeigt sich also das Streben des Menschen nach der Aktualität, was eine möglichst weitgehende Ausschaltung des bloß Potentiellen bedeutet, denn Gott selbst ist actus purus.
24
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
2.3. Stufen der Satzbildung Zur Bildung eines vollständigen Satzes sind drei hierarchische Stufen erforderlich, nämlich constructio, congruitas und completio. Erkennbar weden diese Stufen nach Thomas (1972, XLVI, 90) durch zwei Verfahren, per definitionem und per divisionem. Die Definition ergibt aufgrund der vier aristotelischen Ursachen, causa materialis, causa formalis, causa efficiens und causa finalis, das Wesen des Satzes, die Division [Analyse] des so definierten Satzes ergibt secundum sui posse [aufgrund seiner Potentialitäten], die im Sprachgebrauch möglichen Satzvariationen (Satztypen). 2.3.1. Constructio Constructio stellt gewisse grundlegende Voraussetzungen einer vollständigen syntaktischen Fügung fest, die durch Material- und Formalursache, Bezeichnungsmodi (modi significandi) und Dependenz bedingt sind. Bei den weiteren zwei Stufen geht es um die restlichen Bedingungen der Vollständigkeit. Die Materie z. B. des Satzes homo currit besteht aus den zwei constructibilia homo und currere. Der Terminus selbst sagt schon, dass die zwei eben als Materie nur mögliche Teile sind und als solche nach Behebung ihres Mangels suchen. Diese gewährt ihnen die causa formalis, und zwar durch die constructibilium unio [Vereinigung der Konstruktibilien], die den aktuellen Satz homo currit entstehen lässt. Verlangt wird ferner die Harmonie der modi significnadi der beiden möglichen Teile. Da nun homo den modus entis (Substanz) und currere den modus esse (Wandel) vertritt, ist eine Harmonie, d. h. ein sinnvoller Satz, möglich. Schließlich ist hier homo als Substanz das Terminans und currere als Akzidenz das Dependens. 2.3.2. Congruitas Materie und Form sind nach Aristoteles sogenannte innere Ursachen, denn sie sind innere Aufbauprinzipien alles Seins. Die auf diesen beruhende constructio war deshalb echt realistisch kein Ergebnis der menschlichen Bemühung, sondern der Natur selbst. Congruitas hingegen wurde durch die causa efficiens [Wirkursache] hervorgebracht, die Aristoteles zu den äußeren Ursachen zählte. Die äußere Ursache der congruitas war natürlich der aktive Intellekt des Menschen, wie Thomas betont (1972, XLV, 89 und XLVI, 90). Congruitas stand deshalb nicht ganz unter dem Dik-
tat der außermenschlichen Realität, sondern nur bezüglich ihres sogenannten inneren Teiles, der natürlich aus den hylemorphistischen Konstruktibilien bestand. Aber die Natur fügt die Konstruktibilien nicht zu kongruenten Einheiten, dazu ist ein äußeres Agens nötig. Dieser vorsichtige Konzeptualismus im Herzen des realistischen Zeitgeistes erleichtert das Verständnis der zwei letzten Stufen der modistischen Satzlehre. Erklärbar wird hierdurch die für die vom Standpunkt der Valenz interessante proprietas [Angemessenheit]. Sie scheint im normalen Verlauf der von Thomas sehr extensiv und minutiös explizierten Typen der Kongruenzen eine störende Ausnahme zu bilden. Als Beispiele der proprietas gibt Thomas (1972, LIII, 112) die Syntagmen cappa nigra und cappa categorica [schwarzer Mantel und kategorischer Mantel]. Nach seiner Ansicht sind beide Konstruktionen zwar kongruent, denn das dependente Adjektiv folgt gemäß seinem modus significandi in Genus, Numerus und Kasus in beiden Fällen regelrecht dem Diktat des determinierenden Substantivs. Aber nur das erste Beispiel ist proper, das letztere hingegen nicht. Nach Thomas’ eigener Lehre von Potenz und Akt müsste man sagen, dass die Potenz („Valenz“) des Adjektivs categorica durch ein Substantiv wie cappa nicht aktualisiert wird (der Mangel wird nicht behoben); m. a. W. cappa befindet sich nicht innerhalb des Potenzskopus von categorica. Und hier handelt es sich nicht nur um den Realismus (z. B. darum, dass es einen kategorischen Mantel nicht gibt), sondern um eine freie Entscheidung des Menschen selbst (des Intellektes), oder wie Bursill-Hall (1971, 309) betont, um die sprachlichen Kollokationen: so pflegt man nicht zu sagen. 2.3.3. Completio Die Satzbildung erreicht mit der Stufe der completio bzw. perfectio [Vollständigkeit] ihr Ziel. Completio befindet sich im Bereich der aristotelischen causa finalis [Zweckursache], sie soll somit auf die Frage nach dem Zweck des äußeren Satzes (des äußeren Urteils) die Antwort geben. Um eine solche Antwort haben sich die früheren Stadien nicht bemüht, weshalb es notwendig ist, zu diesen noch wichtige Aspekte hinzuzufügen. Die Antwort lautet: An die äußeren, materiellen Zeichen gebundene Sätze werden gebildet, um die komplexen Begriffe der Seele nach außen auszudrücken; und der Ausdruck muss exakt und vollständig sein. Die inner-
4. Mit der Valenz verwandte Begriffe im Mittelalter: ein Überblick
seelischen Urteile bestehen nun immer aus Substantiv und Verb, da ja das äußere Sein selbst aus Substanz [modus permanentis] und Bewegung [modus fluxus] besteht. So ist beispielsweise das verblose homo albus, das auf der Stufe der Kongruenz akzeptabel war, nicht vollständig, sondern lässt die Seele unbefriedigt: soll es nun homo est albus, homo erat albus etc. heißen? Erst wenn dieser Mangel durch die explizite Angabe des Verbs behoben ist, findet der Verstand Ruhe (quiescit). Der Sprecher muss allerdings nicht unbedingt unter einem solchen Mangel leiden, denn er wird in seinem Inneren den vollständigen Satz gehabt haben; dieser nicht ausgesprochene Satz heißt secundum intellectum [gemäß dem [inneren] Verständnis]. Er kann deshalb ruhig homo albus sowie lego sagen und beide Sätze für vollständig halten. Unbefriedigt ist aber der Hörer. Er wird die Konstruktionen homo est albus und ego lego verlangen, denn nur diese sind für ihn vollständig, d. h. sie sichern das exakte Verständnis des inneren Urteils. Das sind Sätze secundum sensum [gemäß dem [sprachlichen] Sinn]. Hier begegnen uns noch einmal außer dem metaphysischen Postulat der Realität (Substanz-Bewegung) der Einfluss der Logik auf die Grammatik und noch die lange Tradition, die alle für die strenge Zweigliedrigkeit Substanz-Verb plädieren. Bereits Priscianus stellte fest: Si tollas nomen aut verbum, imperfecta sit oratio [Würdest du Nomen oder Verb unterdrücken, so wäre die Rede unvollkommen] (Bursill-Hall 1971, 290, Anm. 15). Der Standpunkt des Hörers, der Satz secundum sensum, ist natürlich entscheidend, deshalb sind die Bedingungen der completio auch bei Thomas so rigoros: Kein ausgedrückter Satz darf dem Verstand zu Unruhe und Verlangen, d. h. zum Gefühl der unerfüllten Potenzen („Leerstellen“) Anlass geben. Thomas betont wiederholt, dass jede Konstruktion vollständig ist, die einen exakten Sinn im Verstande des Hörers entstehen lässt. Er gibt zugleich jedoch bereitwillig zu, dass diese Vollständigkeit im Verstande des Hörers nicht genau feststellbar ist. Sie kann unterschiedliche Grade der Perfektion aufweisen: einmal ist sie größer, ein anders Mal geringer. Deshalb werden Konstruktionen mehr oder weniger vollständig genannt. Und der Maßstab des jeweiligen Grades ist das Maß der Befriedigung der Seele des Hörers, d. h. das Maß der erfüllten oder unerfüllten „Leerstellen“ des Satzes: Nam ea magis perfecta est,
25
quae magis quietat animum auditoris; et quae minus quietat, minus perfecta erit. [Denn die Konstruktion ist vollständiger, die die Seele des Hörers mehr beruhigt; und diejenige, die weniger beruhigt, ist weniger vollkommen] (Thomas von Erfurt 1972, LIV, 117). Für Konstruktionen, die die wichtigste Bedingung der Perfektion, einen genauen Sinn zu ergeben (dem Streben des Verstandes Genüge zu tun), grob verletzen, gibt Thomas (1972, LIV, 118) u. a. die Beispiele Si Socrates currit und me legere. Zum ersteren sagt er, dass si im sonst einwandfreien Satz eine neue Dependenz von etwas schafft, was außerhalb des Satzes Socrates currit liegt und die Konstruktion für immer unvollständig lässt, wenn die fehlende Ergänzung nicht ausgedrückt wird. Me legere ist ebenfalls sehr unvollständig quia animum auditoris non quietat [da es der Seele des Hörers keine Ruhe gewährt]. Abschließend fasst Thomas das Gesagte noch so zusammen: Die Perfektion ist bei der Satzbildung nichts anderes als die letzte Stufe, die über die richtige Kombination der Konstruktibilien insofern hinausgeht, als sie fähig ist, den komplexen Begriff der Seele durch ein Verb auszudrücken und so in der Seele des Hörers einen vollständigen Begriff zu erzeugen.
3.
Literatur in Auswahl
Bräuer, Rolf (1974): Valenztheorie, ihre Geschichte, ihr aktueller Stand und ihre Möglichkeiten. In: Wissenschaftliche Zeitschrift der HumboldtUniversität zu Berlin. Gesellschaft- und sprachwissenschaftliche Reihe 3/4, 267⫺280. Bursill-Hall, Geoffrey (1971): Speculative Grammars of the Middle Ages (⫽ Approaches to Semiotics, vol. 11). The Hague/Paris. Bursill-Hall, Geoffrey (1972): Introduction to Grammatica Speculativa of Thomas of Erfurt, London, 1⫺26. Bühler, Karl (1982): Sprachtheorie. Nachdruck der Ausgabe von 1934. Stuttgart/New York. Dacus, Martinus (1961): De modis significandi. Hg. von Heinrich Roos (Corpus Philosophorum Danicorum Medi Aevi, vol. 2). Kopenhagen. Gilson, Etienne (1950): Der Geist der mittelalterlichen Philosophie (Frz. Original 1944: L’Esprit de la Philosophie Me´die´vale). Wien. Grabmann, Martin (1926⫺56): Mittelalterliches Geistesleben. 3 Bände. München. Manthey, Franz (1937): Die Sprachphilosophie des hl. Thomas von Aquin. Paderborn.
26
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
Oeing-Hanhoff, Ludiger (1981): Sein und Sprache in der Philosophie des Mittelalters (Miscellanea Mediaevalia, vol. 13/1). Berlin/New York. Pinborg, Jan (1967): Die Entwicklung der Sprachtheorie im Mittelalter (⫽ Beiträge zur Geschichte der Philosophie und Theologie des Mittelalters, Bd. XLII, Heft 2). Münster/Kopenhagen. Ders., (1984): Medieval Semantics. Hg. von Sten Ebbesen. London. Robins, Robert (1967): A short history of linguistics. London. Roos, Heinrich (1948): Sprachdenken im Mittelalter (⫽ Classica et Mediaevalia, vol. IX, 200⫺215). Kopenhagen. Schumacher, Helmut (1988): Valenzbibliographie. Mannheim. Schütz, Ludwig (1958): Thomas-Lexikon. Faksimile-Nachdruck der „zweiten, sehr vergrösserten Auflage“ von 1895. Paderborn. Seidel, Kurt Otto (1982): Quid sit dictonem regere dictionem. Aspekte der Verbvalenz in Grammatiken
des 12. bis 17. Jahrhunderts (⫽ Valenztheorie und historische Sprachwissenschaft). Tübingen. Sertillanges, Antonin-Gilbert (1954): Thomas von Aquin (Frz. Original 1910: Saint Thomas d’Aquin). Köln/Olten. Sigerus de Cortraco (1977): Summa modorum significandi sophismata. Ed. by Jan Pinborg (⫽ Amsterdam Studies in the Theory and History of Linguistic Science, vol. 14). Amsterdam. Thomas von Aquin (1955): Summa Theologiae (⫽ Biblioteca de autores cristianos, 5 Bände). Madrid. Thomas von Erfurt (1972): Grammatica Speculativa. Hg., übersetzt und eingeleitet von Geoffrey Bursill-Hall. London. Thurot, Charles (1964): Notices et extraits de livres manuscrits latins pour servir a` l’histoire des doctrines grammaticales au moyen aˆge (Frz. Original 1896). Nachdruck Frankfurt am Main.
Lauri Seppänen, Tampere (Finnland)
5. Valency-like Concepts in the Arabic Grammatical Tradition 1. 2. 3.
The Standard Model The Dogma of the Verb and Other Issues Select Bibliography
Because there exists a large degree of isomorphism between the overall conceptualization of grammar developed by the Arabic grammarians and many key aspects of modern valency theory as developed in the wake of Tesnie`re (1959), it is possible to summarize the Arabic tradition within its own terms, without adjusting or interpreting the framework in a way that takes special account of the audience this handbook is intended for. Without outlining the argument here, it can be shown that Arabic grammatical theory was conceived of basically in dependency terms, with the lexical categories instantiating the head (øaamil) and dependent elements (maømuwl) generally corresponding to those in the western tradition (Owens 1988 for details). A verb, for instance, is the governor of various objects, and a preposition of an object (see 1.1). The Arabic tradition effectively began with the grammar of the late eighth century linguist Sibawaih (d. 798), whose al-Kitaab ‘The Book’ is a compendious tome of nearly 1,000 densely-packed pages. With Sibawaih not
only was the subject matter of Arabic, what today is known as Classical Arabic, defined, but also the theoretical framework in which it was described, established. The additions and alterations which were effected over the next 100 years were more of organizational than of material or conceptual nature. Nonetheless, not least because of Sibawaih’s dense style, these were not inconsiderable, so that Ibn al-Sarraj’s 1,300 page al-øUsjuwl fiy l-Nahw “The Foundations of Grammar”, building on the work of his teacher Mubarrad (author of the Muqtadj ab), marked a significant milestone in defining the form of Arabic grammar, a form which has not changed in most essentials up to the present day. In section 1 I shall summarize ‘Arabic’ valency theory within the terms established by Sarraj, and in section 2 discuss various ramifications of this framework. Explicitly and implicitly this summary draws on the work of various Arabic authors, and critical studies on them in the western tradition. The bibliography contains a representative listing of the sources, not all of which are referred to explicitly in the text. At the outset I think a disclaimer is necessary. A six page summary can hardly do justice to a grammatical theory as sophisticated and variegated as the Arabic one.
5. Valency-like Concepts in the Arabic Grammatical Tradition
1.
The Standard Model
1.1. Basic Structure The basis of syntactic analysis in the Arabic model is the sentence which consists of two obligatory parts, a predicate and a nominative actant. In the course of time these two parts became generalized under various names as table 5.1. This central sentential unit, Topic/Agent and Predicate/Verb was known as the øumda lit. “support”, the predicative relationship as ?isnaad. These units developed out of an original bifurcated analysis of sentences: sentences which begin with a verb are ‘verbal sentences’ ( jumla fiøliyya, see (1)) with the two obligatory constituents verb ( fiøl) and agent ( faaøil) and those which begin with a nominative noun, nominal sentences ( jumla ismiyya (2)) with the two obligatory constituents topic (mubtada?, not to be confused with “subject”) and comment (xabar). There are various syntactic grounds for distinguishing these two types of sentences (e. g. agreement, pronominal coreference), and the nominal sentence has a more complex internal structure than summarized here. Further details are not necessary for the present exposition, however. (1)
Verbal sentence qaama ar-rijaal-u Verb Agent got up def-men-nom ‘the men got up’
(2)
Nominal sentence ar-rijaal-u qaam-uw Topic Comment def-men-nom got up-mpl ‘the men got up’
the functional and constituent relations, a further element of Arabic syntax, arguably the most central one since it is seen as tying together different parts of the sentence, is the dependency relation. The dependency structure of the nominal sentence (2), with implications for the valency interpretation, was one of the more frequently debated issues in Arabic grammar (e. g. Insjaaf 44 ff.) and cannot be gone into in here. In the verbal sentence (1) the agent ar-rijaalu depends on the verb qaama, which imparts its nominative (raf ø ) case to it. The verb governs an agent obligatorily, and optionally a series of further complements, collectively known as the fadj la lit. ‘leftover’, all of them governed in the accusative (nasjb) case. Prototypically these are conceived of as objects (maf øuwl, pl. mafaaøiyl), and traditionally are divided into two categories, the true objects and the pseudo-objects (sibh al-maf øuwlaat), the linguistic basis of this distinction being unclear (though see Astarabadhi I, 112 for late rationalization). There are five true objects and three pseudo-objects, as listed in (3) and illustrated in (4). (3)
(4)
It is noteworthy that the largest and most inclusive syntactic structure defining the sentence is conceived of in constituency terms, namely the notion “sentence” ( jumla or kalaam) containing two obligatory parts. The sentence constituents are fixed, functional categories (Verb, Agent etc.). In addition to
27
Objects: absolute object (maf øuwl mutjlaq), direct object (maf øuwl bihi), locative object (time and place, maf øuwl fihi or Îj arf ), reason object (maf øuwl lahu), accompaniment object (maf øuwl maøahu) Pseudo-object: circumstance (haal), exception (?istiθnaa?), specifier (tamyiyz) dj araba zayd-un øamr-an yawm-a Verb Agent DO Loc obj hit Zayd-nom Amr-acc day-acc al-jumøat-i wa xaalid-an Accomp. obj Friday-gen and Xalid-acc ?ikraam-an la-ka Reason obj respect-acc for-you ‘Zayd hit Amr on Friday along with Xalid out of respect for you’. (Astarabadhi I, 113)
Tab. 5.1.
Predicate/Verb
Topic/Agent
muxbar “what is reported” muhdaθ “what is talked about” musnad “what is placed upon”
muxbar øanhu “what is reported about” muhdaθ øanhu “that about which it is talked” musnad ?ilayhi “topic, that upon which something is placed”
(Levin 1981, Goldenberg 1988)
28
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
Objects stand in a special relationship to the verb, namely that of taødiya “transitivity” (lit. ‘passing, carrying over’). Prototypically transitivity is conceived of as a physical movement (Mubarrad Muqtadj ab III, 116). A verb componentially consists of a time element and an action. It is the action which someone or something (the agent) places upon (?awqaøa øalaa) or causes to happen (?ahdaθ) to this object. This notion of transitivity applies to objects other than the direct object as well (Muqtadj ab IV, 395). Objects, however, are not all of equal status in one important respect. Whereas every verb can occur with all other types of objects, verbs are severely restricted as to their co-occurrence with the direct object (maføuwl bihi). Verbs are divided into two main classes based on their transitivity vis a vis the direct object, intransitive and transitive. qaama in (1), for instance, is an intransitive verb (al-fiøl allaÎiy lam yataøaddi fiøluhu ?ilaa maf øuwl “a verb whose action does not carry over to an object”), lacking a direct object. The same verb, however, may optionally expand its other object complements freely. (5)
qaama zaydun qiyaam-an jtawiyl-an Verb Agent Absolute obj quddaam-a al-maktab-i Locative obj ‘Zayd stood up a long time (a long standing) in front of the desk’.
Transitive verbs are divided into four subclasses based on the number of direct objects they take, and their status relative to obligatory occurrence. First are those like dj araba in (4), which are simple transitive verbs (mutaøaddiy ?ilaa maf øuwl waahid). Second are ditransitive verbs, which are further divided into two sub-classes. Verbs like ?aøtjaa “give” are opposed to ditransitive like Îj anna “think” in that the former type may occur optionally with a single object, whereas the latter requires two: (6)
a. ?aøtjaa zaydun sjaahib-a-hu gave Zayd friend-acc-his (dirham-an) dirham-acc ‘Zayd gave his friend (a dirham)’. b. Îj anna zaydun sjaahib-a-hu thought Zayd friend-acc-his øaalim-an learned ‘Zayd thought his friend learned’.
That verbs such as Îj anna should be considered ditransitive follows from the basic fact that its two complements are marked by the accusative case typical of objects. The fact that both of its objects are obligatory (laa taqtasjir øalaa maf øuwl waahid “you can’t restrict yourself to one object”) is explained by the fact that the ‘underlying’ structure of the two complements is a nominal sentence of the type illustrated in (2) above (i. e. sjaahibuhu øaalimun “his friend is learned”) upon which the verb Îj anna ‘enters’, imposing its governance structure, and changing the functional status of the two complements. Just as the two constituents in the nominal sentence are obligatory (see discussion above), so too are the two objects obligatory here. Verbs like ?aøtjaa ‘give’, on the other hand, may occur with two direct objects, or with one (either one; see Jurjani Dalaa?il, 118 for discussion of transitives occurring with no direct object complements). Finally there are tri-transitive verbs derived from the type (6b) via a causative affix (e. g. ?aølama ‘inform s. o. that’, see 1.4), and tritransitives derived via a refunctionalization of locatives complements (see Versteegh 1990 for notion of saøat al-kalaam ‘extension of function, refunctionaliztion’). Among the transitive verbs are also those whose direct objects are marked by a preposition, so that in marar-tu bi-zayd-in ‘I passed by (⫽ bi) Zayd’ marra ‘pass by’ is a verb whose object necessarily is marked by bi. The basic valency classification of verbs is of formal nature based on the number of direct objects each takes, a criterion which, in the standard grammars, is used to sub-divide chapters in the exposition of verbs. Sarraj (I, 169) attempts to establish a semantic correlation to transitivity under the criterion that all verbs whose inherent action encounters and affects the object (yulaaqiy say?an wa yu?θir fiyhi) like dj araba ‘hit’ are transitive, while those which do not are intransitive, like tjaala “become tall” or qaama ‘get up’. For the most part, however, this definition is a semantic characterization of an already fixed syntactic division of verbs. Sarraj introduces further semantic criteria, including verbs which encode a movement towards (harakat li-l-jism) like qaama ‘stand up’, those which represent an innate but physically perceptible quality (xilqa) like tjaala ‘become tall’, and those which represent an inherent state (nafs) like hasuna ‘be good’. These semantic components, however, potentially cross-classify transitivity, so that, for instance, the verb ?ataa “come” in
29
5. Valency-like Concepts in the Arabic Grammatical Tradition
?atay-tu zay-dan ‘I approached Zayd’, a verb of movement towards a body, is transitive (mutaøaddiy), on the basis of its accusative object. That Sarraj (I, 170) notes that verbs of the senses (hawaas, like samiøa ‘hear’) are all transitive might be interpreted as suggesting that such verbs do not fit well in the basic semantic definition of transitivity given above. Where Sarraj’s semantic definition correlates better with a syntactic category concerns the class of ditransitives whose two direct objects are obligatory (see 6b). These are noted all to be verbs which do not affect the object (I, 180). It may be briefly noted that semantic valency (co-occurrence) relations also exist between the verb and certain other of the object complements. The absolute object in particular in subject to the general constraint that it must be cognate to the verb which it is governed by in form (in some circumstances meaning suffices). Thus in (4) the absolute object dj arb-an ‘hitting, a hard hitting’ could be added to the sentence, but not, say qiyaam-an “sitting”, which has no formal or semantic relation to the verb. 1.2. “Be” The verb “be”, kaana has a special status in the Arabic valency concept. Its complements have the same case marking as do transitive verbs (agent ⫽ nominative, complement ⫽ accusative) and its morphology is unmistakeably verbal. (7)
kaan-at hind-u ¥aniyy-at-a-n was-f Hind-nom wealthy-f-acc-indef. ‘Hind was wealthy’.
In other respects, however, it differs from what are termed “true verbs” (al-?af øaal alhaqiyqa) in that it has no passive (see 1.4) and it has no inherent lexical meaning, other than to distinguish tense. Most importantly, however, kaana is regarded as being imposed upon the basic nominal sentence type (see e. g. (2)), “entering” (daxala) the Topic-Comment structure, and changing only the form of the complements, but not the basic meaning. Accordingly its valency frame is terminologically distinguished by naming the noun analogous to the agent the “noun” (ism) of kaana, its complement the xabar. It can be noted that a range of verbs (termed kaana wa ?axawaatuhaa, “kaana and its sisters”) belong to the same class as kaana, including ?asjbaha “become”, Îj alla ‘remain’, sjaara “become”, maa zaala ‘continue’, laysa ‘be not’ …
1.3. Derivational and analogous forms Valency relations of the verb carry over to participial and verbal noun constructions, though the discussion of these constructions relates more to the case form of the complements than to valency relations in general, so there is not (I believe) so detailed a discussion in these instances as to the range of “objects” allowed as with the finite verb. It is largely self-evident (though see Zajjaji Iydj aah, 135 ff.) to the grammarians that related to the finite sentence ?akala al-?akl-a “he ate the food” is the participial (?aakil) construction, haaÎaa ?aakil-un al-?akl-a ‘this one will eat the food’, with the direct object (termed maf øuwl bihi in both cases) in the accusative. In this instance the greatest discussion centers on aspectual matters relating to different case marking possible on the object, not on the range of complements which a participial governor allows. Similar considerations apply to the passive participle and verbal noun. Beyond the regular derivational forms are a range of constructions which may be termed analogical verbs. These either are not strictly speaking verbs, or are awarded verbal status only by a part of the community of grammarians. What they have in common is a meaning and a power of governance which likens them to verbs. For instance, øalay- in (8)
øalay-ka zayd-an on-you Zayd ‘You take Zayd’.
is, morphologically, and in normal morphosyntactic categorization, a locative noun. In this instance, however, it has the valency frame of a transitive verb so it takes an accusative direct object complement, has the meaning of a verb, and is considered to have assumed the position of a verb (qaam maqaam al-fiøl). Various classes of words have a similar status (ism al-fiøl “nominal verb” (see Larcher 1992), as in (8), fiøl at-taøajjub “verb of surprise”, niøma, bi?sa ‘how good/ bad’). 1.4. Diathesis Regular changes in the actant structure of sentences, generally associated with a change in verb form, were dealt with in various parts of the Arabic grammar. The most basic relationship was probably the active-passive one. Actives are implicitly taken as basic, and in passivization the agent is removed (hence a common name for the passive construction,
30
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
“the verb whose agent is not named ”, al-fiøl allaÎiy lam yusamma faaøiluhu). A promotional scale determines which ‘remaining’ actant takes the position of the agent, thereby assuming the nominative case of the “representative of the agent”, derived subject, (naa?ib al-faaøil) as it became known after the twelfth century. The scale is direct object (transitive, di- or tri-) ⬎ absolute object ⬃ locative object. That is, if a direct object is present, it assumes the agent position, thereafter absolute or locative object. For example, if (4) were passivized, the direct object would be promoted. (9)
dj uriba øamr-un yawma al-jumøati … ‘Amr was beaten on Friday …’
Had the original sentence not contained the object øamran, the locative could assume the agentive position: (10) dj uriba yawm-u al-jumøati … ‘On Friday it was beaten …’ It follows that intransitives allow passivization as well, since they always have a complement available (locative or absolute object) to assume subject status. In the later tradition at least, causative diathesis, the increase of actants, is not encoded in special terminology as is the passive, though it is described systematically. Thus, given dj araba zaydun øamran ‘Zayd beat Amr’, a causative ?adj rabtu zayd-an øamr-an is formed with the meaning ‘I made Zayd beat Amr’. In Sarraj, who is generally representative, the double object verb ?adj rab is described in the chapter headed “the verb which is transitive to two objects” (Sarraj I, 177), and is thus treated conceptually among inherently ditransitive verbs like kasaa ‘clothe’ or ?aøtjaa ‘give’. Systematic correspondences between verb form and diathetic relations are often treated separately from the syntax, in the morphology section (e. g. in Sarraj III, 116 ff.). This is probably in part because of the traditional division of description between morphology and syntax, though partly perhaps also due to the fact that, other than the passive, syntactic diathesis does not correspond completely with morphological changes. The passive verb form is known as the “form of the unknown” (mabniy or binaa? al-majhuwl). Derived verb forms frequently related to an increase in actants are duly noted, e. g. those with the prefix ?a- (dj araba ⫺ ?a-dj raba ‘hit, make s. o. hit’ above) or those with a doubled
second consonant (samuna/sammana ‘become fat/make fat’), though as these derivational correspondences are irregular they are simply listed as one semantic association among others. A significant number of verbs with the ?a- prefix have the meaning of ‘becoming’ (?a-sjbaha ‘become’, ?a-msaa ‘become evening’), for example. It may be noted, however, that in some later works (e. g. Zamaxshari, 257 ff.) the syntactic and morphological aspects of diathesis are treated together.
2.
The Dogma of the Verb and Other Issues
2.1. The Verb As will have become clear in this very brief introduction, valency questions permeate into all reaches of Arabic grammatical practice. While the core of the Arabic tradition centers around descriptive grammar, conceptual categories of the type outlined in section 1, a not insignificant metatheoretical discussion developed around questions relating to the status of the categories themselves, and to the status of the linguistic exponents realizing them. Among the first works of this genre is Zajjaji’s Iydj aah (Versteegh 1995). One important discussion in this direction which relates directly to valency centers on the relation between the verb and the accusative case. It was observed that the verb is the governor par excellence of the accusative case. As seen above, a verbal dependent is typically governed in the accusative. There are instances, however, where an accusative appears which is not self-evidently governed by the verb. These include the following two cases: (11) a. Complements of ?inna “indeed” ?inna zayd-an kariym-un indeed Zayd-acc generous ‘Zayd is indeed generous’. b. Locative complements in nominal sentences zayd-un quddaam-a al-bayt-i Zayd-nom in front-acc house-gen ‘Zayd is in front of the house’. Within the terms of a generalizing framework with claims to be able to explain aspects of linguistic form, it was argued that in both of these cases a ‘verbal’ governor or a resemblance to a verbal governor in fact motivates
31
5. Valency-like Concepts in the Arabic Grammatical Tradition
the accusative case. In (11b), according to the standard view (Anbari Insjaaf, 245), there is an assumed (muqaddar) verb which had been deleted (huÎifa) from the ‘surface’ structure, a verb with the value of ?istaqarra ‘remain’ (or the active participle mustaqirr, Lumaø, 112). The lexical value is reconstructed from the syntactic (accusative complement) and semantic (locative meaning) valency frame of the construction. In (11a) it was claimed (Zajjaji Iydj aah, 64, Anbari Insjaaf, 178) that the particle ?inna (along with four other morphemes) has the force of a transitive verb in a number of respects, for instance it has a similar form to a perfect verb and it has a verbal meaning, namely “assert” (Larcher 1990, 1992 for a pragmatic perspective). In both cases the valency structure of a transitive verb is taken as the prototypical frame for accusative form. 2.2. Historical perspective This exposition is generally representative of Arabic theory as it became fixed in the early tenth century and thereafter. As noted above, it is also broadly commensurate with earlier grammatical descriptions, such as we know of them, though there are differences worth exploring in systematic detail, such as, with a few exceptions (Owens 1990, Talmon 1997), has not been done to date. For instance, in the earliest grammarian, Sibawaih (I, 10 ff.), the notion of transitivity (taødiya) was essential, though in his treatment active and passive sentences are conflated in ergative-like fashion, so that an intransitive verb like Îahaba ‘go’ was introduced in the same chapter as a passive transitive verb like dj uriba ‘was hit’. In this description both the subject of an intransitive verb and the object of a transitive passive verb have in common the fact that they are governed in the nominative case by the verb, and that this verb is not transitive to an object complement. In Sibawaih, as opposed to later treatments (see above), the object was not promoted to subject or subject-like status. Though no extant grammars of his exist, the work of Farra?, the only other very early grammarian for whom a large corpus exists, is also worth mentioning. His opus magnum is a textual study of various aspects of the Qur?aan, many of the topics being of linguistic nature. His descriptions are often less technical than Sibawaih, for instance the verb taraa ‘you see, consider’ is said to ‘require two things’, not two objects, ‘to put in the
accusative case’, (Maøaaniy II, 215). Nonetheless, the categories which he distinguishes are generally analogous to those of Sibawaih, in this case for instance, the identification of taraa as a ditransitive verb. From its inception, therefore, the Arabic tradition was defined by concepts which by and large are isomorphic with modern valency grammar. That traditions so separated by time and culture should describe language in similar conceptual terms is cause for reflection.
3.
Select Bibliography
Primary (date of death of author in brackets) Al-Farra?, Abu Zakariyya (822). Maøaaniy alQur?aan. Ed. by Mohammad Al-Najar and Atmad Najatiy. Beirut: øAlam al-Kutub (no date). al-Astarabadhi, Radj i l-Din (1286). Sharh Kitaab alKaafiya. Beirut: Dar al-Kutub al-øIlmiyya (no date). Ibn Al-Anbari, Abu Barakat (1187). Al-?Insjaaf fiy Masaa?il al-Xilaaf bayna l-Nahwiyyiyna l-Basjriyyiyna wa l-Kuwfiyyiyna. Ed. by M. øAbd al-Hamid. Beirut: Dar al-Fikr (no date). Ibn Al-Anbari, ?Asraar Al-øArabiyya. Ed. by M. alBitjar, Damascus: Al-Majmaø Al-øIlmi l-øArabi, 1957. Ibn Jinniy, Abu al-Fatt (1002). Al-Lumaø fiy aløArabiyya. Ed. by Husayn Sharaf, Cairo: øAlam alKutub, 1978. Ibn al-Sarraj, Abu Bakr (928). Al-?Usjuwl fiy alNahw. Ed. by A. al-Fatli. Beirut: Mu?assasat alRisaala, 1985. Jurjani, øAbd al-Qahir (1078). (a). Al-Muqtasjid fiy Sharh al-?Iydj aah. Ed. by K. B. al-Murjan. Baghdad: Ministry of Culture and Information, 1982. Jurjani, øAbd al-Qahir, (b) Dalaa?il al-Iøjaaz. Ed. by Mohammad Ridj a. Beirut: Dar al-Maørifa, 1978. Mubarrad (898). al-Muqtadj ab. Ed. by M. al-Xaliq øUdj ayma. Beirut: øAlam al-Kutub (no date). Sibawayhi, Ibn øUthman (793). Al-Kitaab. Ed. by H. Derenbourg. Hildesheim: Georg Olms, 1970. Ibn Ya‘ish, Muwaffaq al-Dıˆn (1228). Sharh al-Mufasjsjal, Vol. 1⫺10. Cairo: Maktaba al-Mutanabbi and Beirut: øAlam al-Kutub, n.d. Zajjaji, Abu l-Qaˆsim (949). Al-?Iydj aah fıˆ øIlal alNahw. Ed. by Mazin al-Mubarak, Beirut: Dar alNafa’is, 1979. Zamaxshari, Abu l-Qasim (1154). Al-Mufasjsjal fıˆ løIlm al-øArabi. Beirut: Dar al-Jil, n.d.
32
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
Owens, Jonathan, (1990): Early Arabic Grammatical Theory: Heterogeneity and Standardization. Amsterdam.
Koerner, Konrad/Niederehe, Hans-Josef/Versteegh, Kees (eds.): History of the Language Sciences. Berlin. Taha, Zeinab Ahmed (1995): Issues of Syntax and Semantics: A Comparative Study of Sibawayhi, AlMubarrad and Ibn as-Sarraaj. PhD Georgetown University. Taha, Zeinab Ahmed (1996): Semantic Valence in Tenth-Century Arabic Grammar: The Case of Ibn as-Sarraaj’s Usuul Fil Nahw. In: Jankawsky, Kurt R. (ed.): Multiple Perspektives on the Historical Dimensions of Language. Münster, 281⫺289. Talmon, Rafael (1997): Arabic Grammar in its Formative Age. Leiden. Tesnie`re, Lucien (1959): Ele´ments de Syntaxe Structurale. Paris. Versteegh, Kees (1990): Freedom of the Speaker? The Term Ittisaaø and Related Notions in Arabic Grammar. In: Versteegh/Carter (eds.), 281⫺293. Versteegh, Kees, (1995): The Explanation of Linguistic Causes. Amsterdam. Versteegh, Kees/Carter, Michael (eds.) (1992): Studies in the History of Arabic Grammar II. Amsterdam.
Owens, Jonathan (to appear): The Structure of Arabic Grammatical Theory. In: Auroux, Sylvain/
Jonathan Owens, Bayreuth (Germany)
Secondary Goldenberg, Gideon (1988): Subject and Predicate in Arabic Grammatical Tradition. In: Zeitschrift der Deutschen Morgenländischen Gesellschaft 138, 39⫺73. Larcher, Pierre (1990): Elements pragmatiques dans la theorie grammaticale Arabe post-classique. In: Versteegh/Carter (eds.), 195⫺212. Larcher, Pierre, (1992): La Particule Laakinna vue par un grammairien Arabe du XIIIe sie`cle. In: Historiographia Linguistica 19, 1⫺24. Levin, Aryeh (1981): Al-Musnad, al-Musnad ’Ilayhi and al-’Isnaˆd. In: Journal of the American Oriental Society 101, 145⫺67. Owens, Jonathan (1988): The Foundations of Grammar: an Introduction to Medieval Arabic Grammatical Theory. Amsterdam. Owens, Jonathan, (1989): The Syntactic Basis of Arabic Word Classification. In: Arabica 36, 211⫺ 34.
6. Valenzverwandte Ansätze in Humanismus und Aufklärung: ein Überblick 1. 2. 3. 4. 5.
1.
Der Kontext der Entwicklung der europäischen Sprachwissenschaft Zum Valenzbegriff in der Tradition der Grammatik Exemplarische Valenzansätze in Renaissancegrammatiken Valenzbeschreibungen in Grammatiken der Aufklärung Literatur in Auswahl
Der Kontext der Entwicklung der europäischen Sprachwissenschaft
Sieht man von anderen sprachtheoretisch interessanten Fragen wie nach dem Sprachursprung, der Vielfalt sprachlicher Ausprägungen oder dem Sprachwandel (exemplarisch in Dantes Programmschrift De vulgari eloquentia, entstanden ca. 1305, Erstdruck 1577) ab, so konzentrieren sich die sprachwissenschaftlichen Bemühungen des späten Mittelalters vor allem auf das Gebiet der Grammatik, die in zwei Erscheinungsformen präsent ist: a) als philosophische Begründung des durch die an-
tiken Autoritäten Aelius Donatus (4. Jh.) und Priscianus (6. Jh.) überlieferten Kategoriensystems und b) als Anwendung bzw. Vermittlung dieses Systems im Sprachunterricht an höheren Schulen und Universitäten. Im Kern umfaßt die Grammatik die Lehre von den Wortarten (partes orationis) und Ansätze zur Syntax (de constructione), die aber im allgemeinen nur Probleme der Kongruenz bzw. Konvenienz der Wörter im Satz, also typische Erscheinungen stark flektierender Sprachen behandeln. Tatsächlich bleiben viele Arbeiten zu dieser Grammatik, vor allem im pädagogischen Bereich, in der Wortartenlehre stecken. Probleme der Wortgruppensyntax (z. B. Rektion, Transitivität, vgl. auch Helbig 1978, Hopper/Thompson 1980) werden oft integriert bei den einzelnen Wortarten, d. h. unter bestimmten Akzidentien (z. B. Kasuslehre, Verbdiathese, species von Verben) behandelt. Objekt- und zugleich Leitsprache ist noch uneingeschränkt Latein, das zudem als wissenschaftliche Interlingua und grammatische Metasprache gilt. Hinweise auf andere Spra-
6. Valenzverwandte Ansätze in Humanismus und Aufklärung: ein Überblick
chen haben meist nur erklärende und/oder didaktische Funktion. Mit Renaissance und Humanismus ändert sich das Bild: Denn erstens werden nun ⫺ im Rahmen übergreifender Säkularisations- und Pragmatisierungsprozesse ⫺ die sog. Volkssprachen (linguae vulgares) um ihrer selbst willen interessant und zunehmend Gegenstand grammatischer Kultivierung, wobei gezielt auf in der Antike entwickelte Sprachrichtigkeits- und Klassizitätsmodelle (z. B. Varro, Quintilian, vgl. Siebenborn 1976) zurückgegriffen wird; und zweitens verlagert sich der Schwerpunkt grammatischer Bemühungen deutlich von der Systemtheorie der Grammatik auf die deskriptive Erfassung einzelner Sprachen (Percival 1975, Padley 1985, 1986, Cherubim 2001a), an denen die tradierte Systematik überprüft und ⫺ gegebenenfalls ⫺ modifiziert werden kann. Die Folge davon ist eine die Entwicklung der neuzeitlichen Sprachwissenschaft bestimmende, neue Zweiteilung der Aufgaben des Grammatikers, die allerdings in der Praxis nicht immer durchzuhalten war: (1) Rechtfertigung der Prinzipien (rationes) der grammatischen Organisation von Sprachen, vor allem durch die Entwicklung einer allgemeinen oder universalen Grammatik, die zunächst die philosophischen Ansätze des Mittelalters auf einer anderen Ebene fortführt (z. B. bei Julius Caesar Scaliger, vgl. Jensen 1990), dann aber neue philosophische Begründungen, z. B. in den Systemen von R. Descartes, Ch. Wolf oder I. Kant, sucht (vgl. Salus 1976, Lenders 1976, Naumann 1986, 46 ff.); (2) eine vornehmlich auf literarische Texte gestützte Analyse der Struktur einzelner Sprachen, zunächst im Interesse kulturpatriotischer und bildungspolitischer Konzepte (Hauptsprachenidee, Standardisierung, vgl. Huber 1984), später auch als Teil kulturgeschichtlicher, anthropologischer oder naturhistorischer Modellierungen (z. B. bei Johann Christoph Adelung, vgl. Bahner 1984). Versuche, beides (Linguistik und Philologie) miteinander in Einklang zu bringen, lassen sich bereits in der Barockzeit (z. B. in den Werken von Gerardus Johannes Vossius, vgl. Leonhardt 2001), erkennen.
2.
Zum Valenzbegriff in der Tradition der europäischen Grammatik
Valenz gilt ⫺ auch heute noch ⫺ als Phänomen zwischen Lexik und Grammatik: Sie betrifft innerhalb der Darstellung gerichteter
33
Strukturen im Satz die Ausstattung einzelner Elemente von Wortklassen (vornehmlich der Verben) mit bestimmten grammatischen, semantischen und/oder pragmatischen Umgebungen und sie gehört zu den in der Grammatik zu beschreibenden Regelhaftigkeiten der Wortfügung und Satzkonstruktion. Valenzen werden daher entweder in Wörterbüchern aufgeführt, als prinzipielle syntagmatische Möglichkeit in der Lexikologie erläutert oder als hierarchische Strukturen in Syntaxen entwickelt. Valenzbeobachtungen lagen zunächst zum Verb vor, dessen konstitutive, strukturbildende Leistungen in Sätzen schon früh bemerkt wurden. Konkreter Ausgangspunkt aller frühneuzeitlichen Diskussionen von valenzähnlichen Erscheinungen sind jedoch die Beobachtungen und Diskussionen, die in der lateinischen Tradition und deren (spätantiken und mittelalterlichen) Kommentierungen zu finden waren. An erster Stelle ist hier die Institutio grammatica des Priscianus (Gramm. Lat., rec. H. Keil, Bde. II, III) zu nennen, die auch eine relativ ausführliche Syntax (lib. XVII, XVIII) enthält, welche sich wiederum ausdrücklich an der älteren griechischen Syntax des Apollonios Dyskolos (Gramm. Graec., rec. G. Uhlig Bd. II, 2) orientiert. Einschlägig sind hier vor allem die jeweiligen Ausführungen zum Satzbegriff und zur Zielsetzung der Syntax einerseits, andererseits die in den Verb- und/oder Syntaxkapiteln vorgenommene Explikation der Begriffe unterschiedlicher Verbklassen oder -typen. So ist es ja für die Beobachtung dieser Erscheinungen nicht unerheblich, ob man, wie Apollonios (A, 14) und Priscian (XVII, 12), grundsätzlich von einer zweipoligen Satzstruktur (mit nominalem und verbalem Kern) ausgeht, deren Zusammenhang durch kategorielle Angleichung (Kongruenz; Apollonios: katallhlo¬thw) gesichert wird, so daß z. B. subjektlose (z. B. impersonale) oder subjektaussparende Konstruktionen (z. B. Antworten auf Fragen) nur als spezifische Abweichungen von diesem Grundmodell erscheinen. Und natürlich ist es für eine Grammatik, deren Zielvorgabe das recte loqui bzw. recte scribere sein soll, wesentlich, die Regeln zu beschreiben, die abweichende Kasus- oder Präpositionalkonstruktionen (Rektion) bei bestimmten Verben verhindern. Erscheinungen, die sich mit den Begriffen Transitivität/ Intransivität verbinden lassen, verweisen jedoch noch auf einen anderen Kontrollbegriff, der hier eine Rolle spielt: den Begriff der
34
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
Vollständigkeit von Sätzen oder Phrasen (Priscian XVII, 3: oratio perfecta, Apollonios A, 1: ayœtotelh¡w lo¬gow), der letztlich auf logisch-semantische Diskussionen der stoischen Grammatik zurückweist (vgl. Pohlenz 1964, 47 f., Döring/Ebert 1993), aber auch in modernen Grammatiken und in den heutigen Valenzsyntaxen noch eine wichtige Funktion hat. Neben diesen systematischen Ansätzen in den Grammatiken sind aber auch Beobachtungen zu nutzen, die ⫺ gleichsam als Komplemente normativer Beschreibungen oder im stilistischen Anhang deskriptiver Grammatiken ⫺ in (oft lexikalisch orientierten) Sammlungen von Anomalien, Sprachverstößen, Zweifelsfällen usw., also im sog. pathologischen und antibarbarischen Schrifttum enthalten sind und die über das usuell Zulässige oder systematisch zu Fordernde hinaus weitere Strukturmöglichkeiten der jeweils untersuchten Sprachen sichtbar machen können (vgl. auch Cherubim 2001c).
3.
Exemplarische Valenzansätze in Renaissancegrammatiken
Eine systematische Analyse des sehr umfangreichen grammatischen Schrifttums in Renaissance und Humanismus auf den Spuren valenzverwandter Ansätze liegt bisher nicht vor und ist auch nur schwer vorstellbar. Schon Längsschnittuntersuchungen zur Behandlung spezifischer grammatischer Kategorien oder Teilsysteme einzelner Sprachen (vgl. Golling 1903, Jellinek 1914) sind eher selten und im Ansatz problematisch. So ist hier nur eine exemplarische Betrachtung möglich. Für den zunächst zu betrachtenden Zeitraum seien die Grenzen einerseits durch Lorenzo Vallas berühmte Abhandlung De Elegantia linguae Latinae (entstanden ca. 1441, Erstdrucke 1471), andererseits durch Gerardus Johannes Vossius’ barockes Werk De arte grammatica (1635) markiert (vgl. Cherubim 2001b, 133 ff.). Dazwischen entstanden vor allem für das Lateinische, aber zunächst nur vereinzelt auch für einige Volkssprachen (z. B. für das Spanische schon 1492, in Deutschland erst seit ca. 1570) bedeutendere grammatische Werke, die übergreifend durch folgende Merkmale gekennzeichnet werden können (vgl. Parret 1976, Padley 1985, 1988): (i) nachhaltige Orientierung an der erneuerten grammatischen Tradition (bes. Donat und Priscian), (ii) starke Präsenz
durch zahlreiche Ausgaben und eine große Verbreitung, (iii) deutliche Bezugnahme aufeinander sowohl in positiver (Übernahme) wie in negativer Form (Kritik, Ablehnung). Dem entspricht auch der Befund zu Valenzansätzen bei einzelnen Autoren. So finden sich in Vallas Elegantiae (weniger eine Stillehre als ein grammatischer Kommentar, vgl. Ax 2001b, 33) nur unsystematische valenzrelevante Beobachtungen sowohl in den grammatisch-syntaktischen Büchern, vor allem in den Kapiteln über die Verben (II, 22⫺ 24; III, 23 [Verbkongruenz], 45 f. [Kasusrektion]) wie in den lexikalisch-semantischen Büchern, die sich, wie Ax (2001b, 37 ff.) hervorhebt, an der Tradition der lateinischen Glossographie orientieren, und hier vor allem unter dem Aspekt der Bedeutungsdifferenz von Verben (Buch V). In ähnlicher Weise geht Niccolo` Perotti in seinen Rudimenta grammatices (Erstdruck 1473) im Syntaxteil noch von der Konstruktion der partes orationis aus, kommt aber bei der Behandlung der Verben schon zur Einteilung von semantisch motivierten Konstruktionsklassen (ordines verborum), die auf einer Abhängigkeitsrelation basieren und damit eine Art „konzeptuelle Ähnlichkeit“ zu modernen valenzsyntaktischen Modellen aufweisen (Worstbrock 2001, 69, Anm. 40). Relativ wenig für die Beschreibung von Valenzerscheinungen gewinnt man aus Julius Caesar Scaligers sonst so zentralem Werk De causis linguae Latinae (Erstdruck 1540), zumal dort nur ein minimaler Syntaxanteil (eine Art syntax figurata: Buch XII) geboten wird. Wie bei Valla handelt es sich auch hier um einen grammatischen Kommentar, der sich zwar am klassischen Aufbau der Elementargrammatik (vom Laut zum Satz) orientiert, aber nur bestimmte diskussionswürdige Probleme auswählt. Denn vorrangiges Ziel der Darstellung ist die Bloßlegung der Irrtümer (errores) und die Aufklärung der Unklarheiten (tenebrae) früherer Grammatiker bzw. die Erläuterung der Prinzipien (rationes) grammatischer Strukturanalysen auf der Basis der aristotelischen Philosophie (Jensen 1990, Cherubim 2001b). Lediglich in den Ausführungen über das Verb (bes. V, 110, 123 f.) findet man, wie schon bei Perotti, eine Diskussion spezifisch syntaktischer und semantischer Verbklassen (z. B. Transitiva vs. Absoluta [⫽ Intransitiva], Impersonalia usw.), der Verbdiathesen und verwandter Erscheinungen, innerhalb dessen ⫺ wenn auch nur ansatzweise und primär unter logischen [tiefen-
6. Valenzverwandte Ansätze in Humanismus und Aufklärung: ein Überblick
strukturellen] Aspekten ⫺ Fragen der Vollständigkeit von Konstruktionen oder der Verbkomplemente behandelt werden (vgl. auch Chevalier 1968, Helbig 1982). Interessanter und ergiebiger für diese Fragestellung ist die Arbeit eines spanischen Humanisten, die sich in Titel und Intention eng an Scaliger anschließt, Franciscus Sanctius’ Minerva seu de causis linguae Latinae commentarius (Erstdruck der Endfassung 1587). Diese grammatische Abhandlung, deren geradezu prästrukturalistischer Formalismus auf die grammatischen Konzeptionen Scaligers und des französischen Humanisten Petrus Ramus zurückgeht (vgl. Vogt-Spira 2001, 178), ist vor allem wegen ihres dominanten Syntaxanteils und der ungewöhnlich breit angelegten Ellipsenbehandlung bekannt (vgl. auch Breva-Claramonte 1983), wobei letztere wiederum von einem anderen Humanisten und dessen maßgeblicher Arbeit, Thomas Linacres De emendata structura Latini sermonis (Erstdruck 1524), bestimmt ist (vgl. auch Percival 1976). Auffällig ist hier die Gewichtung: Nur Buch I entspricht im Aufbau der typischen Elementargrammatik (in manchen Ausgaben, z. B. der 6. Ausgabe, Amsterdam 1754, zusätzlich als Anhang präsent), während die Syntaxbücher (II und III) den Kern des Werkes ausmachen. Hierin geht Sanctius wie Priscian und Apollonios von der Zweipoligkeit der Satzstruktur (oratio aus nomen und verbum) aus und führt als Grundbegriffe concordia (⫽ Kongruenz) und rectio (hier weiter gefaßt: III, 1) ein, wobei auch schon der Begriff der Abhängigkeit (pendere) als Entsprechung zur rectio benutzt wird. Sowohl die Kapitel über die Konstruktion der Nomina (Kasusrektion: II, 1⫺7) wie über die Konstruktion der Verben (Verbklassensyntax: III, 1⫺4) und Präpositionen (III, 12) enthalten Beobachtungen, die für moderne Valenzanalysen interessant sind. Und dies gilt auch für die im letzten Buch (IV, 2⫺7) angebotene, ungewöhnliche Ellipsendiskussion, die unter dem Oberbegriff der figurae constructionis (d. h. Abwandlungskonstruktionen) steht und damit in den Zusammenhang der Pathologie in der antiken Grammatik gehört. Andere bedeutende Beiträge der grammatischen Diskussionen in Renaissance und Humanismus (z. B. Melanchthons oder der Sanctiusschüler Schoppe [Scioppius] und Voss[ius]) wären auf diesem Hintergrund ebenfalls interessant.
4.
35
Valenzbeschreibungen in Grammatiken der Aufklärung
Im Zentrum der Aufklärungsepoche steht der Begriff der Rationalität. Auf die ratio als sprachtheoretischen Kontrollbegriff hatten sich aber auch schon die Grammatiker des 16. Jhs. berufen. Freilich waren die Konzepte nicht dieselben. Bei dem deutschen Barockgrammatiker Justus Georg Schottelius wird diese ratio z. B. im Sinne des antiken Analogiebegriffs verstanden, bei dem Spätaufklärer Johann Christoph Adelung im Sinne des Sensualismus. Weitreichender sind noch die Rationalitätskonzepte der verschiedenen philosophischen Schulen, an denen sich die zahlreichen allgemeinen Grammatiken der Aufklärung (vgl. Brekle 1992 ff.) orientierten. Dependenz- oder valenzsyntaktische Ansätze der Zeit sind also jeweils in ganz unterschiedliche Rahmen zu stellen. Als Ausgangspunkt rationalistischer Grammatiken wird oft die Grammaire ge´ne´rale et raisonne´e (Erstdruck 1660) von Antoine Arnauld und Claude Lancelot genommen. R. Lakoff (1976, 364) zeigt jedoch, wie sehr sie der Konzeption von Sanctius’ Minerva verpflichtet ist. Wie schon ihre Vorläufer geht diese Grammaire de Port-Royal von einem engen Zusammenhang von Logik und Grammatik aus: Beide sind Formen des Denkens, wobei die verschiedenen Sprachen eben nur verschiedene formale Ausprägungen dieses Denkens zeigen. Eine solche Bestimmung von Sprache motiviert die Vorstellung von einer Differenz zwischen abstrakten, zugrundeliegenden und konkreten, im Ausdruck realisierten Strukturen, was auch für die Beschreibung von Valenzphänomen wichtig ist. Denn so fallen sie in das Gebiet der Semantik (signification) und werden in traditioneller Manier bei der Behandlung der Nomina (⫽ Kasussemantik: II, 6) und Präpositionen (II, 11), andererseits bei der Darstellung der Verben (II, 13) exemplifiziert. Bei letzteren geht es auch hier wieder um die bekannten Erscheinungen (Verbdiathese, Neutra, Impersonalia), nur daß immer wieder auf den Unterschied von generellen (⫽ universalen) und speziellen (⫽ einzelsprachlichen) Regeln hingewiesen wird. Die Syntax (II, 24) geht ebenfalls wie in der Tradition von den Begriffen convenance und regime aus, erstere wird jedoch als naturelle (universal), letzterer als „en usage presque partout“ verstanden, weswegen nur begrenzt maximes generales angenommen werden können. Im Anhang zum
36
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
Syntaxkapitel findet sich eine Figurenlehre, die sich ebenfalls an Sanctius orientiert und wiederum die Differenz zwischen Grundstrukturen (l’ordre naturel) und kommunikativ bedingten Abwandlungen betont, somit pragmatische Bedingungen von Valenzregeln thematisiert. Ein echter Vorläufer moderner Valenzmodelle ist Johann Werner Meiners Versuch einer an der menschlichen Sprache abgebildeten Vernunftlehre […] (Erstdruck 1781). Auffällig ist hier schon die Dominanz der Syntax in dieser Philosophischen und Allgemeinen Sprachlehre, was wiederum an Sanctius erinnert. Im Unterschied zur Tradition hält er das Prädikat für den „vornehmsten Teil des Satzes“ und stellt dessen strukturbildende Potenz im Bild eines Sprachbaums dar. Auch er betont den Unterschied zwischen universalen und einzelsprachlichen Regeln und entwickelt ein ganzes Inventar valenzsyntaktischer Begriffe, das leider von den Grammatikern nach ihm nicht mehr genutzt wird (vgl. Erben 1978, Naumann 1990). Denn trotz der positiven Aufnahme seines Versuchs durch Johann Christoph Adelung bleibt dieser, wie auch seine bedeutenderen Vorgänger (z. B. Johann Christoph Gottsched) noch ganz der traditionellen Konzeption von der zweipoligen, am logischen Urteil orientierten Satzstruktur verhaftet, auch wenn er in seinem Umständlichen Lehrgebäude der Deutschen Sprache […] (Erstdruck 1782) bei der Behandlung der unterschiedlichen Verbkonstruktionen im Wortartenteil (I, 2, 7) ebenso wie bei der Behandlung der Verbrektion im ausführlichen Syntaxteil neue detaillierte Beobachtungen zu gerichteten Relationen im deutschen Satzbau zusammenträgt. Eine Valenztheorie ist auf dieser Basis zwar angedacht, aber selbst da, wo bereits der Terminus Dependenz genutzt wird (z. B. in August Ferdinand Bernhardis Anfangsgründe der Sprachwissenschaft, 1805) grundsätzlich noch nicht möglich.
5.
Literatur in Auswahl
Ax, Wolfram (Hg.) (2001a): Von Eleganz und Barbarei. Lateinische Grammatik und Stilistik in Renaissance und Barock (⫽Wolfenbütteler Forschungen 95). Wolfenbüttel. Ax, Wolfram (2001b): Lorenzo Valla (1407⫺1457). Elegantiarum linguae Latinae libri sex (1449). In: Ax, Wolfram (Hg.) (2001a), 29⫺57. Bahner, Werner (Hg.) (1984): Sprache und Kulturentwicklung im Blickfeld der deutschen Spätaufklärung. Der Beitrag Johann Christoph Adelungs
(⫽Abhandlungen der Sächsischen Akademie der Wissenschaften zu Leipzig. Phil.-hist. Kl. 70/4). Berlin. Baum, Richard (1976): ‘Dependenzgrammatik’. Tesnie`res Modell der Sprachbeschreibung in wissenschaftsgeschichtlicher und kritischer Sicht. Tübingen. Brekle, Herbert Ernst u. a. (Hgg.) (1992 ff.): Bibliographisches Handbuch zur Sprachwissenschaft des 18. Jahrhunderts. Die Grammatiker, Lexikographen und Sprachtheoretiker des deutschsprachigen Raumes mit Beschreibungen ihrer Werke. [bisher] 7 Bde. Tübingen. Breva-Claramonte, Manuel (1983): Sanctius’ Theory of Language (Studies in the History of Linguistics 27). Philadelphia. Cherubim, Dieter (2001a): Schottelius and European traditions of grammar. In: Kniffka, Hannes (ed.) (2001): Indigenous grammar across cultures. Frankfurt/M. etc., 559⫺574. Cherubim, Dieter (2001b): Von den Aufgaben des Grammatikers. Zu Julius Caesar Scaligers ‘De causis linguae Latinae’ (1540). In: Ax, Wolfram (Hg.) (2001a), 125⫺146. Cherubim, Dieter (2001c): Pathologia Linguae. Die ‘Krankheiten’ der Sprache und deren Remedur. In: Burkhardt, Armin/Cherubim, Dieter (Hgg.) (2001): Sprache im Leben der Zeit. Beiträge zur Theorie, Analyse und Kritik der deutschen Sprache in Vergangenheit und Gegenwart. Helmut Henne zum 65. Geburtstag. Tübingen, 427⫺447. Chevalier, Jean Claude (1968): Histoire de la syntaxe. Naissance de la notion de comple´ment dans la grammaire franc¸aise (1530⫺1750). Gene`ve. Döring, Klaus/Ebert, Theodor (Hgg.) (1993): Dialektiker und Stoiker. Zur Logik der Stoa und ihrer Vorläufer. Stuttgart. Erben, Johannes (1987): Über „Kopula“-Verben und „verdeckte“ (kopulalose) Ist-Prädikationen, zugleich ein Beitrag zur Theorie der Valenz und ihrer Geschichte. In: Moser, Hugo/Rupp, Heinz/Steger, Hugo (Hgg.): Deutsche Sprache: Geschichte und Gegenwart. Festschrift für Friedrich Maurer zum 80. Geburtstag. Bern/München, 75⫺92. Golling, Josef (1903): Einleitung in die Geschichte der lateinischen Syntax. In: Landgraf, Gustav (Hg.): Historische Grammatik der lateinischen Sprache. Bd. III, Heft 1. Leipzig, 1⫺96. Helbig, Gerhard (1978): Rektion, Transitivität/Intransitivität, Valenz, Syn-/Autosemantik. In: Deutsch als Fremdsprache 15, 65⫺78. Helbig, Gerhard (1982): Valenz ⫺ Satzglieder ⫺ semantische Kasus ⫺ Satzmodelle. Leipzig. Hopper, Paul J./Thompson, Sandra A. (1980): Transitivity in Grammar Discourse. In: Language 56/2, 251⫺299. Huber, Wolfgang (1984): Kulturpatriotismus und Sprachbewußtsein. Studien zur deutschen Philologie des 17. Jahrhunderts. Frankfurt/M. etc.
7. Mathematische und logische Rekonstruktion des Abhängigkeits- und Valenz-Konzepts Jellinek, Max Hermann (1913, 1914): Geschichte der neuhochdeutschen Grammatik von den Anfängen bis auf Adelung. 2 Hbde. Heidelberg. Jensen, Kristian (1990): Rhetorical philosophy and philosophical grammar. Julius Caesar Scaliger’s theory of language (⫽ Humanistische Bibliothek. Texte und Abhandlungen I/46). München. Lakoff, Robin (1976): La Grammaire ge´ne´rale et raisonne´e ou la Grammaire de Port-Royal. In: Parret, Herman (Hg.) (1976), 348⫺373. Leonhardt, Jürgen (2001): Die grammatischen Werke des Gerardus Iohannes Vossius. In: Ax, Wolfram (Hg.) (2001a), 189⫺208. Lenders, Winfried (1974): Universalgrammatiken des Rationalismus. In: Arnold, Heinz Ludwig/Sinemus, Volker (Hgg.) (1974): Grundzüge der Literatur- und Sprachwissenschaft. Bd. 2: Sprachwissenschaft. München, 105⫺117. Naumann, Bernd (1986): Grammatik der deutschen Sprache zwischen 1781 und 1856. Die Kategorien der deutschen Grammatik in der Tradition von Johann Werner Meiner und Johann Christoph Adelung (⫽ Philologische Studien und Quellen 114). Berlin. Naumann, Bernd (1990): Die „dependenzgrammatischen“ Überlegungen Johann Werner Meiners (1723⫺1789). In: Betten, Anne (Hg.) (1990): Neuere Forschungen zur historischen Syntax des Deutschen. Referate der Internationalen Fachkonferenz Eichstätt 1989 (⫽Reihe Germanistische Linguistik 103). Tübingen, 439⫺450.
37
Padley, George Arthur (1985, 1988): Grammatical theory in Western Europe 1500⫺1700. Trends in vernacular grammar. 2 vols. Cambridge etc. Parret, Herman (Hg.) (1976): History of Linguistic Thought and Contemporary Linguistics (Foundations of Communication). Berlin/New York. Percival, W. Keith (1975): The grammatical tradition and the rise of the vernaculars. In: Sebeok, Thomas A. (ed.): Current Trends in Linguistics. XIII: Historiography of Linguistics. The Hague/Paris, 231⫺275. Percival, W. Keith (1976): Deep and Surface Structure Concepts in Renaissance and Mediaeval Syntactic Theory. In: Parret, Herman (Hg.) (1976), 238⫺253. Pohlenz, Max (1964): Die Stoa. Geschichte einer geistigen Bewegung. 3. Auflage. Göttingen. Salus, Peter H. (1976): Universal grammar 1000⫺ 1850. In: Parret, Herman (Hg.) (1976), 85⫺101. Siebenborn, Elmar (1976): Die Lehre von der Sprachrichtigkeit und ihren Kriterien. Studien zur antiken normativen Grammatik (⫽ Studien zur antiken Philosophie 5). Amsterdam. Vogt-Spira, Gregor (2001): Franciscus Sanctius’ Minerva seu de causis linguae Latinae (1587). In: Ax, Wolfram (Hg.) (2001a), 169⫺187. Worstbrock, Franz Josef (2001): Niccolo` Perrottis ‘Rudimenta grammatices’. Über Konzeption und Methode einer humanistischen Grammatik. In: Ax, Wolfram (Hg.) (2001a), 59⫺78.
Dieter Cherubim, Göttingen (Deutschland)
7. Mathematische und logische Rekonstruktion des Abhängigkeitsund Valenz-Konzepts 1. 2. 3. 4. 5.
Einleitung Grundannahmen zur Dependenz und Valenz Formales Instrumentarium zur Beschreibung der Valenz-Struktur Die pragmatisch-kognitive Modellierung der Verbvalenz als holistische Struktur: das Verb-Holon-Modell Das Abhängigkeitskonzept in der mathematischen Rekonstruktion Literatur in Auswahl
Einleitung Bei der Konzipierung der Strukturalen Syntax hat ihrem Erfinder Lucien Tesnie`re sicher weder Mathematik noch Logik Pate gestanden. Dies hat sein Positives und sein Negatives. Positiv daran ist: Tesnie`re konnte sich von seinen kreativen linguistischen (oder che-
mischen oder dramaturgischen) Intuitionen leiten lassen, ohne sich einen formalen Zwang auferlegen zu müssen. Negativ ist: Wenn man diese Intuitionen nicht in ein Prokrustesbett überkommener syntaktischer Formalisierungswerkzeuge betten will, muss man mühsame Maßarbeit für eine geeignete mathematische und logische „Einbettung“ leisten. Denn Dependenz und Valenz stellen Ansprüche an ein mathematisches „Ambiente“, das mit den sperrigen Versatzstücken der extensionalen Struktur-Mathematik (cf. 2.1 und 3.1.1 f.) nur schlecht zu zimmern ist. Aber die Mühe lohnt sich, wenn sich schließlich zeigt, dass beide in einem holistischen Bett am ehesten zusammenfinden. Zunächst sollen die grundlegenden Intuitionen und Konzepte Tesnie`res zu Dependenz und Valenz in einer mathematischen Sprache
38
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
formuliert werden (1.2⫺1.5). Anschließend wird dazu ein formales Instrumentarium eingeführt (2), das zu einer pragmatisch-kognitiven Rekonstruktion verwendet wird (3). Schließlich wird gezeigt, welche linguistischen Einsichten sich aus dieser Modellierung ergeben (4). Das Ergebnis der Rekonstruktion wird sein: Im Gegensatz zum Aufbau von Tesnie`res Buch, in dem dem Dependenz-Begriff gegenüber der Valenz der Vorrang eingeräumt wird, liefert die Valenz die übergeordnete Strukturierung, während die Dependenz eine untergeordnete, fast marginale Rolle spielt. Dies ist nicht so sehr eine Eigenheit dieser Modellierung als vielmehr der Vorschlag eines Auswegs aus den vielen „ausweglosen“ Diskussionen um die Art und Richtung der Dependenz-Beziehung. Der Vorschlag hat zudem noch den Vorteil, die Dependenz mit der Valenz-Auffassung verträglich zu machen. Der Grund für die geringe Theoriefähigkeit des Dependenz-Begriffs ergibt sich daraus, dass der Ansatz des Konzepts schon bei Tesnie`re selbst nicht operationalisiert werden kann (cf. 1.2, 4.2.1).
1.
Grundannahmen zur Dependenz und Valenz
1.1. Tesnie`res Absicht ist zu beschreiben, wie ein Sprecher einen Gedanken in einen Satz umwandelt bzw. wie ein Hörer die LinksRechts-Abfolge eines Satzes zu einem Gedanken umorganisiert (1: 7⫺10) (Die Angaben dieser Art beziehen sich auf Kapitel in Tesnie`re 1959 bzw. 1980). Tesnie`re gibt selbst keine Regeln zur Überführung eines Satzes in einen Gedanken an. Er stellt eine baumartige Struktur für die Gedanken-Organisation vor, die er Stemma nennt. Dieses Verfahren, bei Satz-Beispielen, statt die Regelanwendung vorzuführen, jeweils gleich den ErgebnisBaum zu zeichnen, wird in 1.2.3 und 4.2.1 hinterfragt. Die formale Rekonstruktion der Strukturalen Syntax muss versuchen, ein Kriterium für die Struktur eines wohlgeformten Gedankens anzugeben, das allerdings bei Tesnie`re nur implizit vorhanden ist (6: 2 ff., 7: 6 ff.). Die sonst in der Syntax übliche Frage nach den Regeln der Wortfolge kann schon deswegen nicht Ziel der Strukturalen Syntax sein, weil Tesnie`re von der nur semiotisch oder physikalisch bedingten Links-Rechts-Abfolge im Satz gerade wegkommen möchte (7: 4 ff.).
Dies widerspricht eigentlich der Grundidee einer syntaktischen Theorie und man ist geneigt, Tesnie`res Ansatz als defizitär einzustufen, jedenfalls solange man die Strukturale Syntax als syntaktische Theorie ansehen will. Daher soll schon hier gesagt sein, dass man meines Erachtens Tesnie`res Anliegen besser versteht, wenn man sein Programm nicht als Syntax-Theorie versteht, sondern die folgende Arbeitshypothese vertritt: (AHYP) Die Strukturale Syntax zeigt den Aufbau eines Semantik-Konzepts, das nicht die lexikalische Bedeutung erfassen will, sondern die kompositionellen semantischen Bedingungen der kategoriellen Verknüpfungen im Satz. Das ist der Dependenz-Aspekt. Diese Semantik wird aber zusätzlich unter kognitive Forderungen gestellt, die einen holistisch-funktionalen Überbau verlangen. Das ist der Valenz-Aspekt. Diese Auffassung zu modellieren und zu begründen, wird das Anliegen der mathematisch-logischen Rekonstruktion sein (vgl. z. T. Heringer 1993a, 299). Im Folgenden sollen die Rahmen-Annahmen (1.2) und die spezifische Ausfüllung, die Tesnie`re vorschlägt, voneinander getrennt werden (1.3⫺1.5). Der Zweck dieser Trennung ist es, Modifikationen und Weiterentwicklungsvorschläge danach zu beurteilen, welchen der beiden Bereiche sie betreffen. 1.2. Die Wahl des Regeltyps 1.2.1. Wahl 1: Der Zusammenhang zwischen Wörtern im Satz wird als zweistellige Beziehung zwischen Wörtern konzipiert: als Konnexion CNX. Alle semantischen Beziehungen in einem Satz werden auf Paar-Beziehungen zwischen Wortkategorien C und C⬘ abgebildet. Tesnie`re nennt sie „Konnexionen“ (im Folgenden als CNX (C, C⬘) bezeichnet). Der Gesamtzusammenhang im Satz wird dadurch hergestellt, dass Konnexions-Paare miteinander „verkettbar“ sein sollen, d. h. wenn U und V miteinander konnektiert sind CNX (U, X), dann soll es ein weiteres konnektiertes Paar CNX (V, W) geben, das an CNX (U, X) angehängt werden kann (entweder durch W = U oder durch X = V). Die Konnexion zwischen zwei Kategorien wird von Tesnie`re ohne Begründung postuliert. D. h. er gibt keine syntaktische (oder semantische) Begründung seiner Wahl an (cf. 2.1 ff.). Sie ist auch nicht begründbar, weil dieser Grundpfeiler der Dependenzgramma-
7. Mathematische und logische Rekonstruktion des Abhängigkeits- und Valenz-Konzepts
39
tik auf einer semiotischen Fallacy beruht (cf. 4.2.1). Diese Nicht-Fundierbarkeit des Dependenzbegriffs ist die Ursache für die Fülle der Diskussionen, die auch der Anlass zu diesem Handbuch ist.
Betrachtung ausgewählt. (Nach Wahl 2 gibt es dann genau eine Kategorie C⬘, die mit C in CNX-Beziehung steht (d. h. CNX (C, C⬘)) bzw. die cnx-Funktion erfüllt: C⬘ = cnx (C).) Die Regel zur Stemmabildung lautet dann:
1.2.2. Wahl 2: Die Relation CNX ist eine Funktion (im Folgenden „cnx“ genannt). Die Funktion cnx ordnet jeder Kategorie aus einer bestimmten Kategorien-Menge eindeutig eine andere Kategorie zu (3: 1), d. h. zu jeder Kategorie X gibt es genau eine Kategorie Y, die zu X „gehört“. Inhaltlich heißt das: Tesnie`re fasst die Organisation eines Satzes so auf, dass man aus der Kenntnis der Kategorie C eines Wortes folgern kann, welche weitere Kategorie C⬘ im Satz durch ein Wort vertreten sein muss: cnx (C) ⇒ C⬘. Dies hat einen entscheidenden Vorteil für den Hörer eines Satzes, denn er kann bei jedem Wort eine bestimmte weitere Kategorie und deren Besetzung erwarten. Dadurch wird die intuitive Abarbeitung der Wortinformationen erleichtert (cf. 1.2.3). Anm.: Die funktionale Zuordnung wird im Folgenden immer mit dem asymmetrischen „⇒“ bezeichnet und nicht mit dem symmetrischen „=“, da das in der Mathematik in diesem Zusammenhang verwendete Gleichheitszeichen fehl am Platz ist, wenn es um die Ausführung einer Funktion oder Operation geht (cf. 2.1 (KR1)). Aus Wahl 2 ergibt sich die hierarchische Anordnung der Kategorien im Satz (eine Baumstruktur). D. h. es gibt mehrere unterste (Ausgangs-)Kategorien, die alle in einer obersten Kategorie zusammenlaufen (die dann die Rolle des Satzrepräsentanten übernimmt: bei Tesnie`re nicht die Kategorie des Satzes, sondern die des Verbs). Die Wohlgeformtheits-Bedingung lässt sich dann (nicht-formal) so angeben:
(RG.SB) Wenn es in der Links-Rechts-Umgebung zu w genau ein anderes Wort w⬘ (mit der Kategorie C⬘) gibt, dann kann man die Stemmalinie w J w⬘ erzeugen.
(WFB) Ein von einem Sprecher konstruierter Satz ist für einen Hörer wohlgeformtheit, wenn er zu allen Wörtern die Kategorie angeben kann und diese in einer Baumstruktur (Stemma) so zusammenbauen kann, dass keine Zwischenknoten unbesetzt sind. 1.2.3. Wahl 3: Die Regel zur Stemmabildung Sie erfordert einige Voraussetzungen: Gegeben sei ein wohlgeformter Satz in Form einer Kette von Wörtern (SK). In SK sei ein Wort w mit der Kategorie C als Ausgangspunkt der
Das Stemma zu SK ist dann wohlgeformt, wenn die Regel auf alle Wörter im Satz SK angewandt worden ist und alle dabei erzeugten Stemmalinien miteinander nach Wahl 2 (1.2.2) verbunden sind. Das so erstellte Stemma erfüllt auch das oben angegebene Kriterium (WFB). Aber die Anordnung von unten nach oben ist hier kein Teil der Regel. Denn es handelt sich um eine zusätzliche nicht-essentielle semiotische Konvention (und diese darf auch nicht essentiell eingebracht werden, weil sich daraus semiotische Fehlschlüsse ergeben (cf. 4.2.1)). Im Folgenden wird der oben vorausgesetzte Sachverhalt abkürzend auch so formuliert: Wenn in SK die Kategorie C (mit w) besetzt ist, dann muss die Kategorie C⬘ = cnx (C) auch besetzt sein. – Dabei ist der Begriff „besetzte Kategorie folgendermaßen definiert: in einer Satzkette SK ist eine Kategorie C besetzt, wenn es mindestens ein Wort w in SK gibt, das zu der Kategorie C gehört. Dafür schreiben wir: „In SK: *C: ⫹+“ bzw. bei Kenntnis des besetzenden Wortes w: „in SK: *C: w+“. Das besondere Merkmal dieses „Regelsystems“ ist dies: der Zusammenhang im Satz SK muss nicht zwischen den Wörtern, sondern zwischen den Kategorien hergestellt werden, die in SK besetzt sind. D. h. welche Wörter die Kategorien besetzen, ist unwesentlich. Strukturbestimmend ist nur die Bedingung, dass es ein Wort geben muss, das die Kategorie besetzt. Oder anders ausgedrückt: das virtuelle Stemma, d. h. das Stemma, das nur die Kategorienangaben enthält, kann nur in den Ausgangskategorie unbesetzt bleiben. Sobald eine Kategorie besetzt ist, muss auch die damit konnektierte Kategorie besetzt sein. Daraus folgt: dieses Regelsystem kann weder für die Kategorien allein formuliert werden (weil sie nichts über die Besetzung im Satz aussagen), noch für die Wörter allein (weil zwischen den individuellen Wörtern selbst keine regelhaften Beziehungen bestehen). Unglücklicherweise führt aber Tesnie`re das Stemma
40
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
so ein, als ob die Abhängigkeiten zwischen den Wörtern direkt bestünden (1: 5, 2: 2 ff. usw.). Erst in 32: 21 und 33: 1 ff. wird das „virtuelle Stemma“ eingeführt, das die Abhängigkeit der Kategorien voneinander zeigt (dann aber die Bedingung der Besetztheit weglässt!). – Damit wird klar, dass es sich um eine kompositionelle Semantik handelt, bei der nur die Kategorien regelhaft verknüpft sind, nicht jedoch die Wörter selbst, andererseits aber nur das Besetztsein der Kategorien ein Kriterium für die Wohlgeformtheit des Stemmas zu einer bestimmten Satzkette erfüllen kann. Dieses Vorgehen löst die Schwierigkeit, die sich aus Ansätzen ergibt, in denen das virtuelle und das konkrete Stemma „aus einem Topf“ gespeist werden, der sowohl die Paare zu den Kategorien als auch die aus der Wortmenge enthält (z. B. in Heringer/Strecker/Wimmer 1980, 131 f.). Problematisch an der Regelformulierung (RG.SB) ist die Einschränkung „auf eine Umgebung um das Wort w“. Diese Einschränkung ist wesentlich, weil sonst „zu weit“ entfernte Wörter bzw. deren Kategorien konnektiert werden könnten. Andererseits lässt sich diese Umgebung aber nicht durch eine bestimmte Längenangabe präzisieren, weil sich erst aus dem Verstehen der Satzkette (bzw. formal bei einer vorausgehenden Satzanalyse nach einem (anderen?) syntaktischen Regelsystem) herausstellt, welche Teilketten zusammengehören. D. h. entweder setzt die Dependenzanalyse eine Vorstrukturierung mittels einer anderen Grammatik voraus, dann ist sie nur sekundär und komplementär verwendbar (cf. Baumgärtner 1970, 52; 54; 60, siehe dazu aber auch Heringer/Strecker/ Wimmer 1980, 245 f.), oder sie erfordert das vorausgehende Verstehen der Abhängigkeiten (aufgrund der Intuition oder der Dependenzanalyse), dann wird die Dependenzgrammatik zirkulär. Die Vorgehensweise Tesnie`res, zu einer Satzkette nur das Resultatstemma anzugeben, scheint zunächst nur eine Verkürzung zu sein, in der (keineswegs triviale) Zwischenschritte weggelassen werden; hier zeigt sich aber, dass dadurch die Zirkularität des ganzen Ansatzes (ungewollt) verschleiert wird. Da sie aber prinzipiell nicht vermeidbar ist, zeigt sich hier eine basale Schwierigkeit dieses Syntax-Konzepts: Man muss auf Umgebungen einschränken. Um dies aber sinnvoll tun zu können, muss man die Abhängigkeitsstruktur, d. h. das zu bildende Stemma, eigentlich schon kennen. – Meines Erachtens lässt sich dieses Konzept nur transparent und
nicht-zirkulär anwenden, wenn man von einer holistischen Gesamtsicht zu Dependenz und Valenz ausgeht (cf. 3.1.5, 3.4), in der die Abhängigkeit auf eine kognitive Tätigkeit bei der Referenztermbildung eingeschränkt wird. Nach der allgemeinen Konzeption Tesnie`res folgt hier seine spezielle Wahl der Kategorien (Modifikationen dazu, siehe unten; die Diskussion dazu in 3.4, 3.7, 4.3.2). 1.3. Die Kategorienwahl Tesnie`res Tesnie`re definiert die Funktion cnx auf der Menge MK der folgenden 4 Kategorie MK: = (ADJ, NOM, VRB, ADV), wobei der Definitionsbereich der Funktion DB (cnx): = (ADV, ADJ, NOM) und der Wertebereich WB (cnx): = (NOM, VRB) ist. Die Funktion cnx ist definiert durch: cnx (ADV) ⇒ VRB cnx (ADJ) ⇒ NOM cnx (NOM) ⇒ VRB Anm. 1: Tesnie`re nennt die Kategorien aus bestimmten Gründen A (hier: ADJ), E (hier: ADV), I (hier: VRB), O (hier: NOM). Die Bezeichnung NOM (bzw. im Text „Nomen“) heißt hier soviel wie „Substantiv“ (Tesnie`re: „substantif“), entspricht also nicht Tesnie`res „Nom“, das Substantive und Adjektive zusammenfasst (32: 13 f.). Anm. 2: Oft werden in der Sekundärliteratur mindestens noch zwei weitere Kategorien angenommen: MOD (Adjektiv-Modifikator) und ART (Artikel) mit der Festlegung: cnx (MOD) ⇒ ADJ und cnx (ART) ⇒ NOM Diese lassen sich aus bestimmten Stemmadarstellungen intuitiv gewinnen, sind aber bei Tesnie`re nicht explizit so eingeführt. Die Einführung dieser Kategorien ist noch im Rahmen des Konzeptes möglich, da keine Verzweigungen auftreten. Würde jedoch die Kategorie MOD mit der Kategorie ADV identifiziert, würde dies die Definition einer Funktion cnx nicht mehr zulassen (cf. Heringer 1993a, 300 ff.). 1.4. Basismengen zu den Kategorien Zu jeder Kategorie K sei eine Menge von Basisausdrücken B (K) definiert. Solche Basisausdrücke (Wörter) werden bei Tesnie`re nicht explizit vorgegeben, sie ergeben sich aber aus einer wohlwollenden Analyse der StemmaBeispiele. Andererseits fasst Tesnie`re oft mehrere Ausdrücke an einem Stemmaknoten zusammen, wobei unklar bleibt, ob dies eine
7. Mathematische und logische Rekonstruktion des Abhängigkeits- und Valenz-Konzepts
Abkürzung für den darunterstehenden Teilbaum (bei T. „Nexus“, 2: 3) oder tatsächlich ein als Einheit genommener Ausdruck sein soll (dazu cf. Heringer/Strecker/Wimmer 1980, 141). Die Wahl Tesnie`res, nur Wort-Kategorie einzuführen und die Anzahl auf vier zu beschränken, ist eine kühne Einschränkung, die eigentlich den üblichen Wortarten-Klassifikationen zuwiderläuft. Der Nachteil zeigt sich daran, dass die Dependenz-Analyse die Wohlgeformtheit des zu analysierenden Satzes immer voraussetzen muss. Wenn das Dependenzkonzept zur Erzeugung einer Satzkette verwendet würde, würden viele nicht wohlgeformte Sätze entstehen. D. h. eine solche Syntax wäre nicht korrekt (cf. Heringer/ Strecker/Wimmer 1980, 132 f.). Die Konsequenz für die anschließende pragmatische Betrachtung ist daher: das Ziel des Sprechers, nämlich die Bildung einer Satzkette, kann im Dependenzkonzept nur bis zu einem Redeplan beschrieben werden. Die Bildung der wohlgeformten Satzkette nach diesem Plan muss dann nach einem andern Verfahren entschieden werden. Wenn man jedoch die Arbeitshypothese (AHYP) zu Hilfe nimmt (1.1), kann man diese 4 Kategorien als die kognitive GrundFunktionen von Wörtern bzw. Satzgliedern interpretieren. Dies wird noch zu zeigen sein. Allerdings fasst Tesnie`re auch Wörter in einer Kategorie zusammen, die einer genaueren semantisch-kognitiven Analyse nicht standhalten werden (dazu 4.1.1 und 4.3.2). 1.5. Komplexbildung (Translation, Junktion) Aus der sparsamen Wahl der Basiskategorien ergibt sich für Tesnie`re das Problem: alle sonstigen vorkommenden Wortarten, Wortbildungen bzw. Satzgliedarten müssen mit diesen 4 Kategorien beschrieben werden. Er führt daher sozusagen als „Ausweg“ zwei zusätzliche Beschreibungsmittel ein, die eine Komplexbildung wie in der Phrasenstrukturgrammatik zulassen, aber die Komplexe auf die Basiskategorien projizieren anstatt weitere Kategorien für Satzteile einzuführen. Das ist zum einen die Operation der Translation, die mithilfe von „Translativ-Wörtern“ eine Kategorie in eine andere transformiert, und zum anderen die Junktion, die mithilfe von „Junktiv-Wörtern“ mehrere nebeneinanderstehende Ausdrücke derselben Kategorie zusammenfassen kann. (Dass diese Ausdrücke auch dieselbe Funktion haben müssen,
41
versteht man intuitiv; das lässt sich aber wegen der oben genannten Zirkularität nicht als Randbedingung formulieren, cf. 1.2.3). – Die Translation soll hier nicht weiter behandelt werden (dazu in 4.3.3). Auf die Junktion soll aber wegen des damit verbundenen logischen Aspekts im Folgenden eingegangen werden. 1.5.1. Junktion Das (implizierte) Regelsystem wird um eine Regel erweitert, die verschiedenen Ausdrücken derselben Kategorie (ADJ, NOM, VRB) graphisch durch einen Junktionsstrich miteinander verbindet. Dies ist erlaubt, wenn im Satz Junktive (wie „und“, „oder“, „aber“) auftreten. Unter logischen Aspekten ist bemerkenswert, dass die Junktive auch für die Kategorie ADJ, NOM, VRB und ADV definiert sind, während sie in der Modernen Logik (d. h. in der Aussagenlogik) nur für die Satzkategorie definiert sind (die bei Tesnie`re gar nicht vorkommt). Er verbindet die Übersetzung aus der Satzkette in das Stemma mit naiven logischen Folgerungen, die hauptsächlich die Distribuierbarkeit von und bzw. oder zeigen sollen. Da er diese Beziehungen, die sich aus der Distribution ergeben, aber ebenfalls mit denselben Kanten(-linien) im Stemma bezeichnet wie die CNX-Linien, wird das Linienkonzept mehrdeutig und überfrachtet. Man hätte von der DependenzAnalyse eher erwartet, dass sie gerade den generischen Charakter junktiv-haltiger Sätze modelliert, anstatt alle Einzelfälle ausrechnen und in einem Stemma gleichzeitig angeben zu wollen. Dabei hätte doch der Gedanke, einen einzigen Knoten mehrfach besetzen zu können, gerade dazu dienen können, die Absicht des Sprachbenutzers, Geeignetes zusammenzufassen, in einfacher Weise darzustellen. Aufgabe einer Dependenz-Grammatik kann es ja nicht sein, en passant „Logik“ treiben zu wollen. – Da außerdem keinerlei logische Überführungsregeln angegeben werden, sondern wiederum nur ad hoc Übersetzungen in Beispielen vorgeführt werden, ist es wenig ergiebig, dies mit der Aussagenlogik vergleichen zu wollen. In einer kognitiv ausgearbeiteten modernen Version der DependenzGrammatik sollte jedoch die Flexibilität der Junktiv-Anwendung auf verschiedenen Kategorien logisch genutzt werden. Die Probleme dabei zeigt Heringer/Strecker/Wimmer (1980, 141 ff.) auf. – Dass es dazu im Prinzip eine befriedigende Lösung geben kann, wird im Rahmen der in 3. dargestellten Rekonstruktion skizziert (cf. 3.3 (S4)).
42
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
1.6. Valenz Jedem Verb-Ausdruck ordnet Tesnie`re eine bestimmte Anzahl von Rollen (Aktanten) zu (die sogenannte Valenz des Verbs). Diese Rollen sind spezifisch für jedes einzelne Verb, sie sind innerhalb einer Verbvalenz voneinander verschieden. Aber Rollen verschiedener Verben sind nicht miteinander vergleichbar. D. h. sie sind „Entitäten“, die nicht zu einer Menge zusammengefasst werden können. Dies wirft Probleme auf, wenn man versucht, die Valenz im Rahmen der (extensionalen) Mathematik zu behandeln. Das wird in 1.7 besprochen und führt letztlich zur Änderung des Relationskonzepts und des Mathematik-Konzepts (cf. 2.1⫺2.4 und 3.1.1 f.). 1.6.1. Valenz-Zuordnungsvorschrift vlz Zu einem Verb kann dessen Valenz aus einer einzelsprachspezifischen Liste LS zugeordnet werden. Die Zuordnungsvorschrift wird „vlz“ genannt. Im Folgenden wird als Beispiel ein dreistelliges Verb gewählt, zwei oder einstellige Verben sind dann als einfachere Fälle daraus gewinnbar. Einem individuellen Verb vJ wird die Valenz vlz (vJ) zugeordnet: vlz (vJ) = /ru (vJ), rb (vJ), rq (vJ)/. Dies ist so zu lesen: (v1) das Verb vJ hat drei Rollen (ru, rb, rq). Die Bezugnahme auf vJ in der Klammer dient hier nur der Verdeutlichung, dass jede Rolle nur in Bezug auf dieses eine Verb definiert ist. (v2) Die Rollennamen ru, rb, rq sind hier absichtlich so gewählt, dass keine Reihenfolge suggeriert wird, sondern dass sie nur als Abkürzung für eine Charakterisierung der Rolle beim Verb verstanden werden können. In einer Benennung der Rollen durch *r1, r2, r3+ würde ein bestimmte inhärente Reihenfolge der Rollen suggeriert, die aber nicht vorliegt. Nimmt man Tesnie`res Auffassung von der Gleichstellung jeder Rolle vor dem Verb ernst (49: 12), dann ist auch schon die semiotische Vorgabe einer bestimmten Links-Rechts-Reihenfolge im Stemma (Subjekt, Objekte, Angaben) eine „Verschleierung“, d. h. eine Konvention, deren Willkür immer bewusst bleiben muss, wenn man sie der vollkommen gleichwertigen „Lokalisierung“ im kognitiven Raum des Sprachbenutzers gegenüberstellt. Da man aber semiotisch gezwungen ist, auf dem Papier die Rollen in eine lineare Anordnung zu bringen, kann man diese Anord-
nung nur dadurch wieder aufheben, dass man ein „Warnschild“ setzt, diese Anordnung nicht als relevant anzusehen. Dies geschieht durch die Schrägstriche: sie sollen deutlich machen, dass es nicht auf die Reihenfolge ankommen soll. Jede Umstellung in der Rollenangabe (Permutation) ist gleichwertig mit der dargestellten, nur die Liste der Rollen muss vollständig sein. Als Beispiel: Zum Verb „schenken“: vlz(„schenken“) = /der Schenkende(„schenken“); der Beschenkte(„schenken“); das Geschenk(„schenken“)/. Hier wird das Verb ausdrücklich in die Klammer geschrieben, um deutlich zu machen, dass die Rollen jeweils nur mit Bezug auf dieses Verb definiert sind (cf. 2.2). Um aber die folgende Betrachtung nicht zu stark zu belasten, wird eingedenk der hier angegebenen Vorkehrungen im Folgenden doch die vertrautere Schreibweise gewählt: vlz (vJ) = *r1, r2, r3+. Bei Tesnie`re wird die Verb-Valenz im Stemma als Kanten-Etikett an die Kante CNX (NOM, VRB) angehängt. Dies täuscht eine graphische Einfachheit und Einheit vor, die sich aber bei genauer Analyse als in sich inkompatibel herausstellt (cf. 4.1.2). Im Stemma werden die Aktantenrollen generell durch Nomina besetzt (51:12). Dies ist eine spezielle Wahl, die bei Bedarf modifiziert werden kann, ohne dass das Gesamt-Konzept darunter leidet. (Daher wird in 3.4 statt des Nomens der Referenzterm als Aktantenbesetzer eingeführt). – Tesnie`re hält sich im Übrigen selbst nicht an seine Vorschrift; denn in vielen der Stemmas sind Eigennamen bzw. Nomen zusammen mit einem Artikel (und eventuell Adjektiv) angegeben. Hier hat Tesnie`re bei der Anwendung intuitiv das Richtige getan, obwohl er gegen seine eigene Regel verstieß (dazu siehe 3.4). In den beiden folgenden Kapiteln wird das Valenzkonzept in zwei Stufen modelliert: zunächst als nicht-extensionaler Relationsbegriff (2) und dann als Teil einer holistischen Gesamtmodellierung (3), in die auch die Dependenz einbezogen wird, soweit ihre Modellierung sinnvoll ist und nicht mit der Valenz in Konflikt gerät (3.4). In 4. wird schließlich gezeigt, warum die Dependenz als Abhängigkeitskonzept nicht tragfähig ist, dass es aber andere Arten von Abhängigkeiten gibt, die bei Tesnie`re angelegt sind, aber erst in der Rekonstruktion deutlich werden.
7. Mathematische und logische Rekonstruktion des Abhängigkeits- und Valenz-Konzepts
2.
Formales Instrumentarium zur Beschreibung der Valenz-Struktur
2.1. Vergleich mit dem Relationskonzept in Mathematik und Logik Ein Verb und seine Valenz lassen sich näherungsweise mit dem logiksprachlichen Konzept der Relation vergleichen. Der Vergleich wird zeigen, dass das mengensprachliche bzw. logiksprachliche Relationskonzept modifiziert werden muss, wenn es geeignet sein soll, das zu beschreiben, was Tesnie`re ausdrücken will. Diese Modifikationen wirken auch auf weitere logiksprachliche Ausdrucksmittel wie z. B. die Variablen-Verwendung oder die Einsetzungsoperation zurück (cf. 2.2 und 3.1 f.). Einem z. B. dreistelligen Verb vrb sind 3 Verbrollen (Aktanten) aufgrund einer Liste fest zugeordnet: vrb (r1, r2, r3). Diese Verbrollen müssen nicht mit einer festen Abfolge im Satz verbunden sein (wie dies bei der festen Wortstellung der Fall ist), sie können bei geeigneter morphologischer Kennzeichnung auch auf unterschiedlichen Positionen im Satz stehen. In der prädikaten- und relationslogischen Sprache ist eine dreistellige Relation R (x, y, z) mit fixierten Argumentpositionen verbunden. Dies ist die einzige Charakterisierung der Rolle, die ein Argument bzgl. der Relation spielt. Die Argumentpositionen sind durch Platzhalter (Variable) markiert. Statt der Variablen können in die Leerstelle konstante Individuennamen (z. B. a, b, c) eingesetzt werden: R (a, b, c). (Dabei kann zunächst noch offenbleiben, was für Entitäten solche Individuen sein sollen, sofern sie von den Relatoren verschieden sind). Wenn man die Handlung des Einsetzens explizit als Übergang von einem Ausgangszustand in einen Ergebniszustand modellieren will, benutzt man den sogenannten Lambda-Operator lx, der eine Individuen-Variable x in einem Ausdruck markiert und zur Besetzung durch eine Konstante freigibt. So ist z. B. *lx R (x, y, z)+ ein Operator, der angewandt auf eine Individuenkonstante (z. B. x = a) zum Ergebnisausdruck R (a, y, z) führt. Dies beschreibt die l-Konversionsregel: (KR1) *lx R (x, y, z)+ (a) ⇒ R (a, y, z) bzw. allgemeiner: (KR2) *lx (ly (lz R (x, y, z)))+ (a) (b) (c) ⇒ *ly (lz R (a, y, z))+ (b) (c) ⇒ *lz R (a, b, z)+ (c) ⇒ R (a, b, c).
43
(cf. Marcziszewski 1981, 165 f., Montague 1974, 256, Link 1991, 836 f.). Hinweise zur Schreibweise und Nomenklatur: Die Reihenfolge der Lambda-Ausdrücke bestimmt, welche Stelle zuerst zu besetzen ist: Besetzt werden kann immer nur die Variable, die links als erste steht (im Beispiel also: lx vor ly vor lz). Diese Vorschrift muss jedoch im folgenden modifiziert werden. Da die Reihenfolge der Anwendung eindeutig ist, können die Klammern zwischen den l-Zeichen auch weggelassen werden. Der Übergang zum Resultat wird hier mit einem asymmetrischen Pfeil angegeben und nicht mit einem Gleichheitszeichen, das den falschen Eindruck der Symmetrie zwischen linker und rechter Seite erzeugen könnte. Wir unterscheiden l-Zeichen („l“), l-Ausdruck („lx“) und l-Operator („*lx Q (x, …)+“). 2.1.1. Wahl der besetzbaren Argumentstellen Für die Anwendung des l-Operators bei der Darstellung eines Verbs und seiner Valenz als Relationsausdruck ist die folgende Konvention wichtig (cf. 2.3.): (KONV1): In einem Relationsausdruck mit Leerstellen sind nur die Leerstellen besetzbar, die mit einem lZeichen markiert sind, alle andern Leerstellen sind „blockiert“. So ist also in dem l-Operatur *lz (ly R (x, y, z))+ die Leerstelle x (1. Argumentposition) blockiert. Um das Relations- und l-Konzept für die Modellierung der Verb-Valenz brauchbar zu machen, müssen verschiedene Modifikationen vorgenommen werden, die jetzt eingeführt werden. 2.2. Der Begriff „Rollen-Relation“ Um ein Verb als Relator auffassen zu können, müssen wir von der Vorstellung ausgehen, dass in einer Relation R jede Argumentposition einen R-spezifischen Charakter hat (Valenzrolle, cf. 1.6.1). D. h. zu einer Relation werden nicht Argument-Positionen eingeführt, sondern Argument-Charaktere. Für die Zuordnung der Valenz wird eine Liste vorgegeben, die zu jedem Verb dessen Valenz enthält (z. B. ein Valenzwörterbuch). Über dieser Liste lässt sich dann die Zuordnung vlz zu jedem Verb vrb definieren: z. B.: vlz (vrb1) ⇒ *r1, r2, r3+ (cf. 1.6).
44
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
Z. B. gehören zum Verb „schenken“ nach eine solchen Liste LS die Rollen: der Schenkende (rS), der Beschenkte (rB und das Geschenkte (rG). Im Folgenden werden zur Vereinfachung auch nur die Fragepronomen zur Rollenbezeichnung verwendet, also: *schenken, *WER, WEM, WAS++. Hier ist die Spezifizität der Rolle dann gewahrt, wenn man „WER“ als „Wer schenkt?“ liest, d. h. die Rolle „Der Schenkende“ oder „WER“ kann nur in einem Satz mit „schenken“ vorkommen. Auch wenn die Rolle des Schenkenden zeichenausdrucksseitig durch den Nominativ ausgedrückt wird, so ist erst durch die Anwesenheit des Verbs „schenken“ im Satz garantiert, das die Besetzung des Nominativs inhaltsseitig mit der spezifischen Rolle des Schenkenden interpretiert wird (cf. dazu 2.4). Wenn man aber die „Nominativ-Rollen“ bei verschiedenen Verben zu einem einzigen Tiefenkasus (z. B. „Agent“) zusammenfasst, so führt das zum Fehlschluss der Semantisierung einer morphologischen Gegebenheit, d. h. aus der syntaktischen oder morphologischen Ausprägung wird auf die Gleichartigkeit der semantischen Differenzierung geschlossen. Dieser Schluss ist oft richtig, aber hier ist es ein Fehlschluss, der weitere Fehlschlüsse bzw. Unsicherheiten nach sich zieht, wie die Diskussion in der Literatur zu den Tiefenkasus zeigt. Die Grundform GF1 des Satzes lässt sich dann (für einen allgemeinen Verbausdruck bzw. Relatornamen R) so charakterisieren: (GF1) *R, vlz (R)+ Diese Grundform GF1 wird erst dadurch zu einer für Einsetzung zugänglichen Form, dass sie mit dem Lambda-Ausdruck für R versehen wird (siehe 2.1) (GF2) *lR *R, vlz (R)++. Ein Sprachbenutzer hat diese Grundform zur Verfügung und wendet sie als Sprecher auf eine bestimmte Relation an, die er versprachlichen will (z. B. R1) und als Hörer auf eine gehörte Relation R1, die als Ausgangspunkt für die Strukturierung des gehörten Satzes und dann des zu bildenden Gedankens dienen soll. Der Sprecher, der einen Satz bilden will, wählt zunächst einen Relator (sprachlich also ein Verb) z. B. den dreistelligen Relator R13 mit vlz (R13) = *r1, r2, r3+ und setzt diesen nach der Konversionsregel (KR2) in die
Grundform GF2 ein (die Stelligkeit wird im Folgenden weggelassen): (GF3) lR *R, vlz (R)++ (R1) ⇒ *R1, vlz (R1)+ Mit vlz (R1) = *r1, r2, r3++ ergibt sich dann: (GF4) *R1, *r1, r2, r3++. Dieser Ausdruck wird „Rollen-Relation“ genannt. Der Rollen-Relator ist folgendermaßen definiert: (Def.RR) Ein Rollen-Relator ist ein Relator R mit einer bestimmten Anzahl von R-spezifischen Rollen, die durch die vlz-Zuordnung gegeben sind. Die Rollenangaben im Rollen-Relator entbinden die Rollen von einer festgelegten Reihenfolge in Form von Argumentpositionen und gleichzeitig von der Leerstellenmarkierung in Form von unterschiedlichen Variablennamen. Dies hat auch zur Folge, dass man nicht mehr statt einer Variablen eine Konstante in eine Leerstelle „einsetzt“, sondern eine Rolle „besetzt“, wobei natürlich die Rolle erhalten bleibt. (Spätestens hier wird dem in der extensionalen Prädikatenlogik Bewanderten auffallen, dass der Status der Variablen bzw. der Leerstellen und deren Interpretation eigentlich schon immer ein eskamotiertes Problem war.) 2.3. Der Begriff „Rollen-Operator“ Im Rollen-Relator *R1, *r1, r2, r3++ können laut (KR2) Rollen nur dann besetzt werden, wenn sie durch ein l-Zeichen freigegeben sind. Das Lambda-Zeichen bezieht sich jetzt aber nicht mehr auf einen Variablennamen, sondern auf einen Rollennamen, der als Konstante aufzufassen ist. Um Verwechslungen mit der bisherigen Verwendung des Lambda-Zeichens zu vermeiden, führen wir daher ein neues Operatorzeichen ein: statt „l“ das Zeichen „r“. Wir erhalten dann z. B.: (R1)
rr1 rr2 *R1, *r1, r2, r3++
Statt zu sagen: „in die Argumentstelle r1 kann eine Individuenkonstante (z. B. „a“) eingesetzt werden“, sagen wir jetzt: „die Rolle r1 kann mit „a“ besetzt werden (ausgedrückt durch *r1: a+“). Gemäß (KONV1) kann auch die Rolle r2 besetzt werden, nicht jedoch die Rolle r3. Damit kann der Unterschied zwischen fehlender Valenzstelle (v1), indefinit erwähnter
7. Mathematische und logische Rekonstruktion des Abhängigkeits- und Valenz-Konzepts
Valenzstelle (v2) und besetzter Valenzstelle (v3) modelliert werden (cf. z. B. Welke 1988, 127; Storrer 1992, 102 f.; 162). (v1) „Hans hat wieder genascht“ (durch: *naschen, *WER: Hans, WOVON++ ) (v2) „Hans hat wieder von etwas genascht“ (durch: rWOVON *naschen, *WER: Hans, WOVON++ ) (v3) „Hans hat wieder von der Marmelade genascht.“ durch: *naschen, *WER: Hans, WOVON: Marmelade++ Die Form (v2) zeigt, dass hier der Hörer nachfragen kann, wovon Hans genascht hat, um diese Information noch einsetzen zu können (wie z. B. in v3); bei (v1) kann er dagegen nicht nachfragen (cf. 2.3.2). 2.3.1. Rollen-Besetzung Wenn besetzbare Rollen mit Individuennamen (z. B. a, b) besetzt werden sollen (vom Sprecher), so wendet man die Rollen-Konversationsregel an. Sie lautet z. B. für den Fall, dass in der bestimmten Relation R1 die Rollen r2 und r1 (in dieser Reihenfolge) besetzt werden sollen: (KR3): *r1 *r2 *R1, *r1, r2, r3+++ (r2: b) (r1: a) ⇒ *rr1 rr2 *R1, *r1, r2: b, r3+++ (r1: a) ⇒ *R1, *r1: a, r2: b, r3++ Diese Regel enthält zwei Neuerungen gegenüber der bisherigen Lambda-Konversionsregel (KR1, KR2):
45
(n2) Die Reihenfolge der rollenspezifizierten Argumente (oben: (r2: b) (r1: a)), die die vom Hörer gehörte Abfolge der Argumente darstellt, ist für die Erstellung der kognitiven Form irrelevant; sie kann daher für andere Mitteilungszwecke offengehalten werden (cf. 2.5). Wir können zusammenfassend sagen: Die Rollen-Relation soll dazu dienen – beim Hörer den Übergang von der Argumentfolge in der Satzkette zur kognitiven Grundform, in der die entsprechenden Rollen dann besetzt sind, zu modellieren und – beim Sprecher den Übergang von einer solchen argumentbesetzten Grundform (dem Gedanken bei Tesnie`re, 1: 7) in eine Satzkette darzustellen. Dabei ist zu unterscheiden: – zwischen einer Sprache mit freier Wortstellung, in der der Sprecher die Wortstellung noch für andere Mitteilungszwecke nutzen kann (und damit noch einen Gestaltungsparameter wählen kann cf. 2.3.3 und 2.5) und – einer Sprache mit fester Wortstellung, in der die Rollen mit einer (oder mehreren) fest vorgegebenen Argumentabfolgen im Satz verbunden sind.
„(r1: a)“ heißt soviel wie: „die Rolle r1 ist besetzt mit dem Argument a“.
2.3.2. Hörertätigkeit Zu fragen ist nun, wie mit dem Konzept der Rollen-Relation und des Rollen-Operators die Tätigkeit des Hörers beschrieben werden kann, der eine Satzkette als einen Gedanken zu verstehen versucht. Der Hörer „liest“ eine gegebene Satzkette mit der kognitiven Grundform, die er mitbringt, und füllt die Informationen, die er zu den einzelnen Rollen erkennt, in diese ein. D. h. im einzelnen:
Das einzusetzende Argument („a“) bringt sozusagen seine ‘Platzkarte’ („r1“) mit, damit der Hörer das aus dem gehörten Satz entnommene Argument in seiner (kognitiven) Grundform des Satzes (GF1) an der „richtigen“ Stelle einfügen kann – und dies unabhängig von der gehörten Argumentreihenfolge. Das Resultat ist die Besetzung der gewünschten Rollen in der Grundform des Satzes (GF4), die zugleich die invariante Struktur der Relation im „kognitiven Raum“ des Hörers darstellt (cf. 2.3.3, 3.6). Aus (KR3) lässt sich außerdem die zweite Neuerung ersehen:
(HR1) Gegeben sei eine Satzkette SK, die den Relator R1 (mit vlz (R1) = *r1, r2, r3+) und die Argumente (r2: b) (r1: a) in dieser Reihenfolge enthält (also z. B. SK: = *(r2: b), R1, (r1: a)+. – Die Besonderheiten der Zeichen-Ausdrucksseite werden erst in 2.4 eingeführt.) (HR2) Der Hörer geht von seiner kognitiven Grundform *rR *R, vlz (R)+ aus und setzt darin zunächst aus SK die Relation R1 ein: *rR *R, vlz (R)+ (SK) ⇒ *R1, vlz (R1)+ ((r2: b), (r1: a))
(n1) Die einzusetzenden Argumentnamen (Individuenausdrücke) werden zusammen mit ihren Rollen angegeben. Damit wird die Rolle von der Bindung an eine Argumentposition befreit. ABK:
46
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
(HR3) Mit seinem Valenz-Wissen vlz (R1) = *r1, r2, r3+ bildet der Hörer dazu laut Konversionsregel (KR3): *rr1 rr2 rr3 *R1, *r1, r2, r3+++ (r2: b) (r1: a) ⇒ rr3 *R1, *r1:a, r2:b, r3++. D. h. die besetzte kognitive Struktur zum Satz SK (den Gedanken). Dabei fällt auf, dass die Rolle r3 nicht besetzt ist, aber zur Besetzung freigegeben ist, d. h. der Hörer wartet am Ende der Verarbeitung des Satzes noch auf die Besetzung dieser Rolle. Hier bekommt der Satzpunkt Signalwirkung: denn der Hörer muss jetzt den Rest der Verarbeitung selbst leisten: – entweder er schließt unhinterfragt den Satz ab, weil er die Besetzung für irrelevant hält, – oder er fragt nach, – oder er folgert aus den im Vortext vorhandenen Informationen, dass die Besetzung aus dem Vortext und Gesetzeswissen erschließbar ist (cf. 3.1.2) – oder er vermutet, dass der Sprecher die Besetzung verschweigen will (cf. 2.4.4). Dies kann hier nicht im Einzelnen erörtert werden (cf. dazu Storrer 1992, 274 ff.). 2.3.3. Sprecher-Tätigkeit Der Sprecher geht dagegen von seiner besetzten kognitiven Struktur aus und liest die Regel (KR3) sozusagen von rechts nach links (als „Extraktionsregel“ (KR4)). Im Falle der freien Wortstellung hat er einen zusätzlichen Gestaltungsoperator (z. B. „WAHL (r2, r1)“) zur Verfügung, um die Reihenfolge für die zu äußernde Satzkette aus der Gedankenstruktur zu erzeugen: (SR1) Gegeben sei der „Gedanke“: **R1, *r1: a, r2: b, r3: c++. (SR2) Die Sprechertätigkeit besteht dann in der Anwendung der Extraktionsregel, die an diesem Beispiel exemplarisch vorgeführt werden soll: (KR4) *WAHL (r2, r1)+ (**R1, *r1: a, r2: b, r3: c++) ⇒ rr1 rr2 *R1, *r1, r2, r3:c++ (r2: b) (r1: a). D. h. Der Sprecher geht von den Rollen-Besetzungen, die er versprachlichen will, aus, wendet darauf den Wahl-Operator *WAHL (r2, r1)+ an, der bestimmt, welche der Rollen in welcher Reihenfolge in die Satzstruktur aufgenommen werden sollen.
(SR3) Ergebnis ist dann die „extrahierte“ Abfolge *(r2: b), (r1: a)+, die die Argumentpositionen in der geplanten linearen Satzkette festlegt. Zusätzlich muss in die Redeplanung noch die Stellung des Relators R1 aufgenommen werden. Sie muss sich aufgrund von syntaktischen Regeln ergeben, die in dieser Grammatik nicht interessieren. (Zur Planung weiterer Teile des Satzes siehe 3.3⫺3.6). Zusammenfassend kann man zum Begriff der Rollen-Relation sagen: Mit der Konversionsund der Extraktionsregel für Rollen kann also sowohl die Invarianz der kognitiven Repräsentation der Relation im „kognitiven Raum“ des Sprachbenutzers (ob Sprecher oder Hörer) als auch der flexible wählbare Übergang zur linearen Satzkette (beim Sprecher) bzw. der umgekehrte Übergang zum invarianten Gedanken (beim Hörer) dargestellt werden. 2.4. Bilaterale Sicht der Rollen-Relation Bei der bisherigen Betrachtung wurde die Rollen-Relation (d. h. das Verb und seine Valenz) als „monolateraler“ Ausdruck verstanden. Er diente dazu, die Bedeutung des Verbausdrucks als Relator-Rollen-Struktur zu modellieren und diese als die Grundstruktur des Gedankens bei Tesnie`re anzusehen. Um aber den Übergang vom Gedanken zum Satz zu modellieren, muss die Bilateralität der natürlichsprachlichen Zeichen noch berücksichtigt werden. Die Idee dabei ist: der Sprachbenutzer hat eine bilaterale Grundform des Satzes als gedankliche Basis zur Verfügung. Beim Konzipieren eines konkreten Gedankens wird diese Struktur mit den entsprechenden Informationen besetzt und zwar beim Sprecher erst von der Inhaltsseite her, zu der dann die Ausdrucksseite aufgebaut wird, während der Hörer aus der Ausdrucksseite des gehörten Satzes die Inhaltsseite dazu aufbaut. 2.4.1. Bilaterale Grundform des Satzes Ein Zeichen(-Ganzes) ZZ wird als Paar definiert, das aus (Zeichen-)Ausdrucksseite ZA und (Zeichen-)Inhaltsseite ZI besteht: ZZ ⇔ *ZA, ZI+. Beide Teile sollen eineindeutig einander zugeordnet sein, d. h. zwischen den Teilen sollen die folgenden Abbildungen za und zi definiert sein: zi (ZA) ⇒ ZI und za (ZI) ⇒ ZA
7. Mathematische und logische Rekonstruktion des Abhängigkeits- und Valenz-Konzepts
D. h. der Ausdrucksseite eines Zeichens wird durch za die Inhaltsseite zugeordnet, und für zi gilt das Umgekehrte. Wegen der 1⫺1-Beziehung zwischen Ausdrucksseite und Inhaltsseite sind beide Abbildungen als Umkehrabbildungen voneinander definierbar: d. h. za (zi (ZA)) = ZA. (Mehrdeutige Ausdrücke müssen vorher durch Indizierung eindeutig gemacht werden.) Wenn diese Vorstellung auf die Grundform des Satzes (GF1) angewandt wird, ergibt sich zu der schon definierten Inhaltsseite (z. B. *R, vlz (R)++) die Ausdrucksseite (*za (R), za (vlz (R)+) und damit der bilaterale Ausdruck: (GF5)
**„R“, za(vlz(R)+, *R, vlz(R)++.
(KONV2) Doppelte Anführungszeichen („) dienen im Folgenden zur Kennzeichnung der expliziten Ausdrucksseite. Die Inhaltsseite bleibt unmarkiert. Das Zeichen-Ganze als Einheit von Ausdrucksseite und Inhaltsseite wird, wenn erforderlich, in einfache Anführungszeichen gesetzt (z. B. ‘R1’). Zu der semantischen Valenz-Information kommt jetzt also noch die syntaktischmorphologische Bezeichnung der Rollen, za (vlz (R)), hinzu. (Dies entspricht der Intention Tesnie`res von der „Inhaltsform“ auszugehen, cf. 16: 4). Ein Beispiel: das Zeichen(-Ganzes) ‘schenken’ besteht aus ‘schenken’ ⇔ *„schenken“, schenken+ (= *ZA, ZI+. Zu beachten ist dabei, dass die Anführungszeichen wie Operatoren verstanden werden sollen, die eventuell auch zu Modifikationen führen, die also mehr leisten können als nur dasjenige was zwischen den Anführungszeichen steht, als Ausdrucksseite zu erwähnen (cf. 2.4.2). Die anwendbare Grundform des Satzes (cf. GF2) enthält jetzt die Ausdrucksseite und lautet dann: (GF6)
*rR *„R“, *za (vlz (R))+, *R, vlz (R)+++.
Hier soll die Konvention (KONV3) benutzt werden: (KONV3) rR steht für den bilateralen rAusdruck r‘R’ (= r *„R“, R+). Wenn diese Konvention eingeführt ist, kann man die einfachere Schreibweise nicht missverstehen.
47
2.4.2. Bilaterale Valenz-Information Mit der Einsetzung ‘R1’ := *„R1“, R1+ in (GF6) lässt sich aus einer entsprechenden Liste LM die Ausdrucks- und Inhaltsseite der bilateralen Valenz-Information“ ermitteln: (GF7) **„R1“, *za (vlz (R1))+, *R1, vlz (R1)+++ und mit vlz (R1) = *r1, r2, r3+ zu (GF7): (GF8) **„R1“, *za (*r1, r2, r3+)++, *R1, *r1, r2, r3+++. Die Anwendung der Funktion za auf die Rollen ordnet (aus der Liste LM) jeder verbspezifischen Rolle ausdrucksseitig eine Markierung zu (bei Tesnie`re „Markant“ genannt, 16: 5 ff.). Die Markierung kann je nach Sprache in einer morphologischen Information (wie Kasusangabe) bestehen und/oder in einer Positionszuweisung (bei Sprachen mit fester Wortstellung) oder in Null-Markierungen (cf. Tesnie`re 16, 17). Da dies nicht das zentrale Thema dieser Betrachtung ist, soll hier für die Ausdrucksseite einer Rolle (z. B. r1 (in R1) die Bezeichnung „mark1“ verwendet werden: d. h. za (r1) ⇒ mark1 Der besetzten Rolle *r1: a+ ist dann ausdrucksseitig zugeordnet: za (*r1: a+) ⇒ *za (r1): za (a)+ ⇒ *mark1 („a“)+. Die Markierung mark1 ist als ein Operator zu verstehen, der auf die Ausdrucksseite („a“) anzuwenden ist. Als Ergebnis erhalten wir die modifizierte Ausdrucksseite, an der die Kasusinformation (inklusive Präposition) oder Positionsinformation abgelesen werden kann. (Wir schreiben abkürzend dafür „a-mark1“): (KR5) mark1 („a“) ⇒ „a-mark1“ Als Beispiel: mark2 („Hans“) ⇒ „Hansens“ (wenn mark2 als Genitiv verstanden wird). Wir erhalten dann für die bilaterale Grundform des Satzes spezialisiert auf R1 (cf. GF8): (GF9) **„R1“, *mark1, mark2, mark3++, *R1, *r1, r2, r3++. 2.4.3. Bilaterale Rollen-Konversionsregel Für die Anwendung auf rollenbesetzende Argumente erhalten wir so die bilaterale r-Konversionsregel zur bilateralen Grundform ‘*R1, *r1, r2, r3++’
48
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
(cf. GF8); hier exemplarisch für die Argumente (r2: b) (r1: a): (KR6) *rr1 rr2 *GF8++ (r2: b) (r1: a) ⇒ *rr1 rr2 **mark0 („R1“), *mark1, mark2, mark3++, *R1, *r1, r2, r3+++ (r2: b) (r1: a) ⇒ (GF10) **mark0(„R1“), *mark1(„a“), mark2 („b“), mark3++, *R1, *r1: a, r2: b, r3+++ mit (KR5) ⇒ **„R1-mark0“, *„a-mark1“, „bmark2“, mark3++, *R1, *r1: a, r2: b, r3++. Hier gibt „mark0“ die Markierung des Relators (d. h. des Verbs) an, z. B. die PositionsZuweisung zwischen erster und zweiter Rollenangabe, sowie evtl. morphologische Modifikationen. 2.4.4. Bilaterale Rollen-Extraktionsregel Entsprechend (KR4) können wir als Umkehrung dazu eine Extraktionsregel definieren. Sie dient dazu, aus einer besetzten Gedankenstruktur durch einen Wahloperator die für die Bildung der Satzkette vorzusehenden Argumente in der gewünschten Reihenfolge zu extrahieren. So wählt z. B. der Wahloperator WAHL (r2, r1), angewandt auf die (bilateral konzipierte) Gedankenstruktur (GF10) die Reihenfolge *r2, r1+ für die Argumente aus. Damit ist es z. B. möglich, in der Gedankenstruktur vorhandene Informationen aus bestimmten Gründen wegzulassen (z. B. um Argumentstellen zu verschweigen). Wenn aus dem Gedanken, in dem im Folgenden alle drei Rollen besetzt seien, zwei davon in einer bestimmten Reihenfolge ausgewählt werden sollen, so geschieht dies mit der folgenden Regel: (KR7) Bilaterale Rollen-Extraktionsregel: Auf den Gedanken (GF11) (cf. GF10): (GF11) **za (R1), za (*r1: a, r2: b, r3: c+)+, *R1, *r1: a, r2: b, r3: c+++ wird der Wahloperator WAHL (r2, r1) angewandt: *WAHL (r2, r1)+ (GF11) ⇒ (GF12) *rr1 rr2 **za (R1), za (*r1, r2, r3: c+)+, *R1 *r1, r2, r3: c+++ ‘(r2: b) (r1: a)’ Als Resultat ergibt sich der r-Operator für die beiden extrahierten Stellen r1, r2 und die
für die Satzbildung extrahierte Folge von besetzten Rollen ‘(r2: b), (r1: a)’ in bilateraler Schreibweise. 2.4.5. Bilaterale Valenz-Verwendung in Hörersicht In der Hörersicht ergeben sich die folgenden Phasen des Verstehens einer Satzkette: (HB1) Gegeben sei die Satzkette „*b-mark2, R1-mark0, a-mark1+“ (mit der Notation von oben) (z. B.: „das Buch (rG) schenkte der Vater (rS)“). (HB2) Extraktion der Markierungen ergibt: *mark0 („R1“), mark2 („b“), *mark1 („a“)+. (HB3) Da der Hörer die bilaterale Grundform des Satzes (GF9) im Sprachwissen schon zur Verfügung hat, kann er sie auf diese Folge anwenden (cf. r-Konversionsregel 2.4.3)) und erhält als Resultat nach der Konversion: (GF13) *rr3 *mark0 („R1“), *mark1 („a“), mark2 („b“), mark3++, *R1, *r1: a, r2: b, r3+++ also die einzelnen besetzten Rollen in der kognitiv invarianten Form (GF9). – Hieran sieht man, dass die Rolle r3 noch besetzt werden kann. D. h. der Hörer erwartet aufgrund seiner VLZ-Kenntnis evtl. auch die Besetzung der dritten Stelle (dazu siehe 2.3.2). 2.4.6. Bilaterale Valenz-Verwendung in Sprechersicht Für die Sprechersicht ergeben sich die Phasen für das Erzeugen einer Satzkette: Da Sprecher und Hörer nach demselben Prinzip kommunizieren sollen, muss der Gedanke beim Sprecher so modelliert werden, dass die „Staffelübergabe“ d. h. die Satzkette, die der Hörer als Input erhält, vom Sprecher genau so vorbereitet wird. Der Sprecher will von einem konkreten Gedanken zu einem Satzausdruck übergehen (1:8,9). Dies geschieht in den folgenden Phasen: (SB1)
Beim Sprecher liege der Gedanke vor (cf. 2.3.3 (SR1)): (BES1) *R1, *r1: a, r2: b, r3: c++ Dies ist die Besetzung der für den Sprecher relevanten Teile der kognitiven Struktur der Inhaltsseite der bilateralen Grundform des Satzes (GF6).
7. Mathematische und logische Rekonstruktion des Abhängigkeits- und Valenz-Konzepts
Für das Folgende wird angenommen, dass der Sprecher die Rolle r3 unbesetzt lassen will – aus Gründen, die hier nicht diskutiert werden müssen (cf. oben). (SB2) Die Zuordnung der Ausdrucksseite zu BES1 (also za (BES1) ergibt: *mark0 („R1“), *mark1(„a“), mark2 („b“), mark3++, *R, *r1: a, r2: b, r3+++. (SB3) Durch die Extraktionsregel erhält der Sprecher dann: *WAHL (r2, r1)+ (**mark0 („R1“), *mark1(„a“), mark2 („b“), mark3++, *R1, *r1: a, r2: b, r3+++) ⇒
*rr1 rr2 **mark0 („R1“), *mark1, mark2, mark3++, *R1, *r1, r2, r3++++ (mark2 („b“)) (mark0 („R1“)) (mark1(„a“))
Hier ist die letzte Zeile die gewünschte Abfolge der ausdrucksseitig präparierten Rollen-Argumente (die Wahl der Extraktion). (SB4) Was der Sprecher dann versprachlicht, ist die extrahierte Folge der besetzten Rollen und die Ausdrucksseite des Relators, nachdem er mittels (KR5) die markierten Ausdrucksseiten erstellt hat: (mark2 („b“)) (mark0 („R1“)) (mark1(„a“)) ⇒ *„b-mark2“, „R1-mark0“, „a-mark1“+ Zusammenfassend ergibt sich ein neues Bild der Informationsverteilung in einer Satzkette: Die nebeneinander stehenden Wörter stehen nicht in direkter Beziehung zueinander (im Gegensatz z. B. zur Grundhypothese der Konstituentengrammatik), sondern sie sind Rolleninformationen, die, jede für sich, auf eine dahinterstehende holistische Struktur bezogen ist. Nur durch die strukturierende „Kraft“ des Relators, d. h. des Verbs (als Repräsentant der holistischen Struktur) stehen die Rolleninformationen indirekt miteinander in Beziehung. Dieser Gesichtspunkt wird umso tragender, je freier die Wortstellung der dargestellten Sprache ist. Das wird im nächsten Kapitel als Verb-Holon-Modell ausgeführt werden (cf. „kantifizieren“ und „dekantieren“ in 3.1.2). 2.4.7. Anmerkung zur Regelform RF bei Hays (1964) und Gaifman (1965): RF lautet für den dreistelligen Fall: Y (X1, *, X2, X3) mit der Anweisung, dass die Kategorie Y die Kategorien in der Klammer regiert.
49
Der Stern markiert die Position des Y unter den anderen Kategorien in der terminalen Kette (Hays 1964, 513; dazu auch Heringer 1993b, 318 ff.). In RF wird kein Unterschied zwischen Ausdrucks- und Inhaltsseite gemacht. Das mag für eine computernutzbare Syntax vielleicht ausreichen, es ist aber formal in sich inkompatibel. Denn zum einen wird Y als Relator mit 3 Valenzstellen (X1, X2, X3) angesehen, zum andern steht die terminale Besetzung von Y (mit KONV2: „Y“) aber in der Satzkette *„X1“, „Y“, „X2“, „X3“+ (statt des Sterns ist „Y“ eingesetzt). Nun ist aber Y entweder als dreistelliger Relator mit Argumenten (bzw. mit Valenzstellen) zu verstehen, dann müssten in der Klammer die Argumentstellen dazu stehen, also insgesamt: Y3 (X1, X2, X3) ⫺ oder in der Klammer stehen nur die Ausdrucksseiten (d. h. besetzte Kategorien-Ausdrucksseiten vom Typ *„C: c“+), also *„X1: x1“, „Y: y“, „X2: x2“, „X3: x3“+. Dann sind dies Wörter, die selbst keine Relatorfunktion mehr übernehmen können, wie Hays das fordert. Die Regel-Iteration (z. B.: X1 (Z1, *, Z2)) ist nicht möglich; denn ein Ausdruck wie „X1“(„Z1“, „X1“, „Z2“) ist sinnlos. Im Vergleich mit der Grundform (GF9) zeigt sich das Problem: wenn man in (GF9) die zu besetzenden Kategorien mit aufnimmt und an die Hays’sche Notation angleicht, erhält man die bilaterale Struktur (zunächst ohne Besetzung): **„X1“, „Y“, „X2“, „X3“+, *Y (X1, X2, X3)++ Diese wird bei Hays „zusammengeschoben“ zu dem unilateralen Hybrid-Gebilde: Y (*„X1“, „Y“, „X2“, „X3“+). Hier soll zugunsten von Hays angenommen werden, dass der Ausdruck „X“ die besetzte Kategorie meint (d. h. die Terminal-Elemente seien miteinbezogen, also *„X: x“+). Dennoch ist der Status von Argumenten einer Relation (*X: x+) ein anderer als der von Komponenten in einer Kette von verknüpften Ausdrucksseiten (*„X: x“+). RF lässt sich aber auf eine korrekte bilaterale Form (in der hier dargestellten „Sprache“) bringen, wenn man z. B. Y (X1, *, X2, X3) bilateral aufteilt in: **X1: „x1“, Y: „y“, X2: „x2“, X3: „x3“+, *Y: y (X1: x1, X2: x2, X3: x3)++,
50
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
wobei Y bzw. X jeweils die Kategorie des bilateralen Zeichens bedeutet und im ersten Glied die Besetzung der Kategorien mit Ausdrucksseiten, und im zweiten Glied die inhaltsseitige Abhängigkeitsstruktur angegeben ist. Fügt man noch die eigentlich relevanten Rollen hinzu, erhält man einen Ausdruck von der Art (GF10). Hier sieht man also auch, wie die extensionale Mathematik das Wesentliche der Valenz übersieht, da sie blind ist für Rollen. – Auf Details kann hier nicht eingegangen werden. 2.5. Thema-Exportation und Thema-Rhema-Gliederung Für die Betrachtung der Verb-Valenz unter pragmatisch-kognitiven Aspekten benötigen wir noch die Berücksichtigung der ThemaRhema-Gliederung. Diese Möglichkeit ist bei Tesnie`re nicht vorgesehen, muss aber aus verschiedenen Gründen aufgenommen werden, u. a. um die Subjekt-Prädikat Diskussion bei Tesnie`re beurteilen zu können (cf. 3.6.1). – Eine bestimmte Rolle kann vom Sprecher ausgewählt werden, den thematischen Anfang seiner Mitteilung anzuzeigen. Dazu soll eine Zweiteilung in der Grundform des Satzes bzw. des Gedankens vorgenommen werden. Um diese Operation transparent zu machen, soll sie zunächst nur für den monolateralen Fall vorgeführt werden. D. h. wir knüpfen nicht an 2.4, sondern an 2.3 an. In der Relations-Form *R1, *r1, r2, r3++ (cf. (GF4)) werde eine Rolle vom Sprecher kognitiv als Thema-Rolle ausgezeichnet. Damit soll modelliert werden, dass der Sprecher eine bestimmte Rolle und deren Besetzung zum Thema-Gegenstand seiner Äußerung macht („THG“) und den Rest als Rhema-Information („RHI“) darauf bezieht. Dazu wird ein Operator thg(r) definiert, der den Relationsausdruck auf einen zweigliedrigen Ausdruck der Form *Thema-Gegenstand, Rhema-Information+ abbildet (abgekürzt: *THG, RHI+), in dem eine Rolle r als Themarolle ausgewählt und vorangestellt wird (im folgenden Beispiel die Rolle r2). – Da dies zunächst einmal die Repräsentation des Gedankens in einem kognitiven Raum betrifft, besagt diese Voranstellung noch nichts über die Position des Themas im zu bildenden Satz. Die genaue Bedeutung dieser Ausdrücke kann erst im pragmatischen Teil (3.6 bzw. 4.3.2) gegeben werden. Hier kommt es nur auf die Bildung des thema-rhema-gegliederten Ausdrucks an:
(THG1) *thg (r2)+ (rr1 rr2 r3 *R1, *r1, r2, r3++) ⇒ *rr1 rr2 rr3 **THG: r2+, *RHI: tr2 *R1, *r1, r2, r3+++++ Der resultierende Ausdruck ist ein r-Operator, der (hier z. B. alle drei) Rollen zur Besetzung zulässt, aber die Rolle r2 soll nur im Thema-Gegenstand besetzbar sein. Dazu wird der τ-Operator eingeführt: er ist eine rückwärtsgewandter Lambda-Operator, der nur auf ein (besetztes) Argument, das links von ihm steht, angewandt werden kann. Eine Besetzung von rechts bleibt ohne Effekt. Also in einfachster Notation ausgedrückt: (KR8)
(r1: a) *τr1 *R1, *r1+++ ⇒ *R1, *r1: a++
Dieser Operator dient dazu, nach Verarbeitung der thematisch bezogenen Information aus der Thema-Rhema-Gliederung wieder zu der ursprünglichen Relationsstruktur in der kognitiven Repräsentation zurückzukehren, in der die Thema-Rhema-Gliederung keine Rolle mehr spielt. D. h., zunächst werden die r-Operatoren rr1, rr2, rr3 auf Ausdrücke wie z. B. (r3: c) (r2: b) (r1: a) (in dieser gedanklichen Reihenfolge) angewandt. Diese werden durch Konversion an die „richtigen“ Stellen gebracht; also erhalten wir: (THG2) *rr1 rr2 rr3 **THG: r2+, *RHI: τr2 *R1, *r1, r2, r3++++ (r3: c) (r2: b) (r1: a) ⇒ **THG: r2: b+, *RHI: τr2 *R1,*r1: a, r2, r3: c++++ Hier ist also „b“ der herausgehobene ThemaGegenstand in der Rolle r2 (auch wenn er im Gedanken an zweiter Stelle steht). Die Rhema-Information enthält die weiteren Besetzungen zu r1 und r3 wie bisher. Die Rhema-Information bleibt aber deswegen noch unvollständig, weil sie noch einen Operator enthält, der die Information zu r2 betrifft. Dieser kann nun laut (KR8) nur die Information aus THG aufnehmen. Bei Anwendung des τ-Operators auf THG (in THG3) wird THG als Argument in Klammern gesetzt, und als Resultat erhält man wieder die vollständige Relations-Struktur ohne ThemaRhema-Gliederung: (THG3) (*THG: r2: b+) *RHI: τr2 *R1, *r1: a, r2, r3: c+++ ⇒ *R1, *r1: a, r2: b, r3: c++. Man sieht nun, dass die thg(r)-Funktion, die zur Thema-Exportation führt, sozusagen als
7. Mathematische und logische Rekonstruktion des Abhängigkeits- und Valenz-Konzepts
τ-Extraktionsregel aufgefasst werden kann. D. h. der Sprecher wählt aus einer kognitiv vorgegebenen Relation (aus dem „Gedanken“ bei Tesnie`re) zunächst einen Thema-Gegenstand aus und erzeugt mit thg(r) dann die Thema-Rhema-Gliederung. Dies wird im nächsten Kapitel angewandt werden. Wenn die Thema-Rhema-Gliederung und τ-Operation bilateral beschrieben wird, ergeben sich aus der Zeichen-Ausdrucksseite des THG-Ausdrucks die einzelsprachspezifischen Bedingungen für die Thema-Markierung, sei es durch die Positionierung im Satze, sei es durch Thema-Bezeichner (wie z. B. im Japanischen). Dies kann hier nicht ausgeführt werden. Damit sind alle „Werkzeuge“ zur Darstellung des sogenannten Verb-Holon-Modells eingeführt. Es soll dazu dienen, die Tesnie`resche Syntax als pragmatisch-kognitive „Grammatik“ zu erweisen und sie dadurch mit dem ihr zustehenden Sinn zu füllen.
51
Die pragmatisch-kognitive Modellierung der Verbvalenz als holistische Struktur: das Verb-Holon-Modell
Schluss. Da es meines Wissens weder eine teleologische bzw. holistische Mathematik noch eine so geartete zielgerichtete Logik gibt und da die Desiderate der Valenzstrukturierung im Rahmen einer extensionalen atomistischen Mathematik, für das die Mathematikergruppe Bourbaki seit über 50 Jahren tonangebend ist, nicht zu verwirklichen sind (cf. 3.1.1.1), wird im Folgenden (wie auch schon in Kap. 2) versucht, ein geeignetes mathematisches Werkzeug zu entwickeln, dass den Tesnie`reschen Ideen angemessen ist. Für den Versuch, von einer gegebenen einzelwissenschaftlichen Beschreibungsweise (der Dependenz- und Valenz-Grammatik) her nach einer mathematischen Form zu suchen, statt umgekehrt, wie der Mathematiker, alles Konkrete nur als Anwendung vorhandener mathematischer Formen zu interpretieren oder notfalls unter Verlust der guten Intuitionen in solche Formen hineinzubetten (cf. Einleitung), sollten besonders diejenigen aufgeschlossen sein, die lange genug mit immer wiederkehrenden Problemen auf alten Geleisen beschäftigt waren. Dass dies ein erster Vorschlag ist, der sich erst in der Anwendung bewähren kann, sollte die Neugier darauf nicht schmälern, sondern eher das Interesse an einer möglichen Weiterentwicklung wecken.
3.1. Holistische Grundlagen 3.1.1. Reflexion über die mathematischen Modellierungsmöglichkeiten Wenn man die schöpferischen Intuitionen Tesnie`res formal darzustellen versucht, stellt man fest, dass sie verlorengehen im Rahmen einer Mathematik, die von Mengen von Objekten ausgeht und Relationen nur als Mengen von Paaren, Tripeln usw. über solchen Mengen konstruiert, da das holistische Konzept, wie es sich z. B. in der Organisation des Satzes durch ein Verb ausdrückt, nicht auf Mengen von Wortketten reduzieren lässt. Wenn ein Sprecher einen Satz organisiert oder ein Hörer einen solchen zu verstehen versucht, dann greift er nicht in eine Kiste von schon vorhandenen Ketten-Konstrukten, um die gerade gehörte oder zu konstruierende darin als Element zu identifizieren; vielmehr zeigt sich die gestalterische Kreativität des Sprechers gerade darin, dass er das, was er mitteilen möchte, über einem holistischen Rahmen aufgrund seiner kognitiven und sprachlichen Fähigkeiten zielgerichtet zusammenstellen kann (cf. 4.3.2). Bei dieser teleologische Planung stehen die syntaktischen Details der Links-Rechts-Kette erst am
3.1.1.1. Zur mengenbasierten Strukturmathematik Im Folgenden (wie auch im letzten Kapitel) werden ungewohnte mathematische Mittel benutzt. Dies soll kurz motiviert werden: die gängige extensionale Mathematik geht von Mengen aus. Das Bourbaki-Programm der Mathematik besteht darin, alles mathematisch Ausdrückbare auf Mengen und daraus konstruierten Strukturen aufzubauen. (cf. Bourbaki 1982, 293; Thiel 1995, 266; 270 f.). Mengen bestehen aus unterscheidbaren Einzelobjekten. Dies ist das Cantorsche Mengenkonzept, wobei an ein solches Einzelobjekt darüber hinaus keine Bedingungen gestellt sein sollen (cf. Thiel 1995, 152). Eine zweistellige Relation besteht aus einer bestimmten Teilmenge aus der Menge aller Paare von Einzelobjekten. Eine solche extensional verstandene Relation kann im endlichen Fall in einer Liste von Paaren aufgestellt werden. Wenn die Mathematik nach dem Bourbakiprogramm auf dieser Art von Mengen und Strukturen aufgebaut ist, dann lassen sich die Valenzrollen darin nicht modellieren. Denn die Rollen sind keine Einzelobjekte, die sich in Mengen zusammenfassen lassen. Sie sind
3.
52
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
keine selbständigen „Gegenstände“, sondern immer nur in Verbindung mit einem Verb anzutreffen (cf. 2.2). Rollen können von Gegenständen „besetzt“ werden und ihnen, wie einen Mantel, eine Rolle bzgl. des Verbs (ver)leihen, aber die Rollen selbst bleiben von den Gegenständen verschieden. Im Bild von Lewis Carroll kann man sagen: die Rollen sind wie das Grinsen der Katze, das auch ohne Katze noch „Grinsen“ bleibt. Wenn die Bourbaki-Mathematik zwar „Katzen ohne Grinsen“ darstellen kann, nicht aber das „Grinsen ohne Katze“, dann kann man Rollen in dieser Mathematik nicht darstellen. Daher muss man sich um eine neue Mathematik kümmern, in der Relationen und deren Rollen der Ausgangspunkt sind, während Gegenstände und Mengen erst bei der Anwendung ins Spiel kommen (cf. 3.1 (H3)). – Dies kann hier nicht vertieft werden, wird aber in der folgenden Darstellung noch verständlicher werden. Im Übrigen ist dies auch eine der Stellen, wo eine einzelwissenschaftliche Erkenntnis nach einer geeigneten Mathematik sucht, statt von einer vorhandenen Mathematik als Anwendungsbereich vereinnahmt zu werden. Im Folgenden soll die im letzten Kapitel begonnene Modellierung eines kognitiven Valenzbegriffs in diesem Sinne weitergeführt werden. Der auf den Sprachbenutzer bezogene Ansatz Tesnie`res wird in einem holistischen Ansatz, dem Verb-Holon-Modell, rekonstruiert, aber auch modifiziert werden. Die grundlegende Idee der Modellierung lässt sich in den folgenden drei Thesen (3.1.2⫺4) formulieren: 3.1.2. These zum holistischen Charakter des gemeinsamen Wissenshintergrunds und zur holistischen Logik Ein Sprachbenutzer SB hat „Wissensgestalten“ zur Verfügung. Das sind Muster, die SB an einem Wirklichkeitsausschnitt erkennen kann. Das spezifisch Holistische besteht in der holistischen Logik, d. h. (SP1) dass SB von einem erkannten charakteristischen Detail (einem Holem) auf die ganze Gestalt (Holon) schließen kann (im Bild: von einem gereichten Finger auf die ganze Hand) bzw. (SP2) dass SB von der erkannten Gestalt auf alle Teile schließen kann (von der Hand auf die Finger, die dazu gehören).
Diese Wissensgestalten betreffen sowohl Muster in der Wirklichkeit (3.2, 3.5) als auch Muster in den sprachlichen Mitteln (3.3, 3.4, 3.6), die zur Darstellung der Wirklichkeitsmuster dienen. Zwei Sprachbenutzer gehen in der Kommunikation davon aus, dass sie beide sowohl die Wirklichkeits- als auch die Kommunikations-Muster schon zur Verfügung haben und darauf aufbauen können. Ein Sprecher braucht daher nach dem Finger-Hand-Prinzip (SP1) nur noch Details zum „Finger“ anzugeben, um den Hörer dazu zu bringen, diese als Details eines „Fingers“ zu erkennen, sich dazu die „Hand“ zu denken und die Details zu den weiteren „Fingern“ der „Hand“ zu erwarten (Hand-Finger-Prinzip). Eine mögliche Anwendung dieses Prinzips ist diese: die „Hand“ ist das Verb (als „Holon“) und die „Finger“ sind die Valenzrollen (als „Holeme“). Es gibt insgesamt 5 solche Anwendungen. Der Vorteil dieses gemeinsamen holistischen Wissenshintergrundes ist der: dass ein Satz nur noch solche Hinweise auf die Holons und Holeme enthalten muss, die nötig sind, damit der Hörer das Übrige aus seinem Wissen (nach der holistischen Logik) erschließen kann. Ein Sprecher verpackt daher in einem Satz nur die Informationen, die der Hörer zu seinem holistischen Muster momentan ergänzen soll (cf. 3.1.3). Alles, was schon gemeinsame Grundlage ist, „subtrahiert“ er. – Der Hörer fügt umgekehrt von sich aus beim Rezipieren eines Satzes das dafür nötige holistische Wissen hinzu. Dieses eigenständige Hinzufügen der Gestalt (nach SP1) sei zu Ehren Immanuel Kants (1724⫺1804), dem ersten Kognitivisten in metaphysischer Zeit, im Folgenden kantifizieren genannt. Die oben genannte umgekehrte Aktivität beim Sprecher, dem „Subtrahieren“ der holistischen Strukturierung vor der Kommunikation: dekantieren. Das Kriterium dafür, was ein Sprecher dann zur Sprache bringen muss, wenn er einem Hörer seinen Gedanken mitteilen will, lässt sich mit dem folgenden Prinzip der ökonomischen Mitteilung ausdrücken: 3.1.3. Das Prinzip der ökonomischen Mitteilung lautet: (PR.ÖKO) Wenn ein Sprecher einem Hörer in einer Situation, in der schon Informationen zwischen beiden zu einem Thema ausgetauscht worden sind, eine weitere Information (einen „Gedanken“) mitteilen will, so muss er prinzipiell nur das verbalisieren, was
7. Mathematische und logische Rekonstruktion des Abhängigkeits- und Valenz-Konzepts
53
für den Hörer neu ist und was zur Einbettung des Neuen in den bisherigen Informationsstand unbedingt notwendig ist (z. B. Bezugnahme auf das „Thema“). Alles dem Hörer in der Situation schon Bekannte oder für ihn momentan Irrelevante sowie alles holistisch Vorausgesetzte bzw. Erschließbare kann der Sprecher weglassen. Dieses Prinzip scheint trivial zu sein (cf. auch Grice 1975, 47), es wird aber weitreichende Konsequenzen für die Valenz-Betrachtung haben (cf. 3.3, 3.5, 3.6 und Storrer 1992, 271; 274). Die Grundform aller solcher Muster wird im Folgenden zunächst allgemein (unter dem Begriff „Holon“) charakterisiert (3.1) und dann auf die Organisation des Gedankens und seine Verbalisierung im Satz angewandt (3.2 ff.).
vanten) Informationen aus seiner Wirklichkeit besetzt. Der Sprecher realisiert neben dem Verbmuster im selben Satz noch andere Muster, die weitere Aspekte des Geschehens und der Mitteilung betreffen (cf. 3.2⫺3.6). Er bildet daraus eine Abfolge von Satzteilen, die nicht untereinander zusammenhängen, sondern jeweils nur über ihre Muster miteinander vermittelt sind. Solche Muster sind Spezialfälle des holistischen Konzepts „Holon“, das jetzt eingeführt werden soll.
Anm. 1: Wenn im Folgenden von einem „Sprachbenutzer SB“ die Rede ist, dem bestimmte Fähigkeiten und Tätigkeiten zugeschrieben werden, so ist dieser immer als ein theoretisches Konstrukt zu verstehen, das dazu dient, die Tesnie`reschen Intuitionen zu modellieren. Aussagen über SB dürfen nicht als empirische Aussagen über das Verhalten von konkreten Sprachbenutzern missverstanden werden. Das Konstrukt kann sich, wie gesagt, erst bei der Anwendung auf Angemessenheit prüfen lassen.
(H1)
Anm. 2: Der im Folgenden eingeführte Begriff des Holons sollte nicht mit Begriffen wie „frame“ "script“ etc. (cf. Konerding 1993, 42 ff.) verwechselt werden, da diese die Intention des holistischen Denkens nicht modellieren, sondern wieder ins Atomistische rücktransformieren. Darauf kann hier jedoch nicht eingegangen werden. 3.1.4. Die Holistische Grundthese des Verb-Holon-Modells ist: Jedes Verb stellt mit seinen Valenzrollen eine holistische Gestalt (Holon) und dessen Teile (Holeme) dar. Diese Gestalt repräsentiert ein Wirklichkeits-Muster (im festen Wissenshintergrund) jeden Sprachbenutzers, mit dem er Wirklichkeitsausschnitte (wieder)erkennen kann. Damit ist gemeint: der Sprecher kann Geschehnisse und Handlungen in seiner Wirklichkeit auf „Geschehens- bzw. Verarbeitungs-Muster“ abbilden und kann dies im Satz dadurch zum Ausdruck bringen, dass er dazu einen entsprechenden Verbausdruck wählt und dessen Valenzrollen mit den (rele-
3.1.5. Die Grundform des Holon-Konzepts Zunächst soll die Gestalt von Informationen, wie sie einem Sprachbenutzer in bestimmten Bereichen vorliegen, ohne Bezug auf die Sprache definiert werden, dann jedoch auf die Sprachorganisation, wie sie Tesnie`re konzipiert hat, angewandt werden. Ein Holon ist ein Gestaltschema mit funktional-bestimmten Teilen (im Folgenden Holeme genannt). Jedes Holon erfüllt für den Sprachbenutzer innerhalb eines Wirklichkeitsbereichs einen bestimmten Zweck.
Formal wird ein Holon HL so dargestellt: (H1a) HL (NAM, ZWE, ANZ: n): *HM1, HM2, … HMn+. D. h. das Holon HL mit dem Namen NAM dient dem Zweck ZWE. Es enthält n funktionale Teile („Holeme“ genannt): *HM1, ...HMn+. (H2)
Jedes Holem HM erhält seine Rolle in HL dadurch, dass es einen bestimmten Teilzweck TZW im Zweck ZWE erfüllt. Sein Aufbau ist:
(H2a) HM (HNM,TZW): *Valeur, Substanz, Variationsfeld+. D. h. das bestimmte Holem HM mit dem Namen HNM dient dem Teilzweck TZW im (Gesamt-)Zweck ZWE. Es enthält 3 funktionale Teile: ⫺ Der Valeur charakterisiert die unverwechselbare Funktion des Holems im Holon (d. h. seinen Teilzweck); ⫺ die Substanz enthält Parameter und Randbedingungen, die die materielle Konkretisierung betreffen; ⫺ das Variationsfeld enthält das Feld an Möglichkeiten, innerhalb dessen die Realisierung des Holems variieren darf, ohne mit der Realisierung eines konkurrierenden Holems in Konflikt zu geraten.
54 (H3)
(H4)
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
Konkretisierung des Holons: Ein Sprachbenutzer wendet ein Holon dadurch auf einen Wirklichkeitsausschnitt an, dass er die Holeme mit geeigneten Informationen aus seiner Wirklichkeit besetzt (d. h. die Holeme und damit auch das Holon werden „konkretisiert“).
SB ordnet die in der Wirklichkeit involvierten Gegenstände (oder Personen) A, B und C den Holemen zu (Konkretisierung der Holeme, cf. 3.1.5 (H3)). Insgesamt bildet SB dann z. B. das konkretisierte dreistellige Holon:
Holeme können selbst wieder als Holon fungieren und Sub-Holeme annehmen, die im Holem eine ähnliche Funktion ausüben wie die Holeme im Holon (Zum Holon-Konzept siehe auch Mudersbach 1999, 4.3.1.2).
(Die dem HL1 eindeutig zugeordneten Bestimmungsstücke „(NAM1, ZWE1, 3)“ in (HL1) werden im Folgenden weggelassen.) Das Besetzen der Holeme ist formal darzustellen, wie es in 2.3 beim Rollen-Relator eingeführt worden ist. (HL2) ist die formale Repräsentation der holistischen Information, die den „organisierten Gedanken“ bei Tesnie`re vor dem Sprachbezug modellieren soll. Als Beispiel stelle man sich die Szene vor, in der SB gesehen hat, wie die Person A der Person B einen Gegenstand C gibt, und hat dies als Beispiel des Handlungs-Musters des Schenkens (= HL1) erkannt.
3.1.6. Die fünf holistischen Gestalten des Kommunizierens Der Holon-Gedanke lässt sich aus Saussures Langue-Auffassung gewinnen und verallgemeinern, er soll im Folgenden aber nur auf die Versprachlichung und das Verstehen, wie es bei Tesnie`re modelliert wird, bezogen werden. Es wird sich nun zeigen, dass sowohl das Valenz- als auch das Dependenz-GrammatikKonzept mit der holistischen Grundform modellierbar sind. Darüber hinaus ergeben sich noch weitere Anwendungen im Rahmen der Satzbeschreibung. Insgesamt wird das Holon-Konzept im Verb-Holon-Modell bei der Versprachlichung der folgenden fünf holistischen Teilmodellierungen eingesetzt: – beim Erkennen eines Geschehens- bzw. Handlungs-Holon (Sach-Holon, cf. 3.2), – bei der Redeplanung zum konkreten SachHolon (Valenz-Konzept, cf. 3.3), – beim Referenz-Erstellungs-Muster (Dependenz-Konzept, cf. 3.4), – beim holistischen Raum-Zeit-Wissen (Circonstanten-Konzept, cf. 3.5), – beim Mitteilungs-Muster (Redeplanung nach Thema-Rhema-Gliederung bzw. Subjekt-Prädikat-Struktur des Satzes, cf. 3.6). Diese Holonstrukturen sollen im Folgenden einzeln besprochen werden. Dabei wird das mathematische Werkzeug der Rollen-Relation (aus 2.) zum Tragen kommen. 3.2. Geschehens- bzw. Handlungs-Muster (Sachholon) Wir gehen davon aus, dass der Sprachbenutzer SB in seiner Wirklichkeit ein Geschehen bzw. eine Handlung als zu dem Muster HL1 (Sach-Holon) gehörig erkennt: (HL1) *HL1 (NAM1, ZWE1, 3): *HM1, HM2, HM3++.
(HL2) *HL1: *HM1: A, HM2: B, HM3: C++.
3.3. Redeplanung zum konkreten SachHolon (Valenz-Konzept) SB will einem Hörer HR die Information (HL2) mitteilen. Dazu muss SB wissen, wie man in einer Situation, in der ein bestimmter Gegenstand bzw. Interesse (Thema) gerade im Zentrum des Aufmerksamkeitsbereichs (AMB) von SB bzw. von HR steht, die Mitteilung auf ein solches Thema bezieht und angibt, welchen Teilen des Holons man Neuigkeitswert für den Hörer zuschreibt. Dieses holistische Wissen zur Thema-Rhema-Gliederung steht zwar bei der Redeplanung am Anfang, soll hier aber erst am Schluss behandelt werden (cf. 3.6). Zu der holistischen Information (HL2) muss SB außerdem eine geeignete Versprachlichung finden. Dies geschieht in vier Schritten: (s1) SB wählt zunächst in der natürlichen Sprache L1 einen Verbausdruck aus, der das Holon (HL1) und die zur Verbalisierung vorgesehenen Rollen (ohne Besetzung) darstellen kann. Dies sei zu *HL1, *HM1, HM2, HM3+) z. B. vrb1(r1, r2, r3). (cf. 3.1.4). Zu einem Sach-Holon HL1 gibt es evtl. verschiedene alternative Verbausdrücke mit unterschiedlicher Gewichtung und Perspektivierung der Holeme. Die Wahl wird von thematischen und Interessenvorgaben bestimmt, kann hier aber nicht diskutiert werden (cf. Storrer 1992, 281 ff.).
7. Mathematische und logische Rekonstruktion des Abhängigkeits- und Valenz-Konzepts
(s2) Nach der Wahl des Verbs (zunächst seine Inhaltsseite) wählt der Sprecher die Valenzrollen aus, die er realisieren will (wie in 2.2 dargestellt). Die Grundlage dazu gibt 3.1.3 (PR.ÖKO). Alles Übrige wird „dekantiert“. (s3) Der Sprecher bildet sprachliche Ausdrücke (Referenzterme), die geeignet sind, für den Hörer die Gegenstände, die die Valenzstellen besetzen, zu bezeichnen. Dies geschieht mit dem nachfolgend beschriebenen Referenz-Holon. (s4) Zur Verwendung der Junktion: Eine Valenzrolle kann nur mit einem Referenzterm besetzt werden. Wenn diese Konvention durchbrochen werden soll, weil z. B. mehrere gleichartige Terme nach (PR.ÖKO) zusammengezogen werden sollen, muss der Sprecher dies durch einen Erweiterungs-Indikator anzeigen (dazu dienen die Junktive, cf. 1.5.1). Das Prinzip der Junktion betrifft aber nicht nur die Referenzterme, sondern alle anderen Holeme, nicht jedoch die Subspezifikationsmöglichkeiten (cf. 3.4 RHM3). Statt hier die Probleme bei der Einbindung der Junktion ins Stemma aufzurollen, sei die Darstellungsidee als Bild angegeben: Man behandelt das Junktiv wie einen Zeitungsständer. Da wo eine Zeitung liegt, stellt man einen Zeitungsständer (das Junktiv) dazu und kann dann beliebig viele Zeitungen (desselben Typs) hineingeben. D. h. konkret: Bei der Besetzung des Holems wird z. B. ‘und’ als ein solcher Erweiterungs-Indikator angegeben, der dann beliebig lange Aufzählungen zulässt, ohne dass die Holem-Holon-Beziehung dadurch belastet wird. Allerdings kann damit keine Distribution erzeugt werden. Dies ist aber ohnehin bei Tesnie`re ein naives und fragwürdiges Unterfangen, beim Übersetzen in das Stemma zugleich die Logik der Distribution mitbehandeln zu wollen (136:5, 144) (cf. 1.5.1). 3.4. Referenz-Erstellung mit dem ReferenzHolon (Dependenz-Konzept) Nach der Festlegungt des Verbs und der zu realisierenden Verbrollen, sind für die Gegenstände, die die Holeme besetzen, geeignete sprachliche Ausdrücke zu finden. Dazu verfügt der Sprachbenutzer über das Wissen, wie man einen Referenzterm zu einem intendierten Gegenstand so gestaltet, dass der Hörer den Gegenstand in seinem Informationsstand
55
auffinden kann (Zweck des Referenzterms ZWR). Dieses Wissen wird wieder als Holon modelliert. Das Referenz-Holon HRT dient dem oben angegebenen Zweck ZWR und habe drei Teile. (Einen besonderen Namen braucht es nicht, weil es nur ein Referenz-Holon gibt). (RH1) *HRT(⫺, ZWR, ANZ: 3): *RHM1, RHM2, RHM3++. Hierbei haben die Referenz-Holeme folgende Teilfunktionen: – RHM1 enthält die Angabe der ReferenzGegenstände – RHM2 enthält die Angabe der Anzahl der Gegenstände (und eventuell die Angabe der Art der Kennzeichnung (z. B. ob indefinit oder definit), – RHM3 enthält die Spezifikation, mit der die Gegenstände herausgegriffen werden können (ein Substantiv, 48: 6). Zu der Spezifikation kann eine oder mehrere Subspezifikationen hinzutreten (Ausdrücke der Kategorie ADJ). Diese können ihrerseits durch eine Sub-Subspezifikation spezifiziert werden (z. B. Ad-Adjektive wie „sehr“, „ziemlich“ etc.). Die Spezifikationstiefe muss offen bleiben, weil sie nur davon bestimmt sein darf, dass die intendierten Referenzgegenstände (in RHM1) hinreichend genau eingegrenzt werden. Eine offene Spezifikationstiefe wird dadurch erreicht, dass dieses Holem in sich einen iterierbaren Aufbau enthält, der aber nicht aus dem Holem herausführt. (Wie die Sprache bzw. Tesnie`re dies ermöglichen, wird in 4.3.3 dargestellt). Zur Erleichterung des Spezifizierens dient die Vorgabe eines Aufmerksamkeitsbereiche, da dadurch der Bereich der Alternativobjekte, gegen die abzugrenzen ist, eingeschränkt werden kann (cf. 3.6). Der Sprecher SB bildet z. B. für den Gegenstand A im ersten Holem (HM1:A in HL2) einen Referenzterm (als Konkretisierung des Referenzholons HRT) z. B.: (RH2) *HRT: *RHM1: A, RHM2: 1-def, RHM3: spez1 (subsp1))++. Der Referenzterm, der sich auf A beziehen soll enthält die Anzahl „1-def“ (singular, definit) und enthält eine Spezifikation („spez1“) und eine Subspezifikation („subsp1“). D. h. SB bereitet einen bilateralen Referenzterm vor (cf. 2.4) mit
56
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
(RH3) *Rf1: **za (1-def), za (spez1 (subsp1))+, *1-def, spez1 (subsp1)++, z. B. (RH4) *Rf1: **„das*“, za (Buch (dick)++, *1-def, Buch (dick)++. (Bezeichnungen: siehe 2.2 ff.) „das*“ sei ein definiter Artikel, dessen Kasus noch offen ist (denn die Kasusbestimmung erfolgt erst durch die Rolleninformation (mark1) in (MT1) weiter unten. Das subspezifizierende) Adjektiv (‘dick’) setzt ein spezifizierendes Substantiv (‘Buch’) voraus. Das Adjektiv kann aber nicht die Eigenschaft zu „Buch“ spezifizieren, weil Buch als Eigenschaft nicht die Eigenschaft dick haben kann (wohl aber kann ein Objekt zu „Buch“ dick sein! cf. die falsche extensionale Argumentation in 21: 4 zur Rechtfertigung, dass „Buch“ semantisch von „dick“ regiert würde (cf. 3.4.1 und 4.1.1). Das Adjektiv dient dem Hörer HR vielmehr dazu, aus der Menge der in Frage kommenden Bücher im Informationsstand des HR die dicken Bücher herauszugreifen. Über dieser Menge ist dann mit dem Quantor zu prüfen, ob sie eine Einermenge ist. 3.4.1. Was nun den Dependenz-Aspekt angeht, so ist dies (nämlich (RHM3) bzw. „spez1(subsp1)“ in RH3) die einzige Stelle in der ganzen Dependenztheorie, an der es sinnvoll ist, den Begriff der Abhängigkeit zu verwenden, aber nicht als Abhängigkeit zwischen den Kategorien ADJ und NOM, sondern als eine daraus resultierende Abhängigkeit zwischen den Besetzungen der Kategorien bzw. deren extensionalen Interpretation. Die subspezifizierte Menge der dicken Bücher ist abhängig von der vorher spezifizierten Menge der Bücher. „x ist abhängig von y“ heißt dann soviel wie „x setzt y voraus“. Erst muss die Menge der Bücher dem Hörer zugänglich gemacht werden, bevor er daraus die Teilmenge der dicken Bücher (Subspezifikation durch ein Adjektiv) herausgreifen kann. D. h. für HR kommt es nicht allein auf die Setzung eines Nomens an, sondern auch darauf, dass er eine Menge von Büchern in seinem Informationsstand zuordnen kann. D. h. nicht das Nomen ist nicht weglassbar, sondern die damit bezeichnete Menge muss vorhanden sein (sie ist „nicht weglassbar“). Das Abhängigkeitskonzept besagt also pragmatisch gesehen: dass mit dem Spezifikationsausdruck erst einmal erfolgreich auf eine
Menge verwiesen werden muss, bevor die Subspezifikation greifen kann. Dasselbe gilt jedoch nicht für die Subsubspezifikation, weil die Modifikation eines Adjektivs keine extensionale, sondern eine intensionale Operation ist: die Eigenschaft „dick“ wird in „sehr dick“ modifiziert, bevor diese (modifizierte) Subspezifikation auf die Menge der Bücher angewandt werden kann. Denn man kann nicht die Teilmenge „sehr“ aus der Menge der dicken Bücher herausgreifen. 3.4.2. Wenn SB für die übrigen Holembesetzungen in (HL2) ebenfalls Referenz-Terme nach diesem Muster gebildet hat, dann erhalten wir insgesamt aus dem zu versprachlichenden Sach-Holon (HL2) *HL1: *HM1: A, HM2: B, HM3: C++ die Inhaltsseite für die Mitteilung: (MT1) vrb1, *r1: Rf1, r2: Rf2, r3: Rf3++ und mit eingesetzten Referenztermen (z. B.): (MT2) *vrb1 (r1: Rf1: *1-def, nom1(ad1)+, r2: Rf2: *1-def, nom2+, r3: Rf3: *1def, nom3 (adj3 (mod3))+)+. Ausdrucksseitig ergibt sich dann z. B. für die Konkretisierung des Handlungsmusters in 3.2: (MT3) za (schenken (r1: Rf1 *1-def, Hans-heißend (klein)+, r2: Rf2 *1-def, Geburtstagskind+, r3: Rf3 *1-def, Buch (dick (sehr))+)) (für: „der kleine Hans schenkt dem Geburtstagkind das sehr dicke Buch“). Wenn man nun in diesem Ansatz die Dependenz-Analyse Tesnie`res betrachtet, dann ergibt sich: Wenn seine Satzanalyse dahin führen soll, dass der Hörer einen Gedanken formen kann, in dem ein Gegenstand aus dem (gedanklichen) Informationsstand herausgegriffen wird, dann müssen die Wörter im Satz diese Aufgabe bewerkstelligen können, d. h. im Falle der Besetzung einer Rolle zu einem Verb: dass der Hörer aus den Informationen im Satz die für das Referenzholon nötigen Teile (Holeme) gewinnen kann, also den Quantor und die Spezifikation. Die Spezifikation ist bei Tesnie`re durch das Nomen und die Adjektive repräsentiert. Der Artikel wird aber auch als Adjektiv aufgefasst. Dies wird der quantifizierenden Funktion (im Gegensatz zur subspezifizierenden des Adjektivs
7. Mathematische und logische Rekonstruktion des Abhängigkeits- und Valenz-Konzepts
nicht gerecht). Das Nomen „regiert“ (i. S. v. „ist Voraussetzung für“) demnach nicht die andern Teile des Referenzterms, sondern allenfalls die Subspezifikation ADJ. Der Quantor ist dem Nomen gleichgeordnet. Damit löst sich die Kontroverse um das Verhältnis beider. Durch die holistische Sicht wird die parallele Holem-Funktion beider Teile beim Referieren deutlich. 3.5. Das holistische Raum-Zeit-Wissen (Circonstanten-Konzept) Zu klären ist im Rahmen des Verb-HolonModells noch die Modellierung der Circonstanten (48: 7 ff.). Da sie (nicht-obligatorische) Komplemente („Angaben“) sind, also zur Satzinformation nicht „notwendigerweise“ dazu gehören und da oft unklar ist, ob ein Satzglied ein Aktant oder ein Circonstant ist, soll hier ein Vorschlag zur Klärung der Funktion der Circonstanten gemacht werden, der sich folgerichtig aus dem holistischen Denkansatz ergibt. Die meisten Sach-Holons dienen dazu, Wirklichkeitsausschnitte zu erfassen. Die Wirklichkeit hat eine Raum-Zeit-Struktur. Da nun sicherlich diese Struktur zum gemeinsamen Wissensbestand zwischen Sprecher und Hörer gehört (cf. 3.1.2) und da der Hörer viele Details von (z. B. in einer Erzählung geschilderten) raum-zeitlichen Informationen leicht selbst erschließen kann, kann der Sprecher nach (PR.ÖKO) (in 3.1.3) in vielen Fällen auf die explizite Erwähnung im Satz verzichten (cf. das Dekantieren in 3.1.2). Nur im Falle von kontingenten und nicht erwartbaren Änderungen müssen diese angegeben werden. Wenn wir die Raum-Zeit-Struktur ebenfalls als Holon im Wissen des Sprachbenutzers modellieren (= RZH), ergibt sich die Möglichkeit, RZH als übergeordnetes „RaumZeit-Holon“ einzuführen, in dem ein Sachholon eine bestimmte Holemstelle (!) besetzt. RZH dient dem Zweck, die raum-zeitliche Orientierung des Hörers zu unterstützen, wenn er sich die Entwicklung des Gehörten vorstellen will und dies nicht mit seiner holistischen Logik erreichen kann. Wir erhalten insgesamt für RZH eine Struktur von der Art: *RZH, *RZM1, RZM2, RZM3, RZM4, RZM5, RZM6, RZM7, ...++ wobei gilt: RZM1: Das Holem der Raum-Zeit-Gestaltung enthält das Sach-Holon (3.2)
57
RZM2: RZM3: RZM4: RZM5: RZM6:
Lokalisierung im Raum Lokalisierung in der Zeit Intervall im Raum (z. B. „von-nach“) Intervall in der Zeit (z. B. „von-bis“) Qualitäten der Raum- und Zeit-Aspekte (wie „schnell“ oder „intensiv“) RZM7: Status eines Geschehens (z. B. kontingent, habituell, gesetzesartig) und weitere Holeme, die hier nicht von Belang sind. Zur „Schachtelung“ in RZM1: aufgrund von 3.1 (H4) kann RZM1. selbst wieder Holon-Charakter haben (hier: das Sachholon enthalten). Auf dieser Basis ergibt sich die folgende 3.5.1. These zur holistischen Behandlung der Circonstanten Jedes Sach-Holon ist eine spezielle Besetzung des Holems der Raum-Zeit-Gestaltung (RZM1) im Raum-Zeit-Holon RZH. Die weiteren Raum-Zeit-Holeme enthalten raumzeitlich relevante Informationen zum Sachholon und seiner Konkretisierung. Die Circonstanten (Angaben) enthalten die Versprachlichung derjenigen Raum-Zeit-Holeme, die für die Informationsübermittlung relevant sind. D. h. die Besetzung der übrigen Holeme von RZH liegt zwar im Informationsstand des Sprachbenutzers, der ein Geschehen beschreiben will, vor (jedenfalls soweit es ihn interessiert), aber aufgrund des (PR.ÖKO) wird davon nur das in die mitzuteilende Information aufgenommen, was die entsprechenden Bedingungen erfüllt. Die Satzteile der adverbialen Bestimmungen verschiedener Art (Circonstanten) dienen daher dazu, das vom Hörer nicht erschließbare Wissen über die jeweilige momentane Wirklichkeitsstruktur anzugeben (cf. 3.1.2). Pointiert gesagt: die Circonstanten sind die Valenzrollen des RaumZeit-Holons, und die Valenzrolle RZM1 (das Sachholon) übernimmt darin die „Subjektposition“. Auch für die Besetzung gilt dasselbe wie für das Referenzholon: der Sprecher hat die Möglichkeit, die Spezifikation der Zeitoder Ortsangabe so tief zu schachteln wie es für die Eingrenzung des Ortes oder der Zeit beim Hörer nötig ist. Dies verursacht keine Mehrfachbesetzung des jeweiligen Holems. Wird eine Mehrfachbesetzung gewünscht, dann muss wieder ein „Zeitungsständer“ hinzutreten (cf. 1.5.1 und 3.3 (s4)). Die Tatsache, dass üblicherweise mehr Rollen des Sachholons im Satz auftreten als
58
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
Rollen des Raum-Zeit-Holons liegt daran, dass wir nicht über Raum-Zeit-Strukturen per se kommunizieren wollen, sondern ein Interesse an der momentanen, kontingenten Sachlage, d. h. der Auffüllung des Sachholons (RZM1.) haben. Mit diesem Erklärungsansatz wird deutlich, dass die Circonstanten vom Sprecher durchaus in systematischer, d. h. an Kriterien gebundenen Weise eingesetzt werden. Ihre vermeintliche „Weglassbarkeit“ entpuppt sich als situative Notwendigkeit. Erst wenn man von der Pragmatik zur Semantik bzw. Syntax übergeht, fallen die für die Setzung der Circonstanten relevanten Gesichtspunkte (die im Ablauf der geschilderten Situation bzw. im Hörer-Wissen) liegen, weg. D. h. die „Blindheit“ für die Relevanz der Circonstanten ergibt sich aus dem freiwilligen Verzicht auf pragmatische Information. Logisch gesehen ist dies ein Fehlschluss von der Art einer negativen petitio principii (cf. 3.6.1). Die Frage, ob ein Satzglied Aktant oder Circonstant ist, kann sich mit diesem Ansatz auch leicht beantworten lassen: eine RaumZeit-Information gehört dann essentiell zu einem Verb dazu, wenn das Sach-Holon ohne dieses Holem als Gestalt nicht vollständig ist. Z. B.: während in „er hat das Buch von gestern bis heute durchgelesen“ die Angabe des Zeitintervalles als Circonstant (Holem des Raum-Zeit-Holons RZHM5) zu verstehen ist, da das Holon „lesen“ nicht essentiell auf die Zeitangabe angewiesen ist, sind in „das Unglück geschah gestern auf der Fahrt von A nach B“ die Angaben zu „WANN“ und „WO“ Valenzen des Verbs „geschehen“, da „geschehen“ essentiell eine Raum-Zeit-Gestalt ist (Zur Problematik: siehe Storrer 1992, 70 ff.). Dies ist unabhängig davon, ob wegen des PR.ÖKO eine von beiden Angaben wegfällt. 3.6. Hörer-bezogene Mitteilungs-Gliederung (Thema-Rhema-Holon) Wenn ein Sprachbenutzer in einem Gespräch den nächsten Satz formuliert, so ist dieser eingebunden in den momentanen Aufmerksamkeitsbereich (AMB bzw. „Text-Thema“) und betrifft das momentane Interesse der Gesprächspartner an einem bestimmten Gegenstand (dem Themagegenstand THG). Der Sprecher zeigt seinen Willen zur kohärenten Fortführung der Informationen zu dem Themagegenstand, indem er dies in bestimmter Weise in jedem Satz zum Ausdruck bringt (Thema-Stellung, traditionell: Satzgegen-
stand). Zugleich grenzt er die hinzuzufügenden neuen (Rhema-)Informationen (RHI) ab. Nur beim Wechsel von Themagegenstand oder Aufmerksamkeitsbereich müssen (wiederum nach 3.1.3 PR.ÖKO) die entsprechenden Ausdrücke mit einem „Wechsel“-Indikator angezeigt werden (z. B. „was nun die … betrifft: …“). – Der Sprachbenutzer hat dazu Gestaltungsmuster zur Verfügung und kann sie als Sprecher in die Äußerung einbringen bzw. sie als Hörer an der Äußerung erkennen. Insbesondere die Thema-Rhema-Gliederung dient dem Zweck (ZWE.TR), dem Hörer die Anbindung des Geäußerten an das Bisherige bzw. die Aufnahme der neuen Information zu erleichtern (cf. 2.6). D. h. die Thema-RhemaStruktur zeigt dem Hörer den Mitteilungswert des jeweiligen Satzteils an und erleichtert ihm dadurch den kohärenten Anschluss des Gesagten. Dieses Wissen lässt sich ebenfalls als Holon formulieren. Das Thema-Rhema-Holon ist folgendermaßen aufgebaut: (HTR1) *HTR(⫺, ZWE.TR, ANZ: 4): *EPM, AMB, THG, RHI++. EPM:
AMB: THG: RHI:
ist das epistemische Holem, in dem angegeben wird, auf wessen Informationsstand (und auf welche Einstellung) sich die folgende Information bezieht (z. B. Hans hofft, dass …), ist der Aufmerksamkeitsbereich. gibt den Themagegenstand an. gibt die Rhema-Information an und
weitere Holeme, die hier nicht ausgeführt werden sollen. Die Anwendung dieser Thema-Rhema-Gliederung ist in 2.5 formal schon vorbereitet worden. – Die Angabe des Aufmerksamkeitsbereichs AMB führt dazu, dass man den zu bildenden Referenzterm einfach halten kann, weil durch AMB die Alternativobjekte, die fälschlicherweise beim Hörer in Frage kommen könnten, reduziert werden (cf. 3.4 RHM3.). Zu allen Holemen gehören neben der inhaltlichen Besetzbarkeit auch Indikator-Ausdrücke, die dazu dienen, die HolemFunktion im Zweifelsfall deutlich zu machen (insbes. beim Wechsel oder Vergleich). Hier kommt es darauf an zu zeigen, dass der Tesnie`resche Grundgedanke nicht nur verträglich ist mit der Thema-Rhema-Gliederung der Information, sondern dass es im Sinne der Anschließbarkeit der Sprecher-Hörer-Dynamik an die Strukturale Syntax auch
7. Mathematische und logische Rekonstruktion des Abhängigkeits- und Valenz-Konzepts
notwendig ist, diese Gliederung mitzuberücksichtigen. Angenommen: SB wählt als Themagegenstand (THG) für die Mitteilung den Gegenstand A aus 3.4 (HL2) bzw. (MT1) aus. SB ordnet diesem THG als Rhema-Information (RHI) zu und bildet so aus *HL1: *HM1: A, HM2: B, HM3: C+++ (unter Verwendung des Operators thg (HM1)-Operators und der Einführung des t-Operators aus 2.5) den Redeplan: (RPL) **THG: HM1: A+, *RHI: tHM1 HL1: *HM1, HM2: B, HM3: C+++. Dies ist so zu lesen: zum Thema-Gegenstand A wird durch trg(HM1) die konkretisierte Holon-Information (ähnlich wie in 2.5 (THG2)) gebildet, bei der nur an der Stelle HM1 der Gegenstand A herausgenommen ist und in die Themaposition gerückt ist. Dabei bleibt in RH1 stattdessen der linksanwendbare rollenspezifizierte t-Operator (cf. 2.5) tHM1 stehen. Bei Anwendung des t-Operators auf die THG-Besetzung geht (RPL) wieder in (MT1) (siehe weiter unten) über. D. h. der Hörer behält letztlich nur die Struktur des Gedankens im kognitiven Raum, nicht aber die Abfolge der Übermittlung, die ihm ja nur zur Kohärenzherstellung gedient hat. Bzgl. Tesnie`re besagt dies: die Rolle des Holons bzw. des Verbs als zentraler Organisator des Gedankens bzw. des Satzes bleibt bestehen. Da die Links-Rechts-Gliederung der Satzkette nach Tesnie`re noch offen sein kann für Nuancierungen (58: 2), kann man eine bestimmte Stelle dazu benutzen, ein Satzglied „hervorzuheben“, indem man ihm die Funktion des Thema-Gegenstandes zukommen lässt (Tesnie`re hat allerdings diese Möglichkeit nicht in Betracht gezogen, cf. 58: 2⫺8). 3.6.1. Anmerkung zur Frage der SubjektPrädikat-Strukturierung des Satzes Wenn man mit einer Darstellung nur ein syntaktisches, semantisches oder logisches Ziel verfolgt, dann ist in der Tat eine Gliederung der Aussage in Relator und Argumente (bzw. Verb und Rollen) vorzuziehen. Dafür plädieren Tesnie`re und Frege, aber aus unterschiedlichen Gründen und mit unterschiedlichen Argumenten. Beide Argumentationen sind nicht stichhaltig, weil sie ja einer möglichen Rechtfertigung für eine Subjekt-Prädikatbzw. Thema-Rhema-Gliederung schon durch die Einschränkung des jeweiligen Programms (bei Tesnie`re auf Syntax bzw. Semantik (49: 5 ff.), bei Frege auf das logisch Folgerba-
59
re, cf. Frege 1973, 3) den Boden entziehen. Es handelt sich also einfach um eine Fallacy, bei der die einschränkende Voraussetzung im jeweiligen Programm schon blind macht für die Relevanz des Phänomens bzw. der Rechtfertigung von dessen Beschreibung. Das wurde in 3.5 „negative petitio principii“ genannt. – Die Sensibilität Freges für natürlichsprachliche Phänomene veranlasst ihn zwar, darauf hin zu weisen, dass die Subjektstelle im Satz (nicht in der Äußerung!) dazu diene, die Aufmerksamkeit des Hörers (!) auf etwas hinzulenken (Frege 1973, 3; 18), aber gleichzeitig kann er dies zu Recht für seine Zwecke als nicht relevant ansehen. Wenn man aber Sprache nicht nur als Betätigungsfeld für Syntaktiker, Semantiker und Logiker ansieht, sondern sich an ihren Zweck erinnert, nämlich der Kommunikation zu dienen, dann ist das Desiderat, zu allen Abhängigkeitsbetrachtungen auch noch den kommunikativen Sinn der Anordnung (in der Äußerung) zu berücksichtigen, sicher gerechtfertigt (cf. Welke 1995, 170; 172 f.). Diesem Rechnung zu tragen und dies zugleich mit den Einsichten Tesnie`res zu verbinden, ist hier das Anliegen. 3.7. Das Verb-Holon-Modell im zeitlichen Ablauf: vom Gedanken zur Äußerung (Abschließende Zusammenfassung) (a) Das Verb-Holon-Modell beruht auf den Intuitionen, die Tesnie`re besonders in den ersten Kapiteln dargelegt hat und versucht den Übergang zwischen dem zu äußernden Satz und der Gedankenstruktur zu modellieren. Besonders wichtig ist dabei die Aussage, dass der Hörer seine Strukturierungsprinzipien schon mitbringen muss (1: 4). Diese kognitive Kompetenz wurde „kantifizieren“ genannt (cf. 3.1.2) bzw. dass umgekehrt der Sprecher auf die Explizitierung der schon vorhandenen Struktur verzichten kann (dort „dekantieren“ genannt), um den Satz möglichst ökonomisch zu gestalten (cf. (PR.ÖKO) in 3.1.3). (a1) Die Grundidee der Modellierung ist: das Verb und seine Valenz ist holistisch zu modellieren (cf. 3.1.4). D. h. ein Verb bezieht sich auf ein Sachholon im Wissen des Sprechers bzw. des Hörers. Das hat den Vorteil, dass der Sprecher mit einem Ausdruck auf eine vollständige Gestalt im (hypothetisch angenommenen) Wissen des Hörers Bezug nehmen kann und aufgrund der damit erzeugten
60
(b)
(b1)
(b2)
(b3)
(b4)
(b5)
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
Erwartungen nur noch das in die Satzkette einbringen muss, was die spezifische, kontingente Besetzung des Holons betrifft (cf. 3.1.2 (SP1)). Der Weg vom Gedanken zur Äußerung eines Satzes wird als ein Zusammenspiel von fünf holistischen Strukturen (Holons) modelliert, mit denen der Sprecher mehrere Zwecken verbindet, die er mit der Mitteilung gleichzeitig aber kognitiv geordnet verfolgt (cf. 3.1.5): Der Sprecher geht von einem Wirklichkeitsausschnitt als Aufmerksamkeitsbereich aus (cf. 3.6 AMB). Darin hat er einen Teil als THG fixiert und eine (für ihn interessante) Beobachtung gemacht, die er als Konkretisierung einer Handlungs- oder Geschehensgestalt (Sachholon) erkennen und strukturieren kann (cf. 3.2). Das Sachholon schließt üblicherweise an den Vortext und dessen Mitteilungsvorgaben (z. B. Aufmerksamkeitsbereich und Thema-Gegenstand) an, d. h. der Sprecher muss seinen Redebeitrag aufteilen in Thema-Gegenstand und RhemaInformation. D. h. er wendet das Holon der Thema-Rhema-Gliederung auf die Information an (cf. 2.5, 3.6). Das Sachholon wird je nach Interessenlage des Sprechers oder des Hörers durch ein geeignetes Verb versprachlicht. Die Holeme im Sachholon werden auf die zum Verb gehörenden Valenzstellen abgebildet (cf. 3.3). Das Sachholon ist selbst schon eingebettet in ein Raum-Zeit-Holon, dessen Aufbau und „Logik“ zum gemeinsamen Wissenstand von Sprecher und Hörer gehört. Die Holeme des Raum-Zeit-Holons werden durch die Circonstanten verbalisiert. d. h. die Circonstanten sind pointiert gesagt die Valenzstellen des Raum-Zeit-Holons (cf. 3.5). Beide „Valenzarten“ (d. h. die Verbvalenz und die Circonstanten) müssen nur dann explizit gemacht werden im Satz, wenn sie kontingent relevante Informationen enthalten. Das regelt das PR.ÖKO (3.1.3). Um die in den Holemen des Sach-Holons intendierten Gegenstände zu bezeichnen, wendet der Sprecher das Referenz-Holon an (3.4) und zwar auf alle Holem-Gegenstände im Sachholon und wenn geeignet auch auf die Holeme im Raum-Zeit-Holon.
(b6) Alle Informationen werden in eine invariante bilaterale Zeichenform des Satzes als Relation bzw. Verb-Valenz bzw. als besetztes Sachholon eingegeben (cf. 2.4 und der Redeplan in 3.6). (c1) Aufgrund der Kooperation zwischen den verschiedenen Holons beim Aufbau einer Äußerung ist das Resultat eine Links-Rechts-Abfolge von Informationen (eine Satzkette), die jetzt nicht als eine in sich linear strukturierte Abfolge von syntaktisch verknüpften Satzgliedern zu verstehen ist, sondern die aus relativ unverbunden nebeneinanderstehenden Einzelinformationen besteht, die der Hörer beim Hören der linearen Kette „aufpickt“ und in seinem kognitiven Raum in die entsprechenden Holons einsortiert. (c2) Dies lässt sich bei der Wort-für-WortAbarbeitung durch die folgende holistische Schrittabfolge im Detail erfassen: Der Hörer HR erkennt einen Referenzterm nach dem „Finger-Hand-Prinzip“ (3.1.2 (SP1)). D. h. wenn ein Artikelwort im Satz auftritt, dann erkennt der Hörer, dass dies die Besetzung des Quantorholems RHM2 (3.4) ist. Nach der holistischen Logik schließt HR von diesem Holem auf das Referenzholon als Ganzes (SP1) und von da auf die übrigen Holeme (nach dem Hand-Finger-Prinzip, 3.1.2 (SP2)). Hier ist dies nur ein weiteres Holem, der Spezifikationsteil, dessen Besetzung im Satz HR dann erwartet. Aus dem Vorhandensein und der Markierung des Referenzterms RFT als Ganzem schließt HR darauf, dass RFT ein Holem besetzt, das eine passende Valenzrolle entweder zu einem Verb oder zum Raum-Zeit-Holon ist. Also erwartet er ein solches (raum-zeitlich-orientiertes) Verb und mit ihm die Besetzung der anderen Valenzrollen, sofern er sie nicht schon aus dem Kontext erschließen kann. Die zugrundeliegende holistische Logik kann hier nicht dargestellt werden (siehe Mudersbach 1997, 673 ff., Mudersbach 2001, 76 ff.), ebensowenig der entsprechende Ablauf der Rede-Planung beim Sprecher, der diese Folgerungsfähigkeit des Hörers schon mit einkalkuliert. 3.7.1. Das Verb-Holon-Modell bildlich veranschaulicht Die Idee des Verb-Holon-Modells soll zum Abschluss noch in einem Bild veranschaulicht werden: wenn jemand ein Paket erhält, in
7. Mathematische und logische Rekonstruktion des Abhängigkeits- und Valenz-Konzepts
dem alles, was er gebrauchen kann, dicht zusammengepackt nebeneinander liegt (sozusagen nach einem „Ökonomie-Prinzip“ gepackt, cf. 3.1.3 PR.ÖKO), dann liegen da Dinge eng zusammen, die nicht direkt etwas miteinander zu tun haben, wie Socken und Lebensmittel und Lektüre und Werkzeug (Dies entspricht dem dicht mit Informationen verschiedenster Art bepackten Satz). Der Empfänger fängt nun nicht an herumzurätseln, was es zu bedeuten hat, dass die Socken neben dem Hammer liegen usw. (um benachbarte Paket-„Konstituenten“ zusammenzusetzen!), sondern er erkennt am Aussehen der Dinge (Markanten!), von welcher Art sie sind, und „entpackt“ sie, ohne sich um deren Lage sonderlich zu kümmern, unter dem Gesichtspunkt, zu welchen Funktionen des Haushalts sie gehören (Holeme zu verschiedenen Holons!): er erkennt (kantifiziert!), dass die Lebensmittel in die Küche und die Socken in den Kleiderschrank gehören usw. Und obenauf liegt ein Brief (das Verb mit seiner Valenz), in dem die Organisation des Ganzen (Satzes) zusammengefasst wird. Wenn die Abfolge der Teile in einem Satz so verstanden wird wie die Packung der Sachen im geschilderten Paket, dann merkt man, wie ungünstig es ist, aus der LinksRechts-Kette die direkte Zusammengehörigkeit erschließen zu wollen und daraus die relevanten Informationen durch „Zusammenkleben“ (Konstituenten) aufbauen zu wollen! Tesnie`re hat in fast revolutionärer Weise die kognitive Fragwürdigkeit der linearen Abfolge thematisiert (Kap. 4⫺8) und im Gegensatz zur Konstitutengrammatik, die sklavisch eine solche Linkns-Rechts-Abarbeitung durchhalten will (was aus dem Gedanken der Turingmaschine stammt!), eine Semiotik des kognitiven Raums entwickelt und diese dem Diktat der Projektivität auf die lineare Satzkette entgegenstellt. Dies wurde allerdings in der Weiterentwicklung, die innerhalb des syntaktischen Paradigmas des KonstituentenDenkens verlief, ignoriert (Zur Problematik: siehe Heringer et. al. 1980, S. 182 ff.).
4.
Das Abhängigkeitskonzept in der mathematischen Rekonstruktion
Die Tesnie`resche Grammatik wurde hier nicht syntaktisch aufgefasst, sondern mit mathematischen Mitteln pragmatisch-kognitiv rekonstruiert. Das Ergebnis war: Der Sprachbenutzer sieht einen Satz als Informations-
61
Paket an, in dem die Holem-Informationen zu fünf verschiedenen Holon-Arten verpackt sind. Das Verb-Holon-Modell rekonstruiert hauptsächlich das Valenz-Konzept. Dabei kam das Dependenz-Konzept nur innerhalb des Referenzterms bei der (nicht-holistischen) Subspezifikation zur Sprache (cf. 3.4.1). Dies entspricht nun sicher nicht der Bedeutung, die der Dependenz in der „Strukturalen Syntax“ allein vom Umfang her zukommt: der erste Teil „La connexion“ macht fast die Hälfte des Buches aus (320 von 670 Seiten!), während die Valenz innerhalb dieses Teils nur ein kleines Kapitel von 50 Seiten ist. Dennoch ergibt sich bei der mathematischen Rekonstruktion des pragmatischen-kognitiven Gehalts des Tesnie`reschen Programms, so wie sie hier vorgeschlagen wird, dass das Valenz-Konzept das tragfähigere ist. Beim Versuch, auf ähnliche Weise den Dependenzbegriff zu rekonstruieren, stellte sich heraus, dass die Dependenz ein nicht theoriefähiges Konzept ist. Das soll in diesem Kapitel begründet werden (cf. 4.1 und 4.2). Wenn man jedoch das Abhängigkeitskonzept zu einem dynamisierten kognitiven Begriff verallgemeinert, kann es schließlich doch noch nutzbringend auf die Tesnie`reschen Ideen angewandt werden (cf. 4.3). 4.1.
Theorie(un)fähigkeit des Abhängigkeitskonzepts 4.1.1. Befund 1: es fehlen Kriterien für die Anwendbarkeit des Abhängigkeitskonzepts Tesnie`re gibt kein Kriterium an, nach dem entscheidbar wäre, welche Wörter bzw. Kategorien von welchen anderen „abhängen“. Stattdessen werden von vornherein nur Beispiele vorgeführt und dazu postulativ Dependenzen festgelegt, zuerst zwischen Wörtern (2: 7, 3: 1 ff.), dann zwischen den Kategorien (33: 8 ff.). Wenn Tesnie`re dann endlich für eine Dependenzentscheidung argumentiert, dann gerade nicht für die strukturale, sondern für eine semantische, die an dieser Stelle erst eingeführt wird und der strukturalen sogar entgegengesetzt ist (21: 6). Eine genaue Textanalyse kann zeigen, dass hier „semantisches Gewicht“ und „Voraussetzung für die Subspezifikation“ in einer unnötigen Weise in Konkurrenz treten. – Dies kann hier nicht ausgeführt werden, lässt sich aber mit den in 3.4. eingeführten Aspekten des Spezifikationsholems leicht klären. – Festzuhalten ist jedenfalls, dass die Unsicherheit und begriffli-
62
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
che Unklarheit Tesnie`res in der Sekundärliteratur zu Diskussionen geführt haben, die meines Erachtens nicht durch begriffliche Verfeinerungen und Kriterienvorschläge beseitigt werden können, sondern nur durch ein rigoroses Hinterfragen des Basiskonzepts.
(cf. Fraser 1996, 74: „The relationship between valency and dependency is rather opaque“) stellt sich nach dieser Betrachtung als nicht nur semiotische, sondern auch formale Inkompatibilität der beiden Betrachtungsweisen heraus.
4.1.2. Befund 2: Inkompatibilität mit dem Valenzkonzept Die Abhängigkeitsbeziehung verbindet alle Kategorien paarweise miteinander (cf. oben 1.2.1). Die Abhängigkeit der Kategorie „Nomen“ von der Kategorie „Verb“ (oben mit CNX (NOM, VRB) bezeichnet) gerät aber mit der Verbvalenz in Konflikt, weil bei der Valenz-Betrachtung das Verb als ein Relator mit Valenzrollen aufgefasst wird, in die ein Nomen eingesetzt werden kann (z. B. vrb (r1: nom1)). Ein so aufgefasstes Verb kann aber nicht zugleich ein („stellenloses“) Argument neben dem Nomen in der Relation CNX (NOM, VRB) sein, wie es die Dependenzanalyse will (cf. 1.3). Wenn man aus einem Relator, z. B. „geben“, einen Gegenstand („das Geben“) macht, dann nennt man das Hypostasierung. Dies mag in bestimmten Kontexten sinnvoll sein, führt aber in dieser Grammatik zu zwei miteinander nicht verträglichen Beschreibungen: Entweder ist ein Verb der zentrale „stellenvergebende“ Relator (mit Nomina als Argumenten) oder das Verb ist selbst eine Stelle beim Relator CNX. Man kann daher ein valenzhaltiges Verb im Stemma auch nicht einfach an die Argumentstelle der CNX-Relation CNX (NOM, VRB) setzen und die Abhängigkeitslinie zwischen dem Nomen und dem Verb (als Knoten!) zugleich als Linie für das erste Argument eines Relators interpretieren. Wenn Linien (Kanten) für Relatoren reserviert sind und Knoten für Argumente, dann müsste das Verb gleichzeitig eine Linie etikettieren und als Knoten an einer andern Linie CNX fungieren. Ein graphisches Paradox! Dies ist nur ein Beispiel, wo die Anfangsplausibilität der Freiheiten, die sich Tesnie`re bei seiner graphischen Darstellung gestattet, im Formalen nicht umgesetzt werden kann. Statt nun aber die Berechtigung der graphischen Mittel (bei der vorschnellen Einführung der semiotischen Darstellung) kritisch zu hinterfragen, nehmen die Nachfolger Tesnie`res die „Stemma-Sprache“ als gegeben hin und versuchen die Folgeprobleme in dieser Sprache zu lösen. Die „undurchsichtige“ Beziehung zwischen Dependenztheorie und Valenz-Theorie
4.1.3. Fazit: Fehlende Kriterien, Unsicherheiten und Unklarheiten in den vorgeführten Beispielen, unkontrollierbare Mehrfachinterpretationen der Konnexionslinie (bei Junktion und Verbvalenz), schwankende KnotenInhalte d. h. Argumentbesetzungen (Nomen, Eigennamen, vollständige Referenzterm) machen die Konnexion bzw. Dependenz bzw. Abhängigkeit zu einem nicht-theoriefähigen Begriff. 4.2. Diagnose und Abhilfe: 4.2.1. Diagnose: Wurzel der Nicht-Fundiertheit des Abhängigkeitskonzepts ist die semiotische Fehlinterpretation Im Folgenden soll anhand des Textes nachgewiesen werden, dass das Abhängigkeitskonzept aus einer semiotischen Fehlinterpretation entstanden ist. Dazu soll in (q1)–(q8) untersucht werden, wie Tesnie`re die Abhängigkeit in seinem Kap. 2 einführt. Statt der dafür zu leistenden Textanalyse werden hier nur die relevanten Ergebnisse dargestellt: (q1) Tesnie`re spricht zunächst von „Konnexion“ zwischen Wörtern (1: 3). (q2) Er wählt dann statt einer linearen Darstellung der Konnexion (z. B. CNX („Alfred“, „parle“) eine (nicht-notwendige) graphische Darstellung und ist damit gezwungen, genau den „linearen“ (semiotischen) Gesetzen Folge zu leisten, von denen er sich mit der Missachtung der linearen Abfolge befreien wollte: Er zeichnet in Stemma 1 eine Linie zwischen zwei Wörtern „Alfred“ - - - - „parle“ (für die Argumentation hier absichtlich waagerecht gezeichnet) und setzt für die graphische Darstellung zwei zunächst willkürliche semiotische Konventionen an: (q3) erstens die Konvention, die Konnexions-Linien senkrecht zu zeichnen, und (q4) zweitens die „Konvention“, „parle“ nach oben zu setzen („obenstehend“) und „Alfred“ nach unten (2: 7). Dies ist natürlich keine Konventionsformulierung. Erst 50 Seiten später (!) wird dies als Konvention „erschließbar“, wenn das Verb im virtuellen Stemma offen-
7. Mathematische und logische Rekonstruktion des Abhängigkeits- und Valenz-Konzepts
sichtlich immer nach oben und das Nomen immer darunter gesetzt werden soll. Aus (q3) ergibt sich: (q5) Jede Konnexion vereint einen „obenstehenden“ (supe´rieur) mit einem untenstehenden (infe´rieur) Ausdruck (2: 1). (q6) Schon in (2: 1) wird jedoch ohne Begründung aus der symmetrischen Konnexion eine asymmetrische Dependenz. (q7) „Der obenstehende Ausdruck soll Regens („re´gissant“) heißen, der untenstehende Dependens („subordonne´)“ (2: 2). Hier kommt zu der rein lokalen Bezeichnung eine inhaltliche Interpretation dazu: was oben steht, „regiert“, was unten steht, ist „untergeordnet“. Dies ist aber eine „anthropomorphe“ intentionalisierende Überinterpretation einer semiotischen Anordung. Oder anders ausgedrückt: der in (q3) willkürlich gewählten Vertikalen wird eine semiotisch willkürliche Interpretation einfach untergeschoben. (Man denke als Kontrast an die untenliegenden Wurzeln eines Baumes, die den Zweigen sicher nicht „untergeordnet“ sind). (q8) „das Untergeordnete ist abhängig vom Regens („le subordonne´ de´pend du re´gissant, le re´gissant commande ou re´git le subordonne´“) (2: 3). Hier wird der Abhängigkeitsbegriff eingeführt. Und dabei wird eine weitere intentionale Bedeutungsverschärfung vorgenommen, denn: „von jemandem (etwas) abhängig sein“ ist etwas anderes als nur „untergeordnet sein“. „Regieren“ und „Unterordnung“ beziehen sich auf intentionale Wesen. Da es sich hier um nicht-intentionale Wörter handelt, kann man „Regieren“ und „Kommandieren“ bzw. „abhängig sein“ nur als Metapher lesen, wobei aber unklar bleibt, wofür diese im nicht-intentionalen Bereich überhaupt stehen sollen. Dieses Reden in solchen höchst „anthropomorphen“ Metaphern wirkt suggestiv, wird hier aber zur Grundlage einer ganzen Grammatik-Richtung! Fazit: Tesnie`re wollte die semiotische „Falle“ der Überinterpretation der Links-Rechts-Anordnung vermeiden, musste sich aber auch in der Vertikalen für eine Möglichkeit entscheiden. Aber statt dies (wie bei der Horizontalen cf. 4⫺8) als semiotisch-physikalische Randbedingung anzusehen, die für die Darstellung
63
im Kognitiven Raum des Sprachbenutzers irrelevant ist, da dort (auszufüllende) Gestalten bereitstehen, postuliert Tesnie`re unnötigerweise eine gerichtete Relation und begibt sich dadurch wieder in den Zwang, den er mit dem Absehen von der Links-Rechts-Ordnung hat überwinden wollen (cf. q2). So wird aus einer willkürlichen Wahl in der semiotischen Darstellung (die Vertikalität) und einer raumbezogenen Relation (unten-oben) durch metaphorische Übertragung („untergeordnet sein“) eine intentionale Redeweise („abhängig sein“), die dann aber in einer ohne Kriterien nicht nachvollziehzbaren Weise auf nicht-intentionale Objekte (Wörter) angewandt wird („dependent sein“). Durch die unmerkliche Metaphorisierung wird indirekt an den Leser appelliert, sich eine Bedeutung zurechtzulegen, die passt. Diese (beim Leser zunächst wohlwollend vermutete) Bedeutung von „abhängig“ wird dann durch verschiedene Beispiele eingeübt und verfestigt, von denen aber keines mit einer linguistisch argumentierenden Begründung der Abhängigkeitsbeziehung verbunden wird. Mit einer solchen Begründung steht oder fällt aber das ganze Dependenzprogramm. Der Text in 2 und 3 hat postulativen Charakter. Und wird auch nicht solider durch eine „suggestive“ Plausibilität wie z. B. „Jedes Dependens teilt das Schicksal seines Regens“ (3: 4). Und wir als Leser sind für den Rest des Buches im Verständnis abhängig von dieser vagen Grundvorstellung. – 4.2.2. Abhilfe: Lässt sich die Dependenz retten? Dennoch kann man sagen, dass Tesnie`re eigentlich etwas Richtiges erfassen und darstellen wollte, nämlich: Nach der Wahl eines speziellen Verbs und dessen Valenz kann der zur Rolle gehörende Teilbaum noch nach einer bestimmten Systematik besetzt werden. Leitgedanke Tesnie`res dabei war: dass der Hörer ja aus der Wortkette in seinem Bewusstsein ein organisiertes Ganzes machen kann (1: 4; 8; 10). Dies ist mit den beiden sprachbezogenen Teilen des Referenzholons (Quantor und Spezifikation, cf. 3.4) auch in regelhafter Weise möglich, wobei das Bewusstsein des Hörers im konkreten Referenzterm die beiden Holemfunktionen erkennt und einordnet. Das ist Teil der Hörer-Aktivität des „Kantifizieren“ (cf. 3.1.2). – Die Inkompatibilität mit dem Valenzkonzept lässt sich dann vermeiden, wenn man die beiden Bereiche getrennt hält: Das Verb bestimmt die Rollen. Die Besetzung der Rollen regelt die ho-
64
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
listisch reformulierte „Dependenzgrammatik“. Um den Anschluss zwischen beiden Betrachtungen herzustellen, muss die Beziehung CNX (NOM, VRB) ersetzt werden durch die „Besetzungsrelation“ zwischen spezifizierter Verbrolle und besetzter Kategorie (z. B. bei Tesnie`re vrb (r1: nom1), im VerbHolon-Modell vrb (r1: Referenzterm). 4.3.
Dynamische Betrachtung der Abhängigkeit der Satzglieder in der Kognition 4.3.1. Die statisch-holistischen Abhängigkeiten Der Begriff der Abhängigkeit lässt sich im Rahmen einer kognitiven Rekonstruktion der Dependenz-Grammatik noch als Entfaltung der Holem-Holon-Beziehung unter verschiedenen Aspekten nutzbar machen. Dabei wird „X ist abhängig von Y“ verstanden als „X hat Y zur Voraussetzung“ (cf. 3.4). – Der Zusammenhang mit der funktionalen Sicht der Tesnie`reschen Kategorien (25, 26) wird in 4.3.3 angesprochen. Das statische Konzept der kognitiven Abhängigkeit gliedert sich in fünf verschiedene Arten von Abhängigkeiten, die hier in der Reihenfolge aufgeführt werden, wie sie ein Sprecher (aus logischen Gründen cf. 4.2.3.) beim Planen seine Rede berücksichtigen muss: (A1) die Abhängigkeit des Rhemas vom Thema (traditionell: Prädikat-SubjektBeziehung): sie wird von Tesnie`re verworfen (49: 4 ff.), ergibt sich hier aber ebenfalls aus dem Gesamtmodell, ohne mit der Dominanz des Verbs in Konflikt zu geraten; (A2) die Holem-Holon-Beziehung (in Form von Verb-Valenz zu Verb und der Raum-Zeit-Holeme (die Circonstanten) zum Raum-Zeit-Holon; (A3) die Besetzungsbeziehung des Referenzterm zur Verb-Rolle; (A4) die Holem-Holon-Beziehung zwischen Quantorteil (bzw. Spezifikationsteil) und Referenz-Holon; (A5) die Beziehung der iterierbaren (Sub-) Subspezifikation innerhalb des Spezifikationsteils im Referenz-Holon (d. h. MOD zu ADJ bzw. ADJ zu NOM). 4.3.2. Dynamische Betrachtung der Abhängigkeiten: fünf Handlungen in der Redeplanung Eine kognitive Rekonstruktion darf sich erlauben, danach zu fragen, was diese Differenzierung des statischen Konzepts der Abhän-
gigkeit – dynamisch gesehen – für die kognitive Tätigkeit des Sprechers und des Hörers bedeutet. Wenn wir die statische Abhängigkeit zwischen Einheiten (A1)–(A5) dadurch dynamisieren, dass wir dem Sprachbenutzer Handlungen zur Gestaltung seiner Rede zuschreiben, die jeweils von einer übergeordneten Einheit zu einer untergeordneten führen (also die Umkehr zur Abhängigkeitsbeziehung), dann erhalten wir (in Analogie zu (A1)–(A5)) die folgenden fünf kognitiven bzw. redegestaltenden Grundhandlungen (in der Reihenfolge ihrer Durchführung beim Sprecher): (G1) das Thematisieren eines Holem-Gegenstandes zum Zweck der kohärenten Informationsübertragung ermöglicht die Zuordnung einer Rhema-Information (cf. A1); (G2) das Holonisieren einer Information d. h. die Wahl eines Wirklichkeitsausschnitts als Holon (Verb), um die Information insgesamt holistisch zu gestalten, ermöglicht die Zuordnung der Holeme (Valenz bzw. Circonstanten) (cf. A2); (G3) das Holemisieren einer Information d. h. die Wahl eines Wirklichkeitsausschnitts als Holem-Gegenstand (im Rahmen eines gewählten Holons) ermöglicht die Zuordnung eines Referenzterms (cf. A3); (G4) das Quantifizieren und Spezifizieren im Rahmen des Referierens ermöglicht das Herausgreifen eines Holem-Gegenstandes beim Hörer (cf. A4); (G5) das (Sub-)Subspezifizieren im Rahmen des Spezifikationsteils ermöglicht die angemessene Wahl einer Information, mit der der Hörer den Referenzgegenstand herausgreifen kann (cf. A5). Da diese Wahl wieder zurückführen kann zur Thematisierung und Holonisierung (bei der Relativsatzbildung), ist ein beliebig oft wiederholbarer Kreislauf von (G1) bis (G5) möglich (cf. dazu 4.3.3). Man kann daher sagen, dass das Gestalten des Redeplans im Anwenden dieser fünf kognitiven Grundhandlungen besteht. Dies könnte der tiefere Grund dafür sein, dass Tesnie`re glaubte, mit vier Grundkategorien, zusammen mit deren funktionaler Sicht (25: 4 f.), auskommen zu können: VRB
ist der Vertreter des Holonisierens (G2);
7. Mathematische und logische Rekonstruktion des Abhängigkeits- und Valenz-Konzepts
ADV
(Circonstanten) ist der Vertreter des Holemisierens (im Rahmen des Raum-Zeit-Holons) (G3); NOM ist dann Vertreter des Holemisierens, wenn z. B. Eigennamen oder vollständige Referenzterme eingesetzt werden (d. h. eigentlich müsste hier die Kategorie des Referenzterms stehen) (G4); ADJ (neben NOM) als Vertreter des (Sub-)Spezifizierens (G5). So lässt sich die enigmatische Äußerung Tesnie`res in (32: 13) vielleicht erklären: „Un nom peut eˆtre ou substantif ou adjectif“. (Zu beachten ist die Regelung in 1.3 Anm. 1) (cf. G3); ART ist bei Tesnie`re nicht vorgesehen (cf. 1.3 Anm. 1) bzw. mit ADJ zusammengefasst. ART ist der Vertreter des Quantifizierens (hier: (G4) und nicht (G5); VERB ++ ADJ (eine Translation 2. Grades, 252: 1 f.) als Vertreter des iterierbaren Subspezifierens (cf. 4.3.3). Nur die Thematisierung (G1) fehlt bei Tesnie`re völlig. Damit zeigt sich, dass die vier Grundkategorien nicht so sehr Wortarten charakterisieren sollen, sondern vielmehr (wie eingangs in 1.1 gesagt) als kognitive (funktionale) Kategorien bzw. Repräsentanten kognitiver „Handlungen“ verstanden werden können. Dies bestätigt Tesnie`re indirekt dadurch, dass er selbst diese Kategorien nicht sklavisch nur für lexikalische Grundausdrücke benutzt, sondern ihnen durch die Translative und Junktive gerade die Flexibilität gibt, die hier mit den wortübergreifenden Tätigkeiten des Gestaltens bzw. Umgestaltens angegeben wurden. Somit zeigen diese Kategorien ihren Reichtum erst bei der dynamischen Interpretation als Tätigkeiten des Sprachbenutzers bei der kognitiven Gestaltung (cf. 25: 4 f.). 4.3.3. Ausdrucks-Komplexität durch wiederholbare Anwendung der Grundhandlungen: Thematisieren – Holonisieren – Holemisieren – Spezifizieren – Subspezifizieren Die Flexibilität dieses Tätigkeitsrahmens wird noch dadurch erhöht, dass die Abfolge Thematisieren – Holonisieren – Holemisieren – Spezifizieren nicht hier ihr Ende finden muss, sondern zyklisch wiederholt durchlaufen werden kann, wie hier abschließend noch gezeigt werden soll.
65
Wenn die Subspezifikation durch Adjektive nicht ausreicht, kann der Sprecher einen Relativsatz zur Subspezifikation wählen. D. h., dass er mit dem Relativpronomen den Bezugsgegenstand thematisiert und dem wiederum ein Holon zuordnet, das er durch das Verb im Relativsatz bezeichnet (also holonisiert). Im Gefolge davon müssen eventuell wieder Holem-Gegenstände (Objekte in der Rhema-Information des Relativsatzes) zugeordnet werden (Holemisieren), zu denen Referenzterme zu bilden sind (die also wieder zu spezifizieren sind). D. h. Das Spezifizieren eines Referenzterms führt bei Wahl der Relativsatzstruktur über das Thematisieren wieder zum Holonisieren usw. und ermöglicht dadurch eine beliebige Iterationstiefe. – (Bei Tesnie`re leistet dies eine Translation 2. Grades, ADJ++ VERB 252: 1 f.). Nach Baum (1976, 112) besteht interessanterweise die Originalität Tesnie`res gerade in der Translationstheorie. Er sagt dazu: „Durch sie gelingt es Tesnie`re, im Bereich der Syntax zu erklären, in welcher Weise die Sprache ‘von endlichen Mitteln einen unendlichen Gebrauch macht’“. Dieses Herausstreichen eines eigentlich nachgeordneten Mittels der Dependenz-Grammatik mag überraschen, wird aber noch besser verständlich, wenn diese Originalität auf die kognitiven Handlungen hinter der Syntax bezogen wird. Dann entpuppt sich Tesnie`re als erster kognitiver Denker in generativ-dürftiger Zeit. Denn aus der holistischen Rekonstruktion ergibt sich, dass ein Sprecher mit diesen fünf kognitiven Grundhandlungen einem Hörer (der ja über dieselben Grundmuster und -handlungen verfügt) beliebig komplexe Informationsstrukturen übermitteln kann, ohne ein kompliziertes (angeborenes?) syntaktisches Regelwerk benutzen zu müssen – eigentlich ein genialer Gedanke, für den wir Tesnie`re dankbar sein sollten.
8.
Literatur in Auswahl
Baum, Richard (1976): Dependenzgrammatik. Tübingen. Baumgärtner, Klaus (1997): Konstituenz und Dependenz. Zur Integration der beiden Prinzipien. In: Steger, Hugo (Hg.) (1997): Vorschläge zu einer strukturellen Grammatik des Deutschen. Darmstadt, 53⫺77. Bourbaki, Nicolas (1982): Die Architektur der Mathematik. In: Thiel, Christian (Hg.) (1982): Erkenntnistheoretische Grundlagen der Mathematik. Hildesheim, 288⫺301.
66
I. Das Dependenz- und Valenzparadigma in Natur- und Geisteswissenschaften
Fraser, N. M. (1997): Dependency Grammar. In: Brown, E. K./Miller, J. E. (eds.) (1997): Concise encyclopedia of syntactic theories. Cambridge, UK, 71⫺75. Frege, Gottlob (1973): Begriffsschrift und andere Aufsätze. Ignacio Angelelli (Hg.) (1879 (2. Aufl. 1973)). Darmstadt. Gaifmann, Haim (1965): Dependency Systems and Phrase Structure Systems. In: Information and Control 8, 304⫺337. Grice, H. Paul (1975): Logic and Conversation. In: Cole, Peter/Morgan, Jerry L. (eds.) (1975): Speech Acts. London, 41⫺58. (Dt.: Logik und Konversation. In: Meggle, Georg (Hg.) (1979): Handlung, Kommunikation, Bedeutung. Frankfurt, 243⫺265.) Hays, David G. (1964): Depedency Theory: A Formalism and Some Observations. In: Language 40, 511⫺525. Heringer, Hans Jürgen (1993a): Basic Ideas and the Classical Model. In: Jacobs, Joachim/Stechow, Arnim von/Sternefeld, Wolfgang u. a. (1993, 298⫺ 316. Heringer, Hans Jürgen (1993b): Formalized Modells. In: Jacobs, Joachim/Stechow, Arnim von/ Sternefeld, Wolfgang u. a. (1993), 316⫺328. Heringer, Hans Jürgen/Strecker, Bruno/Wimmer, Rainer (1980): Syntax. Fragen ⫺ Lösungen ⫺ Alternativen. (UTB Reihe 251). München. Jacobs, Joachim/Stechow, Arnim von/Sternefeld, Wolfgang/Vennemann, Theo (Hgg.) (1993): Syntax (Bd. 1). Ein internationales Handbuch der zeitgenöss. Forschung. Berlin/New York. Konerding, Klaus-Peter (1993): Frames und lexikalisches Bedeutungswissen. Tübingen. Link, Godehard (1991): Formale Methoden in der Semantik. In: Stechow, Arnim von/Wunderlich, Dieter (Hgg.) (1991): Semantik. Ein internationales Handbuch der zeitgenöss. Forschung. Berlin/New York, 835⫺860. Marciszewski, Witold (ed.) (1981): Dictionary of Logic.
Montague, Richard (1974): The Proper Treatment of Quantification in Ordinary English. In: Thomason, Richmond H. (Hg.) (1974): Formal Philosophy. Selected Papers by Richard Montague. New Haven, 247⫺270. Mudersbach, Klaus (1997): Eine Logik für Sprechen und Denken im Alltag. In: Weingartner, Paul/ Schurz, Gerhard/Dorn, Georg (Hgg.) (1997): Die Rolle der Pragmatik in der Gegenwartsphilosophie. Wien, 672⫺677. Mudersbach, Klaus (1999): Wissenschaftstheorie der Wissenschaftssprache oder: Wie beeinflußt die Sprache die Wissenschaft? In: Wiegand, Herbert Ernst (Hg.) (1999): Sprache und Sprachen in den Wissenschaften. Berlin/New York, 154⫺220. Mudersbach, Klaus (2001): Wie der Mensch im Alltag folgert. Ein Gegenvorschlag zur Formalen Logik. In: Lehr, Andrea/Kammerer, Matthias/Konerding, Klaus-Peter/Storrer, Angelika/Thimm, Caja/Wolski, Werner (Hgg.): Sprache im Alltag. Beiträge zu neuen Perspektiven in der Linguistik. Berlin, New York, 71⫺96. Storrer, Angelika (1992): Verbvalenz: theoretische und methodische Grundlagen ihrer Beschreibung in Grammatikographie und Lexikographie. Tübingen. Tesnie`re, Lucien (1959): Elements de syntaxe structurale. Paris. Tesnie`re, Lucien (1980): Grundzüge der Strukturalen Syntax. Übersetzung von Ulrich Engel. Stuttgart. Thiel, Christian (1995): Philosophie und Mathematik. Darmstadt. Welke, Klaus M. (1988): Einführung in die Valenzund Kasustheorie. Leipzig. Welke, Klaus (1995): Dependenz, Valenz und Konstituenz. In: Eichinger, Ludwig M./Eroms, Hans Werner (Hgg.) (1995): Dependenz und Valenz. (= Beiträge zur Germanistischen Sprachwissenschaft, Bd. 10). Hamburg, 163⫺176.
Klaus Mudersbach, Heidelberg (Deutschland)
II. Lucien Tesnie`re und seine Zeit Lucien Tesnie`re and his Times 8. Lucien Tesnie`re. Ein Zeugnis 1933⫺1993 1. 2. 3. 4.
Wesen der Dependenz Konnexion Schlussbetrachtung Literatur in Auswahl
Im posthum erschienenen großen Werk: „E´le´ments de syntaxe structurale“ (1959) erwähnt Lucien Tesnie`re als einen Wendepunkt von hoher Bedeutung in seiner Laufbahn als Sprachforscher und Sprachdidaktiker den Einfall, der darin bestand, das Stemma (ursprünglich Ahnentafel) als graphische Darstellung der Abhängigkeitsverhältnisse im Satz zu verwenden. Dieser Einfall lässt sich genau datieren: Juni 1932. Das Strukturschema in der Form eines Stammbaums veranschaulicht die Analyse des Satzes im Sinne der Tesnie`reschen Auffassung der dreiteiligen Konnexion und hat universellen Wert. Schon 1933 machte sich der Sprachforscher und Sprachdidaktiker an die Abfassung seines Aufsatzes für das Bulletin der Philosophischen Fakultät, der 1934 erschien. Er arbeitete mit großer Begeisterung und Hingabe an diesem Abriss mit dem Titel: ‘Comment construire une syntaxe’, als ich als Dozent für ‘Philologie allemande’ (Philologie im Sinne von „Sprachgeschichte und älterer Literatur“) in Straßburg ankam“ (November 1933). Wes das Herz voll ist, des geht der Mund über: bei der ersten Begegnung mit Tesnie`re wurde ich in den Inhalt des Aufsatzes, an dem er arbeitete, eingeweiht; darauf folgten lange Gespräche, die sich nach dem Verlassen des Universitätsgebäudes noch auf der Straße fortsetzten. Bei diesem freien Austausch der Ansichten wunderte ich mich über die Erfahrung des um sechs Jahre älteren Linguisten. Er erwarb immer weiter neue Sprachen mit einer Gabe für die Beobachtung des konkreten, praktischen Gebrauchs und für den Vergleich der Ausdrucksmittel. Nach Russisch hatte er sich Slowenisch, Tschechisch und andere Spra-
chen angeeignet. Als Sprachdidaktiker hatte er mit Franzosen den Ausdruck im Deutschen, mit Slowenen den Ausdruck in französischer Sprache geübt. Der Germanist, der das Glück hatte, vor 65 Jahren Tesnie`re persönlich kennen zu lernen, versucht, Stellung zu nehmen zum Inhalt des großen Buches (670 Seiten), das uns vorliegt: „E´le´ments de syntaxe structurale“ (1959). Dieses Buch, das Tesnie`re im Manuskript hinterließ, war die letzte Auseinandersetzung des großen Linguisten mit einer traditionellen Grammatik, deren Alleinherrschaft ihm eine Mauer entgegensetzte, an die er sein Leben lang anstieß: eine Mauer des Schweigens, die nun gefallen ist, wie die Feiern zum hundertsten Geburtstag in Rouen, Straßburg und Ljubljana glänzend beweisen.
1.
Wesen der Dependenz
Wir sollten uns nicht dadurch beirren lassen, dass das Wort „de´pendance“ im Buch nur einmal belegt ist (Kap. 2, Abschnitt 1), dann bis zum Ende nicht mehr auftaucht. Der Schlüssel zu diesem rätselhaften Verzicht auf die Bezeichnung des Prinzips findet sich bei Littre´ unter de´pendance: „Terme de grammaire. Syntaxe de de´pendance, la partie de la syntaxe relative aux re´gimes ou comple´ments des diffe´rentes expe`ces de mots.“ Eine eingehende Untersuchung der Definitionen grammatischer Termini zeigt: der Positivist Littre´ ist noch im Bann jener traditionellen Grammatik, welche dem Verständnis von Tesnie`res Werk jeden Weg versperrte. Ich möchte hier das Beispiel der Definition des Wortes „sujet“, wiederum bei Littre´ nennen: Sujet 7¡: „En logique et en grammaire, le terme essentiel de toute proposition, celui dont on nie ou affirme quelque chose.“ Das ist die Aristotelische Definition der „Proposi-
68
II. Lucien Tesnie`re und seine Zeit
tion“: „Eine Rede, die von etwas (1) etwas (2) bejaht oder verneint.“ In der Terminologie des Prager Kreises ist (1) das Thema und (2) das Rhema. Diese Definition wurde auf jeden „nœud verbal“ angewandt, auf jede Proposition, ob abhängig oder unabhängig (Nebensatz). Dies unterstand der „analyse logique“ und schloss die Beförderung des Verbs zum „re´gissant“ aus. Für eine Dependenzgrammatik blieb nur die Abhängigkeit von anderen „Wörtern“ (nœud nominal, adjectival, adverbial) übrig; und zwar unter der Bezeichnung „comple´ment“, z. B. „comple´ment du nom“ in maıˆtre d’e´cole. Tesnie`re musste volens nolens auf den – zutreffenden – Titel „Grammaire de de´pendance“ verzichten. Er wählte „Syntaxe structurale“ und er bereitet den Leser schon von Kapitel 4 an auf das richtige Verständnis des Gegensatzes zwischen „ordre structural“ und „ordre line´aire“ vor.
2.
Konnexion
Tesnie`re führt den Angriff auf dem Gebiet, zu dem die „analyse logique“ den Weg versperrte: dem Fall des unabhängigen Verbalsatzes (Proposition genannt). Er wählt den Beispielsatz: Alfred parle. Er hat es leicht, diesen Satz als Ergebnis einer syntaktischen Verbindung (lien syntaxique) zu definieren. Dies ergibt eine Verbalgruppe (nœud verbal), diesmal in der Eigenschaft eines unabhängigen Aussagesatzes. Grammatische Beispiele mit Minimalbestand führen gelegentlich zur Prägung eines Terminus mit fraglichem Inhalt. Dies könnte der Fall sein für das Tertium in der Konnexion, dessen besondere Bedeutung Tesnie`re hervorhebt. Ein „Konnexionsstrich“ soll dieses Element symbolisieren. In Kapitel 1 definiert Tesnie`re die Konnexion, ohne dass von einem hierarchischen Unterschied die Rede wäre. Erst in Kapitel 2 trifft Tesnie`re eine Wahl zugunsten des Verbs im Beispielsatz: Alfred parle. Natürlich bekommt das Verb als Regens die oberste Stellung; das schließt bei der Zeichnung auf einen zweidimensionalen Träger (Blatt Papier) die Vertikale ein. So im Stemma 1. Stemma 2 stellt das Problem der Abhängigkeit von einem anderen Konnexionssystem, das nicht zur Klasse Verb gehört. Das Possessiv mon in Mon ami parle gehört einer anderen Klasse (einem anderen „nœud“) an, und mon ist vom Regens ami abhängig. Kei-
ne Schwierigkeit: ami ist oben, mon ist unten, ein senkrechter Konnexionsstrich verbindet beide. Stemma 1
Stemma 2
Stemma 6
parle
parle
frappe
Alfred
ami
Alfred Bernard
mon
Ein Problem, das ein Stemma nicht lösen kann, veranschaulicht der Satz: Alfred frappe Bernard.: Denn das zweigliedrige Stemma 6 gäbe zu verstehen, dass zwischen frappe und Bernard dasselbe Verhältnis besteht wie zwischen frappe und Alfred; das bedeutet, dass auch Bernard schlägt. Jeder Frankophone wird verstehen: was dieser Satz zum Ausdruck bringt, ist Alfreds Verhältnis zu seiner Tat, die darin besteht, Bernard zu schlagen. Dem konkreten Verhältnis zwischen Täter und Tat entspricht eine syntaktische Verbindung (lien syntaxique). Man könnte diese Struktur mit folgendem Schema wiedergeben: Alfred
frappe Bernard
Tesnie`res Syntax ist also eine Dependenzgrammatik, insofern der Regens die Zahl der Glieder (nœuds) in der Gruppe bestimmt, zu deren Bildung der Regens Anlass gibt. Sie kann aber die innere Anordnung, Zusammenstellung dieser Teile, die innere Struktur nicht kenntlich machen, wenn der Regens nicht monovalent ist: frapper ist divalent (zweiwertig), donner ist trivalent (dreiwertig) (s. z. B. Stemma 77: Alfred donne le livre a` Charles.) Das Modell der von einem Regens zusammengehaltenen Wortgruppe gilt auch für die Gruppe, die ein Verb als Regens aufweist. Aber die waagerechten Konnexionsstriche auf der unteren Linie veranschaulichen eine Hierarchie in der Bildung der Konnexionen: Alfreds Tat ist mit (den) Bernard schlagen in Verbindung zu setzen. Die Valenz eines Verbs bestimmt nur die Zahl der „Dependentien“, die mit dem Regens einen verbalen Nexus (nœud) bilden, nicht die Abstufung der Konnexionsstriche aufgrund der Tiefe (depth) der Analyse.
69
8. Lucien Tesnie`re. Ein Zeugnis 1933⫺1993 Bernard Charles das Buch gibt
G1 V G2 G3 Alfred das Buch Bernard gibt K1 K2 K3
Waagerechte Konnexionsstriche veranschaulichen denselben Bildungsprozess in der strukturalen Ordnung im Gegensatz zur linearen; zum Regens tritt links ein erstes Satzglied (G1) und bildet einen ersten Komplex (K1), zu diesem Komplex tritt links ein anderes Glied (G2), und so fort. Horizontale Konnexionsstriche zeigen das Anwachsen des Komplexes: G2
G3
K3
G1
K2
V K1
tant“, neben den Objekten an zweiter und dritter Stelle. In einem Nexus bestimmter Art (cate´gorie) können Lexeme enthalten sein, die wiederum der Anlass zur Bildung eines untergeordneten Nexus sein können, z. B. Alfred donne a` Bernard / le livre de la Jungle de Kipling / (nominaler Nexus). Dieses Spiel kann vom obersten Nexus („nœud des nœuds“) zum untergeordneten der nächsten Stufe (bis zu einer nten) gehen. Die Abstufung kann mehrere Stufen in der Tiefe (depth) betragen, wie oft bemerkt wurde. Die Analyse des verbalen Satzes, von dem wir mit A frappe B ein Beispiel gegeben haben, ergibt folgendes Strukturschema: Mit dem Verb verbindet sich ein erstes Satzglied G1, und das ergibt einen ersten Komplex K1, mit diesem Komplex verbindet sich ein Glied G2 und das ergibt den Komplex K2 usw. Ist das Verb trivalent, so ergibt der innere Aufbau folgendes Bild: Pater filio librum dat
Man beachte: im „Valenzprogramm“ des Verbs geben ist eine Konnexion mit einem Subjekt vorgegeben; Alfred ist nun pragmatisch Subjekt eines längeren Prädikats, das aus *G2 ⫹ G1 ⫹ Verb+ besteht. Der Regens – eine Verbform (einfach oder zusammengesetzt (Nukleus)) – befindet sich allein auf der oberen Linie; auf der unteren Linie die je durch einen Konnexionsstrich verbundenen Glieder des verbalen Nexus (nœud). Das genügt Tesnie`re, um die Virtualitäten, die ein Regens auf Grund seiner Angehörigkeit zu einem der vier Typen 0, A, I, E in sich birgt, als geübter Sprachdidaktiker zu benennen und aufzuzählen. In Kapitel 3 gesteht Tesnie`re offen seine Freude: Er hat sein Ziel erreicht; die letzte Festung der traditionellen Grammatik, nämlich die Anwendung der aristotelischen Definition der Proposition auf jeden von einem Verb als Regens zusammengehaltenen Nexus (nœud), ist nun gefallen. Die Spaltung der Grammatik zwischen „Analyse logique“ und „Syntaxe de de´pendance“, der nun drei „espe`ces de mots“ zufallen (A, E, I), ist behoben; eine einheitliche Dependenzgrammatik ist gegründet. Sie umfasst alle vier sogenannten „Espe`ces de mots“. Das Subjekt ist im verbalen Satz ein Dependens, unter dem Namen „prime ac-
K3
K2
K1
Es ist absichtlich ein Beispiel gewählt worden, wo die lineare und die strukturale Ordnung isomorph sind, die gleiche innere Form aufweisen. Man sieht, wie das nominale Glied (im Nominativ) pater mit einem „prädikativen“ Komplex eine syntaktische Verbindung eingeht, welche die Tat des Vaters beschreibt; die Relation zwischen Subjekt und Prädikat ist hier eine ergative. Sie ist aktual (in ergo). Der Satz Alfred donne le livre a` Charles weist die lineare Ordnung auf. Die strukturale Ordnung wäre: Alfred le livre à Charles donne
K3
K2
K1
Die lineare Ordnung wäre im Englischen Alfred gives the book to Charles nicht: Alfred gives Charles the book. Alfred the book to Charles gives
K3
K2
K1
70
II. Lucien Tesnie`re und seine Zeit
Die Logik, die bei der syntaktischen Konnexion waltet, ist die der Determination, die bewirkt, dass der begriffliche Inhalt des Regens in dem gebildeten Komplex eine geringere Extension und eine gesteigerte Intension aufweist. Was das Diagramm mit den waagerechten Konnexionsstrichen darstellt, ist vollkommen berechtigt: es ist eine willkommene Vervollkommnung des schon mit dem Stemma geschaffenen Gerüsts; eine Füllung der leer gebliebenen kleineren Segmente ist schon im Gange.
3.
Schlussbetrachtung
Eine Dependenzgrammatik ist eine kategorielle Syntax und soll von der bekanntlich in Kapitel 1 der Präambel definierten konnexionellen Syntax genau unterschieden werden. Die Zugehörigkeit des Regens zu einer bestimmten Kategorie (unter den vier von Tesnie`re erkannten) erstreckt sich auf die aus dem Regens und den von ihm abhängigen Gliedern gebildete „spezifische Einheit“: sie ist ein nœud verbal im Beispiel: Alfred parle. Im Regens sind mit dem Träger des lexikalischen Inhalts, dem Lexem, andere Morpheme verquickt (amalgamiert): ihr Bezugsbereich (Skopus, base d’incidence) ist nicht das Lexem allein, sondern der gesamte Inhalt des Nexus (nœud), im obigen Beispiel: Alfreds Redeakt. Die im Wort Verb enthaltenen Morpheme weisen auf Oppositionen der Zeit
(hier: Präsens) und des Modus (Indikativ) hin. Dies setzt voraus, dass die betroffene Einheit eine abgeschlossene, abgrenzbare Einheit ist. Diese Morpheme haben eine horematische Auswirkung (sind Horeme, nach einem begrifflichen Vorschlag von Colette Corte`s). Sie tragen dazu bei, den Beispielsatz in die verbale Kategorie einzugliedern. Semantische Oppositionen wie die des Tempus und Modus, Genus und Numerus sind charakteristisch für eine kategorielle Grammatik. Sie sind in meinen „Prolegomena“ Kategorien genannt. Tesnie`re ist es gelungen, die disjecta membra des kategoriellen Systems (Morphologie, sogenannte Wortbildung, Strukturmodelle) zu einem kohärenten, zusammenhängenden System zusammenzufassen und die Aufmerksamkeit auf das Zusammenspiel der einzelnen Teile zu lenken. Wir können nun die Konturen dieses Systems besser erkennen, wo sie die Konturen eines anderen Systems berühren: Wir denken an die Grenze zwischen konnexionellem und kategorialem System.
4.
Literatur in Auswahl
Littre´, Emile (1863): Auguste Comte et le philosophie positive. Paris. Lucien Tesnie`re (1959): E´le´ments de syntaxe structurale. Paris.
Jean Fourquet †, Fresnes (Frankreich)
9. Lucien Tesnie`re. Sein Leben 1. 2. 3. 4.
Vita und Wissenschaft Sprachen Rezeption Literatur in Auswahl
1.
Vita und Wissenschaft
Tesnie`res Leben ist kaum erforscht. Eine wissenschaftliche Biographie gibt es nicht. Auch die möglichen Quellen sind nicht erschlossen und kaum ausgewertet. So liegt Tesnie`res Korrespondenz von über 2000 Briefen noch in fünf Schachteln bei der Bibliothe`que Nationale in Paris „Fond Lucien Tesnie`re“, einer Stiftung, die im Jahre 1987 von der Familie ins Leben gerufen wurde. Eine eher spärliche Quelle für die Vita liegt uns vor in Ich-Form und von Tesnie`res
Hand. Desgleichen ein Bericht über seine wissenschaftlichen Tätigkeiten (Tesnie`re 1995). Beides reicht nur bis 1938. Weiter werden hier verwendet Daumas 1952, Arnavielle 1995. Lebendiges Zeugnis von Tesnie`res wissenschaftlichem Leben legt auch Jean Fourquet ab. Zuerst im Vorwort zu den E´le´ments de syntaxe structurale und später an verschiedenen Orten (auch in diesem Band). Lucien Tesnie`re wurde am 13. Mai 1893 in Mont-Saint-Aignan bei Rouen in der Normandie geboren. Er besuchte als Sekundarschüler das Lyzeum von Rouen. Sein Abitur (baccalaure´at) machte er im Jahr 1909/1910 im altsprachlichen Zweig (Griechisch, Lateinisch). Schon damals faszinierten ihn Spra-
9. Lucien Tesnie`re. Sein Leben
Abb. 9.1.
chen, er ging ein Jahr nach England und sechs Monate nach Italien. Deutsch hatte er schon früher ganz gut gelernt bei Ferienaufenthalten in Deutschland. Trotz gewisser Widerstände der Eltern schrieb er sich im November 1912 an der Sorbonne ein und studierte Linguistik, insbesondere bei den Professoren Ferdinand Brunot, der später die monumentale Darstellung des Französischen verfasste, Joseph Vendrye`s, von dem Tesnie`re die Unterscheidung von mots pleins und mots vides übernahm, und Antoine Meillet, dem berühmten soziologisch orientierten Linguisten, der sein Doktorvater wurde und mit dem Tesnie`re später den slawischen Sprachatlas konzipieren sollte. 1913 erwarb er dann die „licence“ des Deutschen mit Englisch und Altnorwegisch als Nebenfächern. Im Anschluss hieran setzte Tesnie`re sein Studium fort in Leipzig und Wien. Da lernte er die junggrammatischen Größen Eduard Sievers, Karl Brugmann und August Leskien kennen und ebenso den jungen Stipendiaten Nicolaj Trubetzkoj. Damals ging es vor allem um die älteren Sprachstufen des Deutschen,
71 um Gotisch und die ersten Schritte zu den slawischen Sprachen. Dies pflegte er besonders auch in Wien, wo er – ganz in seinem Sinn des Sprachenlernens – im direkten Kontakt mit jugoslawischen Kommilitonen Kroatisch lernte. Während dieser Zeit bereitete er auch sein Diplom in Deutsch vor, das er 1914 an der Sorbonne erhielt, und zwar mit Auszeichnung (mention tre`s honorable). In der Folgezeit trug Tesnie`re sich mit dem Gedanken, die agre´gation zu machen. Aber da brach der Erste Weltkrieg aus und Tesnie`re wurde gezogen (oder freiwillig?) an die Front geschickt und alsbald gefangen genommen. Er blieb 40 Monate (zeitweise in Merseburg) in deutscher Gefangenschaft. Dabei wird er natürlich auch sein Deutsch gepflegt haben, aber er nutzte die Zeit auch zum Studium der Bibel und des Hebräischen. Dazu Russisch, Lettisch, Holländisch, Finnisch und etwas Ungarisch gar. Einige seiner Sprachkenntnisse konnte er als Dolmetscher nutzen und sich so die Zeit der Gefangenschaft etwas angenehmer gestalten. Es ist überliefert, dass ihn schon damals die Syntax bewegte und dass er seine Ideen offenbar einem Freund darlegte, der sie in zwei Kladden von insgesamt 450 Seiten aufschrieb. Vermutlich die Manuskripte mit dem Titel „Syntaxe“, die sich im Nachlass befinden und bereits den Gedanken der Translation enthalten (Baum 1976, 26 A50). Wieder frei widmete sich Tesnie`re in Paris der Pressearbeit, die wohl noch als Kriegsfolge zu sehen ist. Im Oktober 1919 erhielt er die agre´gation für Deutsch. Es war zu der Zeit, als er noch verschiedene Dolmetschtätigkeiten in Kärnten ausübte, da ihn das Angebot erreichte, ein Lektorat in Ljubljana wahrzunehmen. Dies sollte einer der produktivsten Abschnitte seines Lebens werden. Während der vier Jahre gründete und leitete er das Institut Franc¸ais daselbst. Er studierte das Slowenische und seine Dialekte und vor allem fertigte er seine Doktorarbeit über den Dual im Slowenischen, zusätzlich noch einen kleinen Sprachatlas zum Dual. Mit diesen Arbeiten promovierte Tesnie`re dann 1925 in Paris, hatte aber schon vorher die Stelle eines maıˆtre de confe´rence an der Universität Straßburg bekommen. Dort arbeitete er in der philosophischen Fakultät am Institut für slawische Sprachen und Literaturen. Er widmete sich intensiv der Verwaltungsarbeit. Zugleich scheint die Straßburger Zeit außerordentlich anregend in Bezug auf wissenschaftliche Kommunikation und intel-
72 lektuellen Austausch gewesen zu sein. Die Universität Straßburg hatte zu der Zeit noch ungewöhnliche Strukturen aus dem wilhelminischen, deutschen Interregnum nach 1871 und sie wurde von der französischen Zentralregierung besonders gefördert, um einen Austausch der Kulturen in Gang zu setzen. Besonders anregend scheinen hier die wissenschaftlichen Kolloquien gewesen zu sein, die alle vier Wochen stattfanden (Muller 1993). Im Jahre 1934 erschien in Paris die Petite grammaire russe. Es ist ein Werk für den Anfänger, das nur Wesentliches bringen möchte: Le de´butant n’a pas besoin d’une grammaire comple`te. Il lui faut un livre e´le´mentaire, qui e´vite toute inutilite´, qui de´gage de la langue des multiples particularite´s de de´tail les traits essentiels du syste`me, bref qui se borne a` fournir, sous une forme claire et succincte, les grandes lignes de la the´orie (Pre´face 5, nach Baum 1976, 13).
Hier realisiert der Verfasser in einem ersten Wurf die Grundzüge seiner syntaktischen Theorie und verleiht schon seiner Grundüberzeugung Ausdruck, dass zur guten Pädagogik auch gute Theorie gehört. Mit stemmatischen Darstellungen hatte er schon seit 1932 experimentiert. Die Grundideen für weitere Grammatiken, mit deren Realisierung er sich trug, sind zusammengefasst in dem Artikel Comment construire une syntaxe? von 1934. Im Jahre 1937 wurde Tesnie`re dann nach Montpellier berufen auf den Lehrstuhl für vergleichende Grammatik (Nachfolge Maurice Grammont; im Jahr 1951 umgewandelt in einen Lehrstuhl für Linguistik). Das wissenschaftliche Leben war hier weniger intensiv als in Straßburg und Tesnie`re führte ein eher zurückgezogenes Leben (Arnavielle 1995, 83), in das nur gelegentliche Reisen nach Paris intellektuelle Abwechslung brachten. Aus dieser Zeit stammt der Cours e´le´mentaire de syntaxe structurale (1938), ein Vorlesungsmanuskript in Stichworten und die Nachschrift der Vorlesung des Studienjahrs 1937/1938, wahrscheinlich von Frau Tesnie`res Hand (Baum 1976, 16 A9). Es handelt sich hierbei um das Konzept einer Veranstaltung, zu der einige Jahre später der für Studenten und Lehrer bestimmte Cours de syntaxe structurale (1943) erscheint. Das letzte Kapitel dieses Re´sume´ trägt die Überschrift „Indications pe´dagogiques“ und schließt mit einer Auflistung von Lernzielen für die Grundschule und die höheren Schulen. Diese Indications entsprechen im Wesentlichen den Kapiteln 654⫺660 der publizierten E´le´ments
II. Lucien Tesnie`re und seine Zeit
de syntaxe structurale. Sie spiegeln die pädagogische Tätigkeit dieser Zeit wider. Unter anderem unterrichtete Tesnie`re immer wieder am Institut des E´tudiants E´trangers und der Grundschule, die der E´cole Normale d’Institutrices angeschlossen war. Als akademischer Lehrer scheint Tesnie`re eher frei gesprochen zu haben, oft freundlich lächelnd und stets den Eindruck vermittelnd, dass er seine neuesten Erkenntnisse vorträgt. Besonders gut soll seine einfache und klare Rede angekommen sein. Auf Kleidung scheint er weniger Wert gelegt zu haben und wegen seines langen Bartes wurde er sogar in Moskau als Muschik angesehen. In den folgenden Jahren konzentriert sich Tesnie`re auf die E´le´ments de syntaxe structurale. Es scheint, dass die Grundversion in den frühen 40er Jahren stand und dass er in den vielen noch folgenden Jahren nur wenige Änderungen vorgenommen hat. Im Jahre 1946 erkrankt Tesnie`re und erholt sich bis zum Tod nicht mehr. Diese Krankheit, „les graves accidents de sante´“, von denen Fourquet spricht, hat ihn bei der weiteren Arbeit behindert und eine Schlussredaktion der E´le´ments de syntaxe structurale unmöglich gemacht. Statt dessen lässt er im Jahr 1953 auf Zureden von Freunden den Cours de syntaxe structurale von 1943 erscheinen unter dem Titel Esquisse d’une syntaxe structurale. Tesnie`re starb am 6. 12. 1954. Lucien war verheiratet mit Jeanne, sie bekamen in den Jahren 1924⫺1928 drei Kinder: Michel, Bernard und Yveline, die wir in der stemmatischen Widmung der E´le´ments de syntaxe structurale wiederfinden. Seine Frau hat über die Jahre an Luciens Arbeit partizipiert und sie hat sich um die posthume Veröffentlichung des Hauptwerks verdient gemacht. Hier ein kurzer Überblick über wichtige Publikationen. Ausführlicher sind sie zusammengestellt in Daumas 1952 und Culioli/ Fuchs/Peˆcheux 1970. Den relativ wenigen Publikationen zu Lebzeiten steht ein beachtenswerter Nachlass gegenüber. Einmal sind natürlich die E´le´ments de syntaxe structurale selbst erst posthum und aus dem Nachlass publiziert worden. Andererseits enthält der Nachlass, wie er 1987 der Bibliothe`que nationale als Stiftung „Fond Lucien Tesnie`re“ übergeben wurde, noch weitere vollständige Werke, wie die französische Grammatik für Ausländer, die bisher noch nicht publiziert wurden. Im Gan-
9. Lucien Tesnie`re. Sein Leben
73
⫺ Sur quelques de´veloppements de nasales en slove`ne, Bulletin de la Socie´te´ de Linguistique de Paris, 24 (1923), 152⫺182. ⫺ Sur le syste`me casuel du slove`ne. Me´langes linguistiques offerts a` M. J. Vendrye`s par ses amis et ses e´le`ves, Paris, Champion, 1925, 357⫺361. ⫺ Les formes du duel en slove`ne, Paris, Champion, 1925, 23 S. (Couronne´ par l’Institut, Prix Volney). ⫺ Atlas linguistique pour servir a` l’e´tude du duel en slove`ne, Paris, Champion, 1925, 42 S. ⫹ 70 Karten. ⫺ Statistique des langues de l’Europe, en appendice de A. Meillet, Les langues de l’Europe nouvelle, 2e e´d., Paris, Payot, 1928, 291⫺494. ⫺ Meillet, P./ L. Tesnie`re, Projet d’un atlas linguistique slave, Premier congre`s des philologues Slaves a` Prague, 1929. ⫺ Les noms slaves et russes de la frontie`re, Bulletin de la Socie´te´ de linguistique de Paris, 30 (1930), 174⫺195. ⫺ Synthe´tisme et analytisme, Charisteria Gvilelmo Mathesio quinquagenario a discipulis et circuli linguistici Pragensis sodalibus oblata, Pragae, sumptibus „Prazsky linguisticky´“, Cercle linguistique de Prague (1932), 62⫺64. ⫺ Comment construire une syntaxe, Bulletin de la Faculte´ des Lettres de Strasbourg, 12, no 7 (1934), 219⫺229. ⫺ Petite grammaire russe, Paris, Didier, 1934, 176 S. ⫺ A propos des temps surcompose´s, Bulletin de la Faculte´ des Lettres de Strasbourg, 14, no 2 (1935), 56⫺60. ⫺ The´orie structurale des temps compose´s, Me´langes de linguistique offerts a` Charles Bally sous les auspices de la Faculte´ des Lettres de l’Universite´ de Gene`ve par des colle`gues, des confre`res, des disciples reconnaissants, Gene`ve, Librairie de l’Universite´ 1939, 153⫺183. ⫺ Une survivance pe´dagogique: l’inversion et le rejet dans la construction de la phrase allemande, Les Langues modernes, 41, no 2 (1947), A-21 a` A-25. ⫺ Esquisse d’une syntaxe structurale. Paris 1953. ⫺ Petit vocabulaire russe: Table se´mantique, tome I, Didier, 1957, 192 S. ⫺ Table e´tymologique: les mots russes classe´s d’apre`s leur racine, 1970, 156 S. ⫺ Ele´ments de syntaxe structurale, Paris, Klincksieck, 670 S., 1959, 2e e´d. revue et corrige´e, 1966. Abb. 9.2.
zen umfasst dieser Nachlass nicht weniger als 69 Kartons mit Manuskripten, Notizblättern und Briefen, die der Sichtung und Auswertung, vielleicht gar der Publikation harren. Ein grobes Verzeichnis findet sich in MadrayLesigne/Richard-Zappella 1995, 413⫺415 und M. Tesnie`re 1996 (7⫺13). Mit seinem Hauptwerk ist Tesnie`re in die Geschichte der Linguistik eingegangen. Erste Ideen für eine Syntax publizierte er in dem Artikel Comment construire une syntaxe? von 1934. Dies war mehr ein Plan, „un plan dont je n’ai commence´ a` entrevoir la conception que vers la quarantaine et qui n’a commence´ a` eˆtre au point que vers ma cinquantaine, apre`s trente anne´es d’expe´rience linguistique“, heißt es im Entwurf eines Vorworts (Baum 1976, IX). Die hier präsentierten Stemmas stellen allerdings noch nicht so klar die dependenzielle Struktur aus. Das metaphorische Modell ist eher das Verb als Sonne, um die herum sich die Satelliten mit Pfeilen verbunden lagern. Somit steht schon das Verb im Mittelpunkt, aber von seiner Valenz ist noch nicht die Rede, allerdings hat das Subjekt seine Sonderstellung verloren. Ein Schwerpunkt liegt auf der Kritik der klassi-
schen Wortarten und deren Ersatz durch die vier Grundwortarten der späteren E´le´ments. Die funktionale Betrachtung wird schon angestrebt. So gibt es auch die Translation in Grundzügen. Die Esquisse von 1953 hingegen war ein recht kurzer Abriss des eigentlichen kompletten Werks. Sie ist eine Art Vorabdruck der fertigen E´le´ments de syntaxe structurale, deren Erscheinen er selbst nicht erlebte. Aber: C’est a` la de´monstration de l’application de cette me´thode sur un grand nombre de langues et d’abord sur le franc¸ais, qu’il a consacre´ les vingt dernie`res anne´es de sa vie. Il a mis dans cette entreprise toute sa personnalite´ (Fourquet 1959, 3).
Die Grundidee der E´le´ments de syntaxe structurale ist, dass die Syntax sich nicht auf die Abfolge in der linearen Kette beschränkt, sondern dass es vielmehr eine zugrunde liegende zweidimensionale Struktur gebe. Die Struktur ist konstituiert durch die Konnexion, die Abhängigkeit der Elemente voneinander. Das realisiert in gewissem Sinn die Idee de Saussures, die langue sei une forme et non une substance. Allerdings ist Tesnie`re nicht ganz saussurianisch, da er annimmt,
74 der Konnexion entspreche nichts auf der Ausdrucksseite. Er verfällt damit dem mysticisme ze´ro, den de Saussure jedenfalls ablehnte: „Ce serait une erreur de croire qu’il y a une syntaxe incorporelle en dehors de ces unite´s mate´rielles distribue´es dans l’espace“ (de Saussure 1984, 191). Die Struktur der Sätze stellt Tesnie`re grafisch dar im sog. Stemma, das er spontan erfunden hat. (Erst später bemerkte er, dass es bereits eine Tradition solcher Darstellungen gab.) Im ersten Teil des Buchs wird die Konnexionstheorie entworfen. Hierbei geht es vor allem um ein System der Wortarten, um ihre syntaktischen Eigenschaften und Funktionen. Die Valenz des Verbs und die Variationen der Valenz machen einen wichtigen und bestrezipierten Aspekt aus. Der zweite Teil behandelt die Junktion, der dritte die Translation. Am Schluss stehen Anwendungen. Tesnie`res Idee war vor allem didaktisch geprägt. Das zeigt sich an seinem Bemühen um eine klare Terminologie wie auch an der Darstellungsweise. Oft sind Paragraphen analog aufgebaut und die Einführungen neuer Phänomene beginnen fast immer mit Beispielen. Tesnie`re ist zweifellos in der Tradition des europäischen Strukturalismus zu sehen. Absorbiert hat er de Saussure, wenngleich er ihn wenig zitiert. Die allgemeine Sprachauffassung stammt wesentlich hierher. Auch seine treue Mitgliedschaft im Cercle Linguistique de Prague und seine Mitarbeit an programmatischen Texten und langjährige Korrespondenz mit den Kollegen belegen das. Für die Syntax konnte er allerdings da keine direkten Anregungen bekommen. Hier war er allein. Und auch die Kollegen des Prager Kreises waren kaum Diskussionspartner, heißt es doch von Trubetzkoj, er habe gestanden, dass die Syntax ihn erschrecke: „La syntaxe me terrifie“, kolportiert Jakobson (1972, 43). Aber Tesnie`re habe hier Pionierarbeit geleistet. Außerdem wird man sagen können, dass Tesnie`re an den theoretischen Entwicklungen des Strukturalismus nicht immer aktiv und intensiv partizipierte, wenngleich er sie zur Kenntnis nahm. So konnte sogar mit einem gewissen Recht gefragt werden, ob seine Theorie das Adjektiv „struktural“ verdiene (Arrive´ 1969, 36). Man hat eher den Eindruck, als sei es Tesnie`re mehr darum gegangen, eigenständig seine Ideen weiterzuverfolgen und zu perfektionieren, vor allem in der Montpellier-Zeit. So konnte Mikusˇ zu Recht – wenn man denn das Schluss-Prinzip akzeptiert –
II. Lucien Tesnie`re und seine Zeit
beklagen, der Autor „has neglected all the results of modern linguistics and based his work entirely on his own speculations“ (Mikusˇ 1962, 660). Beeinflusst war Tesnie`re aber durch die grammatischen Forschungen von Damourette und Pichon. Nicht nur seine rege wissenschaftliche Korrespondenz und Diskussion mit Pichon belegen das; wir finden auch einige mehr oder weniger direkte Übernahmen. So folgt etwa die Behandlung der französischen Negation in Terminologie und in den Grundzügen der von Damourette/Pichon (Arrive´ 1995). Auch die Abhängigkeit war bei ihnen ein organisierendes Prinzip. In den letzten Jahren wurde extensiv erforscht, ob es Vorläufer Tesnie`res gibt und was er von ihnen übernommen hat. So gab es ja eine alte, auch schulische Tradition, Satzstrukturen grafisch darzustellen (hierzu Heringer 1973, 11⫺19; Engel 1980, 19), und Garvin meint, man könne die Methode als „streamlined version of old-fashioned sentence-diagramming“ ansehen (Garvin 1955, 271). Ein direkter Einfluss wurde nicht festgestellt. Man vermutet eher, dass Tesnie`re weniger bewusst übernommen hat, als partiell wiedererfunden: inventer c’est se souvenir.
2.
Sprachen
Sprachen waren ein Zentrum im Leben Tesnie`res. Manche sagen, seine Leidenschaft gar (Corte`s/Sainte-Martine 1995). Er befasste sich mit Sprachen in dreifacher Weise: lernen, lehren, analysieren. Gelernt hat Tesnie`re Sprachen in seinem Leben am laufenden Meter. Wenn man so zusammenzählt, kommt man auf die stattliche Zahl von vielleicht 20 Sprachen, die Tesnie`re mehr oder weniger gut gesprochen hat, mit Betonung auf sprechen. Denn er war im Lernen wie im Lehren ein überzeugter Vertreter der me´thode directe, die damals in Frankreich durchaus nicht selbstverständlich praktiziert wurde. So muss man den Ratschlag verstehen: „Parlez les langues e´trange`res“ (Tesnie`re 1959: 278.17). Zu den Sprachen, die Tesnie`re beherrschte, dürfen wir zählen: Griechisch, Latein, Deutsch, Englisch, Italienisch, Kroatisch, Slowenisch, Russisch, Slowakisch und eine Reihe weiterer. Darüber hinaus hat er noch einige autodidaktisch gelernt wie wohl Hebräisch, Tschechisch. So konnte er offenbar eine einfache Unterhaltung in Zulu führen, wie es heißt.
9. Lucien Tesnie`re. Sein Leben
Nicht nur auf diese Kenntnisse bezieht sich sein Ausspruch: „Timeo hominem unius linguae“ (Tesnie`re 1959: 278.19). Gelehrt hat Tesnie`re verschiedene Sprachen. Dazu zählt vor allem das Französische, das er immer wieder unterrichtet hat. Daraus ist wohl auch die kleine (immerhin 1000 Manuskriptseiten) französische Grammatik für FaF-Lerner entstanden, und sicherlich ist der Abriss der deutschen Grammatik von 1953 als Lernergrammatik gedacht, so wie er auch die russische Grammatik konzipiert hatte: „Bref, j’ai cherche´ a` faire œuvre pe´dagogique plutoˆt qu’œuvre scientifique“ (Fourquet 1959, 5). Jedenfalls fühlte Tesnie`re sich nicht als Theoretiker, der zwar pädagogische Anwendungen erhoffte, sie aber anderen überließ. Die Anwendung in der Praxis und das Lernen aus der Praxis gehörten für ihn selbst dazu. Und seine Empfehlungen und Vorschläge gehen auf wirkliche Erfahrungen zurück (Tesnie`re 1959: 276, 277). Hierzu hat er über die Jahre verschiedene Projekte initiiert, mit denen er die Ideen seiner Syntax an Schulen implementieren wollte. Dazu gehören die Projekte Paravisol 1937/38, Tourret et Vidal 1942, Fontvieille 1942 und Baconnier 1943, die über die E´cole Normale d’Institutrices de Montpellier – sein Versuchsfeld, wie Fourquet es nannte – lanciert wurden. Bei diesen Versuchen stieß er natürlich immer wieder auf Widerstände der Schulaufsicht, die er auch darstellt im Kapitel 277 der E´le´ments de syntaxe structurale. Bemerkenswert ist dabei die Vorsicht und die Umsicht, mit der er die Modernisierung des Grammatikunterrichts empfiehlt. Allerdings wird auch der Frust spürbar, den er bei diesen Versuchen erlitten hat. Das wirklich Moderne an Tesnie`re war, dass er Sprachlehre und Sprachanalyse so eng verwoben sah. Die enge Verbindung von Theorie und Praxis ist auch in den E´le´ments de syntaxe structurale mit Händen greifbar. Nicht umsonst endet Fourquet sein Vorwort mit dem emphatischen Wunsch:
75 nen Stemmas Sprachproduktionsprozesse und Sprachrezeptionsprozesse so einfach abbilden zu können. Man stößt auch in den E´le´ments de syntaxe structurale öfter auf den sicherlich originellen Gedanken, dass die Stemmas die wahre innere Struktur des Satzes abbilden und sozusagen psychische Realität haben (Tesnie`re 1959: 19). Ebenso verwundert etwas, mit welcher Selbstverständlichkeit er Grundschüler in die Kunst des Stemmazeichnens einführen ließ, wenngleich es die Kinder spielerisch und gern taten, wie berichtet wird (Corte`s/ Sainte-Martine 1995, 51). Auch die Verwendung der neuen Terminologie erscheint kühn für die schulische Praxis, was schon ein Rezensent der Grammaire russe vermerkt hatte, was auch der schulischen Generalinspektion auffiel. In späteren Jahren spielte Tesnie`res Ansatz tatsächlich eine Rolle für die Grammaire nouvelle a` l’e´cole (Court 1971). Es scheint aber bei Vorschlägen geblieben zu sein. All das erinnert an die sog. Linguistisierung der deutschen Schulgrammatik in den 70er Jahren, die leider so kläglich gescheitert ist. Analysiert hat Tesnie`re alles, was ihm über den Weg kam: ⫺ Er behandelt mehr als 5000 sprachliche Beispiele. Seien es kurze Syntagmen oder Sätze oder Textpassagen. ⫺ Er hat 366 Stemmas im Buch wiedergegeben, von einfachen, einführenden bis zu hochkomplexen, das letzte geht über zwei Seiten. Er hat damit sicherlich gezeigt, dass seine stemmatische Analyse zur syntaktischen Beschreibung vorliegender Sätze taugt. ⫺ Die behandelten Beispiele entstammen etwa 60 Sprachen. Er sagt dazu selbst: „Tout d’abord, aucune langue n’a e´te´ exclue en principe de cet expose´“ (Tesnie`re 1959: 661).
Ce n’est pas sans une certaine amertume que l’on pense aux 25 ans d’avance qu’aurait pu avoir la France, si elle avait donne´ a` Tesnie`re en 1934 la direction d’un Institut de linguistique applique´e comme celui d’Edimbourg (Fourquet 1959, 7).
Tesnie`res Sprachen sind bei uns gängigere wie Französisch ⫺ Deutsch ⫺ Lateinisch ⫺ Italienisch ⫺ Spanisch ⫺ Rumänisch ⫺ Provenzalisch ⫺ Englisch ⫺ Holländisch ⫺ Flämisch ⫺ Bretonisch ⫺ Baskisch ⫺ Griechisch ⫺ Hebräisch ⫺ Slowenisch ⫺ Russisch ⫺ Weißrussisch ⫺ Lettisch ⫺ Polnisch ⫺ Litauisch ⫺ Serbo-Kroatisch
Vielleicht hat Tesnie`re diese Verbindung ein bisschen zu eng gesehen. So mutet heute vielleicht etwas naiv an, dass er glaubte mit sei-
Dazu dann auch Dialekte und ältere Sprachstufen wie Altfranzösisch natürlich, Alt- und Mittelhochdeutsch, Altgriechisch, Gotisch.
76
II. Lucien Tesnie`re und seine Zeit
Und weiter: Finnisch ⫺ Türkisch ⫺ Kaukasisch ⫺ Ukrainisch ⫺ Armenisch ⫺ Georgisch ⫺ Tscheremessisch ⫺ Arabisch ⫺ Berberisch ⫺ Ägyptisch ⫺ Eskimo ⫺ Zigeunerisch ⫺ Tatarisch ⫺ Mongolisch ⫺ Chinesisch ⫺ Japanisch ⫺ Tonga ⫺ Bantu Auch ganz exotische wie Zyrienisch, Votiak, Samoa, Tchouvache oder Soubiya, Chinook. Man sagt, er habe sich alle Beispiele von Fachleuten bestätigen lassen, wenn er die Sprachen nicht selbst konnte. Fourquet vermutet im Vorwort, dass Tesnie`re eine „analyse universellement applicable a` toutes les langues“ (Fourquet 1959, 3) wollte. Es ging ihm letztlich um die virtuelle, universale Struktur des langage und nicht um einzelne Sprachen, sodass seine Methode später auch auf viele Sprachen angewendet werden konnte (Heringer 1993, 311⫺314). Allerdings hat man bei den exotischsten Beispielen nicht das Gefühl, dass sie die Methode verbessern könnten. Die Methode steht eher fix und fertig da. Das Werk erscheint mehr „data-centered rather than methodcentered“ (Garvin 1955, 272). Möglicherweise verdankt sich dieser Eindruck seiner Darstellungsart. Die Art von Besessenheit – aus andrer Perspektive die „überwältigende Beispielfülle“ (Engel 1980, 21) – wirkt sich in der Grundstruktur seines Darstellungsformular so aus: Darlegung plus Beispiel plus Darstellung plus Beispiel etc. Nach einleitender Definition geht es oft so: • • • • • • • •
Man muss dieses Vorgehen auch historisch als Neuerung sehen, dass nämlich Linguisten die Sprachen auch beherrschen sollten, die sie analysieren, eine Fähigkeit, die Tesnie`re besonders an seinen Kollegen des Prager Kreises schätzte. Zu diesem Impetus gehört der fortwährende implizite Sprachvergleich, den Tesnie`re in der Metataxe systematisierte, ebenso wie die Grundüberzeugung, der Syntaktiker gewinne seine Einsichten durch Introspektion. Weil die Syntax keine „marquants“ hat, muss sie sich stützen auf Intuition und Introspektion: Les conditions meˆmes dans lesquelles se pre´sentent les faits de syntaxe nous imposent donc l’usage au moins partiel de la me´thode introspective. En effet, l’activite´ du sujet parlant sur le plan structural ne peut s’analyser que par un retour introspectif sur elle-meˆme. C’est pourquoi l’introspection est destine´e a` devenir une des pie`ces maıˆtresses de la me´thode d’investigation des faits de syntaxe. (Tesnie`re 1959: 37)
Aus Tesnie`res Thesen zur „me´thode introspective“ (Tesnie`re 1959: 38) kann man Folgendes destillieren (s. Abb. 9.3). So hat Tesnie`re es verabsäumt, der Syntax eine operationale Basis zu schaffen, was immer wieder moniert wird (Garey 1954, 513; Benveniste 1960, 22). Nichtsdestotrotz hat Tesnie`res Vorgehensweise auch eine empirische Basis. So waren es nicht nur seine eigenen Sprachkenntnisse und Hörbelege und literarische Belege, er entwickelte Questionnai-
Dies nennt man/nennen wir so und so (C’est que B a tre`s heureusement appele´…). Man muss unterscheiden …, nach den Charakteristika _ _ _. Dies stellt sich im Stemma so dar … In den X-Sprachen ist es so und so. (Dans les langues du …) In den Y-Sprachen ist es so und so. (Dans les langues du type ___ ) Genauso in den …-Sprachen. (De meˆme en …) Das X-ische kennt diese Erscheinung nicht. (A la diffe´rence de Y…/ le X au contraire …) Das Z-ische kennt sogar …
Abb. 9.3.
1. 2. 3. 5. 6. 7. 8. 9.
Die introspektive Methode basiert auf Intuition. Die introspektive Methode rekurriert auf innerer Erfahrung. Die introspektive Methode ist experimentell und insoweit objektiv. Die introspektive Methode ist nicht angeboren. Man muss die introspektive Methode lernen. Die Anwendung der introspektiven Methode ist schwierig. Die introspektive Methode kann nur der kompetente Sprecher anwenden. Sie muss methodisch gezügelt werden, weil der Durchschnittssprecher falsche Intuitionen haben kann.
Abb. 9.4.
9. Lucien Tesnie`re. Sein Leben
res für seine sprachgeographischen Arbeiten und er arbeitete mit statistischen Methoden über die Sprachen Europas (mehr als 200 Seiten), was ihm nach eigenem Bekunden den Ruf eines Sprachstatistikers einbrachte.
3.
Rezeption
Die Tesnie`re-Rezeption wird allgemein als wissenschaftliches Trauerspiel gesehen. Er sei ignoriert worden oder gar marginalisiert (Madray-Lesigne/Richard-Zappella 1995, 6). Sogar von einer Art Verschwörung wird gesprochen (Corte`s/Sainte-Martine 1995, 51). Dieser Art Verschwörung hat es aber sicherlich nicht bedurft. Denn einmal war Tesnie`re in seiner Zeit in Montpellier eben in der Provinz und er lebte entsprechend zurückgezogen „en solitude“ und „isole´“. Und dann war sein Lebenswerk ja gar nicht erschienen. Die Publikationen zu den slawischen Sprachen scheinen durchaus anerkannt worden zu sein. Die Rezensionen zur Grammaire russe sind durchweg positiv (Baum 1976, 14 A4; Werner 1993, 9). Hervorgehoben wird wiederholt die Originalität des Syntaxteils und der pädagogische Impetus. Auch von der glücklichen Allianz von Theorie und pädagogischer Praxis ist die Rede. („Voici, pour la premie`re fois, un grammairien, double´ d’un linguiste, qui a le courage de ne pas sacrifier au culte des idoles: notre pe´dagogie linguistique progressera dans la mesure ou` il trouvera des imitateurs.“) Außerdem erlebte diese kleine Grammatik mehrere Auflagen. Tesnie`re wurden zahlreiche Ehrungen zuteil (1993, 406 Bericht), unter anderem erhielt er für seine the`se 1926 den Prix Volney der Acade´mie franc¸aise. Im übrigen sind die Publikationen darüber hinaus nicht gerade umfangreich oder an prominenter Stelle erschienen. Dies gilt selbst für die Esquisse, in der Tesnie`re seine Syntax verkürzt und durch die Kürze und schlechtes Layout nicht immer so gut verständlich darstellt. Auch die Probleme bei der Publikation der E´le´ments zeigen, dass das Opus weder als leseradäquat noch als zeitgemäß gesehen wurde. Solche Schwierigkeiten sind ja durchaus nicht einzigartig, insbesondere wenn man Umfang und Struktur des Werks bedenkt. So bleibt bis heute die Frage, ob man die E´le´ments de syntaxe structurale in allen Details rezipieren muss. Selbst einer wie Engel, der beklagt, dass kaum jemand sie vollständig lese und diesen gar streng das Mitsprache-
77 recht versagen will, konnte in seiner Übersetzung nicht umhin, die „überwältigende Beispielfülle“ zu reduzieren und „gelegentliche Abschweifungen, auch diachronische Exkurse“ zu eliminieren und „allzu ausführliche Passagen“ zu straffen (Engel 1980, 21). Und so hieß es schon 1967 in einer Rezension, sein Werk sei für heutige Linguisten nur noch von historischem Interesse (Arrive´ 1969, 40). Andere aber denken, es sei „too early and in the wrong place when his ideas could have no appeal against the current trends of the time“ (Guiraud 1971, 1). Tragisch: Zu früh und zu spät! So dürfte Worthington nicht ganz schief gelegen haben, als sie meinte, dieses Buch „invites unfair treatment“ (Worthington 1968, 303). Wissenschafthistoriker scheinen öfter im Geiste von Heldendichtung zu schreiben und sie identifizieren sich schon mal mit ihren Helden. Wenn sie mangelnde Rezeption beklagen, sprechen sie vielleicht auch auf dem leidvollen Hintergrund mangelnder oder als mangelhaft empfundener eigener Rezeption. Was ist denn der Maßstab für die Angemessenheit einer Rezeption? Es sollte wohl der Wert der Theorie sein. Und der erweist sich eben in der Rezeption und nur in der Rezeption. Sonst wird es sich um Wunschdenken und Idealisierung, vielleicht auch Heroisierung handeln. Eine andere Frage ist: Wie soll die Rezeption aussehen? Soll es um Übernahme und Nachfolge gehen? Oder um Adaptation? Oder um Diskussion und Argumentation? Nach meiner Auffassung sollte man die Rezeption zuerst einmal nehmen, wie sie ist. So stellt man fest: Tesnie`re wurde durchaus rezipiert. Schon die Esquisse wurde mehrfach an prominenter Stelle, nämlich in Language, in Word, in den Cahiers Saussure und anderswo rezensiert. Und von prominenten Autoren wie Garvin, Godel, Gougenheim (Baum 1976, 17 A17; Werner 1993, 10). Und weitgehend positiv. Nicht viel anders verhält es sich mit den E´le´ments de syntaxe structurale. Auch hier gab es bald prominente Rezensionen (Baum 1976, 18⫺22) und positive („un ouvrage courageux, destine´ a` faire e´poque“, Richer 1960, 67). Auch sie wurden immerhin schon recht bald nach ihrem Erscheinen im Jahr 1959 rezipiert und weiterentwickelt, wenn auch nicht zur Gänze, so doch in ihren bis heute fruchtbaren Teilen. Nur – wie französische Linguisten immer wieder betonen – „outre Rhin“, nämlich vor allem in der DDR und der BRD.
78 Hier gingen erst einmal Ideen ein in die Grammatiken von Brinkmann, Erben und die Duden-Grammatik. Und schon sehr früh erschien dann das erste Valenzwörterbuch von Helbig und Schenkel. Eine erste formal orientierte Anwendung war ganz im Zuge der Zeit Heringers Theorie der deutschen Syntax, die alle Komponenten der E´le´ments de syntaxe structurale aufnahm und auf das Deutsche in einem Regelsystem applizierte. Eine streng formalisierte Abhängigkeitsgrammatik, allerdings ohne nennenswerten Widerhall, bot Kunze 1976. (Zur Darstellung der frühen Rezeption: Baum 1976, Happ 1976, 313⫺346, Korhonen 1977, Engel 1980, 19⫺ 21.) Als Weiterentwicklungen sind auch die hybriden Grammatikmodelle von Hudson (Hudson 1976) und Mel’cˇuk (Mel’cˇuk 1988) zu erwähnen. Diese Situation hat sich quantitativ nicht verändert, soll es doch bis zum Jahr 1995 etwa 2400 Publikationen im deutschen Sprachraum gegeben haben, die Tesnie`reschen Gedanken verpflichtet sind. Außerdem gibt es seit 1980 eine verkürzte Übersetzung der E´le´ments (Engel 1980). In Frankreich war die Situation anders. Das pädagogische Engagement eines akademischen Wissenschaftlers war – und natürlich nicht nur in Frankreich – so ungewöhnlich, dass es kaum auf Gegenliebe, sondern eher auf Widerstand stieß. So konnte Fourquet Tesnie`re auch hier als den Befreier sehen, wie er ihn als Erlöser von der logisch orientierten, räsonnierenden Subjekt-Prädikat-Grammatik der Aristotelischen Tradition sah (Fourquet 1993). Tesnie`re selbst empfand, dass er seine Innovationen nicht so leicht durchsetzen konnte. In einem Brief schrieb er: L’universite´ est une dame respectable et c’est pourquoi je la respecte, mais elle est tre`s conservatrice et les ide´es neuves lui font toujours un peu peur. Elle craint e´videmment de se compromettre et n’en est que plus a` l’aise pour magnifier ensuite ceux qui ont re´ussi malgre´ elle. Elle en re´colte toute la gloire et ce n’est que justice (Brief vom 24. 12. 1936).
Die Tesnie`re-Rezeption versucht öfter, ihn zu einem ganz Großen zu stilisieren. Insbesondere wird der historisch wohl etwas schräge Vergleich mit Chomsky bemüht. Meist noch versehen mit Bemerkungen der Art, dass dessen Theorien sich in einer Krise befänden, die dem Tesnie`reschen Ansatz eine neue Chance böten. Diese Art sportliche Betrachtung verkennt, dass für die Linguistik derartige direkte Konkurrenzsituationen wohl kaum ty-
II. Lucien Tesnie`re und seine Zeit
pisch sind. Die verschiedenen Ansätze mögen durchaus koexistieren und ihre verschiedenen Anwendungsfelder finden. So scheint die Tesnie`resche Valenztheorie in der praktischen Sprachlehre ihren Weg gemacht zu haben, während der dependenzielle Ansatz in der Computerlinguistik sich fruchtbar mit anderen verbunden hat. Sicherlich steckt hinter dem Chomsky-Vergleich ein enttäuschter Anspruch und auch ein Körnchen Wahrheit. Die E´le´ments de syntaxe structurale sind mit großer Verspätung erschienen und dem europäischen Strukturalismus verpflichtet. Bei ihrer Konzeption war eine derartige Syntax in dieser Ausführlichkeit und Reife eine linguistische Sensation. Aber Tesnie`re konnte sie nicht promovieren. Bei ihrem Erscheinen war die Entwicklung weitergegangen und vor allem war ein formaler und generativer Anspruch entstanden, der den Zeitgeist bestimmte. Dieser Anspruch wäre durchaus dependenzgrammatisch einzulösen, wie wir heute wissen. Allein Tesnie`re konnte ihn nicht erfüllen, nicht mehr erfüllen.
4.
Literatur in Auswahl
Arnavielle, Teddy (1995): Lucien Tesnie`re a` Montpellier. Montpellier. Arrive´, Michel (1970): Lucien Tesnie`re. La grammaire, ed. by J. Cl. Chevalier. Paris, 183⫺98. Arrive´, Michel (1969): Les Ele´ments de syntaxe structurale de Lucien Tesnie`re. In: Langue Franc¸aise 1, 36⫺40. Arrive´, Michel (1995): Tesnie`re lecteur de Damourette et Pichon et de Beneviste. In: Madray-Lesigne Franc¸oise, Richard-Zapella, Jeanine (Hgg.): Lucien Tesnie`re aujourd’hui. Louvin/Paris, 53⫺60. Baum, Richard (1976): Dependenzgrammatik. Tesnie`res Modell der Sprachbeschreibung in wissenschaftsgeschichtlicher und kritischer Sicht (⫽Beihefte zur Zeitschrift für romanische Philologie 151). Tübingen. Benveniste, Emile (1960): comple-rendu de Tesnie`re, Ele´ments de syntaxe structurale. In: Bulletin de la Socie´te´ de Linguistique de Paris 56, 20⫺23. Bourciez, Edouard (1951): Tesnie`re, Esquisse d’une syntaxe structurale. In: Revue des Langues Romanes 71, 390. Court, Georges (1971): La grammaire nouvelle a` l’e´cole. Paris. Culioli, Antoine/Fuchs, Catherine/Peˆcheux, Michel (1970): Conside´rations the´oriques a` propos du traitement formel du langage. Tentative d’application au proble`me des de´terminants (⫽ Documents de Linguistique Quantititive 7). Paris.
9. Lucien Tesnie`re. Sein Leben Daumas, Franc¸ois (1952): L’œuvre linguistique de Lucien Tesnie`re. In: Orbis 1, 557⫺64. de Saussure, Ferdinand (1984): Cours de linguistique ge´ne´rale. Paris. Engel, Ulrich (1980): Übersetzung der Ele´ments de syntaxe structurale. Stuttgart. Fourquet, Jean (1959): Pre´face zu: Lucien Tesnie`re: Ele´ments de syntaxe structurale. Paris. Fourquet, Jean (1993): Tesnie`re le libe´rateur. Garey, Howard B. (1954): Tesnie`re, Esquisse d’une syntaxe structurale. In: Language 30, 512⫺13. Garrett Worthington, M. (1968): A Precursor of the Transformational Approach to Descriptive Syntax: Lucien Tesnie`re. In: Romance Philology 21, 303⫺17. Garvin, Paul L. (1955): Tesnie`re, Esquisse d’une syntaxe structurale. In: Word 11, 271⫺72. Godel, Rainer (1954): Tesnie`re, Esquisse d’une syntaxe structurale. In: Cahiers Ferdinand de Saussure 12, 79⫺81. Gougenheim, Georges (1954): Tesnie`re, Esquisse d’une syntaxe structurale. In: Le franc¸ais moderne 22, 150⫺53. Gougenheim, Georges (1960): Tesnie`re, Ele´ments de syntaxe structurale. In: Le franc¸ais moderne 28, 142⫺47. Guiraud, Pierre (1971): Lucien Tesnie`re and Transformational Grammar. In: Language Sciences 15, 1⫺6. Happ, Heinz (1976): Grundfragen einer DependenzGrammatik des Lateinischen. Göttingen. Havra´nek, Bohuslav/Keller, A./Isacˇenko, Aleksandr (1936): Tesnie`re, Petite grammaire russe. In: Slovoa-Slovesnost 2. 127b⫺128a. Heringer, Hans Jürgen (1973): Theorie der deutschen Syntax (⫽ Linguistische Reihe 1). München (1. Aufl. 1971). Heringer, Hans Jürgen (1993): Dependency Syntax-Basic Ideas and the Classical Model. In: Syntax. Ein internationales Handbuch zeitgenössischer Forschung. Band 1, Kapitel 12. Berlin/New York, 298⫺316. Hudson, Richard A. (1976): Arguments for a Nontransformational Grammar. Chicago/London. Jakobson, Roman (1972): Morris Halle, Noam Chomsky: Hypothe`ses, Trois entretiens et trois e´tudes sur la linguistique et la poe´tique, ed. by Seghers/Laffont, 43. Jopson, Norman B. (1935/36): Tesnie`re, Petite grammaire russe. In: Slavonic Review 14, 728. Korhonen, Jarmo (1977): Theorie und Praxis der Beschreibung der deutschen Gegenwartssprache. Dokumentation, kritische Besprechung, Vorschläge. Bern.
79 Legras, Jean (1935): Tesnie`re, Petite grammaire russe. In: Moderna Spra˚k 1, 313⫺19. Madray-Lesigne, Franc¸oise/Richard-Zappella, Jeannine (1995): Lucien Tesnie`re aujourd’hui. Paris. Mel’cˇuk, Igor A. (1988): Dependency Syntax: Theory and Praxis. New York. Mikusˇ, Radivoj-F. (1960): Tesnie`re, Ele´ments de syntaxe structurale. In: Voprosy Jazykosnanija 9, 125⫺40. Mikusˇ, Radivoj-F. (1962): Rezension zu Tesnie`re, Lucien: E´le´ments de syntaxe structurale, Paris 1959. In: Voprosy jazykoznanija 11, 660. Miltner, Vladimir (1962): Tesnie`re, Ele´ments de syntaxe structurale. In: Archiv Orienta´lnı´ 30, 660⫺ 62. Muller, Charles (1993): Lucien Tesnie`re et la Faculte´ des Lettres de Strasbourg (1924⫺1937). In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.): Lucien Tesnie`re ⫺ Syntaxe structurale et ope´rations mentales (⫽ Linguistische Arbeiten 348). Tübingen, 15⫺25. Pottier, Bernard (1956): Tesnie`re, Esquisse d’une syntaxe structurale. In: Revista Portuguesa de Filologia 7, 441⫺44. Richer, E´mile (1960): Tesnie`re, Ele´ments de syntaxe structurale. In: Journal of the Canadian Linguistic Association 6, 67⫺69. Schwarze, Christoph (1965): Tesnie`re, Ele´ments de syntaxe structurale. In: Archiv für das Studium der neueren Sprachen und Literaturen 201, 274⫺75. Tesnie`re, Lucien (1959): E´le´ments de syntaxe structurale. Deuxie`me e´dition. Paris (2. Aufl. 1969). Tesnie`re, Marie-He´le`ne (1996): Le fonds Lucien Tesnie`re a` la Bibliothe`que nationale de France. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.): Lucien Tesnie`re ⫺ Syntaxe structurale et ope´rations mentales (⫽ Linguistische Arbeiten 348). Tübingen, 7⫺13. Unbegaun, Boris (1935): Tesnie`re, Petite grammaire russe. In: Bulletin de la Socie´te´ Linguistique de Paris 36/2, 107⫺08. Werner, Edeltraud (1993): Translationstheorie und Dependenzmodell. Kritik und Reinterpretation des Ansatzes von Lucien Tesnie`re. Tübingen. Wissemann, Heinz (1961): Tesnie`re, Ele´ments de syntaxe structurale. In: Indogermanische Forschungen 66, 176⫺185. Worthington, M. G. (1968): A Precursor of the Transformational Approach to Descriptive Syntax: Lucien Tesnie`re. In: Romance Philology 21, 301⫺317.
Hans Jürgen Heringer, Augsburg (Deutschland)
80
II. Lucien Tesnie`re und seine Zeit
10. Das Valenz- und Dependenzkonzept bei Lucien Tesnie`re 1. 2. 3. 4. 5. 6.
Einleitung Dependenz Aktanten, Zirkumstanten und Valenz Diathesen und quantitativer Valenzwechsel Schlusswort Literatur in Auswahl
1.
Einleitung
Lucien Tesnie`re gilt als der hauptsächliche Initiator moderner syntaktischer Dependenzund lexikalischer Valenzkonzeptionen, auch wenn die Forschungsgeschichte etwas weniger einsträngig verlaufen sein mag als manchmal angenommen wird (vgl. Engelen 1975, 27⫺42, Baum 1976, 27⫺42, Askedal 1991, 1996). Tesnie`res Hauptwerk in diesen Bereichen wie überhaupt sind die erst postum herausgegebenen Ele´ments de syntaxe structurale (1959, 21966, fortan: Ele´ments), die eine groß angelegte Gesamtschau mit Beispielmaterial aus vielen (etwa 60) Sprachen bietet. Grundlegende Dependenz- und Valenzgesichtspunkte sind aber schon bei Tesnie`re (1934a, 1934b) vorhanden (zu Tesnie`re 1934b vgl. Swiggers 1994, insbesondere 218), und die Hauptzüge der Theorie werden anhand französischer Beispiele in straffer Form in Tesnie`re (1953) dargelegt. Die folgende Darstellung basiert vorrangig auf den Ele´ments (21966). In der frühen Tesnie`re-Rezeption vor allem durch die deutsche Linguistik wurden Dependenz und Valenz in enger Verknüpfung gesehen und vielfach zur grammatischen Gesamtkonzeption verschmolzen (vgl. z. B. die Diskussion der derzeitigen Forschung bei Helbig/Schenkel 1969, 9⫺11; 20⫺25). In der jüngsten Tesnie`re-Rezeption begegnet ab und zu auch der umgekehrte Gesichtspunkt, dass die Dependenzkonzeption bei Tesnie`re aus dem Valenz-Begriff entstanden sei (Feuillet 1995, 175). Die Darbietung und Diskussion von Dependenz und Valenz im Werk von Tesnie`re lässt aber eine theoretische Unabhängigkeit der beiden Konzepte voneinander erkennen (Garde 1994). Zum einen werden bei Tesnie`re das syntaktische Dependenzprinzip und das lexikalische Valenzprinzip nicht in direkter Verbindung miteinander, sondern in getrennten Teilen der Ele´ments erörtert. Die syntaktisch grundlegende Dependenzproblematik kommt in „Livre A: Pre´ambule“, die Valenz- und Aktantenproblematik aber in
„Livre B: Structure de la phrase simple“ und in „Livre D: Valence“ des ersten Teils („premie`re partie“) zur Sprache. Zum anderen sind sowohl das Dependenz- wie auch das Valenzkonzept bei Tesnie`re in den Ele´ments in eine syntaxtheoretische Gesamtkonzeption eingebettet, die die gesonderten Aspekte in (1) umfasst: (1) I. Lexikalisch-kategorieller Aspekt: vier hauptsächliche Lexemklassen, die zugleich syntaktische Basiskategorien sind: Verb, Nomen, Adjektiv, Adverb (bei Tesnie`re nach den entsprechenden Wortartmorphemen des Esperanto durch jeweils I, O, A und E gekennzeichnet), und gewisse zusätzliche Klassen von Auxiliarwörtern (Ele´ments, 53 ff.; 63 ff.; 80 ff.); II. lexikalisch-syntaktischer Aspekt: Aktanten, Valenz und damit verbunden Diathesenoppositionen (Ele´ments, 102 ff.; 238 ff.); III. relationssyntaktischer Aspekt: phrasenkonstituierende Dependenzbeziehungen (Konnexion) (Ele´ments, 11 ff.); IV. Aspekt der kategoriell-syntagmatischen Abwandelbarkeit: Translation (Überführung) einer lexikalischen Basiskategorie in eine andere (Ele´ments, 361 ff.); V. Aspekt der Koordinationsbeziehungen (Junktion) (Ele´ments, 323 ff.); VI. Aspekt der Koreferentialität: intraund intersententiale anaphorische Beziehungen innerhalb von (Abfolgen von) Dependenzstrukturen (Ele´ments, 85 ff.). Davon gelten Konnexion (III), Translation (IV) und Junktion (VI) als die drei „Säulen“, auf denen das Dependenzsystem Tesnie`res hauptsächlich ruht (Koch/Krefeld 1991, 5). Die größte Resonanz haben in der späteren Forschung Valenz (II) und Dependenz/Konnexion (III) gefunden, während Tesnie`res Junktionsbegriff insgesamt weniger Forschung angeregt hat (vgl. aber Raible 1992). (Zusammenfassend zur Tesnie`re-Rezeption vgl. Helbig 1996.) Die von Tesnie`re vorausgesetzte theoretische Trennung von Dependenz (III) und Valenz (II) wird im übrigen auch durch solche jüngeren grammatiktheoretischen Konzeptionen bestätigt, die auf Dependenz ohne Bezugnahme auf Valenz basieren (Hays 1964, Robinson 1970) oder das Valenzkonzept mit
81
10. Das Valenz- und Dependenzkonzept bei Lucien Tesnie`re
einer nichtdependenziellen Syntax verbinden (z. B. Konstituentenstrukturgrammatik in Duden 1999, 676⫺706, Kategorialgrammatik bei Zifonun et al. 1997, 1298⫺1326). Im Rahmen der Tesnie`reschen Gesamtkonzeption gilt, dass die Dependenzsyntax eher ein Modell für die Erfassung lexikalischer Valenzgegebenheiten abgibt als umgekehrt.
2.
Dependenz
Aus forschungsgeschichtlicher Sicht ist zunächst darauf hinzuweisen, dass Tesnie`re sich schon früh von der für die deutsche junggrammatische Tradition kennzeichnende Einbindung der Syntax in die Morphologie losgesagt und das Konzept einer autonomen Syntax entwickelt hatte: „[…] il est parfaitement possible de constituer une syntaxe sur des donne´es purement syntaxiques et en dehors de toute morphologie.“ (Tesnie`re 1934b, 229, vgl. dazu Swiggers 1994). Vgl. auch: „La syntaxe est bien distincte de la morphologie. Elle en est inde´pendante. Elle a sa loi propre: elle est autonome.“ (Ele´ments, 34). (Zur Autonomie der Syntax bei Tesnie`re vgl. Helbig 1996, 43; 45 f.) 2.1. Konnexionen Der axiomatische Grundbegriff der Dependenzsyntax Tesnie`res ist die als unidirektionale Rektionsbeziehung zu verstehende „Konnexion“: „[Kap. 2] 1. ⫺ Les connexions structurales e´tablissent entre les mots des rapports de de´pendance. Chaque connexion unit en principe un terme supe´rieur a` un terme infe´rieur. 2. ⫺ Le terme supe´rieur rec¸oit le nom de re´gissant. Le terme infe´rieur rec¸oit le nom de subordonne´.“ (Ele´ments, 13)
Zur Terminologie „re´gissant“ und „subordonne´“ sei bemerkt, dass dabei ein „syntaktifizierter“ Rektions-Begriff vorausgesetzt wird, der über die traditionelle morphologische Domäne der Kasusrektion hinausgeht und grundsätzlich nicht daran gebunden ist; den traditionellen Rektionsbegriff reflektiert dafür noch Tesnie`res Valenz-Konzeption (siehe Kap. 3). Hervorzuheben ist vor allem die grundlegende Bedeutung der Konnexion als eigenständiges drittes Element (neben Regens und Dependens) bei der Konstituierung syntaktischer Strukturen (Ele´ments, 11 f.). Die hier angenommene basale Dreielementigkeit syntaktischer Dependenzbeziehungen wird durch Tesnie`res erste „Atom-Metapher“
aus dem Bereich der Chemie veranschaulicht, derzufolge gerade die (i) Verbindung zwischen (ii) Natrium und (iii) Chlor einen ganz neuen Stoff (Kochsalz) ergibt, der nicht einfach die Addition der Eigenschaften von Natrium und Chlor darstellt (Ele´ments, 12). Die Konnexionsbeziehung ist rekursiv in dem Sinne, dass von einem Dependens ein weiteres Dependens abhängig sein kann. Daraus ergibt sich die Möglichkeit einer Hierarchie der Konnexionen mit Dependentien unterschiedlichen Grades (Ele´ments, 13 f.). Vgl. z. B. (2): (2)
chante
chanson
ami
mon
viel
cette
jolie
Stemma 3 Dementsprechend kann es zu einem Regens sowohl direkte als auch indirekte Dependentien geben. Auf andere formale Eigenschaften der Konnexionsbeziehung kommen wir in 2.2. zurück. 2.2. Diagrammatische Strukturrepräsentation Die Dependenzkonzeption von Tesnie`re ist in dem Sinne eine semiotisch reflektierte, dass zwischen abstrakten, „strukturalen“ Konnexionen (Ele´ments, 16 f.), ihrer diagrammatischen, „visuellen“ Repräsentation durch Strukturstemmata (Ele´ments, 15 f.) und ihrer gesprochenen oder geschriebenen Manifestation (Ele´ments, 15 f.) bewusst und deutlich unterschieden wird. Die Überlegungen zum Verhältnis von Struktur, Notation und Manifestation im Kommunikationsakt geben Anlass zu Reflexionen über Dimensionalität in der Sprache und in Sprachbeschreibungen, denen zufolge die strukturale Ordnung ⫺ als kognitives Datum ⫺ „multidimensional“, ihre graphische Wiedergabe in der Gestalt eines Stemmas zweidimensional, und ihre Realisierung in der „parole“ als gesprochene oder geschriebene Kette eindimensional, d. h. linear, sind (Ele´ments, 19⫺22). Die stemmatische Zweidimensionalität wird konkret auf materielle Beschränkungen des Mediums bedrucktes Blatt (o. ä.) zurückgeführt. Der Terminus „Vertikalität“ (Ele´ments, 14) ist ausschließlich auf die diagrammatische Reprä-
82 sentation als Stemma zu beziehen. Die visuelle Gerichtetheit von oben nach unten in der stemmatischen Konnexionsrepräsentation (sowie als typographisches Normalgestaltungsprinzip überhaupt) lässt sich freilich mit der entsprechenden Asymmetrie der menschlichen Apperzeption in Verbindung bringen (Lyons 1977, 690 f., Askedal 1996, 88 f.). Zwischen den stemmatischen Strukturrepräsentationen Tesnie`res und den zugrunde liegenden kognitiv-sprachlichen Strukturen wird man Ikonizitätsbeziehungen annehmen dürfen (Madray-Lesigne/Richard-Zapella 1995, 10, Samain 1995). Das Verhältnis zwischen dem regierenden Term und dem regierten Term bzw. den regierten Termen in Konnexionsbeziehungen ist grundsätzlich asymmetrisch. Zu einem Dependens kann es immer nur ein Regens, zu einem Regens aber zwei oder mehr Dependentien geben (Ele´ments, 14; 16), was Eindeutigkeit der Rektions-, d. h. strukturalen sowie auch notationell-stemmatischen Überordnungs-/Unterordnungsbeziehung sichert (wie übrigens in den meisten modernen Konstituentenstrukturkonzeptionen auch). Durch das Vorkommen von zwei oder mehr Dependentien zu einem Regens kommt die „multiple Konnexion“ zustande (Ele´ments, 14; vgl. z. B. (2)). Die Multidimensionalität der strukturalen Ordnung gegenüber der Zweidimensionalität ihrer graphischen Repräsentation durch Stemmata wird durch einen Hinweis auf das Vorhandensein multipler Konnexionen begründet (Ele´ments, 16). Dabei stellt sich freilich die terminologische Frage, ob in Verbindung mit der zugrunde liegenden strukturalen Ordnung überhaupt von Dimensionalität gesprochen werden sollte; auf dieser Ebene erscheint es angemessener, „Adimensionalität“ anzunehmen. Anders als in modernen Konstituenten(sowie auch einigen Dependenz-) strukturkonzeptionen liegen Tesnie`res Stemmata keine Formationsregeln zugrunde; solche Regeln fanden erst mit Chomsky (1957) in die Linguistik Eingang, und Tesnie`re waren die Stemmata wohl vor allem als Mittel der syntaktischen Analyse wichtig (Baum 1976, 52). Jedoch weisen die Stemmata eine ganze Reihe formaler Eigenschaften auf, die bei Heringer (1970b, 44⫺46, siehe auch Happ 1976, 122 f.) explizit ausformuliert sind und von denen (a) vertikale Gerichtetheit von oben nach unten und (b) Asymmetrie der Rektionsbeziehung schon genannt wurden. Es sind noch folgende allgemeine Prinzipien bzw. Restrik-
II. Lucien Tesnie`re und seine Zeit
tionen dieser Art festzustellen: (c) Verbot gegen Schleifenbildungen (d. h. gegen doppelte Rektionsbeziehung zwischen einem untergeordneten Knoten und zwei übergeordneten Knoten), (d) Forderung nach einem einzigen maximal übergeordneten „Zentralknoten“, (e) Kontiguität der Knotenbildung (d. h. Verbot gegen isolierte Knoten). Mit Konstituentenstrukturdiagrammen haben Tesnie`res Dependenzstemmata gemeinsam, dass sie „rooted acyclic non-converging graphs“ (Fillmore 1995, 94) sind. Bei Tesnie`re fehlt indessen die in Verbindung mit Konstituentenstrukturdiagrammen übliche Restriktion, dass Kanten sich nicht kreuzen dürfen (ohne Rekurs auf eine abstraktere Stufe mit sich nicht kreuzenden Kanten). Stemmata mit sich kreuzenden Kanten ergeben sich bei Tesnie`re in Verbindung mit der Junktion (Koordination). Vgl. z. B. (3): (3)
tirent
Raton
et
et
croquent
Bertrand
les marrons
Stemma 268 Die Repräsentation lexikalischer bzw. kategorieller Abhängigkeiten erfolgt in jeweils „reellen“ Strukturstemmata mit lexikalischen Elementen und „virtuellen“ Stemmata mit Kategoriensymbolen für die vier von Tesnie`re angenommenen hauptsächlichen Wortklassen (Ele´ments, 64; vgl. auch Heringer 1970b, 47). Vgl. z. B. (4a, b): (4a)
chante
cousine
votre
délicieusement
jeune
Stemma 43 Durch den Verzicht auf die notationelle Vereinigung des lexikalischen und des kategoriellen Aspekts von Dependenzstrukturen im selben Stemma unterscheidet sich Tesnie`re von einer Reihe späterer Dependenzsyntaktiker, die ⫺ vermutlich unter dem Einfluss generativer Konstituentenstrukturdiagramme ⫺
10. Das Valenz- und Dependenzkonzept bei Lucien Tesnie`re
(4b)
I
O
A
E
A
Stemma 44
grundsätzlich bestrebt sind, beide Aspekte im Stemma zum Ausdruck kommen zu lassen (vgl. ⫺ in ansonsten direkter Anlehnung an Tesnie`re ⫺ Lambertz 1982, 48 f. et passim und des weiteren z. B. Heringer 1970a, Engel 1994: 90; 157⫺159, Matthews 1981: 79⫺90). (Vgl. jedoch 2.4. zur Kategorienkennzeichnung in Translationsstemmata.) In der frühen Darstellung von Tesnie`re (1934b, 224) wird zur diagrammatischen Veranschaulichung von Dependenzbeziehungen ein Stemma anderer Art verwendet, das sich an eine im späteren Werk Tesnie`res nicht mehr bemühte „Sonnen-Metapher“ (Tesnie`re 1934b, 223; siehe dazu 3.1.) anlehnt. Hier steht das (großgeschriebene) finite Verb mitten im Stemma, und Dependentien befinden sich teils unterhalb, teils aber auch oberhalb des jeweiligen Regens, was den Gebrauch von nach oben bzw. nach unten gerichteten vertikalen (bzw. schräggestellten) sowie nach links bzw. nach rechts gerichteten horizontalen Pfeilen (A B I J) zur Angabe der Abhängigkeitsbeziehung erforderlich macht. Die der Mittelstellung der Sonne im Sonnensystem analoge diagrammatische Mittelstellung des Verbs im Stemma von 1934 entspricht der Vorstellung von der strukturalen (letzten Endes auch metaphorisch zu verstehenden) „Zentralität“ des Verbs. Während in den Ele´ments noch vom Verb als „Zentralknoten“ die Rede ist (vgl. 2.4.), wird das entsprechende Zentralstellungs-Stemma von 1934 nicht wiederholt, sondern es werden nur die bekannten, auch zur Konnexionshierarchie in (7) (2.3.) in ikonischem Abbildverhältnis stehenden Stemmata verwendet. Damit verbunden ist die weitere graphische Vereinfachung der vertikalen und horizontalen Pfeile von 1934 zu einfachen (bzw. schräggestellten) vertikalen Kanten in den Stemmata der Ele´ments. (Vgl. dazu auch Swiggers 1994, 218.)
83
2.3. Lexikalische Kategorien und Konnexionshierarchisierung Die Unterscheidung reeller (a) und virtueller (b) Stemmata, insbesondere die diagrammatische Möglichkeit reeller Stemmata ohne Angabe kategorieller Information, sollte nicht darüber hinwegtäuschen, dass Tesnie`res Dependenztheorie „primär kategorial angelegt“ (Koch/Krefeld 1991, 9) ist und auf semantisch-lexikalischer Grundlage steht. Wie in (1) schon erwähnt, legt Tesnie`re seiner Syntaxbeschreibung einen Bestand an vier Hauptwortarten zugrunde, die darüber hinaus in einem bestimmten semantischen Verhältnis zueinander stehen: dies sind Verb (I), Nomen (O), Adjektiv (A), Adverb (E) (Ele´ments, 64). Die vier Hauptwortarten verteilen sich auf zwei semantische Paarigkeitsbeziehungen: Substantive bezeichnen konkrete Substanzen, Adjektive darauf beziehbare abstrakte Eigenschaften, Verben konkrete Prozesse und die Adverbien schließlich auf Verben beziehbare abstrakte Eigenschaften (Ele´ments, 63, vgl. dazu schon Tesnie`re 1934a, 147, und des weiteren Baum 1976, 75⫺81, Gre´ciano 1977). Vgl. etwa (5): (5) konkret: abstrakt: Sub(O) ⫽ Substanz I Adjektiv (A) stantiv Verb (I) ⫽ Prozess I Adverb (E) Der adjektiv- und der adverbbezogene Gebrauch von Adverbien, der in diese Gegenüberstellung „konkreter“ und „abstrakter“ lexikalischer Kategorien nicht so gut hineinpasst, kommen später noch hinzu (Ele´ments, 181; 186 f.). Die Charakterisierungen in (5) basieren offensichtlich auf traditionellen Gesamtbedeutungsvorstellungen, sind aber auch im Rahmen semantischer Prototypizitätsannahmen interpretierbar (vgl. Langacker 1995, 19). Die Beschränkung auf vier Hauptwortarten hat wichtige Konsequenzen für die gesamte Strukturanalyse. Aus lexikalisch-semantischer Perspektive gelten die vier Hauptwortarten als „mots pleins“, d. h. „volle“ bzw. „vollsemantische“ Wörter, während die restlichen, nicht zu den Substantiven, Verben, Adjektiven und Adverbien gehörenden Wörter „mots vides“, d. h. „leere“ (bzw. „nicht vollsemantische“) Wörter genannt werden (Ele´ments, 53⫺55, vgl. auch Tesnie`re 1939, 160). Sog. „leere“ Wörter sind u. a. Präpositionen, (nebenordnende)
84
II. Lucien Tesnie`re und seine Zeit
Konjunktionen und (unterordnende) Subjunktionen, d. h. Wörter, die u. U. durchaus eine voll erkennbare Eigenbedeutung besitzen, die aber vielfach auch rein grammatische Verknüpfungswörter bzw. ⫺ wegen weitgehender Grammatikalisierung ⫺ im Verhältnis zur Ausgangsbedeutung semantisch verblasst oder neutralisert sind (vgl. Baum 1976, 86⫺ 92, Langacker 1995, 20). Eine Mittelstellung zwischen „vollen“ und „leeren“ Wörtern nehmen die Anaphern ein, die erst durch die textliche Umgebung ihre Bedeutung erhalten (Ele´ments, 85⫺89). Für die Anaphern ist darüber hinaus kennzeichnend, dass sie in zweierlei Konnexionsbeziehungen stehen: neben der dependenziell-syntaktischen auch in einer semantischen, die nicht mit der syntaktischen Konnexion einhergeht. Vgl. (6): (6)
aime
Alfred
père
son
Stemma 66 Aus syntaktisch-struktureller Perspektive entspricht der semantischen Unterscheidung zwischen „vollen“ und „leeren“ Wörtern die zwischen „konstitutiven“ und „subsidiären“ Wörtern (Ele´ments, 55⫺58). Die „subsidiären“, „leeren“ Wörter haben in den Dependenzstrukturen lediglich „Hilfs“funktionen unterschiedlicher Art, und ihr Vorhandensein setzt ein „volles“ konstitutives Wort voraus. Von ihrer strukturellen bzw. kategorialen Funktion her verteilen sich die subsidiären Wörter auf die drei Haupttypen der „Junktive“ (Konjunktionen), der „Translative“ (verschiedene Kategorienüberführungsmorpheme: Subjunktionen, Präpositionen, Flexions- und Ableitungsmorpheme) und der „Indizes“ (Artikel, Personalendungen und entsprechende agglutinierende Personalpronomina) (Ele´ments, 80⫺85, 395⫺397; davon sind Junktive und Translative schon bei Tesnie`re 1934a, 156⫺166 vorhanden). Nur Ele-
mente aus den Klassen I, O, A, E sind konstitutiv in dem Sinne, dass sie als regierendes bzw. regiertes Element an Konnexionsbeziehungen in Dependenzstrukturen direkt teilnehmen können (und demnach „knoten-“ bzw. „nukleus“bildend sind; vgl. schon Tesnie`re 1934b, 226 und weiter unten). Die semantischen Hauptkategorien sind somit im System von Tesnie`re zugleich auch strukturelle, dependenzielle Basiskategorien; Tesnie`re gebraucht selbst den Ausdruck „phe´nome`ne de base“ mit Bezug auf „le simple agencement [ohne Junktion oder Translation] d’un ou plusieurs nœuds […] dans la structure de la phrase“ (Ele´ments, 101; vgl. Baum 1976, 100). Das Dependenzsystem ist durch zwei Charakteristika gekennzeichnet, die eine bestimmte Konnexionshierarchisierung implizieren. Zum einen ist mit den Hauptwortarten bzw. Basiskategorien in (5) insofern eine strukturelle Hierarchisierung verbunden, als die „abstrakten“ Kategorien A und E normalerweise „subordonne´s“ sind, die als „re´gissant“ ein O bzw. I voraussetzen. Die Position von I als maximal übergeordneter bzw. regierender Kategorie, derzufolge eine normale, ein Verb enthaltende Satzstruktur insgesamt als ein von einem (lexikalischen) Verb maximal regiertes Gebilde (Ele´ments, 15, Tesnie`re 1953, 4) erscheint, ist dadurch zu begründen, dass ein I sich mit (mehreren) O verbinden lässt, während I im Rahmen der Konnexionshierarchisierung nicht von O regiert werden kann. Daraus ergibt sich das in (7) vorgestellte lexikalisch-kategorielle Gesamtprinzip für konnexionelle Dependenzstrukturgestaltung (leicht geändert nach Baum 1976, 69 und Gre´ciano 1977, 70, vgl. auch Baum 1976, 63 und Lambertz 1991, 53 f., 1995, 221): (7)
I O
E
A
E
E E Die in 2.1. und 2.2. schon angeführten Stemmata stehen mit ihrer Spitzenstellung des maximal regierenden Verbknotens in einem ikonischen Abbildungsverhältnis zu der in (7) zusammengefassten hierarchischen Konnexionsordnung. Mit Mayerthaler (1994, 137) kann man in diesem Zusammenhang vom „Satz als Verbentfaltung“ sprechen. (In Ana-
85
10. Das Valenz- und Dependenzkonzept bei Lucien Tesnie`re
logie zur Begriffsbildung der generativen Syntax könnte auch vom Satz als „maximaler Verbprojektion“ gesprochen werden; vgl. Haegeman 1991, 81 f. et passim.) Aus der axiomatischen Beschränkung auf vier Hauptwortarten bzw. syntaktische Basiskategorien und der weiteren Beschränkung der Konnexionsbeziehungen auf diese vier Kategorien mit zusätzlicher Festlegung der jeweils möglichen Rektionsrichtung ergibt sich angesichts der in natürlichen Sprachen tatsächlich vorkommenden Dependenzbeziehungen ein systematischer Bedarf nach einem Mechanismus des Wortarten- bzw. Kategorienwechsels (der Pfeil zeigt im folgenden von dependenter auf regierende Kategorie): Wie sind beispielsweise Attributsätze angesichts der I I O-Konnexion, wie attributive Substantivglieder angesichts der O I A-Konnexion, wie adjektivabhängige Substantivglieder und Komplementsätze angesichts der O I A- und I I O I A-Konnexionen zu beschreiben? Solchen syntaktischen Zuordnungsproblemen kommt Tesnie`res Translations-, d. h. Kategorienüberführungstheorie entgegen (generell dazu Baum 1976, 106⫺114, Werner 1993); vgl. Gre´ciano (1977, 72) sowie Weber (1996, 260) über Translation als Mittel zur „Kompatibilisierung von Wörtern als Elementen der Satzstrukturbeschreibung“ und Corblin (1995, 231 f.): „[…] le recours a` la translation peut s’interpre´ter comme une tentative d’e´crire une syntaxe purement lexicale, c’est-a`-dire exprime´e entie`rement dans le langage des cate´gories lexicales.“ Die Translation bewirkenden Translative sind „leere“ bzw. „subsidiäre“ Wörter oder Elemente, die selbst nicht regieren (Corblin 1995, 229) und auch nicht unmittelbar regiert werden können. Sie sind lediglich Fügemittel, um eine unterzuordnende, aber der Konnexionshierarchie in (7) nicht genügende Kategorie in eine konnexionshierarchiekonforme Kategorie (bzw. einen entsprechenden Nukleus; vgl. 2.4.) umzuwandeln. Vgl. auch Lambertz (1995, 225): „[…] la translation est une ope´ration ne´cessaire pour e´tablir des rapports de de´pendance la` ou` les „mots pleins“ ne sont pas connectables a` cause du statut syntaxique inhe´rent a` leur signification lexicale.“ Auf diese Weise stellen die Translationen im System Tesnie`res ein grundlegend wichtiges Mittel der Kategorienrekursivität dar: „[ein durch Translation zustande gekommener komplexer Knoten] behält sein altes nach unten gerichtetes […]-Strukturierungs-
potential bei, gewinnt aber ein nach oben gerichtetes […]-Potential hinzu“ (Weber 1996, 250 f.). Demnach beinhaltet Translation keinen bloßen Kategorien-Wechsel, sondern vielmehr auch eine dependenzielle Kompatibilitäts-Anreicherung (Weber 1996, 250 f.; 260). Die Translationen sind zweierlei Art: zum einen solche ersten und zum anderen solche zweiten Grades (vgl. Ele´ments, 411 ff. bzw. 618 ff. sowie schon Tesnie`re 1934a, 158⫺166, 1934b, 228 und z. B. Baum 1976, 114 ff. bzw. 127 ff.). Durch die Translationen zweiten Grades wird die in der Konnexionshierarchie maximal übergeordnete Kategorie Verb (I) in eine hierarchisch niedrigere Kategorie übergeführt. In die weit umfassendere Gruppe der Translationen ersten Grades gehören die restlichen Fälle, bei denen eine in der Konnexionshierarchie niedrigere Kategorie den Ausgangspunkt bildet. Auf diese Weise werden u. a. Präpositionalattribute (8), Partizipialattribute (9), der adverbiale Zirkumstantengebrauch von Substantiven (10), Attributsätze (11) sowie auch Komplementsätze und Adverbialsätze allgemein als auf Translation, d. h. systematischem Kategorienwechsel beruhend beschrieben (Beispiele nach Ele´ments, 371; 379; 461; 561; vgl. auch z. B. Weber 1996, 251⫺255): (8)
le livre
A d’
Alfred
Stemma 290
(9)
un exemple
A frapp
ant
Stemma 283 Mit Lemare´chal (1996, 93) ist zusammenfassend festzustellen: „La syntaxe tesnie´rienne est d’abord une syntaxe des parties du dis-
86 (10)
II. Lucien Tesnie`re und seine Zeit habite
Alfred
E à
Montpellier
Stemma 316 (11)
l’homme
A qu-
écrit
-i
Stemma 346
cours: La fonction des diffe´rents mots est attache´e a` leur cate´gorie.“ (Dabei sollte freilich nicht verschwiegen werden, dass die Gewichtung von morphologischer Basiertheit gegenüber syntaktischem Funktionieren der Translationen für Tesnie`re selbst etwas problematisch gewesen sein mag, vgl. Weber 1996, 256 f.) 2.4. Knoten und Nukleus Es ist üblich, Konstituenz und Dependenz als komplementäre bzw. alternative syntaktische Strukturbeschreibungsprinzipien anzusehen (vgl. z. B. ⫺ in teilweiser Auseinandersetzung mit Tesnie`res Ele´ments ⫺ Baumgärtner 1970, Lambertz 1982, 9⫺12, 1995, 94). Als kennzeichnender Unterschied zwischen Konstituenten- und Dependenzstrukturdiagrammen gilt, dass die ersteren die syntaktische Konstruktionsbildung im Sinne von Teil-von-Beziehungen auf unterschiedlichen satzinternen Ebenen (d. h. mit „Zwischenkategorien“), nicht aber die Abhängigkeitsbeziehungen abzubilden vermögen, während umgekehrt Dependenzstrukturdiagramme die Abhängigkeitsbeziehungen, nicht aber die Konstruktionsbildung wiedergeben (unter der Voraussetzung, dass keine zusätzlichen Markierungsmittel eingeführt werden). Dass Tes-
nie`re trotz der theoretischen Dominanz dependenzbezogener Fragestellungen auf die Konstituentenproblematik durchaus aufmerksam war, zeigen u. a. seine Ausführungen über „Einschnitte“ („coupures“) in der gesprochenen Kette (Ele´ments, 25⫺27; vgl. Fillmore 1995, 93 f.): „[…] a` la hie´rarchie des connexions […] et des nœuds […] correspond une hie´rarchie des coupures.“ Die in diesem Zitat angedeutete „Knoten“- bzw. „Nukleus“-Theorie Tesnie`res kann als ein Vorschlag zur Erfassung der syntaktischen Konstituentenbildung aufgefasst werden. Formal hängt diese Komponente seiner Gesamttheorie mit der schon erwähnten Konnexionsrekursivität, d. h. der Möglichkeit sowohl direkter als auch indirekter Abhängigkeitsbeziehungen, wie auch mit der Beschränkung der Konnexionsbildung auf die vier Hauptwortarten I, O, A, E zusammen. Der Begriff des Knotens („nœud“, von Engel [Tesnie`re 1980] durch „Nexus“ übersetzt und von Lambertz 1982, 40 auch „Nodus“ genannt) scheint von Tesnie`re mit zweierlei Bedeutung verwendet zu werden (vgl. Engel 1996, 59). „Nœud“ wird zum einen zunächst als mehrelementiges Hypotagma definiert. Vgl.: „[Kap. 3] 2. ⫺ Tout re´gissant qui commande un ou plusieurs subordonne´s forme ce que nous appellerons un nœud. 3. ⫺ Nous de´finirons donc le nœud comme l’ensemble constitue´ par le re´gissant et par tous les subordonne´s qui, a` un degre´ quelconque, directement ou indirectement, de´pendent de lui, et qu’il noue ainsi en quelque sorte en un seul faisceau.“ (Ele´ments, 14)
Insbesondere aufgrund von § 3 dieses Zitats ergibt sich ein Verständnis von „nœud“ im Sinne von „Phrase“ der Konstituentenstrukturgrammatik. Aufgrund der Grundwortarten in (5) sind je nach dem regierenden Element die vier lexikalischen Knoten- bzw. Phrasentypen Verb-, Substantiv-, Adjektivund Adverbknoten bzw. Verb-, Substantiv-, Adjektiv- und Adverbphrasen zu unterscheiden (Tesnie`re 1934a, 147; 155, 1934b, 226, Ele´ments, 15; 100 f.; 102⫺190). Dem entspricht des weiteren z. B. die Definition von „nœud substantival“ als „celui qui a pour centre un substantif“ (Ele´ments, 100). Zum anderen tritt aber auch „nœud“ mit der Bedeutung ‘Kern(glied) einer Phrase’ in dem Ausdruck „nœud central“ auf. Vgl.: „[Kap. 47] 6. ⫺ Nous avons vu que toute phrase est l’agencement d’un ou de plusieurs nœuds, et nous avons donne´ le nom nœud central a` celui qui commande tous les autres […] .“ (Ele´ments, 100)
87
10. Das Valenz- und Dependenzkonzept bei Lucien Tesnie`re
Diese terminologische Präzisierung ermöglicht eine genauere Definition von beispielsweise dem oben genannten „nœud substantival“ als „phrase substantival“, die wie folgt lautet: „La phrase substantivale est celle qui a pour nœud central un nœud substantival […]“ (Ele´ments, 100). Die letztere Bedeutung von „nœud“ als regierendem Knoten reflektiert insbesondere auch die folgende Definition vom Verb als Zentralknoten einer Satzkonstruktion: „Le verbe est le nœud des nœuds. C’est lui qui, directement ou indirectement, est le re´gissant de toute la phrase.“ (Tesnie`re 1953, 4). (Jedoch wird auch mit der gelegentlichen Möglichkeit eines substantivischen, adjektivischen oder adverbialen Zentralknotens gerechnet, vgl. die Diskussion von „phrase substantivale“, „phrase adjectivale“, „phrase adverbiale“ in Ele´ments, 177⫺181; 184⫺186; 188⫺190.) Die auf diese Weise beschriebene Konstituentenbildung wird aber in den Stemmata von Tesnie`re nicht (oder keinesfalls nicht durchgehend) eigens notationell gekennzeichnet (wie dies gewisse andere spätere Dependenzgrammatiker anstreben, vgl. z. B. Heringer 1970a, 125). Jedoch wird in Verbindung mit der Translation insofern von einer zusätzlichen, „sekundären“ Knotenkategorisierung Gebrauch gemacht (vgl. Engel 1996, 54), als hier die Wortartenzugehörigheit der aus der Translation resultierenden Kategorie oberhalb des Translationssymbols (bei vorangestelltem Translativ bzw. bei nachgestelltem Translativ ) angegeben wird, vgl. z. B. (8)⫺(11). Aufgrund der Konnexionsrekursivität, der damit verbundenen Konnexionshierarchisierung (7) und der auf den Basiskategorien basierenden Knotenbildung erscheint eine dependenzielle Satzstruktur insgesamt als ein „nœud de nœuds“ (Ele´ments, 14), d. h. als eine Knotenhierarchie, deren (maximal übergeordneter) „nœud central“ im allgemeinen ein „nœud verbal“, d. h. ein von einem (lexikalischen) Verb gebildeter Knoten ist (Ele´ments, 15). Ein besonderer Aspekt der syntaktischen Strukturproblematik ist mit dem Terminus „nucle´us“ verbunden; vgl. folgende Definition: „[Kap. 22] 5. ⫺ Nous de´finirons le nucle´us comme l’ensemble dans lequel viennent s’inte´grer, outre le nœud structural proprement dit, tous les autres e´le´ments dont le nœud est comme le support mate´riel, a` commencer par les e´le´ments se´mantiques.“ (Ele´ments, 45)
Der Nukleus-Begriff ist weitgehend eine weitere Konsequenz der Beschränkung auf vier konnexionsstiftende lexikalische Basiskategorien. Praktisch handelt es sich beim „nucle´us“ entweder um ein einwortiges Regens (parle, livre) oder eine Fügung aus einem vollsemantischen Lexem und einem grammatischen Auxiliarwort oder eine Fügung aus zwei grammatischen Wörtern, von denen wenigstens das eine einer der Basiskategorien zugeführt werden kann (vgl. die Beispiele est arrive´, est grand, a vu, habite-t-il, le livre, d’Alfred, quelque chose, ne rien). In Tesnie`re (1953, 3) wird die semantische Funktion des Nukleus besonders hervorgehoben: „Le nucle´us est l’atome constitutif de la phrase. C’est lui qui contient l‘ide´e. Il assume la fonction se´mantique.“ In den Ele´ments findet sich eine Reihe z. T. metaphorischer Charakteristiken des Nukleus: „le sie`ge d’un certain nombre de fonctions“, „l’entite´ syntaxique e´le´mentaire, le mate´riau fondamental de la charpente structurale de la phrase“, „centre de concre´tion“ (Ele´ments, 45 f.), die alle eine Bedeutung im Sinne von semantisch bzw. auch morphosyntaktisch integriertem einfachem oder komplexem Glied erkennen lassen. Die im Dienste der Integration stehenden Hilfswörter oder -elemente, die zu den nicht knotenstiftenden sog. „leeren Wörtern“ gehören, sind intranuklear und erscheinen dabei als Zusatz zur nukleusstiftenden Basiskategorie und darüber hinaus zum dependenziellen und semantischen Grundgerüst des Satzes. Folglich gibt es keine nukleusinternen Konnexionen (vgl. auch Ele´ments, 57); Dependenzbeziehungen sind im Prinzip internuklear und bestehen zwischen einfachen oder komplexen Nuklei. Aus der strukturell verbindenden Funktion der Konnexion folgt, dass die Zahl der Nuklei die Zahl der Konnexionen immer um eine übersteigt (Tesnie`re 1953, 3). Zur expliziten Markierung der Nukleusbildung führt Tesnie`re einen ovalen Kreis ins Stemma ein. Vgl. (12)⫺(15):
(12)
parle
Alfred
Stemma 26
88 (13)
II. Lucien Tesnie`re und seine Zeit
il regarde
le livre
d’Alfred
Stemma 33
(14)
est arrivé
Alfred
Stemma 27
(15)
est grand
Alfred
Stemma 28
Am häufigsten wird aber auf die Setzung des ovalen Kreises in den Stemmata verzichtet, da der Nukleusstatus sowieso an der Nebeneinanderstellung zweier Elemente (ohne darüber stehende getrennte Konnexionskanten) erkennbar ist. Wie aus (5) und (7) und den daran angeschlossenen Ausführungen zu den „vollen“ und „leeren“ Wörtern hervorgeht, haben die Dependenzstrukturen eine lexikalisch-semantische Basis, wobei sich in der Knotenbildung der lexikalisch-semantische und syntaktische Aspekt gegenseitig bedingen. (Hier und im folgenden ist ‘lexikalisch’ nicht im Sinne von ‘einzellexembezogen’, was Tesnie`res Konzeption widersprechen würde, sondern als ‘auf
eine Hauptwortart bzw. Basiskategorie bezogen’ zu verstehen.) Vgl.: „[Kap. 23] 1. ⫺ Parmi les diverses fonctions du nucle´us, il en est deux qui sont fondamentales, la fonction nodale et la fonction se´mantique. 2. ⫺ Il ne peut y avoir de nucle´us sans fonction nodale, puisque […] la notion meˆme de nucle´us n’est qu’un e´largissement de celle de nœud qu’elle comporte. 3. ⫺ Il ne peut y avoir de nucle´us sans fonction se´mantique, puisque le structural n’a de raison d’eˆtre que dans le se´mantique […], et que par conse´quent un nucle´us purement structural n’aurait pas de raison d’eˆtre […].“ (Ele´ments, 46)
Aus diesen Festlegungen erhellt zum einen, dass Nukleus im Sinne von Tesnie`re im allgemeinen nicht mit Konstruktion bzw. Phrase im konstituentenstrukturgrammatischen Sinne gleichgestellt werden sollte; dem entspricht eher Knoten („nœud“). Zum anderen wird vor diesem Hintergrund Tesnie`res Aussage verständlich, dass erst der ⫺ einfache oder komplexe ⫺ Nukleus, nicht das Wort, die wirkliche „unite´ structurale“ der gesprochenen Kette sei (Ele´ments, 47). Die beiden Stemmata 27 (14) und 28 (15) sind Beispiele für sog. „dissoziierte Nuklei“, wo die strukturale und die semantische Funktion nicht im selben Wort lokalisiert sind. Als das Beispiel par excellence für diesen Tatbestand werden die traditionellen sog. „zusammengesetzten Zeiten“ herangezogen (vgl. Stemma 27 (14)), denen Kopulakonstruktionen wie die in Stemma 28 (15) anzuschließen seien (vgl. Lambertz 1982, 206⫺221). Die semantische Basis der Beschreibung traditioneller Auxiliarkonstruktionen durch Tesnie`re wird besonders deutlich beim Vergleich mit der Analyse von Verbketten bei Gunnar Bech (1955, 12⫺16, 25 f.), der Dependenzbeziehungen zwischen Verbformen auf der Grundlage morphologischer Gegebenheiten ermittelt (vgl. Askedal 1994). (Die oberflächlich betrachtet stemmaähnliche Analyse von Auxiliarkonstruktionen in Tesnie`re 1939, 170 f.; 173⫺177, ist eine Art Expansions- und Sequentialisierungsanalyse, vgl. z. B. (16)). Sie ist mit einer Konnexionsanalyse nicht zu verwechseln. (Vgl. dazu vor allem Gre´ciano 1996.) 2.5. Dependenz und Linearisierung Die in 2.2. angesprochene Dimensionalitätsproblematik führt logischerweise zur Frage der Linearisierung von Regentien und ihren Dependentien als theoretisch eigenständigem Aspekt der Knoten- bzw. Satzstruktur über.
89
10. Das Valenz- und Dependenzkonzept bei Lucien Tesnie`re
(16)
schlägt
Genus: Passiv
Zeit: vorzeitig
worden
ist
Modalität: können
Zeit: vorzeitig
geschlagen
wird
hat
kann
worden
sein
können
Mit seiner Unterscheidung zwischen zentrifugaler (auch „montant“ genannt) (linksdirektionaler, z. B. weißes Pferd) und zentripetaler (rechtsdirektionaler, z. B. cheval blanc) Linearisierung nimmt Tesnie`re die von Greenberg (1966) initiierte, in der späteren sprachtypologischen Forschung grundlegend wichtige Wortfolgetypologie in Ansätzen vorweg (Ele´ments, 23⫺25). Durch die zusätzliche terminologische Unterscheidung von „ordre accuse´“ und „ordre mitige´“ wird das (In)konsistenz-Problem (vgl. Oesterreicher 1989) angedeutet. Die areale Verbreitung der vier sich daraus ergebenden Typen „langue centrifuge accuse´e“, „langue centrifuge mitige´e“, „langue centripe`te mitige´e“ und „langue centripe`te accuse´e“ in den Sprachen der Welt wird auf einer Faltkarte am Ende des Buches vorgestellt. Die Diskussion von Wortfolgemöglichkeiten auf Satzebene bezeugt, dass Tesnie`re auch auf die drei universell hauptsächlichen Abfolgemöglichkeiten SVO, VSO und SOV (Comrie 1983, 81 f.) durchaus aufmerksam ist. 2.6. Dependenz und semantische Beziehungen Im Hinblick auf das Verhältnis von syntaktischer Dependenz (Konnexionsbeziehung) und Bedeutung wird grundsätzlich die systematische Autonomie der strukturalen Ebene im Verhältnis zur Semantik hervorgehoben, was durch den Hinweis auf im Hinblick auf syntaktische Beziehungen interpretierbare Nonsense-Sätze begründet wird (Ele´ments, 41 f.). Auf der grundsätzlichen Annahme einer Autonomie der Syntax gegenüber der Semantik basiert auch Tesnie`res vor allem in übersetzungswissenschaftlichem Zusammenhang einschlägiges Prinzip der „Me-
geschlagen
sein
geschlagen
worden
geschlagen
tataxe“ als interlingualer grammatischer Strukturwechsel bei gleichbleibendem Inhalt; vgl. insbesondere: „La me´tataxe n’est qu’une application du principe de l’inde´pendance du structural et du se´mantique […], puisqu’il s’agit d’exprimer une ide´e se´mantiquement identique par une phrase structuralement diffe´rente“. (Ele´ments, 284). Und in auf die übersetzerische Praxis bezogener Formulierung: „La me´tataxe comporte par de´finition une diffe´rence entre le stemma de la phrase a` traduire et celui de la phrase traduite dans une autre langue.“ (Ele´ments, 283). (Vgl. des weiteren Koch 1996.) Andererseits dürfte aber aus den Ausführungen in 2.3. hinreichend deutlich hervorgehen, dass die die strukturale Ordnung begründenden Konnexionen eine kategoriale semantische Basis haben. Auch in anderen Zusammenhängen betont Tesnie`re stark die Interrelationen zwischen Syntax und Semantik: „[…] il n’existe jamais de connexion structurale sans connexion se´mantique […]“ (Ele´ments, 44). In concreto wird eine modifizierte Isomorphie-These vertreten, die besagt, dass syntaktische und semantische Konnexionsbeziehungen nicht identisch seien, wohl aber parallel verliefen: „Entre les deux, il n’y a identite´, mais il y a paralle´lisme.“ (Ele´ments, 42; vgl. auch Langacker 1995, 23; 30; 37). Dabei sind die syntaktische und die semantische Determinationsrichtung einander entgegengesetzt: „Le sens du subordonne´ porte sur celui du re´gissant dont il de´pend.“ In diesem Sinne ist das Regens dem Dependens (bzw. den Dependentien) syntaktisch übergeordnet, während das syntaktische Dependens (bzw. die Dependentien) das Regens semantisch determiniert (determinieren). Vgl. (17):
90
II. Lucien Tesnie`re und seine Zeit
(17) ruisseaux B petits
ruisseaux A petits
INCIDENCE STRUCTURALE
INCIDENCE SE´MANTIQUE
Stemma 22
Stemma 23
Als systematisch eigenständiger referentiellsemantischer Bereich kommen die anaphorischen Beziehungen hinzu, die mit keiner syntaktischen oder semantischen Konnexionsbeziehung überlappen (Ele´ments, 85⫺91, vgl. Stemma 66 in (6)). Es gibt m. a. W. keine strukturalen Konnexionen ohne begleitende semantische Konnexion, wohl aber semantische, d. h. in diesem Zusammenhang anaphorische Konnexionen ohne begleitende strukturale Konnexion. Auch wenn das Verhältnis zwischen Syntax und Semantik bei Tesnie`re im einzelnen etwas ungeklärt und sogar widersprüchlich erscheinen mag, ist ihm die Verbindung von beidem so wichtig, dass er sie unter Hinweis auf Wilhelm von Humboldts „innere Sprachform“ zur „forme inte´rieure [de la phrase]“ erklärt (Ele´ments, 34).
3.
Aktanten, Zirkumstanten und Valenz
3.1. Aktant/Zirkumstant-Unterscheidung und Aktantenklassifikation Der Konzeptualisierung der Aktanten- und Valenzproblematik dienen bei Tesnie`re zwei Metaphern aus nichtgrammatischen Bereichen. Es sind dies zum einen die „DramenMetapher“ (vgl. schon Tesnie`re 1934b, 223) und zum anderen die ⫺ zweite (zur ersten siehe 2.1.) ⫺ „Atom-Metapher“. (Zu der in späteren Schriften nicht wiederholten „Sonnen-Metapher“ von Tesnie`re 1934b, 223 vgl. 2.3.) Die Dramen- und die (zweite) AtomMetapher werden getrennt präsentiert und diskutiert und geben zu jeweils unterschiedlichen Perspektivierungen des Valenzbegriffs Anlass. Der Begriff Valenz als solcher tritt nur in Verbindung mit der Atom-Metapher auf, jedoch sind beide Metaphern für das Verständnis der Valenzkonzeption Tesnie`res gleichermaßen einschlägig. Die „Dramen-Metapher“ schließt an den dependenziellen Begriff „nœud verbal“ (im Sinne eines Hypotagmas) an: „[Kap. 48] 1. ⫺ Le nœud verbal […] exprime tout un petit drame. Comme un drame en effet, il com-
porte obligatoirement un proce`s, et le plus souvent des acteurs et des circonstances. 2. ⫺ Transpose´s du plan de la re´alite´ dramatique sur celui de la syntaxe structurale, le proce`s, les acteurs et les circonstances deviennent respectivement le verbe, les actants et les circonstants.“ (Ele´ments, 102)
Die in diesem Zitat zum Ausdruck gebrachte binäre Aktant/Zirkumstant-Unterscheidung ist schon bei Tesnie`re (1934a, 151⫺155, 1934b, 226) vorhanden. Die genauere Bestimmung der durch die Dramen-Metapher eingeführten Aktanten steht unter dem Einfluss der in früheren Kapiteln ausgeführten Dependenztheorie sowie auch bestimmter Sehweisen der traditionellen Grammatik. Im Hinblick auf den oftmals hervorgehobenen Zusammenhang zwischen Valenz und Dependenz bei Tesnie`re (vgl. z. B. Weber 1996, 255) ist grundsätzlich darauf hinzuweisen, dass nur eine Untermenge der vom regierenden verbalen Zentralknoten potentiell ausgehenden Konnexionen durch die Valenz festgelegt ist, da Aktanten und Zirkumstanten gleichermaßen „subordonne´s imme´diats du verbe“ sind (Ele´ments, 103 sowie diagrammatisch schon Tesnie`re 1934a, 150). Hinzu kommt noch, dass Valenz bei Tesnie`re auf Verben beschränkt ist (Lambertz 1982, 4), weswegen die Konnexionen sich nicht generell auf Valenz zurückführen lassen. Es wäre somit eine unzulässige Vereinfachung, die Dependenzgrammatik Tesnie`res als Verbgrammatik einzustufen (vgl. Engel 1996, 55). Auf diesem Hintergrund ist Valenz eher als „verbbezogener Teilbereich“ (Koch/Krefeld 1991, 6) der konnexionellen Dependenz aufzufassen. (Vgl. auch Happ 1976, 314: „Valenz-Theorie (ein[…] Teilbereich der Dependenz-Grammatik)“; Lambertz 1982, 30: „Valenz als Sonderfall der Dependenz“; 34 f.) Die konnexionelle Gleichstellung von Aktanten und Zirkumstanten im Verhältnis zum verbalen Zentralknoten (vgl. 2.2.) ergibt sich folgerichtig aus Tesnie`res Auffassung einfacher Satzstrukturen als „nœuds verbaux“ und drückt sich auch in der Aufgabe des traditionellen Sonderstatus des sog. Subjekts aus: „[…] le sujet est un comple´ment comme les autres“ (Ele´ments, 109, gleiche Formulierung schon bei Tesnie`re 1934b, 217). Aktanten und Zirkumstanten werden bei Tesnie`re sowohl morphologisch als auch semantisch beschrieben bzw. definiert. Etwa in Übereinstimmung mit der traditionellen Grammatik (einschließlich der klassischen Kasussyntax) werden auf formal-mor-
91
10. Das Valenz- und Dependenzkonzept bei Lucien Tesnie`re
phologischer Grundlage solche Glieder als Aktanten bestimmt, die Substantive oder Äquivalente von Substantiven sind, während Zirkumstanten Adverbien oder Äquivalente von Adverbien sind (vgl. auch Stötzel 1970, 84 f.). Vgl.: „[Kap. 48] 6. ⫺ Les actants sont toujours des substantifs ou des e´quivalents de substantifs. Inversement les substantifs assument en principe toujours dans la phrase la fonction d’actants. […] 8. ⫺ Les circonstants sont toujours des adverbes (de temps, de lieu, de manie`re etc. …) ou des e´quivalents d’adverbes. Inversement les adverbes assument en principe toujours dans la phrase la fonction de circonstants.“ (Ele´ments, 102 f.)
Dadurch kommt es zu einer empirisch nicht zu rechtfertigenden Identifikation von Form und Funktion (Feuillet 1996, 130 f.). Insbesondere hat dies zur Folge, dass Präpositionalglieder auch dann als Zirkumstanten eingestuft werden, wenn sie obligatorisch sind bzw. eine vom Verb determinierte Präposition enthalten (vgl. kritisch Lambertz 1982, 197⫺206, Feuillet 1995, 177⫺179). So ist Tesnie`re gezwungen zuzugeben, dass gewisse PPs wie de veste im Satz Alfred change de veste sich den Aktanten nähern „par l’e´troitesse de leur connection avec le verbe dont le sens apparaıˆt incomplet sans eux.“ (Ele´ments, 128). Dabei stellen freilich PPs als Realisierung von Drittaktanten, wie a` Charles im Satz Alfred donne le livre a` Charles, eine von Tesnie`re zugelassene Ausnahme dar (Ele´ments, 110, 114 f.). Dazu macht er freilich geltend, dass die Drittaktanten sich den Zirkumstanten nähern „dans les langues ou` ils sont signale´s par des pre´positions“ (Ele´ments, 128). Bei Aktanten wie auch bei Zirkumstanten wird eine Art semantischer Gesamtbedeutungs- bzw. Prototypizitätsbestimmung geltend gemacht: „Les actants sont les eˆtres ou les choses qui […] participent au proce`s. […] Les circonstants expriment les circonstances de temps, lieu, manie`re, etc. … dans lesquelles se de´roule le proce`s.“ (Ele´ments, 102) „[…] le prime actant est celui qui fait l’action. […] le second actant est celui qui supporte l’action.“ (Ele´ments, 108) „[…] le tiers actant est celui au be´ne´fice ou au de´triment duquel se fait l’action.“ (Ele´ments, 109)
(Vgl. auch Koch/Krefeld 1991, 14⫺22.) Insbesondere die semantische Definition des Erst- und Zweitaktanten (in nicht wenigen Sprachen auch des Drittaktanten) muss notwendig mit der Aktantenbestimmung in der reflexiven und passiven Diathese in Widerspruch geraten, wo der Erstaktant in einer
Patiensbeziehung zum Verb steht und der Agens der Verbalhandlung fehlt bzw. ⫺ Tesnie`re zufolge ⫺ (fakultativer) Zweitaktant ist (vgl. 4.1.). Es ist anzunehmen, dass die Beschränkung der quantitativen Aktantenbestimmung bei Verben auf Null- bis Dreiwertigkeit (Ele´ments, 106 f.) den Vorgaben traditioneller Rektionsmuster folgt. (Zu den Unterschieden zwischen dem Rektionsbegriff der grammatischen Tradition und dem sich nicht zuletzt aus der Beschäftigung mit Tesnie`re ergebenden allgemeineren Verständnis von Valenz als spezifischer Kombinierfähigkeit vgl. zusammenfassend Happ 1976, 127 f.) In den Konnexionsstemmata Tesnie`res wird der Unterschied zwischen valenzbedingten Aktanten einerseits und nichtvalenzbedingten Zirkumstanten andererseits nicht dependenziell ausgezeichnet. Eine Kennzeichnung erfolgt nur auf kategorieller Ebene ⫺ und nicht durchgehend ⫺ durch die Setzung des Adverb-Symbols „E“ am Kantenende zur Markierung von Zirkumstantenstatus (Ele´ments, 125⫺127): (18)
Alfred
passera
E rapidement
E là-bas
E demain
Stemma 123 Diese eher behelfsmäßige Kennzeichnung hängt damit zusammen, dass in den „flachen“ Dependenzstrukturen bzw. -diagrammen Tesnie`res Aktanten und Zirkumstanten in ihrem Verhältnis zum verbalen Zentralknoten des Satzes auf der gleichen Abhängigkeitsstufe stehen. Diese Gleichstellung ist im Hinblick auf sowohl Aktanten wie auch Zirkumstanten in empirischer Hinsicht zu problematiseren. Zum einen lässt sich nachweisen, dass Subjekte, direkte und indirekte Objekte z. T. unterschiedliche syntaktische Regeleigenschaften haben (vgl. die in dieser Hinsicht weiterführende Diskussion von Subjekten und Objekten schon bei Engelen 1975, 105⫺ 108 sowie generell Johnson 1977). Zum anderen vermögen „flache“ Stemmata wie (18) kein intuitiv befriedigendes (Ab-)Bild der vielfältigen Bezugsmöglichkeiten der in der Zirkumstanten-Klasse zusammengefassten unterschiedlichen Typen traditioneller Adverbi-
92 albestimmungen zu geben (vgl. Melis 1983, Kotschi 1991, Feuillet 1996, 130). Gewisse Züge der Aktant/ZirkumstantUnterscheidung, die unter natürlich-sprachlichem Aspekt nicht selbstverständlich oder jedenfalls problematisierbar sind, können in Zusammenhang mit der Dramen-Metapher gesehen werden: 1. Etwa so wie im Drama zwischen menschlichen Akteuren und nichtmenschlichen Kulissen klar unterschieden wird, wird bei Tesnie`re ⫺ und zumeist auch in der späteren auf Tesnie`re basierenden Valenzlehre ⫺ eine strikte Dichotomisierung der Dependentien in Aktanten und Zirkumstanten angenommen. Die empirisch gleich naheliegende Vorstellung einer Übergänglichkeit oder Gradienz (vgl. Engelen 1975, 161⫺176, Vater 1978, Heger 1996) ist der Tesnie`re-Rezeption überwiegend fern geblieben. ⫺ 2. Etwa so, wie man im Drama vielfach zwischen einer Hauptperson und weniger wichtigen Personen unterscheiden kann, nimmt Tesnie`re eine Hierarchisierung der Aktanten als jeweils Erst-, Zweit- und Drittaktant an (Ele´ments, 108). Auf etwa die gleiche Weise, wie im Drama ⫺ und im Leben ⫺ eine Person trotz allen Wandels der äußeren Umstände seine Identität wahrt, kommt den Aktanten Kategorienkonstanz in Form einer konstanten Zuordnung von morphologischer Erscheinungsform und der Zuweisung eines bestimmten Stellenwerts in der Aktantenhierarchie zu: das traditionelle Subjekt ist immer Erstaktant, das traditionelle (zumeist sog. „direkte“) Akkusativobjekt Zweitaktant und das traditionelle (zumeist sog. „indirekte“) Dativobjekt Drittaktant. (Darin mag man freilich einen gewissen Widerspruch zur grundsätzlichen dependenziellen Gleichsetzung der drei Aktantenkategorien sehen.) Für das Vorkommen der Aktanten in Aktantenkonfigurationen („Satzmuster“) wird folgendes logische Transitivitätsprinzip postuliert:
II. Lucien Tesnie`re und seine Zeit
kumstanten keine Rangordnung eingeführt, sondern an einer weitgehend traditionellen semantischen Adverbklassifikation festgehalten (Ele´ments, 74⫺79, 125) (durch die man den unterschiedlichen strukturellen Bezugsmöglichkeiten adverbialer Zirkumstanten nicht gerecht wird, vgl. oben). Es deutet sich hier ein metaphorisch-konzeptueller Zusammenhang damit an, dass in einem Drama die Akteure dynamisch und nach Handlungssalienz abstufbar, die Kulissen aber statisch und nach Handlungssalienz nicht abstufbar sind. ⫺ 4. Mit der Dramen-Metapher hängt es möglicherweise auch noch zusammen, dass Tesnie`re nur bei lexikalischen Vollverben Aktanten, d. h. Valenz annimmt und eine besondere Adjektivvalenz überhaupt in Abrede stellt: „[…] le verbe peut re´gir des actants et des circonstants, l’adjectif des circonstants seulement“ (Ele´ments, 182). Im Rahmen der Konnexionshierarchie in (7) bleibt somit die Aktant/Zirkumstant-Unterscheidung auf das Verhältnis zwischen regierendem I-Knoten bzw. -Nukleus und davon regiertem originärem oder transferiertem O bzw. E beschränkt (prädikative Adjektive werden in den verbalen Nukleus einbezogen). Auch wenn man in der Dramen-Metapher Tesnie`res eine Vorwegnahme der modernen kognitiven „script“- und „frames“-Konzeption sehen mag (Heringer 1984, 47), basiert die Aktantendarstellung in den Ele´ments im großen ganzen auf Vorgaben der traditionellen Kasussyntax, die erst in der ⫺ vor allem deutschen ⫺ Tesnie`re-Rezeption überwunden werden konnten (vgl. zusammenfassend Happ 1976, 325⫺332).
„[Kap. 51] […] le prime actant se rencontre en principe dans toutes les phrases a` un, a` deux ou a` trois actants; […] le second actant se rencontre en principe dans toutes les phrases a` deux ou a` trois actants; […] le tiers actant ne se rencontre que dans les phrases a` trois actants.“ (Ele´ments, 108)
3.2. Valenzklassifikation In der Darstellung der Aktanten (Ele´ments, 105 ff.) findet der Valenz-Begriff nur einmal Erwähnung, und zwar eher nebenbei in Verbindung mit der Polemik gegen den traditionell angenommenen Sonderstatus des Subjekts (Ele´ments, 105). Die Quelle der grammatischen Verwendung des Valenz-Begriffs ist die der Fachsprache der Chemie entnommene Atom-Metapher. Vgl.:
Die hier vorausgesetzte einfache Kategorientransitivität gerät freilich mit der auf morphosyntaktischer Kasuszuordnung basierenden Kategorienkonstanz in Widerspruch (vgl. Ele´ments, 242; 246; 256 sowie 3.2.). ⫺ 3. Anders als bei den Aktanten wird bei den Zir-
„[Kap. 97] On peut ainsi comparer le verbe a` une sorte d’atome crochu susceptible d’exercer son attraction sur un nombre plus ou moins e´leve´ d’actants, selon qu’il comporte un nombre plus ou moins e´leve´ de crochets pour les maintenir dans sa de´pendance. Le nombre de crochets que pre´sente un verbe et par conse´quent le nombre d’actants
93
10. Das Valenz- und Dependenzkonzept bei Lucien Tesnie`re qu’il est susceptible de re´gir, constitue ce que nous appellerons la valence du verbe.“ (Ele´ments, 238)
Die aus der Chemie stammende Atom- und Valenz-Metapher steht deutlich unter dem Einfluss des Tesnie`reschen Dependenz-Konzepts (vgl. den Gebrauch des Verbs re´gir in beiden Fällen). Zwischen dem grammatischen Valenz-Konzept Tesnie`res und dem Valenzverständnis der Chemie besteht indessen der konzeptuelle Unterschied, dass in der Chemie die Beziehungen zwischen den Molekülen in Atomen nicht als einseitig gerichtete, sondern vielmehr als gegenseitige Abhängigkeiten zu verstehen sind (vgl. Stötzel 1970, 79). Zu bemerken ist, dass „valence“ im obigen Zitat als singularisches Kollektivum die Gesamtheit der Aktanten bzw. Valenzbeziehungen bezeichnet. Daneben findet sich auch ⫺ zur individualisierenden Bezeichnung von Valenzbeziehungen ⫺ der Plural „valences“, der die zugrunde liegende, auf Gegebenheiten der Chemie basierende Metapher unmittelbarer reflektieren dürfte. Besonders zu beachten ist, dass der sprachliche Valenz-Begriff Tesnie`res die Möglichkeit ungesättigter Valenz, d. h. Fehlen bzw. ⫺ unter systematischem Aspekt gesehen ⫺ Fakultativität von Aktanten durchaus vorsieht: „[…] il n’est jamais ne´cessaire que les valences d’un verbe soient toutes pourvues de leur actant et que le verbe soit, pour ainsi dire, sature´. Certaines valences peuvent rester inemploye´es ou libres.“ (Ele´ments, 238 f.). Mit dem Wort jamais greift aber Tesnie`re angesichts des tatsächlichen Vorhandenseins nicht zu behebender Obligatheit (vgl. z. B. Welke 1988, 22⫺32) aus empirischer Sicht jedoch zu kurz. (Vgl. auch Storrer 1996.) Im Rahmen der Atom-Metapher in Tesnie`rescher Auslegung wird Valenz als aktantendeterminierende Wertigkeit des Verbs verstanden, und die Verben ⫺ gemäß der im Rahmen der Dramen-Metapher etablierten Beschränkung der Aktanten auf die drei Typen des Erst- bis Drittaktanten ⫺ hauptsächlich als mono- bis trivalent bestimmt (Ele´ments, 239⫺258; vgl. dazu auch Stötzel 1970, 83 f.). Vgl. die entsprechenden Dependenzstemmata in (19)⫺(21):
(19)
parle
Alfred
Stemma 1
(20)
frappe
Alfred
Bernard
Stemma 6
(21)
donne
Alfred
le livre
à Charles
Stemma 77
Die Erörterung der di- und trivalenten Verben erfolgt unter der gemeinsamen traditionellen Überschrift „Transitive Verben“ (Ele´ments, 242), wobei Tesnie`re auf das Fehlen eines besonderen Terminus für trivalente Verben ausdrücklich aufmerksam macht. Lexikalische Impersonalia (lat. pluit, dt. es regnet usw.) werden als vierter, besonderer Typ der avalenten, nullwertigen Verben angesetzt. Die Definition der avalenten Verben ist eine referentiell-semantische; formalen Subjekten wird kein Aktantenstatus, sondern nur die grammatische Funktion eines Markierers der 3. Person Sg. eingeräumt (Ele´ments, 239). In diesem Zusammenhang ist auf Stötzels (1970, 86 f. et passim) in Auseinandersetzung mit Tesnie`re begründete Unterscheidung zwischen Ausdrucks- und Inhaltsvalenz hinzuweisen, zumal Tesnie`re sich schon in Zusammenhang mit sog. „inneren Objekten“ („accusatif de l’objet interne“, z. B. französisch vivre sa vie, deutsch seinen Weg gehen) auf eine derartige Unterscheidung bezieht: „Il y a lieu de noter que les verbes monovalents ainsi traite´s ne cessent pas, malgre´ leur divalence apparente, d’e`tre des verbes se´mantiquement monovalents“. (Ele´ments, 272). In Zusammenhang mit diachronischen Überlegungen zur Herausbildung von Aktanten (was als ein historischer Prozess der Grammatikalisierung von Zirkumstanten zu Aktanten aufgefasst werden kann, vgl. z. B. Seefranz-Montag 1984, 521 f.) wird auch die etwaige Möglichkeit vierwertiger Verben anvisiert (Ele´ments, 258). In Tesnie`re (1954, 9) wird die Möglichkeit der Tetravalenz direkt in Abrede gestellt: „Il n’existe pas […] de verbes te´travalents (a` quatre valences).“ (Jedoch
94 nimmt Tesnie`re Tetravalenz als Ergebnis diathetischer Valenzerhöhung an, vgl. 4.3.) Für valenzbedingte Aktanten gilt die schon in Verbindung mit der Dramen-Metapher angesprochene Kategorienkonstanz. Jedoch wird hier die in Zusammenhang mit der Aktantenbestimmung formulierte Transitivitätsthese für das Vorkommen von Aktanten ⫺ ein Zweitaktant setzt einen Erstaktanten, und ein Drittaktant einen Zweitaktanten voraus ⫺ dahin modifiziert, dass ein monovalentes Verb zwar normalerweise einen Erstaktanten, aber auch u. U. einen Zweitaktanten (il pleut des hellebardes) oder einen Drittaktanten (es ist mir warm) haben kann (Ele´ments, 242) und dass es nicht nur bivalente Verben mit Erst- und Zweitaktanten, sondern auch solche mit Erst- und Drittaktanten (dieses Buch gefällt mir) gibt (Ele´ments, 246) (vgl. kritisch dazu Feuillet 1995, 178, 1996: 130 f.; 133). Ähnlich werden im Satz Wer hat dich solche Streiche gelehrt? aufgrund der Kasusmorphologie zwei Zweitaktanten angenommen (Ele´ments, 256). An solchen Fällen wird das Fehlen einer grundsätzlichen Unterscheidung zwischen Kasusmarkierung einerseits und syntaktischer Funktion eines kasusmarkierten Elements andererseits bei Tesnie`re besonders deutlich (vgl. Lazard 1995, 156; 158, zur typologischen Vielfalt im Bereich der Aktantenkodierung und Aktantenfunktionen siehe vor allem Lazard 1994). In den Bereich der „Metataxe“, genauer der „interversion des actants“ gehört der interlinguale Aktantenwechsel in Fällen wie z. B. deutsch Sein Knecht half ihm (Drittaktant) vs. französisch Son valet l (Zweitaktant)’aida bzw. Ihm (Drittaktant) wurde von seinem Knecht geholfen vs. Il (Erstaktant) fut aide´ par son valet (Ele´ments, 287, vgl. auch Koch 1996 mit Hinweisen). Die Valenzkonzeption der Ele´ments ist bei Tesnie`re (1934a, 151⫺155) vorgebildet, wo die Dramen-Metapher zwar nicht ausformuliert vorliegt, wohl aber die Termini „acteur“ und „circonstance“ (als der Bühnenterminologie noch näher stehende Vorläufer für „actant“ und „circonstant“ in den Ele´ments) verwendet werden. Die Verben werden hier entsprechend eingeteilt als „action sans acteur, a` un acteur, a` deux acteurs, a` trois acteurs“. Insgesamt erfolgt die Darstellung der lexikalischen Valenz bei Tesnie`re im Rahmen der allgemeinen dependenziellen Syntaxtheorie ⫺ nicht etwa als ihre Grundlage. Anders als z. B. bei Peirce (1960, 296) und Helbig/Buscha (1984, 625⫺629) finden sich in den Ele´-
II. Lucien Tesnie`re und seine Zeit
ments keine Diagramme, die sich als auf sprachliche Valenz speziell bezogene Nachbildungen von in der Chemie üblichen Valenzdiagrammen auffassen lassen. (Damit wäre am ehesten das auf der „Sonnen-Metapher“ basierende Diagramm in Tesnie`re 1934b vergleichbar, vgl. 2.2.) 3.3. Aktanten als Indizes Die unbetonten Subjektformen französischer Personalpronomina werden von Tesnie`re anders als betonte Formen ⫺ und anders als die etymologischen Äquivalente der unbetonten Formen im Lateinischen und modernen Altfranzösischen ⫺ als sogenannter „persönlicher Index“ mit der Funktion, Person und Numerus des Verbs anzuzeigen, aufgefasst (Ele´ments, 57 f.; 85) und dementsprechend wie in (22) in den verbalen Nukleus einbezogen (vgl. auch Tesnie`re 1953, 19): (22)
aime
les roses
il
Stemma 34 So hat der nukleusinterne Konnexionsstrich in Stemma 34 (Ele´ments, 58) nur einen „etymologischen Wert“. Zur Veranschaulichung des Status unbetonter Objektformen und der Adverbialpronomina en und y werden Stemmata der gleichen Art wie (22) verwendet. Vgl. (23)⫺(24): (23) remercie
j’
la Providence
en
Stemma 131 Die Überlegungen Tesnie`res zur Indexikalisierung bestimmter Pronominalformen als diachronischem Prozess entsprechen einschlägigen Vorstellungen von der Entwicklung neuer morphologischer Strukturen im Französischen (Harris 1988, 231 f.; 236, vgl. auch Creissels 1994). Unter einem Valenzaspekt
95
10. Das Valenz- und Dependenzkonzept bei Lucien Tesnie`re
(24) remercie
Alfred
vous
en
beaucoup
Stemma 130
wird freilich von Tesnie`re hervorgehoben, dass die auf diese Weise in den verbalen Nukleus einbezogenen pronominalen Formen ihren Aktanten- bzw. Zirkumstantenstatus beibehalten (Ele´ments, 133; vgl. auch Allerton 1995, 250 f.).
4.
Diathesen und quantitativer Valenzwechsel
4.1. Diathesen Der Begriff Diathese kommt in zwei verschiedenen Zusammenhängen zum Tragen: zum einen unter referentiellem Aspekt bei der Darstellung der Valenz der transitiven, d. h. zwei- und dreiwertigen Verben und zum anderen zur Charakterisierung unterschiedlicher Typen des Aktantenzahlwechsels (Ele´ments, 242⫺254; 256 f. bzw. 259⫺282). Im ersteren Fall geht es um intrasententielle Referenz- und Korrespondenzbeziehungen der in (25) vorgestellten Art (vgl. Ele´ments, 243; Tesnie`re 1953, 9; siehe auch Stötzel 1970, Kap. 6; zu Reflexivverben und -konstruktionen 177⫺192): (25) Aktives Verb: Passives Verb: Reflexives Verb: Reziprokes Verb:
O J O : Alfred frappe Bernard. O I O : Bernard est frappe´ par Alfred. O m O : Alfred se frappe. O O O : Alfred et Bernard se frappent (l’un l’autre).
Anders als die im folgenden zu behandelnden Diathesen (als Arten des quantitativen Valenzwechsels) setzt die Analyse in (25) volle quantitative Valenz voraus. (Vgl. auch Melis 1991.)
4.2. Quantitativer Valenzwechsel Es sind drei Arten des quantitativen Valenzwechsels vorgesehen: 1. Wechsel, die auf semantischen Beziehungen zwischen Lexemen beruhen: mourir/sterben (1 Aktant) vs. tuer/ töten (2 Aktanten) ‘faire mourir/sterben machen, lassen’, voir/sehen (2 Aktanten) vs. montrer/zeigen (3 Aktanten) ‘faire voir/sehen machen, lassen’ (Ele´ments, 259 f.), 2. kausative Diathese und 3. „rezessive“ Diathese. (Ansätze zu diesem Diathesenverständnis finden sich schon in Tesnie`re 1934a, 154, wo „causatif“ und „pseudo-re´fle´chi“ als Mittel zur „variation du nombre des acteurs“ Erwähnung finden.) Tesnie`re hebt die semantische Ähnlichkeit zwischen den beiden ersteren Typen hervor und betont des weiteren, dass beim zweiten Typ im Unterschied zum ersten die semantische Beziehung zwischen niedrigerer und höherer Aktantenzahl als generelles „grammatikalisiertes System“ ⫺ genauer: „kausative Diathese“ ⫺ zum Zweck der Valenzerhöhung erscheint (Ele´ments, 265 f.). Demgegenüber stellt der dritte Typ ⫺ die „rezessive Diathese“ ⫺ ein Mittel zur Valenzreduktion dar (Ele´ments, 278⫺280). 4.3. Valenzerhöhung Die Darstellung der kausativen Diathese erfolgt im Rahmen der morphologisch basierten konstanten Aktantennummerierung. Beispielsweise wird behauptet, dass der Erstaktant des Satzes Alfred apprend la grammaire im Satz Charles fait apprendre la grammaire a` Alfred als Drittaktant erscheine (Ele´ments, 261). Mit Bezug auf die kausative Version von Sätzen mit dreiwertigem Verb wie Daniel fait donner le livre a` Alfred par Charles ist ⫺ anders als in der Darstellung der lexikalischen Primärvalenz (Ele´ments, 258) beim Glied par Charles von einem vierten Aktanten („quatrie`me actant“), d. h. durch die „pe-
96
II. Lucien Tesnie`re und seine Zeit
riphrastische“ Konstruktion induzierter Tetravalenz die Rede (Ele´ments, 261 f.). Dabei gilt die fragliche PP ohne Vorbehalte als Aktant und nicht als Zirkumstant. Im Unterschied zu den späteren Ausführungen zur rezessiven Diathese wird hier angenommen, dass der ehemalige Erstaktant des nichtkausativen Verbs hinter alle übrigen Aktanten „zurückgeworfen“ wird (was in etwa der Darstellung vom Agensglied im Passiv als demoviertem Aktivsubjekt nach der Hierarchiekonzeption der „Relational Grammar“ von Johnson 1977 u. a. entspricht). Auch im Valenzunterschied zwischen dt. wohnen in (usw.) und bewohnen bzw. zwischen warten auf und erwarten sieht Tesnie`re Beispiele für die kausative Diathese (Ele´ments, 269). Dies mag damit zusammenhängen, dass PPs laut der Aktantendefinition Tesnie`res im allgemeinen kein Aktantenstatus zugestanden wird. Aus semantischer Sicht erscheint freilich die Charakterisierung als Kausativierung in diesen Fällen etwas fragwürdig; Tesnie`re hebt selbst vor allem die transitivierende Funktion der Vorsilben be- und er- der Verben bewohnen und erwarten mit angeblicher Valenzerhöhung als wesentlich hervor. Sicherlich nicht in den Bereich der Kausativierung gehören die von Tesnie`re als Beispiele für augenscheinliche („apparente“) Divalenz und Valenzerhöhung auch noch erwähnten sog. „inneren Akkusativobjekte“ bei fortwährender semantischer Monovalenz in Fällen wie seinen Weg gehen (Ele´ments, 272). Ein methodologischer Vorzug der Darstellung ist die saubere Trennung von Valenzerhöhung einerseits und der Markierung derselben beim Verb etwa als Begleiterscheinung (durch analytischen, synthetischen oder ØMarkanten) andererseits (Ele´ments, 267⫺ 272). 4.4. Valenzreduktion Auch die rezessive Diathese erscheint in drei Ausprägungen mit jeweils reflexivem, passivem oder Ø-Markanten. Zum dritten, lexikalischen Typ, dessen Darstellung bei Tesnie`re eher etwas zufällig anmutet (Ele´ments, 277 f.), gehören u. a. Fälle mit durch Phraseologisierung zustande gekommener Aktantenweglassung (die Henne legt u. ä.). Die sog. rezessive Diathese mit Reflexivmarkanten beruht laut Tesnie`re auf einer De-
semantisierung der Referenz des Reflexivpronomens („le substantif personnel dit re´fle´chi“) bei divalenten Verben, aus der inhaltliche Monovalenz resultiert, z. B. in Fällen wie la porte s’ouvre, die Tür öffnet sich, cet objet se vend bien, diese Sache verkauft sich gut (Ele´ments, 272 f.). Dem entspricht seine Empfehlung einer Umkehrung der herkömmlichen terminologischen Unterscheidung von „akzidentiellen“ („unechten“) und „essentiellen“ („echten“) reflexiven Verben (z. B. cacher quelque chose/se cacher, sich/jmdn. waschen vs. se tromper/*tromper quelqu’un, sich/ *jemanden entsinnen), die höchstens morphologisch, nicht aber referentiell und syntaktisch zu rechtfertigen sei (Ele´ments, 274 f.). Es hat indessen den Anschein, dass beide Typen von Reflexivkonstruktionen ⫺ sowohl der erstere, nichtlexikalisierte als auch der letztere, lexikalisierte ⫺ bei Tesnie`re als Ausprägungen der „reflexiven Diathese“ gelten, was mit seiner Betonung der zwischen ihnen bestehenden vielfältigen Übergänglichkeitsbeziehungen zusammenhängen mag (Ele´ments, 273). Bei der Darstellung der rezessiven Diathese „a` marquant passif“ wird potentielle Valenzreduktion angenommen, durch die das Verb in die Nähe der monovalenten Verben rücke (Ele´ments, 275): „[…] le changement de sens du transit entre les deux actants et la transformation du second actant en prime actant et du prime actant en comple´ment du passif ne modifient en rien le nombre globale des actants“. Diese Darstellung fällt deswegen etwas auf, weil ⫺ zum einen ⫺ das „comple´ment du passif“ (das Agensglied) im allgemeinen fakultativ ist oder in vielen Sprachen einfach nicht gesetzt wird. Zum anderen hat ein vorhandenes Agensglied in vielen Sprachen, beispielsweise im Germanischen und Romanischen, eine präpositionale, d. h. im Sinne von Tesnie`re „adverbiale“ Form, die Zirkumstanten zukommt (vgl. Ele´ments, 278; vgl. jedoch auch die par-PP der Kausativkonstruktionen). Bei Tesnie`re erscheint das sog. „Passivkomplement“ grundsätzlich als ein dem Aktivobjekt (O’’ ⫺ O seconde) systematisch gleichgestelltes „Gegensubjekt“ (auch ’’O ⫺ O contre-seconde genannt), d. h. als ein Zweitaktant eines anderen Typs (Ele´ments, 110 f.). Vgl. (26):
(26) 1. Aktant: O’ 2. Aktant (Aktivobjekt): O’’ 3. Aktant: O’’’ 2. Aktant („Gegensubjekt“) ’’O
97
10. Das Valenz- und Dependenzkonzept bei Lucien Tesnie`re
Die in diesem Zusammenhang vorgenommene Einstufung und Indizierung der Aktanten im Passiv dürfte nur semantisch zu begründen sein. Anders als bei der Darstellung der kausativen Verbausdrücke (und der Hierarchie-Analyse der Relationsgrammatik) wird hier kein „Zurückwerfen“ des Agensgliedes in eine hierarchische Marginalposition angenommen. Der diesbezügliche Status eines etwaigen Passivkomplements im sog. „unpersönlichen“ Passiv intransitiver bzw. monovalenter Verben (als ’’O oder ’O?) wird nicht problematisiert, vermutlich weil vorrangig aus semantisch-pragmatischer Perspektive auf die agensneutralisierende Funktion dieser Art der rezessiven Diathese Wert gelegt und die angebliche Nähe zur Avalenz betont wird (Ele´ments, 276; 279 f.).
5.
Schlusswort
Durch die vorangehende Darstellung dürfte deutlich geworden sein, dass Tesnie`res Dependenzsyntax grundsätzlich auf einer semantisch-lexikalischen Kategorienbasis steht; die jeweils möglichen Konnexions-, d. h. Dependenzbeziehungen ergeben sich aus semantischen Beziehungen zwischen den vier Hauptwortarten Verb (I), Substantiv (O), Adjektiv (A) und Adverb (E). Die durch Konnexionen konstituierten Dependenzbeziehungen kommen in den vielen anschaulichen stemmatischen Strukturrepräsentationen unmittelbar zum Ausdruck. Die dem System inhärente Knoten-, d. h. Konstituentenbildung aber wird am häufigsten nicht auf die gleiche Weise explizit diagrammatisch oder notationell markiert. Zum einen wird der von Tesnie`re zum Zweck der diagrammatischen Knoten-Markierung eingeführte Kreis am häufigsten weggelassen. Zum anderen bleibt wegen Tesnie`res Bevorzugung der „reellen“ Stemmata ohne Kategorienkennzeichnung (außer bei Translationsprodukten) die Kategorienzugehörigkeit von Knoten zumeist unmarkiert. Der linguistische Valenzbegriff ist von der syntaktischen Dependenzkonzeption zwar theoretisch unabhängig (vgl. 1.), steht aber wegen der lexikalischen Basis der Dependenz bei Tesnie`re damit in enger Verbindung. Die Darstellung von Valenz als Aktantenkonfiguration ist bei Tesnie`re noch Sehweisen der traditionellen, morphologisch basierten Kasusgrammatik auf grundlegende Weise verpflichtet.
6.
Literatur in Auswahl
Allerton, D.-J. (1995): „Re´gissants“ et „subordonne´s“. La de´limitation des „re´gissants“ et „subordonne´s“ chez Tesnie`re. In: Madray-Lesigne, Franc¸oise/Richard-Zappella, Jeannine (Hgg.) (1995), 249⫺255. Askedal, John Ole (1991): Charles S. Peirce’s Work on Relatives and Modern Valency Grammar. In: Cruzeiro Semiotico 15 (Julho 1991), 69⫺82. Askedal, John Ole (1994): Auxiliarverben in Lucien ˇ op, Tesnie`res Ele´ments de syntaxe structurale. In: C Bojan/Oresˇnik, Janez/Skubic, Mitja/Tekavcˇic´, Pavao (Hgg.) (1994), 15⫺28. Askedal, John Ole (1996): Valenz- und Dependenzdiagramme bei Charles S. Peirce und Lucien Tesnie`re. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996), 75⫺90. Baum, Richard (1976): „Dependenzgrammatik“. Tesnie`res Modell der Sprachbeschreibung in wissenschaftsgeschichtlicher und kritischer Sicht (⫽ Beihefte zur Zeitschrift für romanische Philologie 151). Tübingen. Baumgärtner, Klaus (1970): Konstituenz und Dependenz. Zur Integration der beiden grammatischen Prinzipien. In: Steger, Hugo (Hg.) (1970): Vorschläge für eine strukturale Grammatik des Deutschen (⫽ Wege der Forschung CXLVI). Darmstadt, 52⫺77. Bech, Gunnar (1955): Studien über das deutsche verbum infinitum. Band 1. Kopenhagen. Chomsky, Noam A. (1957): Syntactic Structures (⫽ Janua Linguarum, Series minor 4). The Hague etc. Comrie, Bernard (1983): Language Universals and Linguistic Typology. Syntax and Morphology. Oxford. ˇ op, Bojan/Oresˇnik, Janez/Skubic, Mitja/Tekavcˇic´, C Pavao (Hgg.) (1994): Me´langes Lucien Tesnie`re. Actes du colloque international ‘Lucien Tesnie`re. Linguiste europe´en et slove`ne’ (⫽ Linguistica XXXIV, 1). Ljubljana. Corblin, Francis (1995): Cate´gories et translations en syntaxe structurale. In: Madray-Lesigne, Franc¸oise/Richard-Zappella, Jeannine (Hgg.) (1995), 229⫺238. Creissels, Denis (1994): L’inte´gration d’indices pronominaux au mot verbal: un essai de typologie. In: ˇ op, Bojan/Oresˇnik, Janez/Skubic, Mitja/Tekavcˇic´, C Pavao (Hgg.) (1994), 65⫺70. Duden. Grammatik der deutschen Gegenwartssprache (1999). Bearb. von Peter Eisenberg et al. Mannheim/Leipzig/Wien/Zürich. (6. Aufl.). Engel, Ulrich (1994): Syntax der deutschen Gegenwartssprache (⫽ Grundlagen der Germanistik 22). Berlin (3. Aufl.). Engel, Ulrich (1996): Tesnie`re missverstanden. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996), 53⫺61.
98 Engelen, Bernhard (1975): Untersuchungen zu Satzbauplan und Wortfeld in der geschriebenen deutschen Sprache der Gegenwart. Teilband 1 (⫽ Heutiges Deutsch I/3.1). München. Feuillet, Jack (1995): Actants et circonstants: Quelques proble`mes de de´finition. In: Madray-Lesigne, Franc¸oise/Richard-Zappella, Jeannine (Hgg.) (1995), 175⫺181. Feuillet, Jack (1996): Les types de fonctions. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996), 129⫺136. Fillmore, Charles J. (1995): Constituency vs. Dependency. In: Madray-Lesigne, Franc¸oise/RichardZappella, Jeannine (Hgg.) (1995), 93⫺104. Garde, Paul (1994): Syntaxe et se´mantique chez ˇ op, Bojan/Oresˇnik, Janez/Skubic, Tesnie`re. In: C Mitja/Tekavcˇic´, Pavao (Hgg.) (1994), 95⫺99. Gre´ciano, Gertrud (1977): Inhalt und Funktion als Klassifizierungskriterien für Tesnie`res Knoten. In: Helbig, Gerhard (Hgg.) (1977): Beiträge der Klassifizierung der Wortarten. Leipzig, 66⫺77. Gre´ciano, Gertrud (1996): „Le Conglome´rat verbal“ el „la Cathe´drale de Strasbourg“. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996), 151⫺159. Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996): Lucien Tesnie`re ⫺ Syntaxe structurale et ope´rations mentales. Akten des deutsch-französischen Kolloquiums anläßlich der 100. Wiederkehr seines Geburtstages Strasbourg 1993 (⫽ Linguistische Arbeiten 348). Tübingen. Greenberg, Joseph H. (1966): Some Universals of Grammar with Particular Reference to the Order of Meaningful Elements. In: Greenberg, Joseph H. (Hg.) (1966): Universals of Language. Cambridge, Mass./London (2. Ausg.), 73⫺113. Haegeman, Liliane (1991): Introduction to Government and Binding Theory. Oxford. Happ, Heinz (1976): Grundfragen einer DependenzGrammatik des Lateinischen. Göttingen. Harris, Martin (1988): French. In: Harris, Martin/ Vincent, Nigel (Hgg.): The Romance Languages. London, 209⫺245. Hays, David G. (1964): Dependency theory: a formalism and some observations. In: Language 40, 511⫺552. Heger, Klaus (1996): Zum Problem der Gegenüberstellung von „actants“ und „circonstants“. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996), 203⫺209. Helbig, Gerhard (1996): Zur Rezeption und Weiterentwicklung des Tesnie`reschen Valenzkonzepts. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996), 41⫺51. Helbig, Gerhard/Buscha, Joachim (1984): Deutsche Grammatik. Ein Handbuch für den Ausländerunterricht. Leipzig (8. Aufl.).
II. Lucien Tesnie`re und seine Zeit Helbig, Gerhard/Schenkel, Wolfgang (1969): Wörterbuch zur Valenz und Distribution deutscher Verben. Leipzig. Heringer, Hans-Jürgen (1970a): Deutsche Syntax (⫽ Sammlung Göschen 1246/1246a). Berlin. Heringer, Hans-Jürgen (1970b): Einige Probleme und Ergebnisse der Dependenzgrammatik. In: Der Deutschunterricht 22, 42⫺98. Heringer, Hans-Jürgen (1984): Neues von der Verbszene. In: Stickel, Gerhard (Hg.): Pragmatik in der Grammatik. Jahrbuch 1983 des Instituts für deutsche Sprache. Düsseldorf, 34⫺64. Johnson, David E. (1977): On Relational Constraints on Grammars. In: Cole, Peter/Sadock, Jerrold M. (Hgg.) (1977): Grammatical Relations (⫽ Syntax and Semantics 8). New York etc., 151⫺178. Koch, Peter (1996): La me´tataxe actancielle. De Tesnie`re a` Busse/Dubost. In: Gre´ciano, Gertrud/ Schumacher, Helmut (Hgg.) (1996), 211⫺224. Koch, Peter/Krefeld, Thomas (1991): Dependenz und Valenz in romanischen Sprachen. In: Koch, Peter/Krefeld, Thomas (Hgg.) (1991), 5⫺38. Koch, Peter/Krefeld, Thomas (Hgg.) (1991): Connexiones Romanicae. Dependenz und Valenz in den romanischen Sprachen (⫽ Linguistische Arbeiten 268). Tübingen. Kotschi, Thomas (1991): Zirkumstanten und komplexe Prädikate. In: Koch, Peter/Krefeld, Thomas (Hgg.) (1991), 129⫺137. Lambertz, Thomas (1982): Ausbaumodell zu Lucien Tesnie`res „Ele´ments de syntaxe structurale“. Teil I⫺ II (⫽ Romania occidentalis 13). Gebrunn bei Würzburg. Lambertz, Thomas (1991): Kritische Anmerkungen zu Tesnie`res Translationstheorie. In: Koch, Peter/ Krefeld, Thomas (Hgg.) (1991), 53⫺79. Lambertz, Thomas (1995): Translation et de´pendance. In: Madray-Lesigne, Franc¸oise/RichardZappella, Jeannine (Hgg.) (1995), 221⫺228. Langacker, Ronald W. (1995): Introduction. Structural Syntax: The View from Cognitive Grammar. In: Madray-Lesigne, Franc¸oise/Richard-Zappella, Jeannine (Hgg.) (1995), 13⫺39. Lazard, Gilbert (1994): L’actance. Paris. Lazard, Gilbert (1995): La de´finition des actants. In: Madray-Lesigne, Franc¸oise/Richard-Zappella, Jeannine (Hgg.) (1995), 151⫺158. Lemare´chal, Alain (1996): Connexion, De´pendance et Translation: „Boite noire“ et The´orie tesnie`rienne de la Relation Syntaxique. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996), 91⫺100. Lyons, John (1977): Semantics. Band 2. Cambridge etc. Madray-Lesigne, Franc¸oise/Richard-Zappella, Jeannine (1995): Pre´face. In: Madray-Lesigne, Franc¸oise/Richard-Zappella, Jeannine (Hgg.) (1995), 5⫺11.
10. Das Valenz- und Dependenzkonzept bei Lucien Tesnie`re Madray-Lesigne, Franc¸oise/Richard-Zappella, Jeannine (Hgg.) (1995): Lucien Tesnie`re aujourd’hui. Actes du Colloque International C.N.R.S. URA ⫺ Universite´ de Rouen 16⫺17⫺18 Novembre 1992 (⫽ Bibliothe`que de l’Information grammaticale 30). Louvain/Paris. Matthews, P. H. (1981): Syntax. Cambridge etc. Mayerthaler, Willy (1994): Die Dependenzsyntax Tesnie`res und die Natürlichkeitstheoretische Syntax (NTS): Einige Berührungspunkte wie auch Difˇ op, Bojan/Oresˇnik, Janez/Skubic, ferenzen. In: C Mitja/Tekavcˇic´, Pavao (Hgg.) (1994), 137⫺163. Melis, Ludo (1983): Les circonstants de la phrase. Etude sur la classification et la syste´matique des comple´ments circonstanciels en franc¸ais moderne (⫽ Symbolae A 13). Louvain. Melis, Ludo (1991): Les tours pronominaux en franc¸ais moderne: diathe`se re´cessive ou couplage des marques pronominales? In: Koch, Peter/Krefeld, Thomas (Hgg.) (1991), 309⫺327. Oesterreicher, Wulf (1989): „Konsistenz“ als typologisches Kriterium? In: Raible, Wolfgang (Hg.) (1989): Romanistik, Sprachtypologie und Universalienforschung. Beiträge zum Freiburger Romanistentag 1987 (⫽ Tübinger Beiträge zur Linguistik 332). Tübingen, 223⫺262. Peirce, Charles Sanders (1960): Collected papers of Charles Sanders Peirce. Band III/IV. Hg. von Hartshorne, Charles/Weiss, Paul. Cambridge, Mass. Raible, Wolfgang (1992): Junktion. Eine Dimension der Sprache und ihre Realisierungsformen zwischen Aggregation und Integration (⫽ Sitzungsberichte der Heidelberger Akademie der Wissenschaften. Philosophisch-historische Klasse 1992:2). Heidelberg. Robinson, Jane J. (1970): Dependency structures and transformational rules. In: Language 46, 259⫺285. Samain, Didier (1995): Le graphe et l’icoˆne. Remarques sur la logique du sche´matisme chez Lucien Tesnie`re. In: Madray-Lesigne, Franc¸oise/Richard-Zappella, Jeannine (Hgg.) (1995), 129⫺135. Seefranz-Montag, Ariane von (1984): ‘Subjectless’ constructions and syntactic change. In: Fisiak, Jacek (Hg.) (1984): Historical Syntax. (⫽ Trends in Linguistics. Studies and Monographs 23). Berlin/ New York/Amsterdam, 521⫺553. Storrer, Angelika (1996): Wie notwendig sind obligatorische Valenzstellen? ⫺ Faktoren der Weglass-
99
barkeit von Valenzstellen im Text. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996), 225⫺238. Stötzel, Gerhard (1970): Ausdrucksseite und Inhaltsseite der Sprache. Methodenkritische Studien am Beispiel der deutschen Reflexivverben (⫽ Linguistische Reihe 3). München. Swiggers, Pierre (1994): Aux de´buts de la syntaxe structurale: Tesnie`re et la construction d’une synˇ op, Bojan/Oresˇnik, Janez/Skubic, Mitja/ taxe. In: C Tekavcˇic´, Pavao (Hgg.) (1994), 209⫺219. Tesnie`re, Lucien (1934a): Petite grammaire russe. Paris. Tesnie`re, Lucien (1934b): Comment construire une syntaxe. In: Bulletin de la Faculte´ des Lettres de Strasbourg 12, 219⫺229. Tesnie`re, Lucien (1939): The´orie structurale des temps compose´s. In: Me´langes de linguistique offerts a` Charles Bally. Gene`ve, 155⫺183. Tesnie`re, Lucien (1953): Esquisse d’une syntaxe structurale. Paris. Tesnie`re, Lucien (1959): Ele´ments de syntaxe structurale. Pre´face de Jean Fourquet. Paris (2. Ausg. 1966). Tesnie`re, Lucien (1980): Grundzüge der strukturalen Syntax. Herausgegeben und übersetzt von Ulrich Engel. Stuttgart. Vater, Heinz (1978): On the possibility of distinguishing between complements and adjuncts. In: Abraham, Werner (Hg.) (1978): Valence, Semantic Case, and Grammatical Relations. Papers prepared for the Working Group „Valence and Semantic Case“. 12th International Congress of Linguists, University of Vienna, Austria, August 29 to September 3, 1977. Amsterdam, 21⫺45. Weber, Heinz J. (1996): Translation, Rekursivität und Valenz bei Lucien Tesnie`re. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996), 249⫺261. Welke, Klaus (1988): Einführung in die Valenz- und Kasustheorie. Leipzig. Werner, Edeltraut (1993): Translationstheorie und Valenzmodell. Kritik und Reinterpretation des Ansatzes von Lucien Tesnie`re. Tübingen/Basel. Zifonun, Gisela/Hoffmann, Ludger/Strecker, Bruno et al. (1997): Grammatik der deutschen Sprache. Band 2. Berlin/New York.
John Ole Askedal, Oslo (Norwegen)
100
II. Lucien Tesnie`re und seine Zeit
11. Die Wortartenlehre bei Lucien Tesnie`re 1. 2. 3. 4. 5.
Einleitung Die Vollwortarten Die mots vides Rekurs auf andere Autoren und Arbeiten Literatur in Auswahl
1.
Einleitung
1.1. Vorbemerkung Das Problem Wortarten wird von Tesnie`re schon in seinem Aufsatz „Comment construire une syntaxe?“ aus dem Jahre 1933 zur Sprache gebracht, und schon hier sind seine diesbezüglichen Vorstellungen in Kurzform voll vorhanden. Hier spricht er noch ganz traditionell von den parties du discours (partes orationis). Seit seiner Arbeit von 1953 spricht er dann von espe`ces de mots. In den E´le´ments behandelt er die hier gegebenen Probleme vor allem in Kap. V von Buch A. Er unterzieht ⫺ wie viele andere auch ⫺ die auf die Antike zurückgehende Wortartenlehre mit ihren acht bis zehn Wortarten wegen der Heterogenität der ihr zugrundeliegenden Kriterien einer rigorosen Kritik und fordert das Ausgehen von einem einzigen, kohärenten Kriterium. Die linguistische Einheit Wort spielt in der Syntax Tesnie`res eine zentrale Rolle. Bei der Ermittlung der einzelnen Wörter geht er vom Satz aus und definiert das Wort als Segment der gesprochenen Kette, das sich zwischen zwei potentiellen Einschnitten befindet. Er kennt auch die Möglichkeit mehrteiliger und diskontinuierlicher Wörter, z. B. bei den mehrteiligen Verben im Deutschen. Er gibt unumwunden zu, dass der Begriff Wort nur sehr schwer greifbar ist (Kap. 10, § 11), was ihn aber nicht davon abhält, ihn allenthalben zu verwenden. Bisweilen kann man sich nicht des Eindrucks erwehren, dass er an manchen Stellen unbewusst die orthographischen Einheiten als die linguistische Grundeinheit Wort betrachtet. Bei den flektierbaren Wörtern geht er zunächst von ihrer morphologisch nicht markierten Form aus, also von der sog. Grundform. Morphologisch markierte Formen führt er unter dem Terminus (mots) composites. Tesnie`re geht offensichtlich von der Vorstellung aus, jedes Wort gehöre „von Hause aus“ zu einer bestimmten Wortart oder ⫺ was auf dasselbe hinausläuft ⫺ jedes Wort habe eine bestimmte kategoriale Bedeutung.
Allerdings könnten die meisten Wörter durch die Prozedur der Translation von ihrer „ursprünglichen“ in eine andere Wortart überführt werden, genauer formuliert: Fast jedes Wort bzw. fast jede Wortgruppe könne in ein Wort oder eine Wortgruppe überführt werden, die syntaktisch die Funktion einer anderen Wortart hat. So könne z. B. das Substantiv Alfred durch das Element d(e) in die Gruppe d’Alfred transferiert werden, also in das Äquivalent eines Adjektivs (z. B. Kap. 41, § 9). ⫺ Die Ermittlung der Wortartzugehörigkeit eines Wortes erfolgt bei Tesnie`re prinzipiell vor jeder Translation. Tesnie`re verfolgt in seinen linguistischen Arbeiten von Anfang an einen möglichst übereinzelsprachlichen Ansatz, was schon dadurch bedingt ist, dass er mit ihnen auch rein praktische Zwecke verfolgt, z. B. fremdsprachendidaktische. Dieser Ansatz hat einige wichtige Konsequenzen, bei seiner Wortartenlehre vor allem die, dass er bei Unterwortarten, für die es im Französischen keine oder nur sehr wenige Beispiele gibt, auf andere Sprachen zurückgreift, meistens auf das Deutsche oder Russische. Zumeist geht er allerdings vom Französischen aus, und auch die anderen von ihm hinzugezogenen Sprachen sind fast alle aus dem indoeuropäischen Bereich. 1.2. Die Grundvorstellungen Tesnie`res Tesnie`re geht bei seiner Wortartenlehre vor allem von den folgenden Vorstellungen aus: (1) Jedes Wort hat eine lexikalische und eine kategoriale Bedeutung (contenu se´mantique, contenu cate´gorique). Die lexikalische Bedeutung bezieht sich auf außersprachliche Gegebenheiten (auf la pense´e, wie Tesnie`re etwas lapidar sagt). Die kategoriale Bedeutung (andere Termini: grammatische Bedeutung, strukturelle Bedeutung) regelt die Beziehungen der lexikalischen Elementen zueinander. Für die Wortartzugehörigkeit ist nur die kategoriale Bedeutung von Relevanz, nicht die lexikalische. ⫺ Diesen Gedanken finden wir ⫺ z. T. unter anderen Termini ⫺ auch bei vielen anderen Autoren. (2) Tesnie`re unterscheidet zwischen der Inhalts- und Ausdrucksseite der Sprache (plan se´mantique und plan structural). Auf der Inhaltsseite unterscheidet er zwischen Vollwörtern (mots pleins, auch: mots autonomes) und „leeren Wörtern“ (mots vides), auf der Aus-
11. Die Wortartenlehre bei Lucien Tesnie`re
drucksseite zwischen konstitutiven Wörtern (mots constitutifs) und „Hilfswörtern“ (mots subsidiaires). Die Vollwörter haben prinzipiell lexikalische und kategoriale Bedeutung. Die mots vides haben nur kategoriale Bedeutung. Sie bilden zusammen mit den flexionellen Elementen die grammatischen Mittel, mittels derer Wörter ⫺ vor allem Vollwörter ⫺ von einer Kategorie in eine andere transferiert werden und mittels derer das grammatische Verhältnis der Vollwörter zueinander gekennzeichnet wird. An manchen Stellen benutzt Tesnie`re für die grammatischen Mittel den Terminus marquant (z. B. in Kap. 112⫺117). Der marquant kann auch den Wert null haben. ⫺ Die Unterscheidung von Vollwörtern und mots vides finden wir in dieser oder in ähnlicher Form auch bei zahlreichen anderen Autoren, zumeist unter anderen Termini (für Vollwort: Autosemantikum, Inhaltswort, Begriffswort; für mot vide: Synsemantikum, Strukturwort, Funktionswort, mot outil). (3) Auf der Inhaltsebene kommt Tesnie`re bei der Bestimmung der kategorialen Bedeutung der Vollwörter mit den vier inhaltlichen Merkmalen substance, proce`s, concret und abstrait aus und definiert mittels ihrer die von ihm als Substantiv, Adjektiv, Verb und Adverb bezeichneten Wortarten. So schreibt er z. B. in dem Satz Alfred chante dem Wort Alfred die kategoriale Bedeutung substance und concret zu und dem Wort chante die kategoriale Bedeutung action und concret und klassifiziert sie dementsprechend als Substantiv und als Verb. Da die kategoriale Bedeutung ohne Rückgriff z. B. auf morphologische und/oder funktionale Kriterien schwer greifbar ist, ergeben sich bei dieser Art des Zugangs oft erhebliche Zuordnungsprobleme, z. B. bei Verben, die keine action im eigentlichen Sinn des Wortes beinhalten wie z. B. in dem Satz Ci gıˆt Biron. Tesnie`re betrachtet die von ihm mit diesem Ansatz ermittelten Vollwortarten offensichtlich als übereinzelsprachlich. Er bezeichnet sie zwar mit den traditionellen Wortartbezeichnungen, definiert sie allerdings neu (vgl. 11.2). Sie ⫺ und nur sie ⫺ haben nach seiner Auffassung neben der kategorialen auch eine lexikalische Bedeutung. Bei ihnen ⫺ vor allem bei den Substantiven und Adjektiven ⫺ versucht er mit den Begriffen Extension und Intension (compre´hension) bzw. ⫺ mit anderen Termini ⫺ mit Begriffsumfang und Begriffsinhalt unterzuklassifizieren. Näheres in 11.2.
101 (4) Auf der strukturellen Ebene definiert Tesnie`re diejenigen Wörter als Mitglieder einer Vollwortart, die das Zentrum eines Nexus ⫺ um die Engelsche Übersetzung von Tesnie`res Begriff noeud zu verwenden ⫺ bilden können. Das heißt, es handelt sich um die Wörter, die die Funktion eines Regens haben können. Dabei spielt die Stellung eines solchen Wortes innerhalb eines Stemmas keine Rolle. Es kann gleichzeitig Regens von ihm untergeordneten Wörtern und Dependens eines ihm übergeordneten Wortes sein. Im Gegensatz zu den Vollwörtern können die mots vides nur in einem Nexus auftreten, aber nicht sein strukturelles Zentrum bilden. ⫺ Die Bestimmung der Wortarten auf der semantischen Ebene führt bei Tesnie`re zu denselben Ergebnissen wie die auf der strukturellen Ebene. Diese beiden Möglichkeiten fundieren sich wechselseitig, zumindest bei der Ermittlung der Wortart eines konkreten Einzelwortes. 1.3. Strukturelle Merkmale Bei der Bestimmung der Wortarten gibt es bekanntlich weiterhin die Möglichkeit, die Wörter von den strukturellen Merkmalen aus zu definieren, mittels derer ihre kategoriale Bedeutung realisiert ist, z. B. das Substantiv als die Wortart mit den Merkmalen Genus, Kasus und Numerus. Tesnie`re macht von diesem zwar nicht bei allen, aber bei vielen, vor allem bei den Vollwortarten leicht anzuwendenden und leicht überprüfbaren Verfahren keinen Gebrauch. Der Grund dafür dürfte der sein, dass dieser Ansatz nur in begrenztem Maß übereinzelsprachlich angewendet werden kann, da die besagten strukturellen Merkmale von Sprache zu Sprache sehr unterschiedlich sein können. Die eben genannte Definition des Substantivs gilt z. B. für das Deutsche, Lateinische und Russische, aber z. B. nicht für das Französische, denn hier gibt es bei dieser Wortart nicht das Merkmal Kasus, und nicht für das Türkische, da es hier das Merkmal Genus nicht gibt. ⫺ Wenn Tesnie`re von dieser Möglichkeit der Wortartbestimmung auch nicht explizit Gebrauch macht, muss man doch davon ausgehen, dass sie bei seiner Wortartenlehre zumindest als Hintergrundwissen eine Rolle gespielt hat. 1.4. Terminologische Probleme Ein großes technisches Problem besteht bei Tesnie`re darin, daß er Wortgruppen (auch satzförmige), die dieselbe syntaktische Funktion haben wie ein Vollwort, mit demselben Terminus bezeichnet wie dieses, und zwar mit
102
II. Lucien Tesnie`re und seine Zeit
dem, der im allgemein üblichen Sprachgebrauch als Wortartbezeichnung ⫺ und nur als Wortartbezeichnung ⫺ verwendet wird. In seinem Sinn müssen z. B. die folgenden Einheiten, die alle die syntaktische Funktion eines Aktanten haben, mit dem Terminus Substantiv bezeichnet und mit der Sigle O versehen werden. er; einer; Alfred; der junge Mann von nebenan; der Junge, von dem wir gestern gesprochen haben; dass er nach Hause kommt; nach Hause zu kommen Es versteht sich von selbst, dass hierdurch leicht Konfusionen entstehen können. Es wäre günstiger gewesen, die einzelnen Ebenen sorgfältig zu trennen und unterschiedlich zu benennen, z. B. mit Termini wie Wort, Nominalgruppe, Satzglied oder Komplement und Gliedsatz oder Satzkomplement. In der Tesnie`re-Nachfolge wird dies in der Regel getan.
2.
Die Vollwortarten
2.1. Einleitung Auf der semantischen Ebene gliedert Tesnie`re bei den Vollwortarten zunächst mit der Dichotomie substance vs proce`s. Dabei erhält er auf der einen Seite die Wortarten Substantiv und Adjektiv, auf der anderen die Wortarten Verb und Adverb. In einer zweiten Subdivision wendet er dann die Dichotomie concret vs abstrait an. Dabei schreibt er den Substantiven und Verben das Merkmal concret und den Adjektiven und Adverbien das Merkmal abstrait zu. Die Definition dieser Merkmale ist bekanntlich nicht unproblematisch. Letzten Endes bringt dieser Ansatz bei den Vollwortarten keine wirklich neuen Erkenntnisse, ja er klärt nicht einmal in nennenswertem Umfang Detailfragen, vor allem nicht bei der kritischsten Vollwortart, dem Adverb. Auf der strukturellen Ebene betrachtet Tesnie`re ⫺ wie bereits gesagt ⫺ die Wörter als Vollwörter, die einen Nexus bilden können (z. B. Kap. 29, § 2). Dieser Ansatz ist von heute her gesehen interessanter und progressiver als der semantisch orientierte. Er spielt allerdings bei Tesnie`re eine eher sekundäre Rolle, zumindest bei seinen Ausführungen zu den Wortarten. Bei den beiden nominalen Wortarten unterscheidet er dann jeweils zwischen speziellen Wörtern (mots particuliers, z. B. substantifs particuliers) und allgemeinen Wörtern (mots ge´ne´raux, z. B. substantifs ge´ne´raux).
Die speziellen Wörter haben sowohl eine lexikalische wie eine kategoriale Bedeutung, die allgemeinen Wörter hingegen haben nach Tesnie`re keine lexikalische Bedeutung im eigentlichen Sinn, sondern nur kategoriale Bedeutung (Kap. 31, § 5). Tesnie`re grenzt die von ihm ermittelten Wortarten ⫺ vor allem die Vollwortarten ⫺ zum Teil erheblich anders ein als die traditionelle Grammatik, bezeichnet sie aber trotzdem mit denselben Termini, was leicht zu Missverständnissen führen kann. Um das zu vermeiden, verwende ich im folgenden die französische Schreibweise, wenn ich die Tesnie`reschen Begriffe meine, sonst die deutsche. 2.2. Die Wortart substantif Auf der semantischen Ebene betrachtet Tesnie`re die Wörter als Substantive, die die kategorialen Merkmale substance und concret haben, auf der Ebene der Funktionen die, die Funktion eines Aktanten haben können (Kap. 48, § 6). Diesen Gedanken verfolgt er konsequent und rechnet nicht nur die traditionellen Substantive zu der von ihm als substantif bezeichneten Wortart, sondern darüber hinaus einen großen Teil der traditionellen substantivischen Pronomen. Erstere bezeichnet er als substantifs particuliers, letztere als substantifs ge´ne´raux. Bei den substantifs particuliers unterscheidet er ganz traditionell zwischen Eigennamen und Gattungsbezeichnungen und sagt dazu, bei den Eigennamen sei die Extension denkbar klein, die Intension hingegen sehr groß, bei den Gattungsbezeichnungen könne die Extension sehr unterschiedlichen Umfang haben, von sehr klein bis sehr groß. Ihre Intension sei dementsprechend bei denen mit großer Extension klein bis sehr klein, bei denen mit kleiner Extension groß bis sehr groß. Dieser Gedanke ist weitgehend korrekt, führt aber bei der Wortartbestimmung nicht wirklich weiter. ⫺ Eine weitere Differenzierung ⫺ z. B. in Konkreta, Abstrakta, Stoffbezeichnungen, Kollektiva usw. ⫺ erfolgt nicht. Bei den substantifs ge´ne´raux (im Folgenden: s. g.) führt Tesnie`re ⫺ mehr oder weniger exemplarisch ⫺ folgendes an: ⫺ s. g. interrogatifs: qui, quoi ⫺ s. g. ne´gatifs: rien, personne ⫺ s. g. personnels: moi, toi, lui, elle usw. Die Elemente je, tu, il usw. rechnet er nicht hierher, weil sie als verbundene Pronomen nicht als selbständige Wörter auftreten kön-
11. Die Wortartenlehre bei Lucien Tesnie`re
nen. Näheres bei den Ausführungen zu dem Mot-vide-Typ indice unter 11.3.4. ⫺ s. g. inde´te´rmine´s (oder inde´finis): Diesen Begriff fasst Tesnie`re enger als die traditionelle Grammatik und zwar im Sinne von „unbestimmt“. Als Beispiel führt er nur quelqu’un an. Unklar ist, ob er auch Elemente wie on und tout/tous dazu rechnet. Das Element chacun gehört bei ihm in eine andere Gruppe. ⫺ s. g. de´monstratifs: ceci, cela ⫺ s. g. individuels: chacun ⫺ das Element meˆme, bei dem nicht so recht einsichtig ist, warum es nicht nur bei den adjectifs ge´ne´raux untergebracht ist, sondern auch bei den substantifs ge´ne´raux. Alle diese Unterarten der substantifs ge´ne´raux sind nur vom Semantischen her gewonnen. Ein Teil von ihnen kann anaphorisch verwendet werden (z. B. ceci), worauf Tesnie`re in einem anderen Zusammenhang eingeht (Kap. 42 und 43). Dort führt er aus, dass diese Elemente bei dieser Verwendungsweise dieselbe Intension und Extension haben wie das Wort oder die Wortfolge bzw. der Sachverhalt, die mit ihnen wiederaufgenommen werden. Einige der substantifs ge´ne´raux haben deiktische Funktion (moi, toi, aber auch je und tu) oder können auch deiktische Funktion haben (z. B. die Demonstrativa). Explizit geht Tesnie`re nur auf die personaldeiktischen Elemente näher ein, und zwar in Kap. 53, wo er zwischen ontif (der Sprechende und der Angesprochene) und anontif (der oder das weder Sprechende noch Angesprochene) unterscheidet, und dann bei ontif noch einmal zwischen autoontif (der Sprechende) und antiontif (der Angesprochene). Andere Formen der Deixis (z. B. Lokal- und Temporaldeixis) thematisiert er nicht. Auch verwendet er nicht die Termini „Deixis“ und „deiktisch“. Tesnie`re geht nicht darauf ein, dass sich die substantifs ge´ne´raux von ihren Wortstellungsmöglichkeiten her anders verhalten als die substantifs particuliers. Überhaupt gehört das Problem der Wortfolge zu den großen Desiderata in seinem Werk. Die substantivierten Adjektive (z. B. le rouge) führt Tesnie`re mittels der Translation mit dem Translativ le ein. Diese Translation setzt natürlich voraus, dass auf der semantischen Ebene zwischen Substantiv und Adjektiv unterschieden werden kann. Problematisch ist dies z. B. im Lateinischen, wo zahl-
103 reiche Wörter ohne Translation sowohl als Substantive wie als Adjektive verwendet werden können, z. B. felix, pauper, rusticus. Die von Tesnie`re vorgeschlagene Klassifizierung der substantifs ist weitgehend an der traditionellen Grammatik orientiert und geht kaum über sie hinaus. Auch die Tatsache, dass er die traditionellen substantivischen Pronomen als eine Untergruppe der substantifs führt, ist dort im Prinzip schon angelegt (nomen vs pro nomine). 2.3. Die Wortart adjectif Vorbemerkung zur französischen Terminologie: Was im deutschen Sprachraum als attributives Adjektiv bezeichnet wird, ist im Französischen ein adjectif e´pithe`te oder einfach ein e´pithe`te. Der französische Terminus adjectif attribut entspricht im Deutschen der Artergänzung (Die Wiese ist grün) und dem prädikativ verwendeten Adjektiv (Er kam gesund nach Hause). Tesnie`re spricht in dem dem Adjektiv gewidmeten Kapitel (35) von adjectif attribut, obwohl er adjectif e´pithe`te meint. Der Wortart Adjektiv schreibt Tesnie`re ⫺ wie gesagt ⫺ die kategoriale Bedeutung substance abstraite zu. Auch hier beschäftigt er sich mit der Intension und der Extension ihrer einzelnen Mitglieder. Die Intension der eigentlichen Adjektive ⫺ so sagt er ⫺ gehe von relativ klein (z. B. rouge) bis relativ groß (z. B. mie`vre). Im Gegensatz zu den substantifs aber hätten die adjectifs keinerlei Extension. Das sei ihr wichtigster Unterschied zu den substantifs. In Kombination mit einem substantif vergrößerten sie dessen Intension und verkleinerten seine Extension. Während Tesnie`re bei den substantifs das Merkmal ge´ne´ral vs particulier als oberstes Subdivisionsprinzip verwendet, verwendet er es bei den adjectifs als unterstes. Bei ihnen unterscheidet er bei der ersten Subdivision zwischen den adjectifs attributifs (z. B. blanc) und den adjectifs de rapport (z. B. tel, mon). Die adjectifs attributifs umfassen ⫺ wie Tesnie`re an anderer Stelle genauer formuliert ⫺ die adjectifs attributs und die adjectifs e´pithe`tes. Sie fügen dem Substantiv ein qualitatives (le livre rouge) oder ein quantitatives Merkmal (deux livres) hinzu, während die adjectifs de rapport das substantif zu einer Person oder zu einer circonstance in Beziehung setzen, wobei er die lokale und temporale Relation explizit nennt. Bei den adjectifs attributifs unterscheidet Tesnie`re dann zwischen adjectifs de qualite´
104 und solchen de quantite´ und bei diesen beiden Gruppen wiederum zwischen ge´ne´raux und particuliers. Zu den adjectifs de qualite´ ge´ne´raux gehören z. B. quel, tel, chaque, quelque und meˆme. Die adjectifs de qualite´ particuliers (z. B. bon, grand, rouge) bezeichnet er als die eigentlichen Adjektive und gliedert sie in mehrere rein semantisch orientierte Untergruppen. Bei den adjectifs de quantite´ führt er im Französischen bei den ge´ne´raux nur das völlig veraltete Element maint sowie lat. paucus und multus und dt. viel an. Vom Inhaltlichen her ebenfalls hierher gehörende Elemente wie beaucoup de, peu de usw. betrachtet er als korrespondierende tournure adverbiales, die er aus den Adverbien beaucoup und peu und dem Translativ d(e) in Einheiten mit der Funktion eines adjectif de quantite´ transferiert. Bei den adjectifs de quantite´ particuliers führt er nur die Kardinalzahlen an. Die Ordinalzahlen scheint er vergessen zu haben. Bei den adjectifs de rapport unterscheidet Tesnie`re zwischen personnels und circonstantiels. Bei den personnels führt er bei den ge´ne´raux nur die traditionell als Possessivpronomen bezeichneten Elemente mon, ton usw. sowie russ. tschei („wessen“) an, bei den particuliers Elemente wie corne´lien, carte´sien sowie die russischen Possessivadjektive. Bei den cironstantiels bringt er als particuliers Elemente wie dt. gestrig, hiesig und die entsprechenden russischen Adjektive. Man hat den Eindruck, dass Tesnie`re einige seiner adjectif-Unterarten aus reinem Systemzwang eingeführt hat, vor allem im Bereich der adjectifs de rapport. Bei diesen können einige Unterarten ohne weiteres über die Prozedur der Translation eingeführt werden. Es ist schwierig nachzuvollziehen, warum Tesnie`re das Attribut de Corneille über eine Translation einführt, aber das Element corne´lien als adjectif führt. Zudem dürfte es schwierig sein, diesem Element (und den russischen Possessivadjektiven) die Extension null zuzuschreiben. Bei den Adjektiven hat Tesnie`re also u. a. einen Teil der traditionellen adjektivischen Pronomen und die Numeralia untergebracht, auch hier ohne Einbeziehung der Wortfolgeregularitäten innerhalb der Nominalgruppe. Tesnie`re verwendet auch den Terminus pronom, beschränkt ihn aber im Gegensatz zur traditionellen Grammatik rigoros auf die adjectifs ge´ne´raux, die mittels einer Translation in ein substantif ge´ne´ral transferiert worden sind, z. B. quelque vs quelqu’un, chaque vs chacun, mon vs le mien (Kap 178).
II. Lucien Tesnie`re und seine Zeit
2.4. Die Wortart verbe Tesnie`re bestimmt das Verb auf der semantischen Ebene als die Wortart mit dem kategorialen Merkmal proce`s concret und auf der strukturellen Ebene als eine Einheit, die einen zentralen Nexus (le noeud des noeuds) bilden kann. Er unterscheidet zwischen verbes d’e´tat und verbes d’action. Die verbes d’e´tat bezeichnen eine qualite´ oder eine position. Für ersteres führt Tesnie`re die Beispiele frz. eˆtre vert, lat. virere und dt. grünen an, für letzteres frz. ci-gıˆt, eˆtre debout, lat. stare und dt. stehen. Auch das Verb avoir ⫺ sowie lat. esse ⫹ Dativ ⫺ rechnet er zu den verbes d’e´tat. Diese Untergruppe entspricht in der im Deutschen üblichen Terminologie sowohl den Zustandswie den Vorgangsverben. Die verbes d’action, die in der deutschen terminologischen Tradition im großen ganzen den Handlungsverben entsprechen, implizieren nach Tesnie`re activite´, wobei er diesen Begriff ziemlich stark strapaziert, denn er führt als Beispielverben tomber und frapper an. Insgesamt sind die von ihm verwendeten Begriffe wenig trennscharf, noch weniger als die drei angeführten deutschen. Auf der semantischen Ebene allein lässt sich die Wortart Verb nicht bestimmen, denn auf dieser Ebene müssten auch die Wörter la chute und le coup als Verben betrachtet werden. Tesnie`re weist explizit darauf hin, dass die Dichotomie verbes d’e´tat vs verbes d’action nur partiell mit der Dichotomie intransitiv vs transitiv korrespondiert. Interessant ist, dass er die prädikativ gebrauchten Adjektive und ebenso die prädikativ gebrauchten Substantive als Teile des Verbs betrachtet, also einem sehr traditionellen Prädikatsbegriff das Wort redet. 2.5. Die Wortart adverbe Schon in der antiken Grammatik ist das Adverb die am schwierigsten zu bestimmende Vollwortart. Donatus z. B. unterscheidet hier 24 Untergruppen, die sowohl formal wie inhaltlich sehr Heterogenes enthalten und zum Teil noch einmal untergliedert sind. Man kann sich des Eindrucks nicht erwehren, dass hier die Wortart Adverb eine Art Sammelbecken für alle die Elemente ist, die man sonst nirgendwo unterzubringen wusste. Ob Tesnie`re hier wirkliche Fortschritte erzielt hat, ist fraglich. Auf der semantischen Ebene definiert er die Adverbien als Attribute zum proce`s, wobei nicht ganz klar ist, ob er mit dem Begriff proce`s nur das Verb meint oder aber
105
11. Die Wortartenlehre bei Lucien Tesnie`re
das Verb mit seinem Aktanten (also den Satz). Im ersten Fall stünde er genau in der Tradition der antiken Grammatik (Donatus: Adverbium quid est? Pars orationis quae adiecta verbo significationem eius explanat atque implet), im zweiten Fall wäre er etwas moderner. Da er die Adverbien (als Wortart und als Satzglied) inhaltlich als die Umstände (circonstances) definiert, innerhalb derer sich der Prozess abspielt, kann man davon ausgehen, dass er eher die zweite Möglichkeit meint. Tesnie`re untergliedert die Adverbien zunächst allgemein in adverbes de localisation und adverbes de relation. Bei ersteren unterscheidet er dann ⫺ ebenfalls ganz traditionell ⫺ zwischen Lokal- und Temporaladverbien. Bei den lokalen geht er von der Unterscheidung von ubi „wo“, quo „wohin“, unde „woher“, qua „wo hindurch, auf welchem Weg“ aus, die wir schon bei Donatus und Priscian finden und in fast allen Grammatiken, die in dieser Tradition stehen. Dieses Raster wendet er auch auf die temporalen Adverbien an und erhält dabei die folgenden Korrespondenzen: ubi: wann, quo: bis wann, unde: seit wann, qua: wie lange Für den lokalen und temporalen Bereich ist dieses Raster unproblematisch. Tesnie`re versucht bei seiner Behandlung der Wortart adverbe auch die Phänomene Aspekt und Aktionsart miteinzubeziehen, indem er sagt, ubi entspreche dem perfektiven und qua dem imperfektiven Aspekt und quo entspreche der terminativen und unde der inchoativen Sichtweise. Es ist fraglich, ob die hier hypostasierten Beziehungen wirklich gegeben und ob sie wirklich so relativ einfach sind. Bei den adverbes de relation geht Tesnie`re ebenfalls von dem angeführten Raster der Lokaladverbien aus und ordnet dem Element ubi die Adverbien des Wesens (quiddite´) zu, worunter er z. B. das gekennzeichnete Element in Wendungen wie faire dodo, Wunder wirken versteht, eine Vorstellung, bei der ihm kaum jemand folgen dürfte. Mit quo parallelisiert er die Adverbien, die das Ziel oder die Folge einer Handlung beinhalten und führt als Beispiele freilassen, totschlagen, sich kranklachen an, bei denen es zweifellos günstiger ist, die gekennzeichneten Elemente als Adjektive zu betrachten. Mit unde parallelisiert er Kausal- (dt. deshalb, lat. ideo), Kon-
zessiv- (kein Beispiel) und Konditionaladverbien (frz. sinon). Und mit qua setzt er die Adverbien der „Art und Weise“ (z. B. frz. gentiment) in Beziehung, weiterhin die adverbes de comparaison und de quantite´. Tesnie`res Subklassifikation der Wortart adverbe weist einige Ungereimtheiten auf und hat ⫺ vielleicht abgesehen von einigen kleinen Details ⫺ kaum wirklich Weiterführendes gebracht. Er weist im übrigen ausdrücklich darauf hin, dass die meisten von ihm angeführen Möglichkeiten zumeist nicht durch Einzelwörter, sondern durch Wortgruppen (tournures adverbiales) realisiert werden, also über Translationen. 2.6. Die Satzwörter Elemente wie aı¨e, oui, non, he´las, parbleu, aber auch Wendungen wie voici und s’il vous plaıˆt sind nach Tesnie`re syntaktisch nicht analysierbar (zumindest nicht synchronisch), wohl aber semantisch. Er betrachtet sie als Äquivalente von Sätzen und ordnet sie deshalb nicht bei den Wort-, sondern bei den Satzarten ein. Sie werden von ihm unter der Bezeichnung Satzwörter (mots-phrases) oder phrasillons geführt. Von der Form her unterscheidet er hier Satzwörter, die allein eine Äußerung bilden können (phrasillons complets, z. B. aı¨e, solche die einer Erweiterung bedürfen (phrasillons incomplets, z. B. voici) und solche, die funktional das Äquivalent ganzer Sätze und semantisch Anaphern sind (motsphrases anaphoriques, z. B. oui, non, si). Inhaltlich unterscheidet er „logische“ und affektive Satzwörter (phrasillons logiques und affectifs). Die logischen ⫺ z. B. voici, oui, non ⫺ sind nach seiner Auffassung keine Adverbien ⫺ wie häufig in den traditionellen Grammatiken behauptet ⫺, da sie sich auf Prozesse beziehen. Die affektiven ⫺ z. B. oh!, chut, s’il vous plaıˆt ⫺ entsprächen genau den Interjektionen der klassischen Grammatik. Die Differenzierungen, die Tesnie`re in diesem Teilbereich vornimmt, erinnern schon stark an Verfahren der funktionalen Diskursanalyse.
3.
Die mots vides
3.1. Einleitung Mit den mots vides beschäftigt sich Tesnie`re in den Kap. 38⫺41 et passim. Er unterscheidet bei diesem Wortarttyp drei Gruppen: 1. Junktoren (Kap. 39 et passim), 2. Translative (Kap. 40 et passim), 3. indices (Kap. 41 et passim). Weiterhin beschäftigt er sich in die-
106 sem Zusammenhang mit dem Phänomen der Anaphorik (Kap. 42⫺43). Während seine Ausführungen zu den Junktoren weitgehend unproblematisch sind, gibt es bei denen zu den Translativen und zu den indices einige Probleme und Inkonsistenzen. Dessen war sich Tesnie`re offensichtlich bewusst und hat das auch zur Sprache gebracht. 3.2. Die Junktoren Bei den Junktoren handelt es sich um die traditionelle Klasse der koordinierenden Konjunktionen, eine sowohl von ihrem Bestand wie von ihrer Funktion her unproblematische Wortart. Tesnie`re setzt auch die Möglichkeit einer jonction ohne jonctif an (z. B. Männer, Frauen und Kinder), wobei er nicht darauf eingeht, dass hier die Junktion mit dem syntaktischen Mittel der Intonation erfolgt. 3.3. Die Translative Die Translative werden von Tesnie`re als die Wörter definiert, mittels derer die Prozedur der Translation erfolgt, also als die Wörter, mit deren Hilfe ein Wort oder eine größere Einheit von einer grammatischen Kategorie in eine andere überführt wird. So ist z. B. in der Wortgruppe le livre d’Alfred das Substantiv Alfred durch das Translativ d(e) in eine Wortgruppe mit der Funktion eines Adjektivs transferiert. Zu dieser Definition gibt Tesnie`re in dem sehr umfangreichen Translations-Teil seines Hauptwerkes einige Spezifizierungen, vor allem die folgenden: ⫺ Ein Translativ ⫺ so sagt er ⫺ muss das Transferendum nicht unbedingt in eine andere Kategorie transferieren, sondern kann es auch in eine Unterkategorie seiner Ausgangskategorie überführen. So werde z. B. durch das Hilfsverb avoir ein Verb von einer Zeitform in eine andere versetzt, jedoch nicht in eine andere Wortart transferiert (Kap. 170, § 1). ⫺ Es gibt einen Typ von Translation, bei der das Transferendum nicht seine Kategorie wechselt, wohl aber seine Funktion innerhalb seiner Kategorie. Als Beispiel führt Tesnie`re frz. a` in dem Satz Alfred donne le livre a` Bernard an, in dem das Wort Bernard durchaus in der Kategorie substantif verbleibt, aber durch das Translativ a` zum dritten Aktanten wird. Diesen Typ der Translation nennt Tesnie`re translation fonctionnelle (Kap. 172). ⫺ Weiterhin gibt es Elemente, die einerseits als Translative fungieren, andererseits
II. Lucien Tesnie`re und seine Zeit
aber gleichzeitig als Aktanten, z. B. die Relativpronomen: Sie transferieren einen Satz (bei Tesnie`re: einen verbalen Nexus) in eine Wortgruppe mit der Funktion eines Adjektivs und bilden gleichzeitig einen Aktanten dieses verbalen Nexus (Kap. 246). Unter dem Begriff Translativ werden von Tesnie`re vor allem die folgenden traditionellen Wortarten subsumiert: ⫺ ⫺ ⫺ ⫺
subordinierende Konjunktionen Relativpronomen Präpositionen Artikel, vgl. die Ausführungen zu den indices in 11.3.4 ⫺ Auxiliarverben Weiterhin können flexionelle Elemente als Translative fungieren. In diesem Zusammenhang führt Tesnie`re auch die von ihm als pre´verbes bezeichneten Elemente an. Unter diesem Terminus versteht er die perfektivierenden Verbpräfixe in den slawischen Sprachen. Auch sie haben nach seiner Auffassung die Funktion eines Translativs. So sei bei dem russischen Verb perepisat’ das Element pere auf der strukturellen Ebene ein Translativ, da es vom Präsens ins Futur transferiere (pisˇu „ich schreibe“ vs perepisˇu „ich werde abschreiben/u´mschreiben“). Auf der semantischen Ebene hingegen sei das Element pere ein Vollwort, da es neben der strukturellen auch eine lexikalische Bedeutung habe (Kap. 171). Tesnie`re weist explizit darauf hin, dass es auch Translationen ohne explizites Translativ (also mit einem Null-Element) gibt, z. B. in la tour Eiffel (Kap. 45) und bei dem satzförmigen Attribut in der Sequenz the man I saw yesterday (Kap. 246). Die hierbei gegebenen grammatischen Mittel Wortfolge und Intonation erwähnt er nicht. Des weiteren weist Tesnie`re darauf hin, dass mittels des Verfahrens der Translation auch viele Bereiche der Wortbildung beschrieben werden können (Kap. 174 f.). Seine diesbezüglichen Äußerungen sind zum großen Teil diachronisch orientiert. Das geht schon daraus hervor, dass er nicht nur bei den nicht mehr durchschaubaren Derivata und Komposita von erstarrten Translationen (translations fige´es) spricht, sondern auch bei semantisch so gut durchschaubaren Substantivarten wie den Nomina actionis und agentis.
107
11. Die Wortartenlehre bei Lucien Tesnie`re
3.4. Die indices Unter dem Terminus indice fasst Tesnie`re die mots vides zusammen, die weder Junktoren noch Translative sind. Funktionell charakterisiert er diese Wörter als Begleiter eines Vollwortes, die dessen Kategorie im Gegensatz zu den Translativen nicht verändern, sondern sie lediglich anzeigen (indiquer). Als wichtigste Arten der indices betrachtet er neben flexionellen Elementen den Artikel, den er als indice substantival bezeichnet, und die indices personnels, also die sog. verbundenen Pronomen (z. B. il aime; je le lui donnerai). Die exakte Abgrenzung zu den Tanslativen hält er für schwierig. Beide seien im Grunde nur Varianten derselben Wortart und ob ein Wort dieses Typs als Translativ oder als indice zu betrachten sei, hänge stärker von seiner konkreten Verwendung als von seiner „eigentlichen Natur“ (Kap. 41, § 13) ab. Als Beispiel führt er den bestimmten Artikel an. In le bleu sei mittels seiner ein Adjektiv in ein Substantiv transferiert, in le livre jedoch habe er auf der syntaktischen Ebene lediglich indikatorische Funktion (auf der semantischen Ebene allerdings gebe er die Extension des Substantivs an, bei dem er steht). Weiterhin argumentiert Tesnie`re, bei Formen wie (nous) aim-ons könne man die Endung -ons je nach Ausgangspunkt sowohl als Translativ wie als indice betrachten. Nehme man (j’)aim-e als Ausgangspunkt, so habe die Endung -ons translative Funktion, denn dann transferiere sie vom Singular in den Plural. Gehe man jedoch von der Form aimaus, die wir auch in aimais, aimai, aimer usw. finden, so hätte diese Endung lediglich indikatorische Funktion. Bei der Einordnung des bestimmten Artikels als indice ist Tesnie`re offensichtlich von der Tatsache ausgegangen, dass dieser im Französischen ein Klitikum ist, und hat ihm deshalb lediglich die Funktion eines indice zugeschrieben. Wäre er z. B. vom Deutschen ausgegangen, wo der bestimmte Artikel von seiner Lautsubstanz her mit den meisten Formen des Demonstrativpronomens der identisch ist, so hätte er ihn zweifellos zu derselben Wortart gerechnet wie dieser, jener, ce, quel usw., also zu den adjectifs ge´ne´raux. Ähnliches gilt für die von Tesnie`re diskutierte Auffassung, die verbundenen Pronomen seien indices. Auch hier ist er offensichtlich von den speziellen Verhältnissen im Französischen ausgegangen, wo man diesen Klitika den Status von Wörtern durchaus absprechen kann (Kap. 59, § 11), aber kei-
neswegs absprechen muss. Bei der von ihm favorisierten Sichtweise ergibt sich bei seinen Satzstemmata die darstellungstechnische Schwierigkeit, dass ein Element wie je oder tu einerseits erster Aktant ist, andererseits aber als indice zum Verb geführt werden muss. Es wäre zweifellos günstiger gewesen, die verbundenen Pronomen ohne Rücksicht auf ihren Klitikumcharakter ebenso wie moi, toi usw. als substantifs ge´ne´raux personnels zu führen. Wahrscheinlich ist es möglich und sinnvoll, auf den Begriff indice ganz zu verzichten.
4.
Rekurs auf andere Autoren und Arbeiten
Wie in seinem gesamten Werk geht Tesnie`re auch in seinen Ausführungen zu den Wortarten nur sporadisch auf die einschlägige Literatur ein. Aus dem französischen Sprachraum führt er fast nur Damourette und Pichon an, und das eher beiläufig und ohne die Fundstelle zu nennen. Weiterhin nennt er hier den Sprachpsychologen G. Galichet (1947) und einen Aufsatz von Benve´niste. Für seine Beispiele aus dem Deutschen rekurriert er zumeist auf A. Malblanc (1944). Von den Sprachwissenschaftlern, die vor ihm das traditionelle Wortartensystem kritisiert haben, führt er nur Joseph Vendryes (1921) an, und auch das nur beiläufig. Die deutschen Arbeiten zur Wortartenproblematik vom Ende der 20er Jahre (Eduard Hermann (1928), Ernst Otto (1928), Friedrich Slotty (1929)) werden von ihm nicht angeführt, ebensowenig wie die entsprechenden Arbeiten aus dem Umkreis des taxonomischen Strukturalismus, z. B. Fries (1952).
5.
Literatur in Auswahl
5.1. von Tesnie`re angeführte Literatur: Damourette, Jacques/Pichon, E´duard (1911⫺ 1940): Des mots a` la pense´e. Essai de grammaire de la langue franc¸aise. 8 Bände. Paris. Galichet, George (1947): Essai de grammaire psychologique du franc¸ais moderne. Paris. Malblanc, A. (1944): Pour une stilistique compare´e du franc¸ais et de l’allemand. Essai de repre´sentation linguistique compare´e. Paris. Vendryes, Joseph (1921): Le langage. Introduction linguistique a` l’histoire. Paris.
108
II. Lucien Tesnie`re und seine Zeit
5.2. Weitere Literatur zur Wortartenproblematik (nur zu Lebzeiten Tesnie`res erschienene) Fries, Charles Ch. (1952): The Structure of English. London Hermann, Eduard (1928): Die Wortarten. Berlin. Otto, Ernst (1928): Die Wortarten, In: GermanischRomanische Monatsschrift 16, 417⫺424.
Slotty, Friedrich (1929): Wortart und Wortsinn, In: Travaux du Cercle Linguistique de Prague 1, 93⫺ 106.
Die drei zuletzt genannten Titel sind wiederabgedruckt in: Schaeder, Burkhard/Knobloch, Clemens (Hgg.) (1992): Wortarten. Beiträge zur Geschichte eines grammatischen Problems. Tübingen.
Bernhard Engelen, Dortmund (Deutschland)
12. Zu Tesnie`res Semantikkonzept 1. 2. 3. 4. 5.
1.
Zur wissenschaftsgeschichtlichen Stellung Tesnie`res Tesnie`res Modernität Die semantische Ebene und das Valenzkonzept Zusammenfassung Literatur in Auswahl
Zur wissenschaftsgeschichtlichen Stellung Tesnie`res
Lucien Tesnie`re ist faktisch erst nach seinem Tod mit dem posthumen Werk „E´le´ments de syntaxe structurale“, Paris 1959, im deutschsprachigen Raum vor allem durch dessen Übersetzung als „Grundzüge der strukturalen Syntax“ durch U. Engel, mit zahlreichen Kommentaren und Adaptationen, international bekannt geworden. Dabei dürfte er ⫺ so er überhaupt seitens der Linguistik zur Kenntnis genommen wurde ⫺ vor allem als ein Erneuerer der Syntax mit seiner Akzentuierung einer vom Verb als nœud des nœuds dominierten Abhängigkeitsgrammatik mit drei Aktanten und einer Vielzahl von Zirkumstanten/Angaben sowie zahlreichen Mechanismen, darunter der Translation und Metataxe, angesehen werden, also als der geistige Vater einer syntaxzentrierten Valenztheorie. Allerdings wird selbst diese Urheberschaft durchaus nicht von allen Valenztheoretikern und Abhängigkeitsgrammatikern explizit anerkannt, steht u. W. auch eine entsprechende umfassende und allseitige Würdigung des Gesamtwerkes von Tesnie`re für eine Geschichte der sprachwissenschaftlichen Theorienbildung noch aus, fand er zudem gerade in der französischen Sprachwissenschaft bis auf den heutigen Tag nur eine alles in allem vergleichsweise bescheidene, periphere Beachtung.
2.
Tesnie`res Modernität
Liest man sein posthumes Hauptwerk genauer aus heutiger Sicht, so entdeckt man eine ganze Reihe von aufschlussreichen Details, die Tesnie`re nicht nur als Vorläufer der Valenztheorie und Dependenzgrammatik erweisen, sondern auch als einen scharfsichtigen, theoretisch breit belesenen, eine Vielzahl von Sprachen auch außerhalb der indoeuropäischen als Belege heranziehenden Linguisten, der durchaus auch gewisse Grundannahmen der semantischen Valenztheorie Helbigs, d. h. letztlich der Kasusrollenbestimmung der Aktanten (und letztlich auch der Angaben) sowie selbst der Szenen- und Skript-/FrameSemantik und damit letztlich einer Spielart der kognitiven Semantik, vorwegnimmt. 2.1. Die semantische Ebene Bei Tesnie`re finden sich keine längeren zusammenhängenden Ausführungen zur Semantik ⫺ weder zu dem, was man als Satzbedeutung und noch weniger zu dem, was man als Wortbedeutung bzw. lexikalische Bedeutung bezeichnen könnte ⫺ von den näheren Bestimmungsversuchen der von Tesnie`re etikettierten Funktionen der Aktanten des Verbs einmal abgesehen. Der alles in allem sporadische Bezug auf solche semantischen Aspekte, die für ihn (S. 50 ⫺ alle Zitate und Verweise nehmen auf die deutsche Übersetzung Bezug) die letzte raison d’eˆtre für die Syntax darstellen und der im Unterschied zu seinem sonstigen detaillierten Bemühen um eine klare inhaltliche Bestimmung der syntaktischen Operatoren, Stemmata und Mechanismen eher zufällige und undifferenzierte Rekurs auf nicht näher spezifizierte Bezeichnungen wie Begriff, Vorstellung, Gedanke, Bedeutung, semantisch, er-
12. Zu Tesnie`res Semantikkonzept
scheint indes durchaus erklärlich, betrachtet man das nuancierte Interesse an syntaktischen Fragestellungen sowie insbesondere die von Tesnie`re nirgends hinterfragte Überzeugung, dass die Beschreibung semantischer Aspekte im weitesten Sinne als Inhaltsform der Sprache bzw. innere Sprachform in der Nachfolge von Humboldt letztendlich eine Angelegenheit der Psychologie und Logik und ⫺ demzufolge ⫺ nicht der Linguistik/ Grammatik sei. So lesen wir S. 50: „Auf der semantischen Ebene hingegen existiert der Gedanke unabhängig von jedem sprachlichen Ausdruck. Die semantische Ebene steht außerhalb der Grammatik; sie gehört allein in die Psychologie und Logik.“ S. 43 heißt es, strukturelles und semantisches Schema (letzteres erscheint überraschend und unspezifiziert neben den kurz erwähnten abstrakten strukturellen und linearen Schemata) „konstituieren im Gegensatz zur äußeren Form des Satzes seine eigentliche innere Form.“ Dabei geht es Tesnie`re mit ausdrücklichem Bezug auf Ballys „Pre´cis de stylistique“ (Gene`ve 1909, Bd. 1, 83 f.) als Aufgabe der Linguistik um „die Beobachtung dessen, was im Bewusstsein des Sprechers vorgeht in dem Augenblick, in dem er ausspricht, was er meint“ (S. 44). Im Verständnis von Tesnie`re umfasst die Inhaltsform neben dem Gedanken das strukturale und lineare Schema, die ihm auf der sprachlichen Ebene entsprechen (S. 44) und wird die Funktion für die einzelnen Wörter als die Rolle bestimmt, „die den Wörtern in dem Mechanismus, der dem Ausdruck des Gedankens (dient), zugewiesen ist.“ (S. 48) Kurz danach finden wir zwei wichtige, wenn auch im weiteren Werk nicht konsequent weiter ausgebaute Überlegungen. „Die Struktur des Satzes ist eines, die Vorstellung, die er ausdrückt, die seine Bedeutung (sic! G. W.) ausmacht, ein anderes. Man muss deshalb unterscheiden zwischen der strukturalen und semantischen Ebene“ (S. 49), wobei letztere im Folgenden ziemlich aus dem Blickfeld gerät. Immerhin finden wir S. 50 das Eingeständnis: „Aber wir dürfen die semantische Ebene nicht völlig übergehen, denn die Bedeutung ist letztlich der Daseinsgrund der Struktur und bildet somit einen indirekten Gegenstand der Syntax … Auf der strukturalen Ebene bildet sich der sprachliche Ausdruck des Gedankens. Sie gehört ihrem Wesen nach zur Grammatik“. 2.2. Die strukturale Ebene Nach Tesnie`re ist die geistige Tätigkeit auf struktureller Ebene subjektiv und unbewusst als ein elementares und notwendiges Phäno-
109 men, das ⫺ so könnte man geneigt sein hinzuzufügen ⫺ einzelsprachspezifisch (wie z. T. kulturspezifisch) geprägt erscheint, während die geistige Tätigkeit auf der semantischen/lexikalischen Ebene objektiv und bewusst ist. „Sie (die geistige Tätigkeit allgemein ⫺ G. W.) ist ein oberflächliches und nur zufälliges Phänomen. Der Sprecher sucht sich die Vorstellungen aus, die er zum Ausdruck bringen will. Und wenn er nur ein bisschen Bildung hat, kann er seine Ausdrucksweise kontrollieren und ein Wort statt des anderen wählen.“ (S. 51) Tesnie`re erteilt jedoch einer sprachlichen Weltsicht eine Abfuhr, wenn er sagt (S. 58): „Die Verstandeskategorien liegen auf der psychologisch-logischen Ebene. Da die psychologisch-logischen Vorgänge die Grundlage allen Denkens sind, sind diese Kategorien allen Menschen ⫺ ungeachtet ihrer jeweiligen Muttersprache ⫺ gemeinsam“. Wiewohl Tesnie`re darauf Wert legt, dass die Syntax als Form des Ausdrucks der Gedanken nicht mit dem Gedanken selbst als deren Inhalt verknüpft, also völlig unabhängig von Logik und Psychologie, ist (S. 51, 52), so wie nach seiner Vorstellung strukturale und semantische Ebene voneinander unabhängig sind (S. 51), so relativiert er diese extreme Behauptung doch selbst, wenn er S. 52 feststellt, dass die angenommene Unabhängigkeit der Struktur von der Bedeutung in der Praxis als Parallelität betrachtet werden muss, „weil die strukturale Ebene die Aufgabe hat, den Ausdruck des Gedankens zu ermöglichen“. Diese Parallelität (wir würden etwa von Isomorphismus/Homomorphie sprechen) käme beispielsweise in Konnexionen zum Ausdruck, insofern als strukturale Konnexionen beispielsweise von semantischen überlagert würden. Das Strukturale bezeichne das Semantische; der Inhalt des Dependens träfe zu auf den Inhalt des Regens, wobei (am Beispiel von kleiner Bach = Eigenschaft der Bäche) die semantische Beziehung von unten nach oben verlaufe/zeige (Dependenz ⇒ Regens), die strukturale Beziehung dagegen umgekehrt verlaufe (S. 53). Wie bedeutsam in diesem Kontext die Bedeutung ist, macht Tesnie`re S. 54 mit dem Hinweis deutlich, dass es keine strukturale Konnexion ohne eine semantische, wohl aber durchaus eine semantische Konnexion ohne eine strukturale geben könne. „Je tiefer ein Wort im strukturalen Gefüge steht, desto wahrscheinlicher ist es, dass es wichtig für die Satzbedeutung ist. Es scheint fast, als ob die Funktion des Regens nur darin bestünde, die se-
110 mantische Zuordnung des Dependens zu ermöglichen.“ (S. 53) 2.2.1. Nach Tesnie`re enthalte das Wort, im Wortstamm (S. 56), neben einem strukturalen auch einen semantischen Nexus (S. 57), aber nicht notwendig beide im gleichen Wort, sondern auch dissoziiert, wobei das eine Wort Träger der strukturalen, das andere Träger der semantischen Funktion sei und das Wort als Segment der gesprochenen Kette und lineare Einheit des Satzes im Unterschied zum Nukleus als syntaktischer Einheit des Satzes keine syntaktische Realität besitze, sondern nur über den Umweg des Nukleus (S. 57), der als Konstrukt neben strukturaler Funktion vor allem semantische Funktionen in sich vereine (S. 55). 2.2.2. „Mit Hilfe der Verstandeskategorien“ (und offenbar unabhängig von Sprache ⫺ G. W.) „formt der menschliche Geist die Welt nach seinem Maße um. Ebenso kann auf sprachlicher Ebene der Inhalt des Denkens nur erfasst werden, wenn ihm ebenso der Raster eines Systems allgemeiner Begriffe auferlegt wird, die man grammatische Kategorien nennt. Mit Hilfe der grammatischen Kategorien formt die Sprache die Denkinhalte nach ihrem eigenen Maße um … Die grammatischen Kategorien entsprechen häufig den Verstandeskategorien.“ Es wäre jedoch unangebracht, aus der Entsprechung zwischen grammatischen und Verstandeskategorien und dem für letztere ausdrücklich postulierten universellen Charakter auch die grammatischen Kategorien als vom Verstand geprägt und somit virtuell universell ansehen zu wollen. Immerhin macht Tesnie`re selbst sehr deutlich, dass die grammatischen Kategorien ungeachtet ihrer engen Beziehungen zur semantischen Ebene erheblich von Sprache zu Sprache variieren können (S. 60). Dabei seien die grammatischen Kategorien als Vorgesetzte und allgemeine Begriffe und Klassifikatoren (z. B. Gegenstand = Kategorien der Sprache als System/langue) der Denkinhalte ⫺ als Untergebene ⫺ zu betrachten, wogegen die Funktionen als dynamisch zu betrachten wären (z. B. Substantiv als Subjekt, Objekt) und in der Parole erst dem Satz Sinn verleihen (S. 60). Aus dem kategorialen Zugriff der Grammatik auf die Denkinhalte könnte allerdings u. U. doch abgeleitet werden, dass die ⫺ zudem muttersprachige ⫺ jeweilige Weltsicht, d. h. die syntaktische Kategorisierung der
II. Lucien Tesnie`re und seine Zeit
Welterfahrung und mithin auch die Sicht auf die Verstandeskategorien bestimme, wiewohl beide grundlegend verschiedenen Ebenen angehören (S. 58), wobei allerdings Tesnie`re selbst eine solche Bezugnahme ⫺ etwa auf Weisgerber ⫺ an keiner Stelle vornimmt. 2.3. Sachverhalte und ihre sprachliche Abbildung Aus dem bisher Gesagten und nachfolgenden knappen Ausführungen zur lexikalischen bzw. Wortbedeutung könnte geschlussfolgert werden, dass Tesnie`re auf der für ihn durchaus bedeutsamen und aufs engste mit der strukturalen Ebene verwobenen semantischen Ebene im Wesentlichen zwischen Gedanken und Vorstellungen unterscheidet, ohne allerdings eine hinreichende Festlegung zuzulassen, welche den Satz- und welche den Wortbedeutungen entsprechen, d. h. den Worten oder Nuklei über die von der Syntax/Grammatik unabhängige Kategorisierung als Verstandeskategorien und Denkinhalte so genannter „voller Wörter“ als deren lexikalische Verwendungsbedeutungen zuzuordnen sind. Semanteme als Träger semantischer Funktionen (S. 68) und abstrakte Größen der Sprache/Langue drücken nach Tesnie`re (S. 68) Vorstellungen unmittelbarer aus, wobei die so genannten speziellen vollen Wörter (Appellative vor allem) die reale Welt wiedergeben würden (die generellen Wörter ⫺ z. B. jemand, man ⫺ dagegen nur deren virtuelle Entsprechung ⫺ S. 72). 2.3.1. In einem Satz mit vollen Wörtern wie Alfred hat gestern seinen Hut vergessen werde ein wirklicher Sachverhalt evoziert ⫺ wir könnten auch von „ein Ereignis wird instantiiert“ sprechen ⫺, wobei nur dieser Satz einen semantischen Gehalt, aufteilbar in Substanz und Geschehen, aufweist, ein Satz wie Man vergisst immer etwas dagegen einen solchen konkreten Sachverhaltsbezug vermissen lasse (S. 72). Dabei sind nach Tesnie`re „Substanzen … die Dinge, die durch die Sinne wahrgenommen und vom Verstand her als unterscheidbar existierend aufgefasst werden, z. B. Pferd, Tisch, jemand. Die vollen Wörter, die Substanzen bezeichnen, werden Substantive genannt. Geschehen ist Zustand oder Vorgang, durch das eine wie das andere manifestiert die Substanz ihre Existenz, z. B. ist, schläft, isst, macht usw. Die vollen Wörter, die Geschehen bezeichnen, werden Verben genannt.“ (S. 72).
12. Zu Tesnie`res Semantikkonzept
2.3.2. Nach Tesnie`re würden die meisten Sprachen Wortartunterschiede zwischen Substanz und Geschehen nicht grammatikalisieren, Substanz als Geschehen auffassen und folglich das Verb als Substantiv, wobei es den Verbbegriff im strengen Sinne nur in europäischen Sprachen gäbe (S. 73).
3.
Die semantische Ebene und das Valenzkonzept
Im Folgenden finden sich indirekte wie auch spezifizierende Hinweise zu den Vorstellungen Tesnie`res hinsichtlich Bedeutung/semantische Ebene (nunmehr vor allem auf Verben, aber z. B. auch auf Substantive bezogen) im Umfeld seiner Ausführungen zur Valenz, aber auch zur Metataxe und vor allem zur Translation. Als besonders bekannt und ausdeutbar dürfte in diesem Zusammenhang Tesnie`res Bild vom „petit drame“ (S. 93) sein, bei dem an der Durchführung einer bestimmten Handlung oder auch als Beteiligte an einem Vorgang bestimmte Handelnde/Vorgangsbeteiligte herausgestellt werden können. „Wie das Drama umfasst er (der verbale Nexus ⫺ G. W.) notwendig ein Geschehen und meist noch Akteure und Umstände.“ (S. 93) Dieser von Tesnie`re nicht systematisch ⫺ z. B. im Hinblick auf seine eigenen Vorstellungen von Ereignis/Geschehen (vgl. die mögliche Beziehung zur Ereignissemantik) ⫺ verfolgte Ansatz sollte indes nicht überinterpretiert werden, erscheint er doch in seinem Gesamtwerk eher sporadisch und zufällig. Andererseits liegt die Herstellung einer direkten Beziehung ⫺ etwa zu den Partizipanten eines Geschehenstyps als intranotionale Komponenten im Sinne von Klix 1987 ⫺ oder aber auch zu den semantischen Netzen oder Frames, Skripts oder Szenen im Gefolge von Fillmore 1976, 1985/86; Schank 1981; Raskin 1985, 1986 oder aber auch zur Bestimmung der Rollen/Funktionen der Aktanten in Tesnie`res Konzeption auf der Hand. 3.1. Die Aktantenkonzeption Für die Semantikkonzeption Tesnie`res besonders bedeutsam sind in diesem Zusammenhang die Bestimmungsversuche, die er S. 100/ 101 im Hinblick auf die Funktionen unternimmt, die er seinen zunächst syntaktisch bestimmten drei Aktanten zuweist. Dabei wird der 1. Aktant als Subjekt, der 2. als direktes Objekt und der dritte Aktant
111 als indirektes (Dativ)Objekt bestimmt, wobei er deren Abgrenzung zu den Zirkumstanten/ Angaben ansatzweise später zwar problematisiert (S. 116 besonders für O-Aktanten), im Übrigen aber formal durch das Fehlen von Präpositionen begründet, was z. B. bei dem 3. Aktanten, aber etwa im Spanischen und Rumänischen auch beim direkten personalen Objekt, zu Problemen führen muss. Hinzu kommt, dass z. B. in Er lief zwei Stunden, bis er zu Hause eintraf das direkte Objekt sich nicht mit der für den 2. Aktanten üblichen semantisch-funktionalen Bestimmung deckt. Mehr Aktanten scheinen ihm ausgeschlossen, wohl aber können die gleichen Aktantenarten mehrfach bei dem betreffenden Verb vorkommen (so 2 direkte Aktanten oder 2 Subjekte mit Junktor). Kotschi 1979 hat dagegen für maximal 4 Aktanten plädiert; während wir selbst aufgrund einer semantikbasierten Auffassung sogar 6 Aktanten ⫺ etwa bei Transportverben ⫺ zugelassen haben ⫺ u. a. B. Wotjak/G. Wotjak 1995. 3.1.1. Für Tesnie`re erscheint der 1. Aktant als Subjekt semantisch-funktional i. d. R. als Urheber, Verursacher/Bewirkender/Ausführender der durch das Verb bezeichneten Handlung/Tätigkeit (des petit drame); wir würden von einer prototypischen AGENS-Zuweisung sprechen (vgl. Welke 1988), wobei Tesnie`re selbst verdeutlicht, dass der Subjektaktant bei einigen Verben wie miss oder manquer (vgl. S. 207 seine Ausführungen zur Metataxe und multiplen Aktantenvertauschung) anders spezifiziert werden müsste bzw. z. B. bei gefallen nur ein 2. und 3. Aktant feststellbar wären. Für den 2. Aktanten sieht Tesnie`re folgende Rollenbestimmung vor (S. 100): „Der zweite Aktant (= direktes Objekt ⫺ G. W.) ist in semantischer Hinsicht der, welchem eine Tätigkeit/Handlung widerfährt.“ Und für den dritten Aktanten (S. 101): „Semantisch gesehen ist der 3. Aktant der, zu dessen Nutzen oder Schaden etwas geschieht.“ Bzw. semantisch noch breiter: „Er meint häufig ganz allgemein eine Person, die mit dem betreffenden Geschehen irgendwie zu tun hat.“ (S. 101). 3.1.2. Von den 3 Aktantenarten und damit der maximalen Aktantenzahl pro Verb nach Tesnie`re unterschieden durch Markanten wie Präpositionen sind die Angaben oder Zirkumstanten, deren Vorkommen zusammen mit dem Verb i. d. R. nicht konstitutiv/relevant ist für die Aktualisierung der Vorstel-
112 lung, des petit drame, das Geschehen, im Unterschied zu den Aktanten, von denen zumindest einer, oft auch mehrere bei bi- oder trivalenten Verben unmittelbar der Saturierung des Dramas dienen, während die Zirkumstanten dessen Umfeldbedingungen ⫺ Raum, Zeit und Art und Weise vor allem ⫺ näher zu umreißen erlauben. 3.2. Die Metataxe Dass für Tesnie`re das Vorhandensein einer Metataxe, d. h. des Wechsels von einer Aktantenart in eine andere und damit Veränderungen im Stemma, nicht die Wiedergabe der Bedeutung gefährden und bei der Übersetzung eher die Regel sind, lässt darauf schließen, dass für ihn die Bedeutung, wie immer er sie auffasst, von der syntaktischen (und morphologischen) Repräsentation als einzelsprachspezifisch geprägter Realisierung deutlich abgehoben erscheint. So stellt es für ihn auch kein Problem dar, dass einem Aktanten in einer Sprache in einer anderen gar kein Aktant, sondern etwa ein Zirkumstant, eine Angabe, entspricht. Allerdings finden sich zu letzteren weniger semantische Aussagen, wiewohl Tesnie`re bekanntlich auf Abgrenzungsprobleme insbesondere zum 3. Aktanten hingewiesen hat (S. 116) und z. B. S. 180 in historischer Sicht festhält, dass „Aktanten im Grunde nur weiterentwickelte einstige Angaben“ sind und in sprachvergleichender Sicht Aktanten durchaus in der anderen Sprache Angaben als Äquivalente haben können bzw. umgekehrt. 3.2.1. Dabei vermag uns seine Argumentation hinsichtlich changer de veste, bei dem es sich um keinen Aktanten, sondern eine Angabe handeln würde, nicht voll zu überzeugen; hier wäre changer monovalent, weil es sich eben nicht um ein „reines“ Substantiv, sondern um ein Adverb der Quiddität handele. Nach ihm (S. 116) wären Aktanten formal „reine“ Substantive und semantisch ein unverzichtbares Komplement, damit die Sachverhaltsvorstellung vollständig aktualisiert werden kann, während die Angaben dagegen formal als Nominalgruppen mit Präposition (oder reine Adverbien) und semantisch insofern fakultativ wären, als der bezeichnete Sachverhalt als solcher auch ohne die Angaben verständlich wäre. Uns schiene im konkreten Beispielfall durchaus bezweifelbar, ob changer in der monovalenten Lesart ohne de veste als so genannte Angabe eine verständliche Aussage wäre und sich so deutlich gegenüber der von
II. Lucien Tesnie`re und seine Zeit
ihm als bivalent charakterisierten Lesart von changer in changer le ressort de la montre (S. 164) in seiner Bedeutung unterscheidet, um zwei unterschiedliche Varianten anzunehmen. 3.2.2. Uns will scheinen, dass es an der Zeit wäre, sowohl für die Bestimmung der Aktanten wie auch für die der Zirkumstanten auf von der Syntax deutlich abgehobene primär semantische Erscheinungen zu rekurrieren, was naturgemäß zu spezifischen Abweichungen gegenüber der von Tesnie`re eingeführten Abgrenzung und Bestimmung von Aktanten und Zirkumstanten führen würde (vgl. dazu Wotjak 1991, 1994, 1996). 3.3. Die Beziehungen zwischen Syntax und Semantik Nach Tesnie`re sind die Wechselbeziehungen zwischen Aktanten und Semantik so zu sehen (sinngemäß zitiert nach S. 161): So wie es Verben mit verschiedenen Arten von Aktanten gäbe, so ändere sich die Art des Verbs je nachdem, ob es einen, zwei oder drei Aktanten regiere und wörtlich: „Denn es ist unbestreitbar, dass der Verstand des Sprechers ein Verb psychologisch unterschiedlich auffasst, je nachdem ob es einen, zwei oder drei oder überhaupt keinen Aktanten regieren kann.“ Kann man aus einer solchen Feststellung und der nachstehend zitierten ein Junktim bilden zwischen Semantik der Verben und deren Aktantenzahl und Art? So wenn Tesnie`re S. 163 feststellt: „Man kann in der Tat sagen Alfred schläft oder Alfred fällt, aber man kann nicht ausdrücken, ja sich nicht einmal vorstellen (Unterstreichung ⫺ G. W.), dass dieses Geschehen einen anderen Aktanten als Alfred betreffe. Man kann nicht jemanden oder etwas schlafen, wandern, sprudeln“ bzw. mit noch etwas breiterem Interpretationsspielraum S. 180: „Es kommt häufig vor, dass die Bedeutungen zweier Verben sich nur durch die Zahl der regierten Aktanten unterscheiden.“ 3.3.1. Kann man eine zwingende Übereinstimmung annehmen zwischen der Bedeutung bzw. dem im Drama implizierten Geschehen mit Aktanten und Zirkumstanten und der Zahl (und Art) der Aktanten, bzw. kann man umgekehrt aus der Aktantenzahl gültige Schlüsse ziehen auf die Bedeutung der Verben, d. h. z. B. aus übereinstimmender Aktantenzahl auf Gemeinsamkeiten der Bedeutung (z. B. trivalente Verben des Sagens
12. Zu Tesnie`res Semantikkonzept
und Gebens und deren Gegenteil ⫺ S. 176) bzw. aus Unterschieden in der Aktantenzahl Rückschlüsse ableiten auf Bedeutungsunterschiede der Verben? So modern und im Einklang mit Auffassungen von der Isomorphie zwischen Semantik und Syntax eine solche Interpretation auch klingen mag, so wenig wird man damit wohl Tesnie`res spezifischer Auffassung von Bedeutung gerecht. Immerhin sieht Tesnie`re bei dem Wechsel von einem kausativen Verb zu seinem nichtkausativen Bezugsverb bzw. umgekehrt bei dessen Kausativierung die Bedeutung beider Verben als unverändert gleich an, sodass sich nur die Aktantenzahl unterscheidet. „Alfreds Haben in dem Satz Alfred hat ein Buch bleibt unverändert erhalten in dem Satz Bernhard gibt Alfred ein Buch. Nur die Zahl der Aktanten wechselt. Haben hat nur zwei (Alfred, ein Buch), geben aber drei (Bernhard, Alfred, ein Buch).“ (S. 180). (Allerdings handelt es sich hier um einen umgeformten Text seitens des Übersetzers U. Engel, wiewohl Tesnie`re selbst S. 181 diese Aussage geringfügig zu nuancieren scheint, wenn er feststellt: „… die Vorstellungen, die sie [die Verben des Sagens/Gebens ⫺ G. W.] bezeichnen, entsprechen, abgesehen von einem weiteren Aktanten, den elementaren Vorstellungen des Wissens und Habens“, so scheint uns dennoch keine Fehldeutung vorzuliegen). Unter Bezug auf morphologische und weitere Markanten für die Parallelität von kausativierten Verben und deren Grundform stellt Tesnie`re immerhin S. 181 heraus: „Dieser einheitliche Markant gilt für eine große Anzahl von Verben; er weist auf ein kohärentes grammatikalisiertes System von Relationen zwischen Verben mit gleicher Bedeutung, aber unterschiedlicher Valenz hin“. 3.3.2. Skepsis scheint uns allerdings gegenüber einer durchgehenden Isomorphismusbeziehung zwischen Semantik und Syntax bis zum endgültigen Nachweis des Gegenteils angebracht. Allerdings erbrächte uns die hier aufgenommene Argumentation von Tesnie`re nur eine trügerische Bestätigung einer möglichen Diskrepanz, denn für uns besitzen kausativierte Verben und deren nicht-kausative Grundformen eben im Gegensatz zu Tesnie`re nicht die gleiche Bedeutung, sodass die festgestellte abweichende Valenz eher als Argument für das Vorhandensein einer abweichenden Bedeutung und damit auch für die Existenz einer Isomorphiebeziehung gewertet werden könnte.
113 3.3.3. In die Richtung einer möglichen Diskrepanz von Semantik und Aktantenstruktur/Syntax scheint Tesnie`re allerdings auf S. 206 nochmals abzuzielen, wenn er darauf hinweist, dass die Lexikographen immer die Aktantenstruktur bei Verben angeben sollten. „Denn ein Verb, von dem man nur die Bedeutung, aber nicht die Aktantenstruktur kennt, ist überhaupt nicht verwendbar.“ Allerdings wäre selbst bei vorausgesetzter Isomorphie wohl in interlingualer Perspektive und wohl auch intralingual kaum automatisch von der Bedeutung auf die Art und Anzahl der das Verb begleitenden Aktanten, dessen Aktantenpotential, zu schließen. Immerhin betont Tesnie`re an anderer Stelle (S. 161) zurecht, dass es nie erforderlich wäre, „dass alle Valenzen eines Verbs durch ihren jeweiligen Aktanten belegt sind und damit das Verb sozusagen saturiert ist“, was impliziert, dass wir uns bei der Beurteilung des Vorhandenseins von Isomorphie bzw. deren Ablehnung stets von der systemhaft potentiell möglichen Anzahl von Aktanten, dem für das Verb bzw. die Verbvariante charakteristischen Aktantenpotential und nicht von konkreten Verwendungsbeispielen des betreffenden Verbs allein leiten lassen dürfen. 3.3.4. Tesnie`re scheint selbst eine Ausdifferenzierung seiner Bedeutungskonzeption im Sinn zu haben, wenn er S. 177 in Anlehnung an Bally 1909, Bd. 1, S. 104 ff. für die trivalenten Verben des Sagens und Gebens feststellt: „Diese ungeordneten Listen zeigen, wie nützlich es für die Klassifikation von Wortschatzeinheiten ist, wenn man ein wenig Ordnung in diese Varianten einer Grundidee bringt, indem man die Kernbedeutung und die zusätzlichen Bedeutungsnuancen untersucht.“ Außerdem verweist Tesnie`re S. 213 unter Bezug auf die Translation und Unterschiede im sprachlichen Ausdruck zwischen Französisch und Deutsch (und anderen Sprachen) darauf, dass „identische Inhalte in der einen Sprache verbal, in der anderen nicht verbal (bspw. u. a. adverbial) ausgedrückt werden“ und gibt das interessante Beispiel: Er bimmelte die Straße hinauf. ⇒ Il montait la rue au son des grelots. 3.4. Die Translation S. 253 bestimmt Tesnie`re die Translation als einen der wichtigsten Mechanismen, durch den die Unabhängigkeit des strukturalen vom semantischen Bereich gewährleistet wird. Bei Detailstudien hat er dann selbst auf
114 die Berücksichtigung feiner semantischer Unterschiede (bspw. zwischen de Paris und parisien ⫺ S. 288) ebenso hingewiesen wie darauf, dass bei deverbativen Substantivbildungen der semantische Bezug zum Basisverb ⫺ ganz im Sinne der modernen „Vererbungstheorie“ ⫺ unbedingt beachtet werden muss (S. 289/290). 3.5. Probleme der Aktantenkonzeption Aus entsprechenden Ausführungen Tesnie`res, z. B. zu avalenten Verben, können abschließend nochmals Rückschlüsse auf seine Bedeutungskonzeption abgeleitet werden, so wenn er feststellt, „dass es sich hier um ein ‘Drama’ handelt, das unabhängig von irgendeinem Aktanten abläuft. Es schneit bezeichnet einfach ein in der Natur sich abspielendes Geschehen; wir können uns keinen Aktanten als Urheber dieses Geschehens vorstellen (S. 162)“. 3.5.1. Tesnie`res Argumentation, bei der er zum zweiten Mal ausdrücklich auf das Drama Bezug nimmt, scheint uns indessen hinterfragbar, wenn man doch einen möglichen ⫺ in diesen Fällen im Verbstamm repräsentierten Aktanten ⫺ annehmen würde, dem zwar keine Funktionszuweisung als AGENS/ Verursacher, wohl aber als AFFIZIERTES, etwas womit etwas geschieht, zuerkannt werden könnte. Gewiss lassen Sprachen wie Deutsch, Englisch, Französisch, Spanisch bei solchen Witterungsverben keinen tatsächlichen Verbmitspieler/Aktanten außer z. B. einem Quasi-Subjektstatthalter zu; anders jedoch in slawischen Sprachen, wie etwa auch dem Tesnie`re als Slawisten und Autor einer russischen Grammatik bestens vertrauten Russischen, wo es heißt dozd idjot = es regnet (der Regen geht); sneg padajet (Schnee fällt); hier erscheint sehr wohl ein Geschehensbeteiligter als Subjekt-Aktant, der zwar keinen Urheber des Geschehens bezeichnet, was ja auch nach Tesnie`re durchaus nicht immer der Fall für den dominant so ausgezeichneten 1. Aktanten = Subjektaktanten der Fall sein muss. Damit allerdings ist nichts dagegen gesagt, dass es sich bei den deutschen, französischen Witterungsverben um syntaktisch avalente Verben, d. h. Verben ohne Mitspieler handelt, weil zumindest die Angehörigen dieser Sprachgemeinschaften (nach Tesnie`re generell jeder Mensch) in Witterungserscheinungen Vorgänge ohne Aktanten sieht (S. 162).
II. Lucien Tesnie`re und seine Zeit
3.5.2. So sehr man Tesnie`re beipflichten kann, wenn er betont, dass es wichtig ist, wie Menschen (d. h. wohl letztlich auch Sprecher verschiedener Sprachen übereinstimmend oder u. U. auch abweichend ⫺ hier bleibt uns Tesnie`re eine eindeutige Antwort schuldig) eine bestimmte Funktion sehen (S. 164), wobei sich in der Diachronie Veränderungen ergeben können, so sehr scheint es uns wichtig, nicht allzu kurzschlüssig und direkt von strukturellen Aspekten (Zahl der Aktanten bzw. deren Nichtvorhandensein) auf die semantische Ebene schließen zu wollen. So könnten eben für solche Verben in dem einen Fall eine Argumentkonstante als intralexematische Aktantifizierung/Grammatikalisierung, im anderen Fall ⫺ so im Russischen ⫺ dagegen ein Aktant als intralexematischer Bestandteil einer Mehrwortkollokation angenommen werden, die in toto die gleiche Bezeichnungsfunktion realisiert wie Verb und expletives es im Deutschen.
4.
Zusammenfassung
Zusammenfassend lässt sich festhalten: Ungeachtet der sich in seiner strukturalen Syntax findenden Ausführungen zu semantischen Aspekten sowie zur Relation zwischen Semantik und Syntax, wäre es sicher unangemessen, Tesnie`re als einen Wegbereiter der modernen Semantiktheorien oder etwa auch nur einer semantisch-funktionale Aspekte umfassend mit einbeziehenden Valenztheorie betrachten zu wollen. Dessen ungeachtet sind die von Tesnie`re zu solchen semantischen (und kognitiven) Phänomenen sporadisch an mehreren Stellen gemachten Äußerungen in Anbetracht des Zeitpunktes der Fertigstellung und des damaligen Entwicklungsstandes der linguistischen Theoriebildung als geniale Vorahnungen zu betrachten, wobei es aus heutiger Sicht leicht fallen mag zu bedauern, dass Tesnie`re nicht sich an einigen Stellen aufdrängende weiterführenden Schlussfolgerungen selbst gezogen hat. Auf einige Bezugspunkte zu neueren Ansätzen sowie konsequent semantische Interpretationsmöglichkeiten ist von uns von Fall zu Fall ohne Anspruch auf Vollständigkeit und Explizitheit aufmerksam gemacht worden, wobei wir hoffen, dass die eigenen, in sich nicht immer voll schlüssigen Auffassungen Tesnie`res dadurch weder verstellt noch gar verfälscht wurden.
115
13. Das Translationskonzept Lucien Tesnie`res
5.
Literatur in Auswahl
Fillmore, Charles J. (1976): Frame semantics and the nature of language. In: Annals of the New York Academy of Science 280. New York, 20⫺31. Fillmore, Charles J. (1985): Frames and the Semantics of Understanding. In: Quaderni di semantica 2. Bologna, 222⫺254. Fillmore, Charles J., (1986): U-Semantics, second round. In: Quaderni di semantica 1. Bologna, 49⫺ 58. Helbig, Gerhard (1992): Probleme der Valenz- und Kasustheorie. Tübingen. Heringer, Hans-Jürgen (1984): Neues von der Verbszene. In: Stickel, Gerhard (Hg.): Pragmatik in der Grammatik. Düsseldorf. 34⫺64. Hudson, Ron A. (1986): Frame semantics, frame linguistics, frame …? In: Quaderni di semantica 1. Bologna, 85⫺101. Klix, Friedhart (1987): On the role of knowledge in sentence interpretation. Preprints of the Plenary Session Papers (XIVth International Congress of Linguists). Berlin, 111⫺124. Kotschi, Thomas (1979): Wertigkeitsbestimmung und vierwertige Verben im Französischen. In: Festschrift für Rupprecht Rohr zum 60. Geburtstag. Heidelberg, 271⫺292. Pustejovsky, James (1995): The Generative Lexicon. Cambridge, Mass. Raskin, Viktor (1985): Script-based Semantics: a brief outline. In: Quaderni di semantica 2. Bologna, 306⫺313.
Ders., (1986): Once again on scripts. In: Quaderni di semantica 1. Bologna, 101⫺106. Schank, Ray (1981): Dynamic Memory. New York. Tesnie`re, Lucien (1959): E´le´ments de syntaxe structurale. Paris. Tesnie`re, Lucien (1980): Grundzüge der strukturalen Syntax. Übersetzt und kommentiert durch Ulrich Engel. Stuttgart. Welke, Klaus (1988): Einführung in die Valenz- und Kasustheorie. Leipzig. Wotjak, Barbara/Wotjak, Gerd (1995): Werben für Verben? In: Popp, Heidrun (Hg.): Deutsch als Fremdsprache. An den Quellen eines Faches. München, 235⫺286. Wotjak, Gerd (1991): Einige Ergänzungen und Angaben zu Ergänzungen und Angaben. In: Koch, Peter/Krefeldt, Thomas (Hgg.): Connexions Romanicae. Tübingen, 109⫺128. Wotjak, Gerd (1994): Funktoren und Modifikatoren ⫺ Rückschau und Ausblick. In: Thielemann, Werner/Welke, Klaus (Hgg.): Valenztheorie ⫺ Werden und Wirkung. Münster, 169⫺193. Wotjak, Gerd (1996): Funktoren, Argumente (actants) und Modifikatoren (circonstants) ⫺ Tesnie`res Pionierleistungen in semantischer Sicht. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.): Lucien Tesnie`re ⫺ Syntaxe structurale et ope´rations mentales. Tübingen, 101⫺115.
Gerd Wotjak, Leipzig (Deutschland)
13. Das Translationskonzept Lucien Tesnie`res 1. 2. 3. 4. 5. 6.
1.
Die Translation in Tesnie`res Syntaxmodel Wissenschaftsgeschichtliche Einordnung der Translationstheorie Tesnie`res Kritische Systematik der Translation Die Rezeption der Translationskomponente Die Translation im Spannungsfeld von Valenz und Dependenz und Forschungsperspektiven Literatur in Auswahl
Die Translation in Tesnie`res Syntaxmodell
Für Tesnie`re ist der Translationsteil das innovative Moment seines Syntaxmodells schlechthin. Seine Beschäftigung mit der Translation lässt sich in ersten Anfängen bereits 1918 dokumentieren (vgl. Baum 1976, 25 f.). Das komplette Modell stellt er in der 1934 erschienenen Petite grammaire russe
erstmals einem breiteren Publikum vor. Im gleichen Jahr erscheint der 1933 im Manuskript abgeschlossene Aufsatz Comment construire une syntaxe, in dem die in der Petite grammaire russe enthaltenen theoretischen Ausführungen komprimiert präsentiert werden. Obwohl Tesnie`re sich zeit seines Lebens kontinuierlich mit der Translation beschäftigt hat, erfolgen umfassendere Darlegungen zur Translation erst wieder 1953 in einer Knappversion der 1959 postum publizierten Ele´ments de syntaxe stucturale mit dem Titel Esquisse d’une syntaxe structurale. Der der Translation gewidmete Raum in den Ele´ments schließlich nimmt fast die Hälfte des Bandes ein, d. s. mehr als 300 Seiten, was die Bedeutung dieser Komponente für die Beschreibung von Sprachen eindrücklich unterstreicht. Die Translation lässt sich dabei im wesentlichen durch das Schlagwort „Katego-
116
II. Lucien Tesnie`re und seine Zeit
rienwechsel“ umschreiben, der bei Tesnie`re sowohl den Wortklassenwechsel als auch den Funktionswechsel umfasst bzw. umfassen kann. 1.1. Das Rahmenmodell Bevor auf die Translationskomponente eingegangen wird, sei knapp das Rahmenmodell, welches als Dependenzmodell ⫺ und im Hinblick auf die Kategorie des Verbs als Valenzmodell konzpiert ist (zu den Grundlagen des Rahmenmodells vgl. auch Kap. 12), vorgeführt. Gegenstand der strukturellen Syntax ist für Tesnie`re der Satz als „organisiertes Ganzes, dessen konstituierende Teile die Wörter sind“ (Tesnie`re 1959/1966, 11). Tesnie`re geht von einem zweiseitigen Zeichenmodell aus, in dem in Erweiterung der Saussureschen Zeichentheorie einem ordre line´aire, das ist die unidirektionale Ausdrucksseite, ein ordre structural, das ist die hierarchisch konzipierte Inhaltsseite, zugeordnet ist. Dabei ist Tesnie`re aufgrund seines syntaktischen Anliegens an dem interessiert, was den Satz ausmacht, und das ist seine Struktur. Diese Struktur wird als Netz von relationalen Beziehungen, die er Konnexionen nennt, gesehen. Diese Konnexionen sind an das „Wort“ in seiner Eigenschaft als Knoten, nœud (syntaktischer Funktionsträger) bzw. als Nukleus (syntaktisch-semantischer Funktionsträger, der die nodale Funktion mitumfasst) gebunden. Der Nukleus ist im ordre structural Relationspol für die Konnexionen. So besteht der Satz Alfred parle nicht aus zwei, sondern aus drei Komponenten: den beiden Knoten bzw. Nuklei Alfred und parle und der Beziehung, die zwischen beiden besteht, eben der Konnexion. Die Darstellung erfolgt in Gestalt eines Stemmas: parle | Alfred
| ⫽ Konnexion
welches auf einer höheren Abstraktionsstufe die Satzstruktur wiedergibt. Dafür werden entsprechend der wortfundierten Satzdefinition kategorial definierte Wortklassensymbole herangezogen: I für Verb, O für Substantiv, A für Adjektiv und E für Adverb. Bei diesen vier Wortklassen handele es sich um (satz- bzw. syntagmen)konstituierende Wörter (mots constitutifs), die allein in der Lage seien, Konnexionen zu etablieren. Alle anderen traditionellen Wortarten (Präpositionen, Konjunktionen, Artikel usw.) spielen als grammatische „Hilfswörter“ (mots subsidiaires) keine Rolle beim Aufbau des Konnexionsgefüges. Ihre Aufgaben liegen in anderen Bereichen. ⫺ Das stemma virtuel ist Repräsentant für eine offene Reihe konkreter Sätze. Im Zentrum eines solchen Stemmas, soweit es sich um einen segmental kompletten Satz, um einen Satz mit finitem Verb, handelt, steht immer das Verb. Entsprechend den vier Grundwortklassen lässt sich ein Vier-EbenenModell herauslösen, das nach unten prinzipiell erweiterbar ist. Allerdings sind ab der vierten Ebene nur noch Adverbien, also die Kategorie E möglich: 1. Ebene
I
2. Ebene
O1
O2
O3
E
3. Ebene
A
A
A
E
4. Ebene
E
E
E
E
…
…
…
…
I | O
Konnexionen errichten zwischen den „Wörtern“ eines Satzes Dependenz-, d. h. Abhängigkeitsbeziehungen, die eine hierarchische Anordnung der beteiligten Einheiten bewirken. Die Struktur des Satzes ist gleichbedeutend mit der Hierarchie seiner Konnexionen. Um nicht für jeden konkreten Satz ein eigenes Stemma aufstellen zu müssen, ersetzt Tesnie`re das ‘konkrete’ Stemma (stemma re´el), oben linke Seite, häufig durch ein ‘abstraktes’ Stemma (stemma virtuel), oben rechte Seite,
n.te Ebene
Die Abfolge der Kategorien auf den diversen Ebenen ist eine obligatorische: von O abhängig ist immer ein A (le grand livre), von A abhängig ist immer ein E (tre`s grand) und von E abhängig kann nur ein weiteres E sein (tre`s bien). Die Indizes 1, 2 und 3 bei O zeigen an, ob O die Rolle eines 1. Aktanten (Subjekt), eines 2. Aktanten (direktes Objekt) oder eines 3. Aktanten (indirektes Objekt) spielt. Das E
117
13. Das Translationskonzept Lucien Tesnie`res
der 2. Ebene nennt Tesnie`re Zirkumstant (adverbiale Umstandsbestimmung). Damit ist definitiv eine Abkehr vom bis dahin üblichen Binarismus in der Satzanalyse vollzogen. Zwischen aufeinanderfolgenden Ebenen bestehen Dependenzbeziehungen. Der Begriff der Dependenz umfasst bei Tesnie`re sowohl die Verbdependenz, grosso modo also die Valenz (Beziehungen zwischen Ebene 1 und 2, sofern O-Positionen betroffen sind), als auch rein determinative Relationen im Sinne Hjelmslevs (1963, 35⫺41) als Funktion zwischen einer Konstanten (oberer Konnexionspol) und einer Variablen (unterer Konnexionspol) (Beziehungen zwischen den Ebenen 2 bis n, sowie zwischen den Ebenen 1 und 2, sofern die E-Position in Gestalt einer freien Angabe tangiert ist). Die einzelnen durch Buchstaben gekennzeichneten Positionen sind die Nuklei, in denen drei Funktionen vereint sind: die syntaktische Funktion (fonction nodale), die semantische Funktion (fonction se´mantique) und die translative Funktion (fonction translative). Während die beiden ersten Funktionen interdependent sind, ist die dritte optional. Die Nuklei brauchen dabei nicht unbedingt originäre Einheiten aus den zugeordneten Wortklassen zu repräsentieren. Es gibt in jeder Sprache vielmehr zwei Operationen, die das statisch-kategoriale Funktionsmodell auch für die Darstellung komplexerer sprachlicher Strukturen brauchbar machen: die Junktion und die Translation. Während durch die Junktion (koordinative Erscheinungen) eine quantitative Modifizierung des Bauplans möglich wird ⫺ gleichartige Nuklei werden durch ein Junktiv verbunden vgl. Alfred et Bernard chantent: chantent
Alfred
j
O
j
1.2. Die Translationskomponente Die Translation als sprachliche Operation umfasst im wesentlichen drei Komponenten: (1) das Translativ (t) als Translationsoperator (fakultativ) (2) das Transferendum als Operandum (obligatorisch) und (3) das Translat als Resultat. Die graphische Darstellung geschieht in der folgenden Weise: Translat Translativ
Transferendum
Zeichen für die Translation ist ein symbolisches T (für ‘Translation’), welches die Komponenten der für die Translation maßgeblichen Basen umgreift. Für die konkreten Sprachbeispiele wird die folgende Form gewählt:
I
Bernard
gen vermuten lassen könnten. Die Wahl des Französischen zur Dokumentation bisher und im folgenden ist lediglich praktisch motiviert, da Tesnie`re in den Ele´ments selbst immer auch das Französische vorrangig im Auge hat. Tatsächlich belegt er seine strukturellen Aussagen anhand von Beispielen aus einer großen Anzahl von Sprachen ⫺ ja, er erhebt für sein Modell generell einen Anspruch auf Universalität: So dient etwa der ordre structural als Maßstab für eine allgemeine Sprachtypologie. Konnexion, Junktion und Translation sind diejenigen Folien, die auf die jeweils betrachteten Sprachen aufgelegt werden und deren Beschreibung konditionieren. Das Modell ist zudem als Analyseund nicht als Synthesemodell entwickelt. ⫺ Soweit zum Rahmenmodell und seinen Aufbau-, Funktions- und Beschreibungsprinzipien, deren Kenntnis für den Zugang zur Translation unerläßlich ist.
O
bietet die Translation die Möglichkeit einer qualitativen Modifizierung im Bauplan, d. h. sprachliche Zeichen werden entgegen ihrer primären Qualität innerphrastisch genutzt. Junktion und Translation stellen die dynamischen Komponenten an dem statisch (kategorial) konzipierten Grundmodell dar. Dieses ist nun keineswegs nur aus einer Einzelsprache abgeleitet, wie die bisherigen Darlegun-
stemma réel: A de
Pierre
stemma virtuel: A t
O
etwa für (le livre) de Pierre. D. h. statt eines primären Adjektivs (z. B. rouge) wird ein Komplex sprachlicher Einheiten verwendet (de Pierre). Das Kategorialsymbol über dem Querbalken des symbolischen T gibt die Ziel-
118
II. Lucien Tesnie`re und seine Zeit
kategorie der Translation an (im Beispiel A). Das untere abgeknickte Ende des T-Schaftes weist auf die Stellung des Translativs vor bzw. nach dem Transferendum hin. ⫺ Das gleiche abstrakte Stemma läge auch dt. Peters Buch, das Buch Peters, das Buch von Peter, engl. Peter’s book oder lat. liber Petri zugrunde, vgl.
nung ist, zeigen Beispiele wie le train de Paris oder l’amour de Dieu: le train
l’amour
A
A
de A
A Peter
s
von
Peter Peter
de
Paris
Dieu
A
A ’s
Petr
i
Dt. Peters Buch und das Buch Peters unterscheiden sich auf struktureller Ebene nicht. Die unterschiedliche Linearisierung von Determinatum und Determinans spielt im ordre structural keine Rolle. Damit erweist sich die Translationskomponente von großem Interesse etwa für den Sprachvergleich sowie für eine Bewusstmachung u. a. von Linearisierungs- und morphologischen Unterschieden im Fremdsprachenunterricht. ⫺ Für die eindimensionale Darstellung der Translation ist die folgende Formulierung vorgesehen: O (Ausgangskategorie) ⬎ A (Zielkategorie) Innerhalb des Stemmas werden die Translate folgendermaßen dargestellt, vgl. e´crivez dans le livre de votre ami:
Bei ihnen ist es unerheblich, welchen semantischen Wert das adjektivische Element als Teil des Konnexionsgefüges annimmt (‘der Zug von Paris’ oder ‘der Zug nach Paris’; ‘die Liebe zu Gott’ oder ‘die Liebe Gottes’). Es gibt nur eine syntaktische Struktur. Im Normalfall verändert das Transferendum seine Konnexionen nach oben, wohingegen im Transferendum die Konnexionen nach unten entsprechend derjenigen Kategorie bestehen bleiben, die den Ausgangspunkt für die Translation bildet. So sind im obigen Beispiel die Substantive Paris und Dieu als primäres O in ihrer Eigenschaft als Transferendum auf der einen Seite nicht mehr von einem Verb (I) abhängig, sondern von einem Substantiv (O), auf der anderen Seite können sie in ihrer Eigenschaft als originäres Substantiv eine A-Position dominieren, und nicht etwa, wie es sich für eine Einheit der Wortklasse A gehört, ein Adverb: vgl. le tre`s grand amour, aber *l’amour tre`s du Dieu, vgl.
écrivez l’amour
O
A
A
O
E dans
le livre du
Dieu
t
nicht: O
A t
O
A de
ami invisible
A
E
votre
Auf eine Zuordnung des ordre line´aire verzichtet Tesnie`re meist. Sie ist aufgrund der prinzipiellen Annahme einer Interdependenz von ordre structural und ordre line´aire auch nicht unbedingt notwendig. ⫺ Dass die Translation eine rein syntaktische Erschei-
1.3. Realisierungsformen der Translation Tesnie`re unterscheidet drei Haupttypen von Translationen, wenn auch in der Rezeption nur von den beiden ersten die Rede ist: (1) Translationen 1. Grades (2) Translationen 2. Grades (3) formale Translationen
119
13. Das Translationskonzept Lucien Tesnie`res
Die graphische Darstellung der Translationen 2. Grades erfolgt analog derjenigen 1. Grades, nur das Translationszeichen wird verdoppelt: im Stemma durch eine Doppellung des Querbalkens des T, also , in der Linearisierung durch eine Verdoppelung von ⬎, also ⬎⬎. Translationen 1. und 2. Grades unterscheiden sich durch die Natur ihres Transferendums. Bei den Translationen 2. Grades enthält dieses immer ein finites Verb mit besetzten O- und/oder E-Positionen (also das Inventar der traditionellen Nebensätze), während bei den Translationen 1. Grades das Transferendum kein finites Verb enthält. Durch dieses Abgrenzungskriterium wird das Inventar der möglichen Transferenda bei den Translationen 1. Grades sehr vielgestaltig. Es reicht von Einheiten der Wortebene bis hin zu mehr oder weniger komplexen Syntagmen, die entsprechend den virtuellen, kategorial festgelegten Konnexionsvorgaben (vgl. oben das Vier-Ebenen-Schema) strukturiert sein können. Jeder der beiden Translationstypen ist durch besondere Translative gekennzeichnet: Präpositionen, Artikel, Kopulaverben, Auxiliarverben, Suffixe und sonstige Endungen bei der Translation 1. Grades, soweit sie ein Markierungselement hat, und subordinierende Konjunktionen und Relativpronomina bei der Translation 2. Grades. So wären Infinitive Substantivtranslate 1. Grades, Partizipien Adjektivtranslate 1. Grades, der französische ge´rondif Adverbialtranslat 1. Grades mit der Präposition en als Translativ, desgleichen deadjektivale Adverbien mit dem Suffix -ment als Translativ. Fälle wie le bleu, le pour et le contre usw. wären Substantivtranslate mit dem Artikel als Translativ, orange in la robe orange wäre Adjektivtranslat mit einem Nullmorphem als Translativ, desgleichen de mon fre`re in le livre de mon fre`re, allerdings diesmal mit einer Präposition als Translativ. Bleiben als letzte die Verbtranslate 1. Grades, die mit Hilfe eines Auxiliarverbs, zu denen auch die Kopulaverben gezählt werden (im einfachsten Fall sein, eˆtre), zustande kommen, mit dem auxilie´ bzw. dem Prädikationsnomen als Transferendum. Zu den Translaten 2. Grades zählen Ergänzungssätze, Relativsätze und adverbiale Nebensätze. Grundvoraussetzung für das Erkennen von Translaten ist also das Wissen um die kategoriale Zugehörigkeit eines als Translationsbasis genutzten Elements, was Tesnie`re auch den Vorwurf eingebracht hat, er habe mit seinem Syntaxmodell im Prinzip
den kategorialen Rahmen nicht verlassen. ⫺ Während Präpositionen und Konjunktionen für Tesnie`re immer Translative sind, muss für den Artikel und für einen Teil der Suffixe ein doppelter Status angesetzt werden: Zum einen sind sie Translative, zum anderen können sie aber auch reine, d. h. nicht-translative Indikatorfunktionen wahrnehmen, d. h. sie können Indikator (indice) für eine bestimmte Kategorie, Wortklasse, sein, etwa der Artikel als substantivischer Indikator in Fällen wie la maison, le chat usw., die nicht Ergebnis einer Translation sind. Bei den Translationen 1. und 2. Grades unterscheidet Tesnie`re zwei Untertypen: (1) Einfachtranslationen (translations simples) (2) Mehrfachtranslationen (translations multiples) Bei den Einfachtranslationen erfolgt die Überführung von der Ausgangs- in die Zielkategorie direkt, bei den Mehrfachtranslationen über diverse kategoriale Zwischenstufen. Beispiele für Einfachtranslationen 1. Grades (das Transferendum erscheint kursiviert): A ⬎ O: le bleu E ⬎ O: peu d’eau I ⬎ O: mentir est une honte O ⬎ A: un poe`te de genie E ⬎ A: un homme bien I ⬎ A: une femme aime´e/aimante O ⬎ E: Alfred habite a` Montpellier A ⬎ E: courageusement E ⬎ E: en chantant, il … A/O/E ⬎ I: il est malade/roi/bien Sondertypen der Einfachtranslation 1. Grades sind die interversive Translation (translation inverse´e), die subkategorielle Translation (translation subcate´gorielle), die funktionelle Translation (translation fonctionelle), die Transvaluierung/Umwertung (transvaluation) sowie die zweiteilige Translation (translation attenue´e). ⫺ Bei der interversiven Translation vollzieht sich lediglich ein Kategorientausch der an einem Syntagma beteiligten Elemente, z. B. un imbe´cile de marmiton, mit den Translationen A ⬎ O (imbe´cile ⬎ un imbe´cile) und gleichzeitig O ⬎ A (le marmiton ⬎ de marmiton), d. h. die Translation des zweiten Bestandteils des Syntagmas ist die Umkehrung derjenigen des ersten. ⫺ Bei der subkategoriellen Translation sind Ausgangs- und Zielkategorie identisch, m. a. W.: sie vollzieht sich innerhalb ein und der selben Kategorie und führt von einer Subkategorie in die andere, z. B. einfache Verbformen ⬎ zusammenge-
120 setzte Verbformen (I ⬎ I), ferner der Typ depuis hier, avant demain (E ⬎ E) und der Typ cinquie`me (A ⬎ A). In diese Gruppe, wenn auch mit einer nicht unwesentlichen Schwerpunktverlagerung, gehört ferner die funktionelle Translation, die durch das Einbringen von O’s in andere Positionen als die des 1. Aktanten bewirkt wird. Damit steht die funktionelle Translation an der Scheidelinie zu den Translationen 2. Grades, denn auch aus diesem Translationstyp resultierende Translate können virtuell Funktionen wahrnehmen, die nicht O1 sind (Objekts- und Adverbialsätze). Von Bedeutung ist bei diesem Translationstyp nicht mehr der interkategoriale Wechsel, sondern die Funktionsänderung bei gleichbleibender Kategorie. ⫺ Die transvaluation meint die Translation eines mot constitutif in ein mot subsidiaire und umgekehrt, z. B. les enfants excepte´ s ⬎ excepte´ les enfants bzw. dans ⬎ dedans, usw. mit den Translationen A ⬎ t bzw. t ⬎ E. ⫺ Die translation attenue´e schließlich ist eine doppelt markierte Translation, wobei sich die Markierungselemente in der translativen Funktion gegenseitig ergänzen ohne eine Mehrfachtranslation zu bewirken, etwa lat. cum (amic)o; weder cum noch -o sind für sich allein Translativ, sie nehmen diese Aufgabe nur gemeinsam wahr; ebenso frz. en (chant)ant, wo weder en noch -ant allein als Translativ für eine Translation I ⬎ E genügen. Man könnte sozusagen von einem „diskontinuierlichen Translativ“ sprechen. Einfachtranslationen 2. Grades haben immer die Kategorie I mit allen von dieser abhängigen Elementen zum Ausgangspunkt. Beispiele für Einfachtranslationen 2. Grades: I ⬎⬎ O: Subjekts- und Objektskompletiven, einschließlich der indirekten Fragesätze I ⬎⬎ A: Relativsätze I ⬎⬎ E: Adverbialsätze (diverse semantische Werte) Sondertypen wie bei den Translationen 1. Grades gibt es hier keine. Auf die Zwischenstellung der funktionellen Translation zwischen den Translationen 1. und 2. Grades wurde bereits hingewiesen. Mehrfachtranslationen sind Translationen, die über verschiedene kategoriale Zwischenstufen zustande kommen. Der betroffene Nukleus umfasst dabei mehrere Translationen, wobei jeweils ein Translat Transferendum für eine weitere Translation ist.
II. Lucien Tesnie`re und seine Zeit
Der Umfang der Mehrfachtranslationen ist nicht auf synchronische Erscheinungen beschränkt. Beispiele für Mehrfachtranslationen 1. Grades: ⫺ doppelte Translation, z. B. A ⬎ O ⬎ E: dans le vif (A ⬎ O: vif ⬎ le vif; O ⬎ E: le vif ⬎ dans le vif ). ⫺ Ein Sonderfall der Zweifachtranslation ist die translation re´versive, bei der die Ausgangskategorie wieder erreicht wird, vgl.: O ⬎ E ⬎ O bei l’apre`s-midi mit O ⬎ E: midi ⬎ apre`s midi und E ⬎ O: apres midi ⬎ l’apre`s-midi ⫺ Dreifachtranslation, z. B. A ⬎ O ⬎ A ⬎ O: la mort de Socrate est celle d’un sage (A ⬎ O: sage ⬎ un sage; O ⬎ A: un sage ⬎ d’un sage; A ⬎ O: d’un sage ⬎ celle d’un sage; eigentlich sogar Vierfachtranslation O ⬎ I mit Hilfe des Kopulaverbs eˆtre: celle d’un sage ⬎ est celle d’un sage) ⫺ Vierfachtranslation (siehe Dreifachtranslation) ⫺ Fünffachtranslation, z. B. I ⬎ A ⬎ O ⬎ E ⬎ A ⬎ O: l’embonpoint (I ⬎ A: lat. v. pungo ⬎ lat. adj. punctus [erstarrte Translation (translation fige´e)]; A ⬎ O: lat. adj. punctus ⬎ lat. subst. punctum [nicht-markierte Translation]; O ⬎ E: lat. punctum, nun bereits in Form von frz. point ⬎ en point; E ⬎ A: en point ⬎ en point [nicht-markierte Translation]; A ⬎ O: en (bon) point ⬎ l’embonpoint ⫺ Sechs- und Siebenfachtranslationen berücksichtigen desgleichen in der Regel die Etymologie des analysierten Komplexes Beispiele für Mehrfachtranslationen 2. Grades: ⫺ doppelte Translation, z. B. I ⬎⬎ A ⬎ O: je regarde ce que je perds (I ⬎⬎ A: je perds ⬎⬎ que je perds; A ⬎ O: que je perds ⬎ ce que je perds) oder I ⬎⬎ E ⬎ A: des souvenirs de quand j’e´tais enfant (I ⬎⬎ E: j’e´tais enfant ⬎⬎ quand j’e´tais enfant; E ⬎ A: quand j’e´tais enfant ⬎ de quand j’e´tais enfant) ⫺ Dreifachtranslation, z. B. I ⬎⬎ A ⬎ O ⬎ E: voir par ce que je suis ce qu’autrefois je fus (I ⬎⬎A: je suis ⬎⬎ que je suis; A ⬎ O: que je suis ⬎ ce que je suis; O ⬎ E: ce que je suis ⬎ par ce que je suis) ⫺ Belege werden bis zu Sechsfachtranslationen gegeben, z. B. I ⬎⬎ E ⬎ A ⬎ O ⬎A ⬎I ⬎ I: elle va eˆtre d’un comme il faut. Mehrfachtranslationen 2. Grades enthalten neben einer Einfachtranslation 2. Grades nur noch Translationen 1. Grades.
13. Das Translationskonzept Lucien Tesnie`res
Bleibt noch der dritte Translationstyp, die sog. formale Translation. Diese gehört weder zu den Translationen 1. noch zu denen 2. Grades. Sie kann jede beliebige Ausgangsbasis haben und hat als Zielkategorie immer O: „C’est la translation elle-meˆme qui donne un statut syntaxique au transfe´rende, car elle le verse dans une cate´gorie et le fait ipso facto entrer dans un nucle´us. De ce point de vue on pourrait dire qu’elle est novonucle´aire“ (Tesnie`re 1959/1966, 389) („Die Translation selbst verleiht dem Transferendum einen syntaktischen Status, denn sie weist ihn einer Kategorie zu und integriert ihn so in einen Nukleus. Deshalb könnte man sagen, sie sei nukleuszuweisend“). Durch die formale Translation wird eine Art metasprachliche Nutzung sprachlicher Segmente unterschiedlicher Komplexität ermöglicht, und sie ist für Tesnie`re immer ohne Markierungselement: J’aime superbement et magnifiquement :/ Ces deux adverbes joints font admirablement. Oder: ⫺ Peut-eˆtre serais-tu ge´ne´ral./ ⫺ Ce „peut-eˆ tre “ est une insulte. Hierher gehören aber auch fremdsprachliche Zitate wie le no man’s land ; je pratique assez e´nergiquement le nihil admirari, usw. Die Ausgangskategorie ist nicht festgelegt. Wichtig ist nur, dass dieser Komplex als Art kategoriales Neutrum in der jeweiligen Sprache ausnahmslos in der Zielkategorie O möglich ist bzw. als Nicht-O Resultat einer Mehrfachtranslation über O ist. ⫺ Das generelle Postulat des fehlenden Markierungselements bei diesem Translationstyp ist allerdings nicht unproblematisch, da an anderer Stelle der Artikel zu den Translativen gezählt wird. 1.4. Die Natur der Translation So einleuchtend die Einführung der Translationskomponente ins Syntaxmodell auf der einen Seite auch sein mag, so ist sie auf der anderen Seite jedoch nur schwer in den Griff zu bekommen, da Tesnie`re zwischen zwei Interpretationen schwankt. Zum einen definiert er die Translation als vom ordre structural prinzipiell unabhängigen reinen Kategorienwechsel, also als Wortklassenwechsel, zum anderen sucht er ihre Fundierung im ordre structural und definiert sie vorrangig als Funktionswechsel. (1) Die Translation als Kategorienwechsel. ⫺ „Dans son essence, la translation consiste donc a` transfe´rer un mot plein d’une cate´gorie grammaticale dans une autre cate´gorie grammaticale, c’est-a`-dire a` transformer une
121 espe`ce de mot en une autre espe`ce de mot“ (Tesnie`re 1959/1966, 364) („In ihrem Wesen besteht die Translation also darin, ein Vollwort aus einer grammatikalischen Kategorie in eine andere grammatikalische Kategorie zu überführen, d. h. eine Wortart in eine andere Wortart zu verwandeln“). Dieser Kategorienwechsel hat seinerseits einen Funktionswechsel zur Folge, da Kategorie und Funktion aneinander gebunden seien: „Il y a donc lieu de distinguer soigneusement les deux ope´rations. La premie`re est le changement de cate´gorie qui constitue la translation. Elle commande la seconde. La seconde est le changement de fonction qui en re´sulte, et qui commande a` son tour toutes les possibilite´s stucturales“ (loc. cit.) („Man muss folglich zwei Operationen sorgfältig unterscheiden: Die erste ist der Kategorienwechsel, der die Translation ausmacht. Dieser bewirkt die zweite. Die zweite Operation ist der Funktionswechsel, der daraus resultiert und der seinerseits alle strukturellen Möglichkeiten steuert“). Die Konnexion etabliert sich sozusagen automatisch zwischen bestimmten Wortkategorien und ist ⫺ wie auch sonst ⫺ durch nichts markiert. Damit ist die Translation ein eng umgrenztes Phänomen, das mit dem Aufbau des phrastischen Konnexionsgefüges nur mittelbar zu tun hat. Für die Struktur des Satzes leistet sie nichts. Dafür ist die Kategorie verantwortlich, die durch die Translation angesteuert wird. Die Translation ist demnach ein kategoriales Phänomen mit syntaktischen Konsequenzen. (2) Die Translation als Funktionswechsel. ⫺ „Pour bien comprendre la nature de la translation, il importe de ne pas perdre de vue que c’est un phe´nome`ne syntaxique et qui, par conse´quent de´passe les donne´es morphologiques avec lesquelles nous avons la mauvaise habitude de raisonner en syntaxe“ (op. cit., 365). („Um die Natur der Translation richtig zu verstehen, darf man nicht aus dem Blick verlieren, dass sie ein syntaktisches Phänomen ist, das folglich die morphologischen Gegebenheiten transzendiert, mit denen auf syntaktischer Ebene zu argumentieren wir die schlechte Angewohnheit haben“). Und das ganze wird anhand des Beispiels le livre de Pierre noch einmal deutlich gemacht: „Si, Pierre e´tant substantif, le groupe de Pierre prend syntaxiquement la valeur d’adjectif, c’est que la pre´position de en a change´ la nature syntaxique. D’un substantif, elle a fait syntaxiquement, un adjectif. ⫺ C’est a` ce
122 changement de nature syntaxique que nous donnons le nom de translation“ (op. cit., 363) („Wenn, davon ausgehend, dass Pierre ein Substantiv ist, die Gruppe de Pierre syntaktisch gesehen den Wert eines Adjektivs annimmt, so deshalb, weil die Präposition de dessen syntaktische Natur verändert hat. Aus einem Substantiv hat sie syntaktisch gesehen ein Adjektiv gemacht. Und diesen Wechsel in der syntaktischen Natur nennen wir Translation“). Dass Tesnie`re ganz offensichtlich Probleme bei der definitorischen Fassung der Translation hat, macht das folgende Zitat zur Translation 2. Grades noch einmal deutlich: „La translation du second degre´ […] comporte obligatoirement un changement d’e´tage syntaxique, puisqu’un nœud re´gissant est transfe´re´ en une espe`ce de mot jouant un roˆle de subordonne´ dans un autre nœud re´gissant hie´rarchiquement supe´rieur“ (op. cit., 386) („Die Translation 2. Grades umfasst notwendigerweise einen Wechsel der syntaktischen Ebene, da ein dominierender Knoten in eine Wortart transferiert wird, die eine untergeordnete Rolle in Bezug auf einen anderen Knoten spielt, der hierarchisch höher steht“). Belege, die diese Problematik beleuchten, gibt es an zahlreichen Stellen im Verlauf der Ele´ments, vgl. etwa noch „La proposition actancielle est ainsi un nœud verbal transfe´re´ en actant par une translation secondaire, la proposition circonstancielle un nœud verbal transfe´re´ en circonstant par une translation secondaire“ (op. cit., 547) („Die aktantielle Proposition ist so ein Verbalknoten, der durch eine Translation 2. Grades in einen Aktanten; die zirkumstantielle Proposition ist ein Verbalknoten, der durch eine Translation 2. Grades in einen Zirkumstanten transferiert ist“). Hier wird v. a. deutlich, dass im Zusammenhang mit der Translation nicht mehr mit espe`ces de mot argumentiert wird: Aktant und Zirkumstant sind keine espe`ces de mot, sondern Funktionen, Rollen im Satz, denen zwar bestimmte espe`ces de mot zugeordnet werden können (O oder E), die aber definitionsgemäß aus dem Satz abgeleitet sind und nur dort greifbar werden. Unter diese Beschreibung der Translation fallen auch die Kasusformen in Kasussprachen, bei denen ebenfalls der Funktionswechsel tragendes Definitionsmoment ist. Die Kategorie bleibt in diesen Fällen unverändert. In der Translation offenbart sich das Grundproblem des Tesnie`reschen Syntaxmodells schlechthin: Kategorie und Funktion werden trotz postulierter Verschiedenheit bei
II. Lucien Tesnie`re und seine Zeit
der Durchführung nicht sauber gegeneinander abgegrenzt. Funktionelles wird vielmehr in kategorialer Terminologie behandelt, was letztendlich bei der Darstellung der Translation zu den widersprüchlichen Definitionen geführt hat. Statt mit Funktionsbegriffen zu hantieren, argumentiert Tesnie`re ausschließlich über Kategorialsymbole, die mit bestimmten Funktionen gleichgesetzt werden, ohne dass eine terminologische Anpassung stattfindet: O für Substantiv und Aktant, E für Adverb und Zirkumstant, A für Adjektiv und Attribut und I für Verb und Prädikat bzw. Satz.
2.
Wissenschaftsgeschichtliche Einordnung der Translationstheorie Tesnie`res
Tesnie`re hat, wie Baum (1976, 13 ff., 127) meint, zwar im Detail nichts grundlegend Neues in die deskriptive Sprachbetrachtung eingebracht, was nicht in der einen oder anderen Form bereits vor ihm behandelt worden wäre; dennoch trägt Tesnie`res Leistung durchaus innovatorische Züge. Tesnie`re ist der erste, der im syntaktischen Bereich (ausgehend vom Satzganzen und nicht von einer Kombination einzelner Redeteile) konsequent eine systematische Zusammenschau der strukturellen, und nicht nur der linearen Aspekte von Sprache liefert. Sowohl einfache als auch umfassendere sprachliche Phänomene werden in einen einheitlichen systematischen Zusammenhang gestellt und über ein endliches Inventar von Beschreibungskategorien im Rahmen eines einheitlichen Grundmodells dargestellt. Der dadurch vollzogene Übergang von einer reinen Kategoriensyntax zu einer Funktionssyntax im Sinne einer relationalen, dependentiellen Beschreibung des Untersuchungsgegenstandes ist ⫺ trotz ambiger Terminologie ⫺ forschungshistorisch gesehen eine relativ junge Erscheinung. Empirische Sprachbeschreibung ⫺ Tesnie`re betont immer wieder, dass für ihn die sprachlichen Fakten Ausgangs- und Zielpunkt seien ⫺ vollzog sich bis dahin fast ausschließlich im Rahmen der im 2. Jh. v. Chr. durch Dionysios Thrax in der Tradition der Stoiker aufgestellten Redeteile, die wesensmäßig Wortarten waren. Die Gewichtsverlagerung von den Redeteilen weg hin zu einer primären Beschreibung der Proposition durch die rationalistische Grammatik im Gefolge der Grammaire ge´ne´rale et raisonne´e von Arnauld und
123
13. Das Translationskonzept Lucien Tesnie`res
Lancelot (1660) erweist sich als nicht unproblematisch, da damit gleichzeitig eine Verschiebung von der sprachlichen zu einer logischen Beschreibungsebene vorgenommen wird, in deren Rahmen sämtliche Wortartenunterschiede faktisch transzendiert werden, da davon ausgegangen wird, dass sich jeder Satz auf der logischen Ebene in eine propositionale Struktur auflösen lässt, die durch das Zusammenspiel von Subjekt und Prädikatsnomen (attribut), verbunden durch eine Kopula (im Normalfall eˆtre), gekennzeichnet ist (so lässt sich etwa der Satz Paul court zurückführen auf die Proposition Paul est courant). Allerdings gestattet diese Perspektive die Aufdeckung von Analogien zwischen einzelnen Redeteilen, Wortarten, und funktionell äquivalenten Größen: so werden z. B. Adjektive auf Relativsätze zurückgeführt, u.ä. Eine erste konsequente Umsetzung von der logischen auf die sprachliche Ebene findet sich erst ca. 100 Jahre später bei Gabriel Girard in seinen Vrais principes de la langue francoise (1747), in denen funktionelle Analogien zwischen einfacher und komplexer Füllung sprachlich greifbarer syntaktischer Funktionen herausgearbeitet, benannt und systematisiert werden und in denen Tesnie`res Anliegen, das er mit der Translation dokumentiert, vorweggenommen scheint (vgl. Werner 1997). Seit dem ausgehenden 19. Jh. finden sich dann vermehrt Versuche einer kategoriellfunktionell integrativen Beschreibung von Sprache (vgl. etwa Paul 1880, 296; Kalepky 1928, 14⫺28; Cejador 1905, 299; Lenz 1920; usw.). Tesnie`re selbst weist hin auf erste Ansätze einer Translationstheorie bei Bally, Juret, Guillaume, Gougenheim, Benveniste, Porzig und Kuryłowicz (vgl. Tesnie`re 1959/ 1966, 381 ff.), die einzelne Aspekte aus dem durch seinen Translationsbegriff abgedeckten Spektrum angesprochen haben, und zwar überwiegend solche aus dem Bereich der Morphologie und der Wortbildung, zum Teil auf der Basis des Sprachvergleichs. ⫺ Was dem Tesnie`reschen Modell zeitgenössische integrative Beschreibungsmodelle angeht, so wäre hier das monumentale Des mots a` la pense´e. Essai de grammaire de la langue franc¸aise von Jacques Damourette und Edouard Pichon aus den Jahren 1911⫺1940 anzuführen, das Tesnie`re sehr wohl gekannt hat. Auch in diesem Werk werden weite Teile derjenigen sprachlichen Phänomene, die Tesnie`re unter dem Begriff der Translation abhandelt, als modellintegrierter Bestandteil geführt, allerdings unter dem Vorzeichen kom-
mutabler Strukturen unterschiedlicher Komplexitätsklassen im Rahmen eines Valenzkonzepts (Ipsi-, Äqui-, Konvalenz). Ebenfalls auf diesen Phänomenbereich hebt die Rangtheorie von Otto Jespersen 1924, 1925, 1937 ab. Und last but not least sei auch der von Tesnie`re in den Ele´ments selbst genannte Charles Bally 1932 und seine Transpositionstheorie genannt (zu all diesen Modellen sowie ihrer Inbezugsetzung zu Tesnie`res Modell und der Translationstheorie vgl. Werner 1993, 62⫺ 74). Soweit zum Forschungsstand in Europa bis zum Tod Tesnie`res. Außereuropäische Versuche, ähnlich umfangreiche Sprachbeschreibungen zu liefern, fehlen. Die Modelle, die im Zusammenhang mit dem amerikanischen Strukturalismus entwickelt wurden, Substitutionsmodell und IC-Analyse, beschränken sich überwiegend auf die Beschreibung einfacher Sätze. Bis Anfang/Mitte der 50er Jahre gibt es außerhalb Europas nichts mit den angeführten Modellen und ihrem Geltungsbereich Vergleichbares.
3.
Kritische Systematik der Translation
Angesichts der zentralen Rolle der Konnexionen im Syntaxmodell von Tesnie`re gerade aus der Perspektive von Valenz und Dependenz soll im Folgenden das konnexionelle Verhalten der Translate als Maßstab für eine kritische Bewertung der Translationskomponente, so wie sie von Tesnie`re konzipiert worden ist, dienen. Dies ist durchaus legitim, da die Translationskomponente als Teilkomponente eines allgemeinen Syntaxmodells eingeführt wird und dementsprechend auch mit den Grundpostulaten dieses Modells harmonieren sollte. Als Beispielsprache wird auch hier das Französische gewählt, denn wenn ein Modell universal sein soll, muss es in jeder beliebigen Einzelsprache auffindbar sein. ⫺ Die Translation wird von Tesnie`re als intranukleare Operation beschrieben, d. h. sie vollzieht sich innerhalb des Nukleus. Wenn die Translation nun als ein rein intranukleares Phänomen ausgewiesen wird und die Daseinsberechtigung des Nukleus aus dem ordre structural abgeleitet wird, dürften sich aus dem translathaltigen Nukleus keinerlei Konsequenzen für die anderen Nuklei der gleichen Struktur ergeben ⫺ doch dies ist keineswegs immer der Fall. Ein Tesnie`resches Translat kann durchaus von nukleusübergreifender Bedeutung sein.
124
II. Lucien Tesnie`re und seine Zeit
Oberer Relationspol für eine Konnexion ist immer ein I, O, A oder E, und zwar in Form eines mot constitutif. Je nach dessen Wortklassenzugehörigkeit ermöglicht dieses die Anbindung einer Einheit aus einer bestimmten anderen Wortklasse. Mit Hilfe der Translation nun können Einheiten angebunden werden, die von der Kategorialhierarchie nicht vorgesehen sind. Das können wortklassenindizierte Einheiten einer nicht-komplementären Wortklasse sein, aber auch syntagmatische und syntaktische Komplexe. Im Normalfall verändert sich dabei der obere Relationspol der Konnexion für das Transferendum, während der/die untere/n Relationspol/e des ranghöchsten Nukleus im Transferendum erhalten bleiben, d. h. ein durch ein Verb (I) dominiertes Transferendum kann durchaus Aktanten- und/oder Zirkumstantenpositionen besetzt haben, selbst wenn es durch die Translation in eine A-Position gelangt ist, vgl. la maison qu’il a vendue: la maison
O
A
A
que
a vendue
t
I
O le
O bleu
t
A also:
A du
A
A ciel
t
O
Substantivtranslate mit dem Translativ ‘Artikel’ verhalten sich im Französischen wie primäre Substantive, d. h. sie dominieren wie diese virtuell A- und nicht E-Positionen (*l’extreˆmement bleu). In diesem Zusammenhang muss auch die formale Translation und deren postulierter Sonderstatus als dritter Translationstyp gesehen werden, da es sich hier ausnahmslos um Einheiten handelt, die (zunächst) in die Kategorie O eingebracht werden (vgl. 1.3). Sieht man vom Typ der artikelindizierten Substantivtranslate ab, so ist der Normalfall der, dass Konnexionen von O, A und E und mit Einschränkungen auch von I nach unten blockiert sind, sobald ein Translat und nicht eine Einheit der primär zugeordneten Wortklassen diese Position einnimmt: vgl. qu’il soit arrive´ m’e´tonne: étonne
il
.....
O1
O
I
(O2) also:
Das durch I dominierte Syntagma ist durch die Translation zu A geworden und kann infolgedessen ein O determinieren, d. h. ihm in diesem Fall subordiniert werden. Doch lassen sich nicht alle Translationstypen Tesnie`res in diesen explizit definierten Rahmen einpassen. Zunächst wären diejenigen Translationen zu nennen, die im Französischen über den Artikel als Translativ ausgeführt werden. Hier verändert sich zwar auch die Zielkategorie und damit der obere Relationspol der Konnexion, d. h. das Transferendum kann einem Verb direkt untergeordnet werden, aber gleichzeitig verliert das Transferendum die Möglichkeit, sein altes Konnexionssystem zu nutzen. Es gewinnt vielmehr die Fähigkeit, Konnexionen entsprechend der Zielkategorie aufzubauen. Die Translation wäre hier also tatsächlich intranuklear, ohne Konsequenzen für das restliche Strukturgefüge, vgl. le bleu du ciel:
O que
me
O
soit arrivé
il
A
Das Translat ist hier terminaler Nukleus, d. h. ein Nukleus, von dem aus als ganzem ein bestimmter Konnexionstyp, nämlich eine determinative Konnexion nach unten, nicht mehr möglich ist. ⫺ Doch damit ist die Sachlage bei Tesnie`re noch keineswegs vollständig erfasst. Auch bei den Verbtranslaten mit einem Kopulaverb als Translativ ⫺ sieht man einmal von der ambigen Behandlung der Kopulakonstruktion ab ⫺ gibt der konnexionelle Faktor zu Überlegungen Anlass. Bei diesem Translationstyp stellen zwar die untere(n) Konnexion(en) des Transferendums keine weiteren Probleme dar. Diese entsprechen de-
125
13. Das Translationskonzept Lucien Tesnie`res
nen des ranghöchsten Nukleus im Transferendum (vgl. il est malade ⫺ il est tre` s malade wie une femme tre`s malade). Neu ist bei diesem Typ jedoch, dass durch das Translat est malade entsprechend der Definition der Zielkateogire I als natura ranghöchstem Nukleus im Satz keine neue Konnexion nach oben aufgebaut zu werden braucht. Und im Falle eines finiten Kopulaverbs kommt es im Französischen zur Errichtung einer diesmal obligatorischen Konnexion nach unten (O1), die jedoch nicht determinativer, sondern dependentieller Natur ist: I est
il
I
malade
très
t
A
O1
E
I und O1 sind im entsprechenden Kontext interdependent. Das Translat als ganzes ist jedoch essentiell terminaler Nukleus im obigen Sinne: eine determinative Konnexion nach unten, die I als ganzes betrifft, ist nicht möglich. ⫺ Ein weiterer Typ, was die Art der Konnexion(en) von Translat und Transferendum angeht, sind die sog. subkategoriellen Translationen. Diese Translationen zeichnen sich nach Tesnie`re dadurch aus, dass sich konnexionell überhaupt nichts verändert, weder an den oberen noch an den unteren Konnexionsmöglichkeiten, vgl. il vend sa voiture ⬎ il a vendu sa voiture: I
I a
vend
il
sa voiture
il
vendu
sa voiture O1
O2
Zudem ist eine Determination von I jederzeit möglich. Als letztes muss unter konnexionellem Aspekt auf die Zuordnung von Wortbildungen zu den Translationen eingegangen werden. Tesnie`re räumt allerdings ein, dass es sich hierbei um erstarrte Translationen (translations fige´es) handle, um Translationen also, die, anders als die bisher behandelten Typen, nicht mehr frei anwendbar seien; ob sie es je-
mals waren, sei dahingestellt. Solche Translationen lägen sowohl im Falle der Derivation (z. B. acclamation, lenteur) vor (mit dem Derivationssuffix als Translativ) als auch im Falle der Komposition (z. B. abat-jour, orangoutang ⬍ malays. orang outang ‘homme des bois’), bei denen zwischen den Bestandteilen jeweils eine Determinationsrelation bestünde. Problematisch erweist sich in beiden Fällen die Tatsache, dass beide Translationstypen bei wortklassenindizierten Einheiten enden. Derivate und Komposita sind gleichermaßen immer auch O, A, E oder I und eröffnen dementsprechend Leerstellen für determinative Nuklei. Zudem ist der Determinationsbegriff bei Tesnie`re hinsichtlich der Beschreibungsebene (Objektsprache, nicht-ausgangssprachliche Paraphrase usw.) nicht eindeutig festgelegt. Der Maßstab der Konnexionen hat für die Translate ein höchst komplexes Bild geliefert. Die Translation führt teils in den Bereich der Wortbildung (Derivation, Komposition) sowie der Flexionsformen (Deklinations- und Teile der Konjugationsformen), teils in den der Sytagmatik und Syntax (restliche Translate 1. Grades und Translate 2. Grades). Die konnexionellen Konsequenzen der Translation für Translate und/oder Transferenda sind vielfältig. Ein allen gemeinsamer Nenner ist kaum zu finden. Insgesamt gesehen trägt die Translationskomponente den Konstruktionsmodalitäten des Rahmenmodells in mancherlei Hinsicht nicht Rechnung. Die aus der Translation resultierenden Translate bilden ein recht heterogenes Inventar. Gemeinsam ist allen Translaten eigentlich nur, dass ihr Auftretenskontext ihnen offenbar nicht primär zugeordnet ist (zu weiteren Problemen, die im Zusammenhang mit der Translation auftreten vgl. Werner 1993, 119⫺144; Koch/ Krefeld 1993, 144⫺166).
4.
Die Rezeption der Translationskomponente
Obwohl die Bedeutung der Translationskomponente in Tesnie`res Syntaxmodell immer wieder betont worden ist ⫺ auch für den Bereich der Sprach- und Fremdsprachendidaktik ⫺ hat bis in die jüngste Zeit kaum eine autonome Beschäftigung mit diesem Phänomen stattgefunden. Während der von Tesnie`re propagierte Verbzentrismus in Form der Valenz- und Dependenzgrammatik schon bald Nachahmer und Exegeten in den ver-
126 schiedensten Lagern gefunden hat, fand der Translationsteil kaum Beachtung, obwohl ihm gerade auch für eine Valenz- und Dependenzanalyse grundsätzliche Bedeutung nicht abgesprochen wurde (vgl. Gre´ciano 1972, 152, 192; Baum 1976, 114). So erfolgt die frühe Anwendung des Tesnie`reschen Modells auf die Lateingrammatik durch Dönnges/ Happ 1972 ohne Rückgriff auf die Translation ⫺ ein Manko, das für das Lateinische erst Ende der 80er Jahre durch Lambertz (1987, 1993) für Teilbereiche reduziert wird. Das erste Valenzwörterbuch des Deutschen im Aufgriff des Tesnie`reschen Konzepts (Helbig/Schenkel 1969) bezieht die Translation genauso wenig in Betracht wie das Valenzlexikon zum Französischen von Busse/Dubost (1977). Wenn die Translation doch rezipiert wurde, so geschah dies in höchst selektiver Weise immer dann, wenn man meinte, dieses Konzept böte sich für einen Sachverhalt als bequemes Beschreibungsinstrument an. Der Translationskomponente blieb sowohl eine autonome als auch eine modellimmanente Rezeption bis in die neueste Zeit weitgehend versagt, sei es, dass sie unzulässigerweise mit der Ballyschen Transposition verschmolzen wurde, sei es, dass sie in den Bereich der Transformationen der Generativisten verlagert wurde oder sei es letztendlich, dass sie unreflektiert, so wie sie bei Tesnie`re anzutreffen ist, zum bequemen Beschreibungsmittel umfunktioniert wurde, weil sie für die Darstellung von Ausschnitten aus dem Inventar sprachlicher Ausdrucksmittel besonders geeignet schien und scheint (zum Problem der unzulässigen Vermischung dieser drei Konzepte mit dem Präfix Trans- vgl. Werner 1993, 9⫺55, bes. 51⫺55). Angesichts der Anwendung des Translationsbegriffs sowohl auf Erscheinungen der Wortbildung als auch auf solche des wortübergreifenden Bereichs durch Tesnie`re eröffneten sich für die Rezeption verschiedene Möglichkeiten: (1) die Verwendung für alle von Tesnie`re vorgesehenen Bereiche, (2) die Verwendung nur für Erscheinungen der Wortbildung, und (3) die Verwendung nur für Erscheinungen im wortübergreifenden Bereich. Für alle Möglichkeiten gibt es hinreichend Arbeiten. Dass die Translation Bestandteil eines wohldefinierten Rahmenmodells ist, wird ignoriert. Zumindest teilweise verändert stellt sich die Situation zur Rezeption der Translationskomponente seit dem Ende der 80er Jahre dar, sieht man einmal von Gustave Guillaume ab, der seit den 40er Jahren die Trans-
II. Lucien Tesnie`re und seine Zeit
lation, ohne jedoch auf Tesnie`re zu verweisen, zu einem integrativen Bestandteil seines eigenen psychomechanischen Sprachmodells macht. Und seit Anfang der 90er Jahre setzt sogar eine, wenn auch noch begrenzte systematische Diskussion um die Translationen Tesnie`res ein. So verwendet Lemare´chal 1989 die Translation als Beschreibungskategorie für eine Reihe nicht-indogermanischer Sprachen Afrikas und anderer Regionen, indem er eine sog. generalisierte Translationstheorie entwickelt, die lediglich syntaktische Strukturen erfasst: formal markierte Satzfunktionen (Subjekt, Objekte, Umstandsbestimmungen) werden als Translate behandelt, gleichgültig ob diese Markierung nun translative oder rein indizierende Funktion im Sinne Tesnie`res hat. Koch/Krefeld 1993 reduzieren die Heterogenität der Translate bei Tesnie`re auf eine einheitliche Basis, indem sie in einem minimalistischen Modell lediglich deverbale Translationen 1. und 2. Grades zulassen. Lambertz 1982, 1991, 1991b fügt dem kompletten Inventar der Tesnie`reschen Translate im Dienste einer maximalistischen Lösung transformationell zustandegekommene „Translate“ hinzu (vgl. die Diskussion bei Werner 1996, 116⫺21). Werner 1993 bietet in einer kritischen Zusammenschau von Translationskomponente und Rahmenmodell eine Reinterpretations des Tesnie`reschen Ansatzes, indem sie über eine Präzisierung der Translation als rein syntaktisches Phänomen (unter Ausblendung aller sich in eine lexikalische Klasse integrierender „Translate“) ein (verbzentriertes) Dependenzmodell auf Propositionsebene entwickelt, welches in ein allgemeines Satzmodell eingebettet wird, in dem die Determination zur konstituierenden Relation wird. In einem solchen Modell weist sie der neu, d. h. präziser gefassten Translation ⫺insbesondere im Hinblick auf den konnexionellen Faktor ⫺ einen systematischen Platz zu. Auch Lambertz 1995 rückt Dependenz und Translation in enge Beziehung, allerdings in einer Zusammenschau der von Werner 1993 getrennten funktionellen Bereiche von Dependenz und Determination. Letztendlich kommt er zu dem Schluss, die Translation als grammatikalische Operation zu definieren, die einem Term denjenigen syntaktischen Status verleiht, den er benötigt, um die primäre syntaktische Funktion eines Terms einer anderen syntaktischen Kategorie wahrnehmen zu können. Weber 1996, 261 verzichtet ganz auf eine Scheidung zwischen Translationen 1. und 2. Grades bei den Verben. Als
127
13. Das Translationskonzept Lucien Tesnie`res
letztes sei Twahirwa 1995 genannt, der die Translation auf den von Tesnie`re nirgends vorgesehenen Bereich der Suprasegmentalia in Tonsprachen überträgt. Die relativ begrenzte Wirkung Tesnie`res und v. a. auch seiner Translationstheorie dürfte einem nicht geringen Teil der seit dem Ende der 50er Jahren prosperierenden (generativen) Transformationsgrammatik zuzuschreiben sein. In einer Zeit zunehmender Orientierung hin auf eine logisch-mathematischen Strukturformeln verpflichteten Linguistik musste Tesnie`res Ansatz, wenn er nicht weitergedacht wurde, ins Abseits geraten. Doch haben die Forschungen der letzten Jahre durchaus gezeigt, dass dem Tesnie`reschen Ansatz noch systematischer und nicht nur wissenschaftshistorischer Stellenwert zukommen kann.
5.
Die Translation im Spannungsfeld von Valenz und Dependenz und Forschungsperspektiven
Für Tesnie`re sind Translation (und Junktion) diejenigen Komponenten, die es gestatten, das universal konzipierte Dependenzgefüge, so wie es unter 1.1 als Maximalstemma vorgeführt wurde, auf den wortübergreifenden syntagmatischen und syntaktischen Bereich auszudehnen. Die dependentiellen Beziehungen, die anhand der Wortkategorien herausgelöst wurden, erweisen sich als konstitutiv auch für die Beschreibung umfassenderer Strukturen, die die Wortklassenzugehörigkeit transzendieren. Abhängigkeitsbeziehungen, Dependenzbeziehungen, bestehen dabei zwischen jeweils zwei aufeinanderfolgenden Ebenen, gleichgültig, ob sie nun kategorial oder durch Translate (und Junkte) besetzt sind. (Verbbedingte) Valenzbeziehungen und sonstige Dependenzien realisieren sich sowohl kategorial indiziert als auch über Translaten. Die Translation wird damit zur conditio sine qua non für die Valiabilität des gesamten Modells in der Erfassung all dessen, was ⫺ unbesehen bestimmter Einzelsprachen ⫺ sprachlich möglich ist. Dies wird in der heutigen Forschung auch vermehrt erkannt (vgl. Lambertz 1995; Weber 1996; Werner 1993) und für eine systematische Auseinandersetzung mit der Translationskomponente produktiv genutzt. Kaum ausgeschöpft sind allerdings bislang die Möglichkeiten des gesamten Modells einschließlich der Translationen für eine kontrastive Sprachbetrachtung.
Die einzelsprachliche Organisation gerade der Translationskomponente als Basis für den Sprachvergleich und auch für typologische Zielsetzungen ist für noch kaum eine Sprache systematisch untersucht. Gerade hier scheinen noch große Ressourcen für die Forschung zu liegen. Auch eine Überprüfung der Relevanz im (nicht nur kontrastiv konzipierten) Sprachunterricht steht noch aus, obwohl für Tesnie`re gerade dieser Aspekt eines der Hauptmotive für die Entwicklung auch der Translationskomponente war.
6.
Literatur in Auswahl
Bally, Charles (1932): Linguistique ge´ne´rale et linguistique franc¸aise. Berne. Barie´, Paul (1973): Phrasenstruktur oder Dependenzrelation. Überlegungen im Vorfeld einer lateinischen Syntaxtheorie. In: Der Altsprachliche Unterricht 16/5, 65⫺119. Baum, Richard (1976): Dependenzgrammatik. Tesnie`res Modell der Sprachbeschreibung in wissenschaftsgeschichtlicher und kritischer Sicht. Tübingen. BLAG 7 (1980) ⫽ Gentilhomme (1980). Bossong, Georg (1979): Probleme der Übersetzung wissenschaftlicher Werke aus dem Arabischen in das Altspanische zur Zeit Alfons des Weisen. Tübingen. Corblin, Francis (1995): Cate´gories et translations en syntaxe structurale. In: Madray-Lesigne/Richard-Zappella (1995), 229⫺238. Dahmen, Wolfgang/Holtus, Günter/Kramer, Johannes/Metzeltin, Michael/Schweickard, Wolfgang/Winkelmann, Otto (Hgg.) (1998): Neuere Beschreibungsmethoden der Syntax romanischer Sprachen. Tübingen. Dönnges, Ulrich/Happ, Heinz (1972): DependenzGrammatik und Latein-Unterricht. Göttingen. Duc Goninaz, Michel (1994): OAIE: „Espe`ces de mots“ et translations en Espe´ranto. In: Linguistica XXXIV. 1. Me´langes Lucien Tesnie`re. Ljubljana, 81⫺86. Eichinger, Ludwig M. (1982): Syntaktische Transposition und semantische Derivation. Die Adjektive auf -isch im heutigen Deutsch. Tübingen. Engelen, Bernhard (1975): Untersuchungen zu Satzbauplan und Wortfeld in der geschriebenen deutschen Sprache der Gegenwart. München. Gaatone, David (1980): Conjonctions et locutions conjonctives en franc¸ais. In: Le Franc¸ais Moderne 14, 195⫺211. Gaatone, David (1994): Lucien Tesnie`re et la subordination. In: Linguistica XXXIV.1. Me´langes Lucien Tesnie`re. Ljubljana, 87⫺94. Galichet, Georges (21950): Essai de grammaire psychologique. Paris (11947).
128 Galichet, Georges (31970): Grammaire structurale du franc¸ais moderne. Montre´al (11969). Garde, Paul (1977): Ordre line´aire et de´pendance syntaxique. Contribution a` une typologie. In: Bulletin de la Socie´te´ Linguistique de Paris 72, 1⫺26. Garrette, Robert (1973): Pour une analyse structurale de la phrase. In: Grammatica 2, 17⫺34. Gauger, Hans-Martin/Oesterreicher, Wulf/Windisch, Rudolf (1981): Einführung in die romanische Sprachwissenschaft. Darmstadt. Gentilhomme, Yves (Hg.) (1980): Hommage a` Lucien Tesnie`re (⫽ BLAG 7). Besanc¸on. Gre´ciano, Gertrud (1972): Les applications de la grammaire de de´pendance au domaine allemand. Paris. Gre´ciano, Gertrud (1977): Inhalt und Funktion als Klassifizierungskriterium für Tesnie`res Knoten. In: Helbig, Gerhard (1977): Beiträge zur Klassifizierung der Wortarten. Leipzig, 66⫺78. Gre´ciano, Gertrud/David, Jacques (1974): A propos de la translation vers O chez Tesnie`re. In: Linguistica Palatina 12, 1⫺27. Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996): Lucien Tesnie`re ⫺ Syntaxe structurale et ope´rations mentales. Tübingen. Guilbert, Louis (1965): La cre´ativite´ lexicale. Paris. Guillaume, Gustave/Valin, Roch (Hgg.) (1971): Lec¸ons de linguistique de Gustave Guillaume. 1948⫺ 1949. Se´rie B. Psycho-syste´matique du langage. Principes, me´thodes et applications I. Que´bec/Paris. Guillaume, Gustave/Valin, Roch (Hgg.) (1973): Lec¸ons de linguistique de Gustave Guillaume. 1948⫺ 1949. Se´rie C. Grammaire particulie`re du franc¸ais et grammaire ge´ne´rale IV. Que´bec/Paris. Guillaume, Gustave/Valin, Roch (Hgg.) (1974): Lec¸ons de linguistique de Gustave Guillaume. 1949⫺ 1950. Se´rie A. Structure se´miologique et structure psychique de la langue franc¸aise II. Que´bec/Paris. Guillaume, Gustave/Valin, Roch/Hirtle, Walter/ Joly, Andre´ (Hgg.) (1987): Lec¸ons de linguistique de Gustave Guillaume. 1945⫺1946 (A). Que´bec/Lille. Guiraud, Pierre (1971): Lucien Tesnie`re and Transformational Grammar. In: Language Sciences 15, 1⫺6. Heringer, Hans-Jürgen (21973): Theorie der deutschen Syntax. München (11970). Heringer, Hans-Jürgen/Strecker, Bruno/Wimmer, Rainer (1978): Syntax. Fragen ⫺ Lösungen ⫺ Alternativen. München. Holtus, Günter (1979): Zum Struktur- und Wortklassenbegriff in der Dependenzgrammatik Lucien Tesnie`res. In: Zeitschrift für Romanische Philologie 95, 75⫺82. Holtus, Günter (1980): Les „Ele´ments de syntaxe structurale“ de Lucien Tesnie`re. Remarques sur la re´ception de son mode`le de grammaire de´pendentielle. In: Revue Romane 15, 128⫺148.
II. Lucien Tesnie`re und seine Zeit Jespersen, Otto (1924): A Philosophy of Grammar. London. Jespersen, Otto (1925): Die sprachlichen Rangstufen. In: Englische Studien 60, 100⫺309. Jespersen, Otto (1937): Analytic Syntax. London. Klein, Wolfgang (1971): Parsing. Studien zur maschinellen Satzanalyse mit Abhängigkeitsgrammatiken und Transformationsgrammatiken. Frankfurt. Koch, Peter/Krefeld, Thomas (Hgg.) (1991): Connexiones Romanicae. Dependenz und Valenz in romanischen Sprachen. Tübingen. Koch, Peter/Krefeld, Thomas (1993): Gibt es Translationen? In: Zeitschrift für romanische Philologie 109, 148⫺166. Koch, Peter/Krefeld, Thomas (1995): La translation: illusions perdues. In: Madray-Lesigne/Richard-Zappella (1995), 239⫺248. Krefeld, Thomas (1987): Unterordnung ⫺ Beiordnung ⫺ Zuordnung. Was ist romanisch an französisch „que“? In: Raible, Wolfgang (Hg.) (1987): Romanistik, Sprachtypologie und Universalienforschung. Tübingen, 11⫺36. Krefeld, Thomas (1991): Wörter und ihre (Un-)Arten: Zum unmarkierten Wechsel der Konnexionsebene im Französischen. In: Koch/Krefeld (Hgg.) (1991), 81⫺106. Lambertz, Thomas (1982): Ausbaumodell zu Lucien Tesnie`res „Ele´ments de syntaxe structurale“. 2 Bände. Gerbrunn. Lambertz, Thomas (1991a): Kritische Anmerkungen zu Tesnie`res Translationstheorie. In: Koch/ Krefeld (Hgg.) (1991), 53⫺79. Lambertz, Thomas (1991b): Le praedicativum et l’attribut du comple´ment d’objet dans le mode`le de grammaire de´pendentielle de Lucien Tesnie`re. In: Touratier, Christian (Hg.) (1991): Comple´ments pre´dicatifs et attributs de comple´ment d’objet en latin. Aix-en-Provence, 34⫺43. Lambertz, Thomas (1995): Translation et de´pendance. In: Madray-Lesigne/Richard-Zappella (1995), 221⫺228. Lambertz, Thomas (1996): Translationen und kein Ende. In: Zeitschrift für romanische Philologie 112, 39⫺79. Lambertz, Thomas (1998): Der Infinitiv im Italienischen und Tesnie`res Translationstheorie. In: Dahmen /Holtus /Kramer /Metzeltin /Schweickard / Winkelmann (Hgg.) (1998), 281⫺311. Lemare´chal, Alain (1989): Les parties du discours. Se´mantique et syntaxe. Paris. Lemare´chal, Alain (1996): Connexion, De´pendance et Translation: „boite noıˆre“ et the´orie tesnie`rienne de la Relation Syntaxique. In: Gre´ciano/Schumacher (Hgg.) (1996), 91⫺100. Madray-Lesigne, Franc¸oise/Richard-Zappella, Jeannine (1995): Lucien Tesnie`re aujourd’hui. Paris. Mikusˇ, Radivoj-F. (1972): Principes de syntagmatique. Bruxelles/Paris.
129
14. Die Junktionstheorie Lucien Tesnie`res Perrot, Jean (1995): Sur la translation. In: MadrayLesigne/Richard-Zappella (1995), 215⫺220. Raible, Wolfgang (1972): Satz und Text. Untersuchungen zu vier romanischen Sprachen. Tübingen. Sˇabrsˇula, Jan (1968): Transformations ⫺ Translations ⫺ Classes potentielles syntaxico-se´mantiques. In: Travaux Linguistiques de Prague 3, 53⫺63. Schneider, Bruno (21982): Sprachliche Lernprozesse. Lernpsychologische und linguistische Analyse des Erst- und Zweitsprachenerwerbs. Tübingen. Smajda, Stanislas (1977/78): La grammaire de´pendentielle du latin. Examen critique d’une the`se re´cente. Louvain. Stati, Sorin (Hg) (1977): Le teorie sintattiche del Novecento. Bologna. Szemere´nyi, Oswald (1982): Richtungen der modernen Sprachwisssenschaft II: Die fünfziger Jahre (1950⫺1960). Heidelberg. Tesnie`re, Lucien (1934): Comment construire une syntaxe. In: Bulletin de la Faculte´ de Lettres de Strasbourg 12, 219⫺229. Tesnie`re, Lucien (1953): Esquisse d’une syntaxe structurale. Paris. Tesnie`re, Lucien (31964): Petite grammaire russe. Paris (21945, 11934). Tesnie`re, Lucien (21966): Ele´ments de syntaxe structurale. Paris (11959). Tesnie`re, Lucien (1980): Grundzüge der strukturellen Syntax. Hrsg. u. übers. von Ulrich Engel. Stuttgart.
Twahirwa, Andre´ (1995): Les tons et la translation du second degre´ en Kinyarwanda. In: Madray-Lesigne/Richard-Zappella (1995), 315⫺324. Vernay, Henri (1970): Zur semantischen Struktur des Verbalknotens und des Nominalknotens. In: Hartmann, Peter/Vernay, Henri (1970): Sprachwissenschaft und Übersetzen. München, 93⫺103. Weber, Heinz J. (1992): Dependenzgrammatik. Ein Arbeitsbuch. Tübingen. Weber, Heinz J. (1996): Translation, Rekursivität und Valenz bei Lucien Tesnie`re. In: Gre´ciano/Schumacher (Hgg.) (1996), 249⫺261. Werner, Edeltraud (1993): Translationstheorie und Dependenzmodell. Kritik und Reinterpretation des Ansatzes von Lucien Tesnie`re. Tübingen/Basel. Werner, Edeltraud (1996): Ist die Annahme von Translationen sinnvoll. In: Zeitschrift für romanische Philologie 112, 80⫺123. Werner, Edeltraud (1998): Der Stellenwert der Tesnie`reschen Translationstheorie für die Beschreibung romanischer Sprachen. In: Dahmen/Holtus/ Kramer/Metzeltin/Schweickard/ Winkelmann (Hgg.) (1998), 313⫺335. Worthington, M. G. (1968): A Precursor of the Transformatical Approach to Descriptive Syntax: Lucien Tesnie`re. In: Romance Philology 21, 301⫺ 317. Wunderli, Peter (1989): Französische Lexikologie. Einführung in die Theorie und Geschichte des französischen Wortschatzes. Tübingen.
Edeltraud Werner, Halle/S. (Deutschland)
14. Die Junktionstheorie Lucien Tesnie`res 1. 2. 3. 4.
Tesnie`res Theorie Offene Fragen und Rezeption Weiterentwicklungen Literatur in Auswahl
1.
Tesnie`res Theorie
Konnexion, Junktion und Translation sind die tragenden Säulen der strukturalen Syntax. Mit der Konnexion wird die Grundstruktur von Sätzen erfasst, ihr Aufbau. Junktion und Translation dienen der Erweiterung und der Anreicherung der Struktur, dem Ausbau. Dabei ist die Translation eher für den funktionalen Ausbau gedacht, die Junktion für den strukturellen Ausbau. Während Konnexion und Translation schon in der frühen Veröffentlichung Comment construire une syntaxe von 1934 eingeführt wer-
den, erscheint die Junktion hier nur mit zwei Zeilen. In der Esquisse hat sie aber schon ihren Platz und in den E´le´ments wird sie weiter ausgeführt, wenngleich sie mit 30 Seiten bei weitem nicht Umfang und Detailliertheit der anderen beiden Komponenten erreicht. Auch in der Rezeption hat sie nicht die große Rolle gespielt. Die Junktion steht außerhalb der für die dependenzielle Syntax grundlegenden Konnexion. Sie verbindet ⫺ sozusagen nebenordnend ⫺ zwei Nuklei der gleichen Art. So ist in folgendem Satz der erste Aktant ausgebaut: (1)
Alfred et Bernard tombent.
Es gibt hier also nur einen Aktanten, der aus zwei jungierten Nuklei besteht. Die Junktion wird bezeichnet durch sog. Junktive, die zwischen die Nuklei treten, hier das fr. et. Junk-
130
II. Lucien Tesnie`re und seine Zeit
tive sind bloße grammatische Werkzeuge, mots vides also, „qui ne sont pas charge´s d’une fonction se´mantique“ (Tesnie`re 1959, 28.2). Tesnie`re kennzeichnet sie im virtuellen Stemma mit j, im Unterschied zu den Kategorien A, E, I, O für volle Wörter. Der Ausbau eines Nexus ist einer Addition oder Multiplikation vergleichbar. Auf diese Weise ist in (2) der erste Aktant verdoppelt: (2)
Alfred
tombe. Bernard tombe. ⫺⫺⫺⫺⫺⫺⫺⫺⫺⫺⫺ Alfred et Bernard tombent.
Dem liegt natürlich irgendwie auch eine Art Transformation zugrunde, die den Satz auf diese Weise entstanden zeigt. (Allerdings wird die Kongruenzveränderung ignoriert.) Die Darstellung scheint jedenfalls nicht rein semantisch gedacht. Der Erzeugungsmechanismus ist nicht auf zwei Durchläufe beschränkt, er kann mehrfach wiederholt werden (Tesnie`re 1959, 135.6): (3)
Alfred, Bernard et Charles tombent.
Jungiert werden können alle möglichen Nuklei, Bedingung ist aber, dass sie von der gleichen Art sind, zum Beispiel zwei N-Knoten oder zwei V-Knoten: (4)
Die Menschen fürchten Hunger und Tod.
(5)
Sie leben und sterben.
Regulär könnte man sich diese Bedingung etwa so vorstellen: (6)
[X]n j [X]n
Zwei gleichartige Nuklei X der gleichen Stufe im Stemma n werden jungiert durch das Junktiv j. Auf die innere Struktur der Nuklei X geht man hierbei nicht ein. In der graphischen Darstellung verlässt Tesnie`re die Hierarchie der Konnexionen und zeigt, dass die jungierten Nuklei auf der gleichen Ebene n liegen. Sie werden verbunden durch eine waagrechte Kante im Gegensatz zu den vertikalen Dependenzkanten, so dass Dreiecke entstehen:
(7)
tombent
Alfred
et
Bernard
Die Kante verbindet die beiden Nuklei über das Junktiv. Diese Darstellung trifft ganz gut unsere Intuition, wie sie durch die traditionelle Sichtweise und Redeweise von unterordnend und nebenordnend geprägt ist. Tesnie`re erarbeitet eine erste Typologie der Junktionen, die wesentlich den Typen von Junktiven nach ihrer Stellung entspricht: Junktive zwischen den Nuklei wie dt. und, e. or, fr. ou, Junktive vor den Nuklei wie lt. nec, dt. entweder, Junktive nach den Nuklei wie lt. que. Eine zweite Typologie der Junktionen klassifiziert Junktive nach ihrem Bau: monolexematische Junktive wie et, and, und, oder, sondern, Satzzeichen, also Zero-Junktive, mehrgliedrige Junktive wie lateinisch que et, diskontinuierliche Junktive wie sowohl ⫺ als auch, entweder ⫺ oder. Bei den diskontinuierlichen kann noch unterschieden werden zwischen repetitiven wie ni ⫺ ni, aut ⫺ aut und korrelativen wie either ⫺ or. Geläufige Junktive wie und, oder zeigen eine syntaktische Symmetrie, insofern die beiden jungierten Nuklei regelmäßig vertauschbar sind. Hingegen ist bei sondern der erste Nukleus formal verschieden vom zweiten, insofern er ein nicht, eine Negation oder etwas Negationsartiges enthalten muss. In anderen Fällen, etwa bei denn, gibt es semantische Restriktionen. Eine dritte Typologie der Junktive hebt darauf ab, welche Kategorien von Nuklei sie jungieren können. So kann im Deutschen das Junktiv denn etwa keine Phrasen verbinden, das Junktiv sowie keine Sätze und lt. que kann nur Nominalphrasen verbinden. Eine vierte Typologie klassifiziert die Junktive semantisch: les varie´te´s se´mantiques. Das ist korrekt, aber einigermaßen verblüffend, da sie doch „mots vides“ sein sollen. Hier unterscheidet Tesnie`re insbesondere adjunktive Junktive, die nur reihend verbinden wie und, disjunktive, die eine Alternative bezeichnen wie oder, adversative, die die zwei Nuklei entgegensetzen wie aber, kausale wie denn. Mit weiteren Arten von Junktiven erweitert Tesnie`re dies zu einer semantisch textlinguistischen Theorie der Satzverbindungen im Text. Er gibt dabei allerdings den engeren Syntaxbegriff auf und integriert auch Lexeme anderer syntaktischer Kategorien wie einer-
131
14. Die Junktionstheorie Lucien Tesnie`res
seits ⫺ andererseits bis hin zu Vergleichspartikeln wie fr. que (das sonst als subordinierend par excellence angesehen wird) und den Komparativsätzen (Tesnie`re 1959, 141, 147) sowie der Anaphorik gar. Damit stellt sich natürlich auch die Frage, wie Junktion und besonders Junktiv genau zu definieren sind, eine Frage, die schon Pottier in seiner Rezension der Esquisse aufwarf (Pottier 1956, 3). Wenn man davon ausgeht, dass in einem Text alle selbstständigen Sätze jungiert sind, braucht man ein Kriterium dafür, was denn dabei ein Junktiv sei. Im Deutschen ist verhältnismäßig gut feststellbar, dass es sich bei also im folgenden Satz nicht um ein Junktiv handelt, weil Junktive außerhalb der grammatischen Struktur bleiben und deshalb im Gegensatz zu Adverbien etwa nicht die Erststelle besetzen: (8)
(11) rient
(12) aiment
1. Alle Glieder der Junktion sind vom gleichen Knoten abhängig ⫽ jonction chope´e:
un chat
et
et
honorent
les enfants
Weiter unterscheidet Tesnie`re komplexere Formen der Junktion, die im Zusammenspiel von Konnexion und Junktion entstehen. Nach der grafischen Darstellung und den Dependenzverhältnissen gibt es verschiedene Bilder (Tesnie`re 1959, 143.3):
gras
chantent
3. Die Kombination von jonction chope´e und jonction chausse´e ⫽ jonction veˆtue:
dodu
parents
leurs
Eine weitere Komplizierung der Junktionsform entsteht, wenn Konnexionskanten und Junktionskanten sich schneiden. Dann entsteht der sog. Plexus, dem Tesnie`re einige Aufmerksamkeit zukommen lässt: (13)
achètent
les parents
Wir bekamen eine Unterkunft und sowohl Essen wie auch Trinken.
(10)
et
les enfants
Ich denke, also bin ich.
Nach diesem Kriterium ist also kein Junktiv, sondern satzverbindendes Adverb. Es liegt aber Junktion mit Zero-Junktiv zwischen den beiden Sätzen vor. Für das Deutsche bietet dieses Kriterium keine eindeutige Lösung, weil Partikeln ebenfalls nicht als Vorfeldfüllung zählen, weshalb zum Beispiel aber am Satzanfang nicht mit Sicherheit als Junktiv auszuweisen ist. Ein anderes und universales Kriterium für Junktive wird von Dik vorgeschlagen. Danach handelt es sich bei einem Junktivkandidaten nur dann um ein Junktiv, wenn an dieser Stelle kein weiteres Junktiv hinzugefügt werden kann (Dik 1968, 34; Brettschneider 1978, 40). Letztlich liefert auch dieses Kriterium nicht immer die gewünschten Ergebnisse: (9)
2. Es gibt einen Nukleus, der von allen jungierten Knoten abhängt ⫽ jonction chausse´e:
et
des livres
donnent
aux enfants
Insgesamt liefert Tesnie`re hiermit eine frühe und ausführliche Behandlung der Koordination in der Syntax, eine Behandlung, die sich allerdings nicht ganz nahtlos einfügt in die Gesamtsyntax, wie es im Grunde auch für andere und spätere syntaktische Theorien mit formaler Orientierung gilt.
2.
Offene Fragen und Rezeption
Die Integration der Junktion ins Stemma ist problematisch (Heringer/Strecker/Wimmer 1980, 141⫺151). Zwar betont Tesnie`re, dass etwa die Verdoppelung der Erstaktanten nicht die Valenz tangiert, dennoch gehen aber vom entsprechenden Verbalnukleus in der
132
II. Lucien Tesnie`re und seine Zeit
Junktion zwei Dependenzkanten nach unten, genau wie bei einem bivalenten Verb: (14)
bilden
Syntax
und
Semantik
Grundlage die
(15)
V
N
j
N
N AD
Ein anderes Problem besteht darin, dass jungierte Nuklei in einem Sinn zu wenig Struktur zu bringen scheinen. Zum einen müssten ja auch Dependenzen vom jeweiligen Junktiv zu den jungierten Nuklei bestehen; so wäre etwa die Zweistelligkeit der Junktive zu erklären und wohl auch im Stemma zu repräsentieren. (16) Wir achteten [auf Disziplin] und [auf Sauberkeit] [zuhause]. Dies ergäbe allerdings ein ganz inakzeptables Stemma, in dem die gesamte hierarchische Stufung verrückt ist; für mehrfache, rekursive Durchläufe würde sich das Problem verschärfen: (17)
V achteten
N_pro Wir
KON und
P*
P* zuhause
P*
Zum andern entstehen in Junktionen Mehrdeutigkeiten, die eventuell in einer anderen Darstellung zu erfassen wären: (18) Sie liebte Kuchen und Kaffee oder Wein. Die entsprechende Mehrdeutigkeit kann man durch Klammerung veranschaulichen, aber in der Tesnie`reschen Junktionstheorie nicht darstellen. (19) Sie liebte [Kuchen und Kaffee] oder [Wein].
(20) Sie liebte [Kuchen] und [Kaffee oder Wein]. Die analysierende Grundorientierung der E´le´ments de syntaxe structurale lässt eine generativ, regulär gedachte Fragestellung nicht in den Blick. Der Analysierer findet wohlgeformte Sätze vor, die es zu analysieren und darzustellen gilt. Er ist sozusagen an die rezeptive Perspektive gebunden, wenngleich Tesnie`re selbst ja auch sagt, dass die Sprechenden zuerst den ordre structural erzeugen, um ihn dann in den ordre line´aire zu überführen. (Wie das geht, beschreibt er allerdings nicht.) Wenn Tesnie`re sich besonders zugute hält, dass die wahre Struktur des Satzes eben diese zweidimensionale sei ⫺ wie dies die allermeisten Syntaxtheorien jetzt annehmen ⫺, so ist doch fraglich, ob er damit nicht einem Beschreibungsartefakt aufgesessen ist. Warum sollte die Struktur nicht dreidimensional sein? Weil man das auf Papier schlecht zeichnen kann? Ja, vielleicht könnte sie noch mehr Dimensionen haben. Die Grundideen einer solchen Beschreibung von Koordinationen, mit denen wir Tesnie`res Junktionen getrost identifizieren können, sind zusammengefasst: (i)
Junktive verbinden kohärente Teilstemmas, also regierende Knoten. (ii) Jungierte Knoten sind von der gleichen Art („de meˆme nature“). (iii) Die Junktion hat die Kategorie der koordinierten Knoten. (iv) Identische Teile der Teilstemmas einer multiplikativ entstandenen Junktion werden getilgt. Die letzte Bedingung wurde von Tesnie`re nicht so formuliert, aber sie ergibt sich aus der quasi-transformationellen Betrachtung, nach der Satzjunktionen als jungierte V-Knoten gelten. Bei dieser Betrachtung wird es nötig, überflüssige Elemente zu tilgen (sog. Pruning in transformationellen Theorien): (21) Wir [achteten [auf Disziplin] [zuhause]]V und [achteten [auf Sauberkeit] [zuhause]]V Eine Reihe von generellen Fragen für eine Theorie der Koordination sind erst in der späteren Entwicklung präzis gefasst und behandelt worden. Diesen Fragen wollen wir im einzelnen nachgehen. 2.1. Was ist koordinierbar? Die Frage scheint nicht so leicht zu beantworten. Bei Tesnie`re heißt es, Nuklei seien koordinierbar. Alle und nur Nuklei? Grob ge-
133
14. Die Junktionstheorie Lucien Tesnie`res
sprochen können Koordinationen an Lexemgrenzen einsetzen, ihre öffnende Klammer kann also mit niedrigen ⫺ etwa syntaktischen ⫺ Kategorien besetzt sein. Das sind erst einmal alle Hauptkategorien mit ihren Phrasen in beliebiger Expansionsstufe, also V, N, P, A, D, ADV. Koordinationseinsätze sind im Deutschen aber nicht auf Knoten beschränkt, sie gehen auch tiefer hinab zu den Wortteilen. So können Wortbildungselemente, Präfixe und Stämme koordiniert sein: (22) Krämpfe, die ihn [drei-] oder [vier]mal im Monat packen. (23) Es entstehen [Spät-] und [Dauer]schäden. (24) [Goldan]- und [-verkauf] Die Grenze scheint in zweierlei zu liegen: Erstens sind Wörter und Wortteile kaum koordinierbar, ohne dass die Flexive kopiert werden. Ausnahmen hiervon sind Zwillingsformeln wie ihres [Grund und Boden]s. Und zweitens sollten die nicht kopierten Teile jeweils in der gleichen Bedeutungsvariante verwendet sein. Dann entstehen sozusagen zeugmatische Strukturen: (25) [Holz-] und [Haustüren] Es spielen hier also phonologische, morphologische, syntaktische und semantische Faktoren zusammen (Smith 2000). 2.2. De meˆme nature? In der Definition ist gefordert, dass die jungierten Nexus von der gleichen Art, „de meˆme nature“ sein müssen. Das könnte man erst einmal so verstehen, als müssten die syntaktischen Kategorien, also die Benennungen der Knoten, identisch sein. Tesnie`re selbst gibt schon Hinweise, dass hier normative Probleme entstehen (Tesnie`re 1959, 146.13). Man kann die Gleichheit sehen in der grammatischen Struktur und nukleusintern bestimmen. Damit hat man einen sicheren inneren Bereich erfasst, aber nicht alles. Zum Beispiel können ja ohne weiteres zwei Erstaktanten verschiedener innerer Struktur jungiert werden: (26) [Der Verlust] und [dass er wohl nichts wiederfinden würde], bedrückte ihn.
(29) Nach Meinung [dieses] und [einer Anzahl anderer] Experten … Hier wären also formal ganz unterschiedliche Knoten koordiniert, die allgemeine reguläre Form also etwa: (30) [X]n j [Y]n Das legt für die Gleichheit eine eher externe Bestimmung nahe, nämlich dass eine irgendwie gleichartige Umgebung oder gleiche Funktion im Satz gefordert sei, was auch der Intention Tesnie`res entspricht, fügt er doch als zweiten Teil der Bedingung hinzu „la meˆme fonction dans la phrase“. Was aber Funktion hier heißt, ist notorisch unklar. Die grammatische Funktion „Erstaktant“ ist im Stemma nicht repräsentiert. Sie kann also schwerlich verwendet werden. Darüber hinaus gibt es auch schrägere Beispiele, die nahelegen, das die Sprechenden einem eher semantischen Prinzip folgen und dass damit der stehende Konflikt zwischen semantisch orientierten Sprechern und theoretisch, normativ, grammatisch orientierten Grammatikern aufkommt. Die Identität von Segmenten ist nicht rein formal geregelt. Wir Sprecher drücken bei der Identität gemeinsamer Elemente schon mal ein Auge zu. So wären in folgenden beiden Beispielen die beiden Restsätze strukturell nicht identisch: Quelle einmal Singular, einmal Plural, Betriebsräte einmal Dativ, einmal Akkusativ. (31) [Eine] oder [zwei] Quellen aus dem Ausland … (32) [Mit] oder [ohne] Betriebsräte … (33) Ist es möglich Fehler [zu erklären] und [vorzubeugen]? (34) [Helft] und [unterstützt euch gegenseitig]. Die kasuelle Rektion wird öfter durch den hinteren Nukleus bestimmt. Ähnliches kommt im Deutschen bei der Subjekt-Prädikat-Kongruenz vor (Findreng 1976): (35) [Eine Tradition wurde in Frage gestellt] und [Überzeugungen].
(27) Ich mache das [abends] oder [wenn keiner da ist].
Im tatsächlichen Sprachgebrauch wird aber Nicht-Identität noch weitgehender akzeptiert:
(28) Diese Produktion ist [schwierig] und [kaum durchzuführen].
(36) Klagen, die [viele kannten], [aber nur wenig öffentlich wurden] …
134
II. Lucien Tesnie`re und seine Zeit
(37) [Wenn ich da bin] und [ich lese ein Buch] … (38) Das [haben wir nicht] und [werden es nicht] vergessen. (39) Die Beziehung zur [Arbeitswelt] und [den Problemen der Menschen] … Das zeigt, dass wir es nicht mit rein formal orientierten Verfahren zu tun haben. Vieles spricht eher für eine semantische Fundierung der Koordination (vgl. auch Johannessen 1998). Dies gilt nicht nur für die Ausweitung der Gleichheitsbedingung, sondern auch für ihre Beschränkung. So wurde schon früh bemerkt, dass in regulärer Koordination zeugmatische Ausdrücke oder semantisch eher inkohärente Konstruktionen entstehen können (Heringer 1973, 277): (40) Wer lässt den Kuchen und die Sonne aufgehen? (41) Sie war sehr traurig und zwei mal zwei ist vier.
Da er aber mehr auf die Darstellung fixiert ist, sieht er nicht das damit verbundene Problem der Weglassung identischer Glieder. Warum werden manche Glieder sozusagen weggekürzt, andere nicht? So führt Tesnie`re solche Glieder manchmal im Stemma zum Teil einfach in Klammern weiter auf, um keine Löcher entstehen zu lassen (Tesnie`re 1959, 145.16): (43)
Raton
tirent
et
et
Bertrand
croquent
les marrons
Etwas komplizierter sind die folgenden Beispiele, die über Weglassungen zu erklären sind. (44) [Du glaubst es], [ich glaube es nicht].
Dies sollte etwa (nach Schachter 1977) mit verschiedenen constraints erfasst werden, die auch die gleiche semantische Funktion ins Spiel bringen.
(45) [[Keiner] [will] eigentlich [das Chlor und Benzol zusammenmixen]], aber [[alle] [müssen] [das Chlor und Benzol zusammenmixen]]
2.3. Reguläre Ellipsen Der Ansatz, der Junktionen sozusagen als Addition erklärt, stößt auf ein Problem, das schon Tesnie`re behandelt unter dem Stichwort bifide Sätze. Bifide Sätze ergeben sich bei sogenannter partieller Junktion, in der jungierte Nuklei einen gemeinsamen Nukleus regieren:
(46) Wir achteten auf Disziplin und Sauberkeit zuhause.
(42) tire
Raton
et
croque
Bertrand
les marrons
Auch hier wählt Tesnie`re wieder die Addition, um solche Strukturen zu erklären:
Raton Raton
tirait croquait
les les les les
croquaient
les marrons.
croquait Bernard Bernard
Raton et Bernard
tirait tiraient et
In solch komplexen Fällen versagt Tesnie`res stemmatische Darstellung und er muss zu Hilfskonstruktionen Zuflucht nehmen (vgl. (47)). Hierzu hat Klein ausführliche Regeln für das Deutsche erarbeitet (Klein 1981, Klein 1993; Kunze 1972, Wilder 1995). Sie sind Sonderfälle allgemeiner Regeln. Allgemeine Ellipsenregeln formulieren, welche Segmente in Sätzen oder Texten überhaupt getilgt werden können oder müssen. Sie beruhen darauf, dass getilgte Segmente kontextuell erschließbar sind. Eine Grundregel für Ellipsen besagt, dass identische Segmente in einem Nukleus erspart werden können. Der Hörerleser könne sie rekonstruieren. Dabei sind zu unterscheiden Vorwärtstilgungen wie (48) und Rück-
marrons. marrons. marrons. marrons.
135
14. Die Junktionstheorie Lucien Tesnie`res
(47)
V
P*
N_pro Wir
und
P*
achteten auf Disziplin zuhause
wärtstilgungen wie (49), die kommunikativ unterschiedlich fundiert sind: (48) Dies würde [jeder christlichen Ethik widersprechen] und [allen bekannten Regeln des Krieges widersprechen] (49) Dies würde [jeder christlichen Ethik widersprechen] und [allen bekannten Regeln des Krieges widersprechen] Bei der Formulierung von Regeln für kontextuelle Ellipsen geht man aus von Phrasenkoordination und von Koordinaten mit drei Segmenten; man kann sie ohne weiteres auf zwei beschränken. Segmente können Phrasen sein, können aber auch länger oder kürzer sein. Als grundlegend gelten die folgenden beiden Regeln für rechts- und linksperiphere Tilgungen. Sie tilgen nur Elemente die dem Junktiv adjazent sind: (50) [A,B,C] j [D,E,C] (51) [A,B,C] j [A,D,E] Mit diesen Regeln erfasst man die meisten Fälle, für die traditionell Tilgungen nötig sind. Natürlich gibt es auch Tilgungsverbote. Tilgungen, die die Struktur zerstören oder Ambivalenzen hervorbringen, werden gemieden. Auch Obligatorisches kann nicht getilgt werden. Für die Koordination besteht die Gefahr, dass zu hohe Knoten als koordiniert angesetzt werden, die anschließend wieder durch exzessive Anwendung von Tilgungsregeln zurechtgestutzt werden. Darum sollte man als Güteprinzip einführen: So wenig Ellipsen wie möglich. Ein weiteres Prinzip ist das der minimalen Koordination, das auch der Vermeidung von Ellipsen dient. Es besagt, dass man jeweils den niedrigst möglichen Knoten (oder den kürzesten) als koordiniert ansetzen sollte, also möglichst spät die Koordinationsklammer öffnen und möglichst früh schließen. So vermeidet man Probleme, die sich aus einer Rückführung auf längere Nuklei ergeben.
V
N_pro Wir
P* achteten
auf Sauberkeit
2.4. Psychische Realität Tesnie`re geht prinzipiell davon aus, dass Stemmas die eigentliche Struktur des Satzes darstellen, „la vraie phrase“ (Tesnie`re 1959, 6.10). Das Verfahren des Sprechers bestünde darin, zum jeweiligen mental konzipierten Stemma den ordre line´aire zu konstruieren, der Hörer hingegen müsse aus dem ordre line´aire den ordre structural erschließen. Darin sah er wohl auch den Sinn seiner Methode für den Sprachunterricht, sowohl in der Fremdsprache wie in der Muttersprache. Wer die Struktur sieht, erkennt den Sinn. Die komplizierten Strukturen managen wir unbewusst, sogar instinktiv. Le stemma a l’avantage de permettre de se rendre compte explicitement des caracte´ristiques de style contenues implicitement dans un passage donne´ et que les gens ayant le sentiment correct et de´licat des finesses de leur langue maternelle sentent instinctivement. (Tesnie`re 1959, 273.1)
Bei der Junktion wie bei den Translationen scheint bemerkenswert, dass Tesnie`re keine Zweifel an diesem Postulat gekommen sind. Es wäre doch recht erstaunlich, wenn Hörer zu dem strukturell recht simplen Satz „Les maıˆtres, les pe´dagogues et les e´ducateurs donnent, re´pe`tent et ressassent des avis, des conseils et des avertissements aux e´coliers, aux colle´giers et aux lyce´ens“ das folgende Stemma konstruieren müssten (s. Abb. 1) Hier keimt der Verdacht, dass übermäßig viel Struktur erzeugt wurde. Tesnie`re meint wirklich, man vermerke das Pathos: Le stemma n’e´tant ici que l’image des connexions qui s’e´tablissent dans notre esprit, le sujet parlant qui prononce la phrase ci-dessus exprime donc en une seule phrase le contenu de 81 phrases diffe´rentes. On reste confondu devant la complexite´, la de´licatesse et la puissance de l’instrument que le don du langage met ainsi a` notre disposition. (Tesnie`re 1959, 346)
Vermutlich wurde das Postulat nicht hinterfragt, weil die reguläre Denke Tesnie`re und seiner Zeit fernlag. Denn natürlich haben Sprachteilhaber es einfacher, die Regeln für
136
II. Lucien Tesnie`re und seine Zeit donnent
les maîtres les pedagogues et les educateurs
répètent
et
des avis des conseils des avertissements
ressassent
aux écoliers aux collégiers et aux lycéens
Abb. 14.1: Junktionstheorie ⫺ Stemma I
die Konstruktion und Rekonstruktion solcher Strukturen beherrschen. Gerade das ist ja der tiefere Sinn der Syntax: unendlicher Gebrauch von endlichen Mitteln. Wenn schon die Translation nicht im Mittelpunkt der Tesnie`re-Rezeption stand, so die Junktion noch weniger. Sie teilte sozusagen das allgemeine Schicksal der Koordination, für die Brettschneider mit Recht fragt: „Warum nimmt die Behandlung dieser Phänomene in linguistischen Arbeiten so wenig Raum ein? Warum erweist sich … die Beschäftigung mit diesem Phänomen als ein nahezu endloses Unternehmen“ (Brettschneider 1978, 282). Sollte beides zusammenhängen? In den meisten Dependenzgrammatiken wird der Junktion keine große Aufmerksamkeit geschenkt. In Rall/Engel/Rall 1977 kommt sie nicht vor, ebensowenig in der formalisierten Theorie von Hays 1964 oder in der Anwendung auf das Lateinische von Happ 1976. In Engel 1977 finden wir ein kurzes Kapitel zur „Häufung“. Es ist allerdings eher daten-orientiert. Das Fazit etwas kryptischer formaler Überlegungen ist ein Darstellungsformat, das Junktionen genau so wie Konnexionen behandelt. Nikula widmet der Junktion etwas mehr als eine Seite (Nikula 1986, 93). Auch er verwendet im Zusammenhang der Konjunktionen die normale konnexionale Struktur. Damit wird die Besonderheit der Junktion nicht deutlich. In Satzjunktionen ist die Konjunktion oberster Nukleus. Außerdem ergeben sich die Probleme mit der Valenz und der Stufung, wie sie oben dargestellt sind. Eine frühe Adaptation der Junktion finden wir in Heringer 1971, allerdings unter dem
Namen „Nektion“, um nicht eine vordergründige Nähe zu logischen Junktionen zu suggerieren. Hierfür wird eine eigene Art von Regeln entwickelt. Es handelt sich dabei um ein abstraktes Regelschema, das über variable Nuklei formuliert ist. Nach diesem Schema kann jeder Nukleus ersetzt werden durch zwei Nuklei der selben Art, die allerdings nach unten unterschiedlich ausgeführt werden können. Das Regelschema ist rekursiv, da jeder ersetzte Nukleus wieder ersetzt werden kann. So erfasst es multiple Koordinationen. Allerdings wird so nur die Grundstruktur der Koordination erfasst. Die weiteren empirischen Probleme werden nur verbal abgehandelt. An vielen Beispielen wird gezeigt, dass die Grundregel stark normativ ist und Vieles nicht erfasst. Hierfür werden semantische Regularitäten angeführt. (Zur Bedeutung koordinativer Konjunktionen s. Lang 1991, 614⫺621). Auch in Klein 1971 werden Tesnie`res Junktionen aufgenommen und in eine formale Theorie integriert. Klein entwickelt eine Schreibweise der folgenden Art: X1rJ X2rJ X3rJ … Xkr ⫽ X1rJ* Xkr Hierbei steht X für einen beliebigen Nukleus der Kategorie X, die tief gestellten Buchstaben stellen das Niveau der Dependenz dar, ihre Identität besagt also, dass gleichstufige Nuklei jungiert werden, die Hochzahlen differenzieren die Okkurrenzen und bezeichnen zugleich die Position in der Kette, J steht für ein Junktiv. Die obige Regel deutet zugleich an, dass sie rekursiv angewendet werden kann, dass es also im Prinzip unendlich lange Junktionsnuklei geben kann. Es gelingt Klein so, einige Eigenschaften der Junktion und
137
14. Die Junktionstheorie Lucien Tesnie`res
den Zusammenhang von Konnexion und Junktion präziser zu fassen. Allerdings lag es nicht in seiner Absicht empirische Regeln für die ein oder andere Sprache zu formulieren. Lobin 1993 entwickelt eine prozedurale Theorie der Koordination für das Deutsche, die aber universal anwendbar sein soll. Die Theorie erzeugt nicht serialisierte Stemmas und lässt als Knoten nicht nur lexikalische Kategorien zu, sondern sog. komplexe Elemente, die man als formale Rekonstruktion des Tesnie`reschen Nukleus ansehen kann; sie sind wesentlich konstitutionell bestimmt. Die Koordination wird nicht als dependenzielles Verfahren angesehen. Vielmehr sind Koordinationen Erweiterungen der dependenziellen Struktur. Sie fügen zu komplexen Elementen, im Prinzip oft Phrasen, schrittweise und zyklisch neue komplexe Elemente hinzu und werden so rekursiv. Elliptische Elemente werden dabei erst gar nicht erzeugt, sondern im Fall der linken Konjunkte durch Abbruch der Koordinationsprozedur erklärt. Auch die Vorwärtstilgung ist zwanglos erklärt: „Nicht koordinierte Elemente werden übergangen, anaphorisiert (Phrasen) oder wiederholt (Nuklei)“ (Lobin 1993, 280). Koordinationen gehören zu einer Art Metasyntax, ihre Regeln operieren auf der dependenziellen Syntax erster Stufe. Eine Schwäche scheint hierbei, dass eben die Koordination nicht im Rahmen der Dependenz erfasst wird und dass unklar bleibt, von welcher Kategorie ein Nukleus ist und wie er gewonnen wird. Hingegen ist das Ellipsenproblem elegant gelöst. Weitere Behandlungen des Koordinationsproblems in dependentieller Sicht bei Kunze (1972) und Eroms (2000, 462⫺478).
3.
Weiterentwicklungen
Da die Junktion im Prinzip nicht dependenziell orientiert ist, könnte man auch andere Theorien der Koordination hier einbeziehen. Valenzverwandte Ansätze finden wir im Rahmen der Word Grammar in Hudson 1988 und im Rahmen der Kategorialgrammatik in Steedman 1985. Aus Platzgründen beschränken wir die Darstellung auf Weiterentwicklungen im dependenziellen Rahmen, gehen aber ein auf die Lösungsvorschläge für die offenen Fragen im Zusammenhang des Deutschen. In Koordinationen kollidieren die Prinzipien der Linearität und der Hierarchie. Koor-
dination ist ein lineares Nacheinander oder Nebeneinander, das durch Konjunktionen ausgedrückt sein kann oder nicht. Dafür sind Dependenz-Regeln nicht geeignet (Lobin 1993). Erforderlich wäre eine strukturarme, lineare Superregel. Diese Regel wäre natürlich rekursiv und ließe auch n-fache, gleichstufige Koordinationen zu. Sie betont, dass nur das Serielle relevant, keine tiefere Schachtelung vorgesehen ist. Jede zusätzliche schachtelnde Struktur eines Texts ist darum semantisch. Eine in neuerer Zeit hierfür entwickelte Theorie ist die sog. Stringkoordination (Heringer 1996). Diese Auffassung sieht Koordination mehr seriell oder stringorientiert. Die syntaktische Kategorie der koordinierten Strings ist weniger relevant als die Tatsache, dass die koordinierten Teile in dem String aufeinander folgen. Dies wird exemplifiziert mit einer Art Partiturschreibweise: (52) G. sitzt still auf der Couch und wartet. G. [sitzt still auf der Couch]V und [wartet]V. Die syntaktische Struktur des Stringsegments spielt eine viel geringere Rolle. Zum Beispiel entfielen damit alle Probleme, die zusammenhängen mit der Forderung, dass jeweils nur einzelne Nuklei koordiniert würden. Man kann sich das Ganze so vorstellen, dass der Sprecher den String an einer Stelle unterbricht und einen Parallelweg geht, der natürlich on-line nicht parallel, sondern nur nach dem ersten Teilweg begangen werden kann (vgl. a. Hesse/Küstner 1985, 40). An seinem Ende kehrt er zur Abzweigstelle zurück. Auf diese Weise müssen gemeinsame Teile nicht koordiniert werden, eine Idee, die man auch Tesnie`re schon bei der Behandlung der Bifidität unterstellen könnte. Die Stringkoordination basiert auf der Idee des Dubbing: Sie geht davon aus, dass inkrementell eine Kopie eines Stringsegments angefertigt wird. Die Kopie hat einen markierten Anfang und ein Ende; sie hat auf der obersten Ebene die Struktur des Originals, enthält nur kategoriale Geschwister. Alles, was vor der Koordination liegt, ist von ihr nicht betroffen, ist darum auch im zweiten Teil nicht elliptisch ausgelassen. Die Stringauffassung ist wie folgt charakterisiert: (i)
Eine Koordination ist ein String aus zwei Segmenten, sie besteht also aus zwei zusammenhängenden Strings als koordinierten Teilen.
138 (ii) (iii) (iv)
(v)
(vi)
(vii)
II. Lucien Tesnie`re und seine Zeit
Der zweite String ist eine strukturelle Kopie des ersten. Die Konjunktion markiert (im Deutschen) die Verdoppelung, den Anfang der Kopie. Bei zweiteiligen Konjunktionen markiert zunächst der erste Teil der Konjunktion den Anfang des Originals. Hier sind also der Anfang des Originals und der Anfang der Kopie markiert. Der Anfang des Originals wird strukturell ermittelt, er liegt bei einer kategorial öffnenden Klammer. Die eröffnenden Indizes von Original und Kopie sind normalerweise identisch. Das Ende der Kopie liegt vor dem ersten gemeinsamen Element. Nicht immer ist eindeutig, ob ein Element gemeinsam ist oder nicht. Stringsegmente am Rande, die beiden Koordinaten gemeinsam sind, liegen außerhalb der Koordination.
Stringkoordination scheint die Zahl postulierter Rückwärtstilgungen erheblich zu reduzieren, weil die Koordination an adäquateren Stellen einsetzen kann. Die Vorwärtstilgung ist eher on line, weil sie nur Ergänzungen erwartet, die tatsächlich schon da waren. Koordination ist ein syntaktisches Phänomen, das sich als umso komplexer erweist, je näher man es betrachtet. Möglicherweise hat es nicht die gebührende Beachtung gefunden, vielleicht auch weil es gewissen Grundüberzeugungen moderner syntaktischer Theorien widerspricht und mit den üblichen Regeln kaum regulär zu fassen scheint.
4.
Literatur in Auswahl
Brettschneider, Gunter (1978): Koordination und syntaktische Komplexität. Zur Explikation eines linguistischen Begriffs. München. Dik, Simon C. (1968): Coordination. Its Implications for the Theory of General Linguistics. Amsterdam. Engel, Ulrich (1977): Syntax der deutschen Gegenwartssprache. Berlin. Eroms, Hans-Werner (2000): Syntax der deutschen Sprache. Berlin/New York. Gleitman, Lila R. (1965): Coordinating Conjunctions in English. In: Language 41, 260⫺293. Happ, Heinz (1976): Grundfragen einer Dependenzgrammatik des Lateinischen. Göttingen. Hays, David G. (1964): Dependency Theory: A Formalism and Some Observations. In: Language 40, 511⫺525.
Heringer, Hans Jürgen (1973): Theorie der deutschen Syntax. München (2. Aufl.). Heringer, Hans Jürgen (1996): Deutsche Syntax dependentiell. Tübingen. Heringer, Hans Jürgen/Strecker, Bruno/Wimmer, Rainer (1980): Syntax. Fragen ⫺ Lösungen ⫺ Alternativen. München. Hesse, Harald/Küstner, Andreas (1985): Syntax der koordinativen Verknüpfung. Berlin. Hudson, Richard A. (1988): Coordination and grammatical relations. In: Journal of Linguistics 24, 303⫺342. Johannessen, Janne Bondi (1998): Coordination. Oxford. Klein, Wolfgang (1971): Parsing. Frankfurt. Klein, Wolfgang (1981): Some Rules of Regular Ellipsis in German Crossing the Boundaries in Linguistics. In: Klein, Wolfgang/Levelt, Willem J. M. (Hgg.): Crossing the Boundaries in Linguistics. A Festschrift for Manfred Bierwisch. Dordrecht. Klein, Wolfgang (1993): Ellipse. In: Jacobs, Joachim/von Stechow, Arnim/Sternefeld, Wolfgang/ Vennemann, Theo (Hgg.): Syntax. Ein internationales Handbuch zeitgenössischer Forschung. Berlin/ New York, 763⫺799. Kunze, Jürgen (1972): Die Auslassbarkeit von Satzteilen bei koordinativen Verbindungen im Deutschen. Berlin. Kunze, Jürgen (1975): Abhängigkeitsgrammatik. Berlin. Lang, Ewald (1991): Koordinierende Konjunktionen. In: von Stechow, Arnim/Wunderlich, Dieter (Hgg.): Semantik/Semantics. Berlin, 597⫺623. Lobin, Henning (1993): Koordinationssyntax als prozedurales Phänomen. Tübingen. Mel’cˇuk, Igor A. (1988): Dependency Syntax: Theory and Praxis. New York. Nikula, Henrik Stockholm.
(1986):
Dependensgrammatik.
Oirsouw, Robert van (1993): Coordination. In: Jacobs, Joachim/von Stechow, Arnim/Sternefeld, Wolfgang/Vennemann, Theo (Hgg.): Syntax: Ein internationales Handbuch zeitgenössischer Forschung. Berlin/New York, 748⫺763. Pottier, Bernard (1956): Tesnie`re, Esquisse d’une syntaxe structurale. In: Revista Portuguesa de Filologia 7, 441⫺444. Rall, Marlene/Engel, Ulrich/Rall, Dietrich (1977): Dependenz-Verb-Grammatik für Deutsch als Fremdsprache. Heidelberg. Schachter, Paul (1977): Constraints on coordination. In: Language 53, 86⫺102. Smith, Garry (2000): Word remnants and coordination. In: Thieroff, Rolf/Tamrat, Matthias/Furhop, Nanna/Teuber, Oliver (Hgg.): Deutsche Grammatik in Theorie und Praxis. Tübingen, 55⫺67.
139
15. Negation und Frage bei Lucien Tesnie`re Steedman, Mark (1985): Dependency and coordination in the grammar of Dutch and English. In: Language 61, 523⫺568.
(Hgg.): Geneva Generative Working Papers. Studies on Universal Grammar and Typological Variation. Amsterdam, 23⫺61.
Wilder, Chris (1995): Some properties of ellipsis in coordination. In: Alexiadou, Artemis/Hall, T.Alan
Hans Jürgen Heringer, Augsburg (Deutschland)
15. Negation und Frage bei Lucien Tesnie`re 1. 2. 3. 4. 5. 6.
1.
Die Einheit von Frage, Exklamation und Negation in den Ele´ments de syntaxe structurale Frage Exklamation Negation Rezeption und Anschlussmöglichkeiten Literatur in Auswahl
Die Einheit von Frage, Exklamation und Negation in den Ele´ments de syntaxe structurale
In Lucien Tesnie`res Hauptwerk Ele´ments de syntaxe structurale wird Frage, Exklamation und Negation ein eigenes Buch gewidmet, das in der internen Struktur des Werkes auf gleichem Rang steht wie z. B. das Buch über Valenz oder dasjenige über die Struktur des einfachen Satzes. Im Gegensatz zu letzteren sind Tesnie`res Vorschläge zu Frage, Exklamation und Negation von der Forschung jedoch kaum beachtet worden. Bevor die Theorie im Einzelnen vorgestellt wird, möchte ich auf die Umstände eingehen, die aus Tesnie`res Sicht die Einheit des Gegenstandsbereiches ausmachen. In traditioneller Perspektive sind Frage, Exklamation und Negation Modifikationen der Affirmation als unmarkierter Erscheinungsform des Satzes (vgl. 5). Tesnie`re begründet die Einheit der drei syntaktischen Phänomene jedoch anders. Er hebt dabei auf paradigmatische und auf syntagmatische Relationen zwischen ihnen ab. 1.1. Syntagmatische Beziehungen von Frage, Exklamation und Negation Tesnie`re geht von einer typischen syntagmatischen Reihung Exklamation ⫺ Frage ⫺ Negation aus. Diese Reihung speise sich aus Zweifeln des Sprechers an der Wahrheit des jeweiligen Sachverhalts. In einer Frage drückt der Sprecher einen Zweifel an der Wahrheit des Sachverhalts aus; dieser Zweifel kann vom Sprecher selbst oder vom Angesproche-
nen in einer verneinenden Antwort bestätigt werden (Tesnie`re 1988, 191 f.). Diese dialogische Abfolge stifte die Beziehung von Frage zu Negation. Die Frage wiederum sei jedoch nur ein sekundärer, reflektierter Ausdruck des Zweifels; seine erste, affektive Entäußerung erfahre er in der Exklamation (Tesnie`re 1988, 216). Diese Überlegungen mögen heute etwas befremdlich wirken; wichtig ist jedoch, dass die so konstruierte syntagmatische Abfolge von Exklamation, Frage und Negation Tesnie`re die explizite Legitimation liefert, die drei Phänomene integriert zu behandeln. Ihre grammatischen Parallelen (vgl. 1.2) wirken in seiner Darstellung gegenüber der dialogischen Fundierung ihrer Einheit eher akzidentell. Somit nimmt Tesnie`re hier ⫺ im Gegensatz zu den anderen Teilen seines Werkes ⫺ eine dezidiert onomasiologische Perspektive ein: primär sind nicht die sprachlichen Formen, sondern die ihnen zugrunde liegenden Sprechereinstellungen (vgl. auch Mettouchi 1995, die den starken Bezug auf die Subjektivität des Sprechers in diesem Abschnitt hervorhebt). Bei der Diskussion der Sprechereinstellung zum dargestellten Sachverhalt hält Tesnie`re übrigens ganz selbstverständlich proposition und phrase auseinander und trennt damit die beiden Begriffe in einer Weise, die der heute üblichen Trennung von Proposition und Satz (d. h. Proposition plus Modalität) nahekommt (vgl. Arnavielle 1994). 1.2. Paradigmatische Beziehungen von Frage, Exklamation und Negation Zwischen Frage und Negation besteht zunächst eine einfache paradigmatische Beziehung dergestalt, dass beide unterschiedliche Grade der Unsicherheit des Sprechers über den dargestellten Sachverhalt ausdrücken (Tesnie`re 1988, 191). Darüber hinaus werden Frage, Exklamation und Negation insofern systematisch parallelisiert, als alle diese drei Operationen entweder den Nukleus eines Sat-
140
II. Lucien Tesnie`re und seine Zeit
zes oder seine Konnexion (d. h. den ganzen Satz) betreffen können. Dies soll anhand des direkten Objekts des Beispielsatzes Alfred isst einen Kuchen durchgespielt werden: (1)
a. Nukleusfrage: Was isst Alfred? b. Konnexionsfrage: Isst Alfred einen Kuchen?
(2)
a. Nukleusexklamation: Was für einen Kuchen Alfred isst! b. Konnexionelle Exklamation: Alfred isst einen Kuchen!
(3)
a. Nukleusnegation: Alfred isst nichts. b. Konnexionelle Negation: Alfred isst nicht einen Kuchen.
2.
Frage
Die Unterscheidung von Nukleusfrage und Konnexionsfrage entspricht der traditionellen Unterscheidung von Wortfrage und Satzfrage. 2.1. Nukleusfrage Nach Tesnie`re lässt sich jeder Nukleus eines Deklarativsatzes durch Umformung in eine entsprechende Nukleusfrage erfragen, d. h. nicht nur das direkte Objekt wie in (1a), sondern z. B. auch das Subjekt: Wer isst einen Kuchen? Die Sprachen bedienen sich hierfür spezieller Fragepronomina, in Tesnie`res Terminologie: interrogativer genereller Wörter (Tesnie`re 1988, 193). Tesnie`re bemerkt allerdings, dass die Fragebildung desto „schwieriger“ wird, je weiter der zu erfragende Nukleus vom strukturalen Zentrum des Satzes (dem Verb) entfernt ist (1988, 195). Er macht hiermit auf ein Problem aufmerksam, das in der generativen Syntax ausgiebig unter dem Stichwort der Extraktionsbeschränkungen diskutiert wurde. Denn manche Satzglieder sind überhaupt nicht erfragbar, besonders in eingebetteten Sätzen (in Anna erwartet, dass Hans Brötchen kauft ist Hans nicht mittels eines vorangestellten Subjekt-Fragepronomens erfragbar). Auch das Verb als Nukleus sei durch ein verbum vicarium, also faire bzw. machen, erfragbar: Was macht Alfred? Schon dieses Beispiel (das Tesnie`res eigenem entspricht) deutet allerdings auf ein Problem dieser These. Denn hier wird, wie Ruwet (1967, 230) richtig kritisiert, nicht nur nach dem Verb, sondern nach dem ganzen Komplex Verb ⫹ direktes Objekt, also mehreren Nuklei, gefragt. Das verbum vicarium ist nämlich nicht ein Frage-
pronomen wie wer oder was, sondern lediglich ein sehr inhaltsarmes transitives Verb und als solches ein „Vollwort“ ⫺ also gerade kein Pronomen! ⫺, das in Verbindung mit einem Objekt-Fragepronomen den verbalen Prozess textuell aufzugreifen erlaubt und damit den Eindruck der grammatischen Erfragbarkeit erweckt. Hinzu kommt, dass machen nicht für alle Verben als verbum vicarium geeignet ist, z. B. nicht für Impersonalia (vgl. zu diesem Problemkomplex und damit zusammenhängenden Aspekten der Verbklassifikation Koch 1981, 170⫺206). Die Nukleusfrage berührt die strukturelle Ordnung eines Satzes nicht, die Dependenzverhältnisse sind die gleichen wie beim entsprechenden Deklarativsatz (während sich die lineare Ordnung natürlich ändern kann, z. B. durch Voranstellung eines Fragepronomens). Die dependenzielle Beschreibung erlaubt es also, die strukturellen Gemeinsamkeiten von Deklarativ- und Fragesatz auf einfache Weise zu erfassen. 2.2. Konnexionsfrage Tesnie`res Syntaxtheorie ermöglicht ihm eine originelle Interpretation der Satzfrage. Diese erfrage, ob die jeweiligen Knoten bzw. Nuklei in Konnexion, also in syntaktischer Abhängigkeit, miteinander seien (1988, 203). Schematisch wird dies folgendermaßen dargestellt (vgl. Tesnie`re 1988, 206): chante ? Alfred
Diese Analyse ist allerdings theorieintern insofern problematisch, als eine Satzfrage ja sicherlich selbst eine syntaktische und semantische Struktur hat, die wiederum nur als Konnexion gedacht werden kann. Der Mechanismus der Frage muss daher die Konnexionsbeziehung, die er erst erfragen will, schon voraussetzen. Die Analyse ist also insgesamt mit der Gesamttheorie nicht konsistent. Tesnie`res Interpretation der Satzfrage erweckt aber insofern Interesse, als sie nicht nur die Intution wiedergibt, dass Fragesätze von Deklarativsätzen abgeleitet sind, sondern ein Verständnis der Satzfrage voraussetzt, demzufolge diese eine entsprechende Affirmation
141
15. Negation und Frage bei Lucien Tesnie`re
„enthält“, die erst sekundär in Frage gestellt wird. Es gibt einen Berührungspunkt von Nukleus- und konnexioneller Frage: Konnexionelle Fragen können einen Nukleus kontrastiv fokussieren, z. B. in est-ce lui qui viendra? bzw. kommt ER? (1988, 209). Die Frage betrifft hier „l’extre´mite´ de la connexion qui touche au nucle´us“ (1988, 209) und wird am lat. Beispiel Aulusne veniet? folgendermaßen grafisch veranschaulicht: veniet
ne ? Aulus
Tesnie`res Formulierung suggeriert, dass die Satzfrage nicht unbedingt das ganze Konnexionsgefüge eines Satzes in Frage stellen muss, sondern auch die Konnexion nur zwischen zwei Nuklei treffen kann. Eine explizite Aussage hierzu macht er allerdings nicht. Dieses Problem wird in der Diskussion zur Negation noch einmal aufgegriffen werden.
3.
Exklamation
Auch die Exklamation kann nach Tesnie`re sowohl einen Nukleus als auch die Konnexion, also den ganzen Satz, treffen (vgl. 1.2). Hier geht Tesnie`re aber nicht so weit zu behaupten (wie bei der Frage), dass jeder einzelne Nukleus eines Satzes separat im Skopus einer Exklamation stehen könne. Als Beispiel für eine Nukleus-Exklamation führt er an: Welch ein artiges Kind! (1988, 216) und bemerkt die ausdrucksseitige Ähnlichkeit der Exklamationsmarkierung mit den Fragepronomina. Die Exklamation scheint hier das ganze Syntagma zu treffen, doch es enthält nicht nur einen Nukleus. Insofern bleibt unklar, wie der Mechanismus der Nukleus-Exklamation genau zu denken ist, zumal Tesnie`re auch keine Stemmaanalyse liefert. Man gewinnt den Eindruck, dass die Nukleusexklamation sich im Grunde nicht von der konnexionellen Exklamation (z. B. Ce qu’elle est gourmande!) unterscheidet, und dass lediglich die Abwesenheit eines verbalen Knotens in Syntagmen wie welch ein artiges Kind! die Existenz eines eigenen Typs der Nukleusexklamation zu suggerieren vermag.
4.
Negation
In der systematischen Parallelisierung von Frage und Negation liegt sicherlich eine der interessantesten Einsichten dieses Buches der Ele´ments de syntaxe structurale. Analog zur Frage kann jeweils ein Nukleus oder die Konnexion negiert werden. 4.1. Nukleusnegation Ein Nukleus wird negiert, indem er durch spezialisierte Indefinitpronomina oder Negationsadverbien (negative generelle Wörter) wie nirgends, nichts, keiner ersetzt wird (Tesnie`re 1988, 217 f.). Mit dieser Definition wird die Analogie der Nukleusnegation zur Nukleusfrage gesichert, die ja auch mittels eines spezialisierten Fragepronomens markiert wird. In vielen Sprachen (so dem Französischen, Deutschen und Englischen) sind die Formen des Negationsparadigmas „undurchlässig“, d. h. die Negation hat Skopus nur über einen Nukleus (Tesnie`re 1988, 232 ff.). Treffen zwei negierte Nuklei aufeinander, wie in Niemand hat nichts gesagt, so wird der Satz insgesamt zu einer Affirmation. In denjenigen Sprachen, deren Negationsausdrücke undurchlässig sind, gibt es noch ein zweites Paradigma „durchlässiger“ Negationsausdrücke (d. h. Indefinitpronomina), die in Kombination mit einem undurchlässigen Negationsausdruck eine Negation mehrerer Nuklei erlauben. Im Deutschen gehören hierzu jemand, etwas, je usw. Dabei können durchlässiger und undurchlässiger Negator getauscht werden, so dass man im Deutschen das hat keiner je gesagt neben das hat niemals einer gesagt sagen kann (1988, 234 ff.). Genau wie die Nukleusfrage berührt die Nukleusnegation die Dependenzbeziehungen im Satz nicht. 4.2. Konnexionelle Negation Die konnexionelle, d. h. den ganzen Satz betreffende Negation wird analog zur Satzfrage interpretiert. So wie die Satzfrage die Konnexion eines Satzes in Frage stelle, negiere die Satznegation, dass zwischen den Satzgliedern eine Konnexion bestehe (Tesnie`re 1988, 218). Diese Analyse trifft der gleiche Einwand wie die Analyse der Satzfrage: Sie scheint problematisch, denn auch ein negierter Satz muss eine syntaktische und semantische Struktur haben, die nur als Konnexion konzipiert sein kann; insofern muss die Verneinung von Konnexion selbst schon Konnexion voraussetzen. Andererseits wird damit eine abgelei-
142 tete, der Affirmation sekundäre Konzeption von Negation ausgedrückt: „Toute ne´gation proce`de d’une affirmation“ (1988, 217). Die Auffassung, dass Negation gegenüber Affirmation sekundär sei, scheint plausibel und ist weit verbreitet, ist aber nicht unkontrovers (cf. Horn 1989, 45⫺79 für einen Überblick über die Argumente für und gegen eine asymmetrische Konzeption von Negation und Affirmation). In der Analyse der zweigliedrigen französischen Negation (ne … pas, ne … personne usw.) folgt Tesnie`re der Grammatik von Damourette und Pichon (1911⫺40), die ne als „Discordantiel“ und das zweite Negationselement als „Forclusif“ bezeichnen. Tesnie`re wendet diese Analyse sowohl auf die Nukleus- als auch auf die konnexionelle Negation an. Der Ausdruck der französischen Negation sei nicht nur formal diskontinuierlich, sondern korrespondiere einer auch inhaltlichen Zweigliedrigkeit. Diese hängt fundamental mit dem zeitlichen Abstand in der Rede zwischen Discordantiel und Forclusif zusammen: „[L]e franc¸ais proce`de en deux temps. Il de´croche d’abord sa pense´e de la notion affirmative, puis il la raccroche a` la notion ne´gative“ (Tesnie`re 1988, 225). Aus dieser Formulierung spricht der psychologisierende Ton dieses Buches der Ele´ments de syntaxe structurale. Ganz gegen den Geist seines Werkes hebt Tesnie`re hier in der syntaktischen Beschreibung auf Merkmale der linearen Ordnung der Satzglieder, der chaıˆne parle´e, ab. Die Markierung der konnexionellen Negation (ne … pas usw.) wird als Indiz, d. h. als morphologische Markierung einer Wortart, bezeichnet (Tesnie`re 1988, 226). Sie markiere die negative Spezifizierung des Verbinhalts (1988, 226) (vgl. auch Mettouchi 1995, 346). Diese (eigentlich sehr plausible) Aussage steht wiederum im Widerspruch zur Annahme, dass die konnexionelle Negation Nicht-Konnexion ausdrücke. Denn wenn die Satznegation struktural am Verb lokalisiert ist, so kann sie kaum gleichzeitig als nichtlokale „Abwesenheit von Konnexion“ analysiert werden. Tesnie`re geht auch auf ein klassisches und zu seiner Zeit schon bekanntes (vgl. Horn 1989, 308 ff.) Problem der Negationsforschung ein, die anticipation de la ne´gation („NEG-Raising“): Die Negation eines Nebensatzes (oder eines eingebetteten Infinitivs) kann manchmal auch am Verb des übergeordneten Satzes markiert werden. So bezieht
II. Lucien Tesnie`re und seine Zeit
sich im komplexen Satz ich hoffe nicht, dass Sie krank sind die Negation nicht auf das Matrixverb, sondern auf den Inhalt des Nebensatzes. Ebenso bezieht sich die Negation in der kohärenten Konstruktion you mustn’t smoke semantisch nicht auf das regierende, sondern auf das regierte Verb. Die Antizipation der Negation ist auf bestimmte Verbklassen (des regierenden Verbs) beschränkt. Tesnie`re nennt die Verben des Wollens, des Befehlens, der Notwendigkeit, der Hoffnung, des Scheinens und des Deklarierens (1988, 221 f.). Barnicaud et al. (1967, 65⫺69) greifen ⫺ anscheinend in Unkenntnis des Umstandes, dass dieses Thema ein allgemeines, schon lange vor Tesnie`re bekanntes Problem der Negationsforschung ist ⫺ seine Ausführungen auf. Sie entgegnen ihm, dass die Antizipation der Negation nicht für alle Modalverben (als regierende Verben einer kohärenten Infinitivkonstruktion) möglich sei ⫺ was er allerdings nie behauptet hat. Die stemmatischen Darstellungen von Barnicaud et al. (1967, 67) deuten darauf hin, dass sie die konnexionelle Negation als Verneinung nur einer einzigen Dependenzrelation und nicht eines ganzen Konnexionsgefüges analysieren. Dies nun erscheint als eine plausible Präzisierung Tesnie`res eigener Darstellung der konnexionellen Negation bzw. Frage (vgl. 2.2): Konnexionelle Negation bzw. konnexionelle Frage treffen nicht die ganze Konnexion eines Satzes, sondern nur eine bestimmte Dependenzrelation. Tesnie`re erwähnt Varianten der Negation, den „Restriktiv“ (ne … gue`re) und den „Limitativ“ (ne … que). Er legt sich aber nicht auf eine Kategorisierung dieser Elemente als Nukleus- oder konnexionelle Negatoren fest und gibt auch keine Stemmaanalyse von Sätzen, in denen sie vorkommen. Dies würde ihn auch in Schwierigkeiten bringen, denn Limitativ und Restriktiv lassen sich nicht in paradigmatische Opposition zu Frageausdrücken bringen und gefährden so die durchgängige Parallelisierung von Frage und Negation.
5.
Rezeption und Anschlussmöglichkeiten
Tesnie`res Vorschläge zu Frage, Negation und Exklamation sind von der Forschung kaum aufgegriffen worden. Von vereinzelten Bemerkungen bei verschiedenen Autoren abgesehen, ist Mettouchi (1995) der einzige mir bekannte explizite Versuch, Tesnie`res Gedanken aufzunehmen und weiterzuentwickeln.
143
15. Negation und Frage bei Lucien Tesnie`re
Mettouchi sieht in seiner Analyse der Negation als Indiz am Verb (vgl. 4.2) eine sachlich adäquate Möglichkeit angelegt, Negation als eigenständige semantische Kategorie (und nicht als von der Affirmation abgeleitet) zu konzipieren. Dies wird am Kabylischen (Berberisch, Algerien) veranschaulicht. Im Kabylischen (wie in sehr vielen anderen Sprachen auch, vgl. Givo´n 1978, 97) sind bestimmte temporal-aspektuelle Kategorien nicht mit der Negation verträglich. Mettouchi (1995) sieht diesen Umstand als Beleg für die These an, dass die Negation nicht von der Affirmation abgeleitet sei. Wenn nun, wie bei Tesnie`re ausgeführt, die Negation ein Indiz am Verb ist, sei sie eine Verbalkategorie eigenen Rechts und nicht der Affirmation sekundär. Somit sei es theoretisch unproblematisch, wenn, wie im Kabylischen, die Verbalkategorie Negation nicht mit allen anderen Verbalkategorien, im speziellen Fall bestimmten Aspekten, kombinierbar sei. Mettouchi versucht also, Tesnie`res technische Analyse der Negation gegen seine eigene semantische Definition der Negation (vgl. 4.2) zu wenden. Hiergegen ist einzuwenden, dass die Nichtnegierbarkeit einer bestimmten morphologischen, d. h. Ausdruckskategorie noch nicht den weitreichenden Schluss zu ziehen gestattet, dass Negation als wesensmäßig inhaltliche Größe prinzipiell von Affirmation unabhängig sei. Die Nichtnegierbarkeit bestimmter verbaler Kategorien scheint ein Reflex davon zu sein, dass viele grammatische Innovationen im Bereich von Tempus, Aspekt und Modus typischerweise im affirmativen Satz entstehen und erst später auf die negative Variante ausstrahlen (vgl. Givo´n 1978, 97). So bestätigt der Umstand, dass negierbare Verbalkategorien diachron sekundär sind, sogar die These vom abgeleiteten, markierten Charakter der Negation. Auch ist es durchaus möglich, Sätze zu negieren, die eine nichtnegierbare Verbalkategorie enthalten. Die nichtnegierbare Verbalkategorie muss dann paraphrasiert werden. Rückblickend kann man Tesnie`re das Verdienst zurechnen, als erster die Parallelen von Frage und Negation in syntagmatischer und paradigmatischer Sicht systematisiert zu haben. Sicherlich waren diese Parallelen auch vor ihm nicht unbekannt: Viele traditionelle Grammatiken behandeln Frage und Negation als gleichrangige Verfahren der Modifikation eines Aussagesatzes. Brunot (1922) untersucht die Frage und die Negation in aufeinanderfolgenden Kapiteln einer Sektion
„Questions, re´ponses, e´nonciations positives et ne´gatives“ des Buchteils „Les faits par rapport a` nos jugements, a` nos sentiments, a` nos volonte´s“. Insbesondere definiert er den affirmativen Deklarativsatz negativ aus der Abwesenheit von Frage und Negation (1922, 493). Doch erreichen diese Ausführungen bei weitem nicht die Kohärenz und die Systematizität Tesnie`res. Die neuere Forschung hat Tesnie`re der Sache nach in mancher Hinsicht bekräftigt, in anderer Hinsicht relativiert. Die systematischen Beziehungen zwischen Negation und Frage sind z. B. auch an dem Umstand bestätigt worden, dass Indefinitpronomina, zu denen ja auch Nukleusnegatoren gehören, in der Mehrzahl der menschlichen Sprachen morphologisch von Fragepronomina abgeleitet sind (Haspelmath 1997, 26 f.), z. B. polnisch kto ‘wer?’ ⬎ nikt ‘niemand’. Hentschel (1998, 205⫺234) belegt, dass in sehr vielen Sprachen der Welt die Negation spezifisch mit Frage und Exklamation interagiert: Negation kann Vergewisserungsfragen kennzeichnen wie in Hast du nicht Lust, ins Kino zu gehen? Hentschel argumentiert, dass hier nicht die Proposition negiert werde, sondern die Interrogation als Satzmodus. Auch kann die Negation, ebenfalls übereinzelsprachlich, Exklamationen markieren wie in Was du nicht alles weißt! Eine Weiterentwicklung von Tesnie`res Theorie könnte anhand dieser Befunde eine dritte Form von Negation (neben Nukleus- und konnexioneller Negation) postulieren. Andererseits hat die neuere Negationsforschung auf Grenzen der Parallelisierbarkeit von Negation und Frage hingewiesen (Horn 1989, 472 f.). Diese Grenzen sind zum einen ausdrucksseitiger Natur: Die intonatorische Modifikation eines Deklarativsatzes ist ein weit verbreitetes Muster der (konnexionellen) Fragesatzbildung. Intonation ist jedoch nicht als typisches Negationsverfahren zu betrachten. Weiterhin ist für die Nukleusfrage die Erststellung des Fragepronomens im Satz sehr typisch; entsprechendes gilt für die Nukleusnegation nicht. Zum anderen gibt es einen wichtigen kategorialen Unterschied zwischen Frage und Negation, der ihre Parallelisierbarkeit einschränkt: Während die Frage typischerweise den Illokutionstyp des deklarativen Pendants ändert, tut die Negation dies typischerweise nicht.
6.
Literatur in Auswahl
Arnavielle, Teddy (1994): Le statut de la proposition chez Tesnie`re. In: Linguistica 34,1 (Me´langes Lucien Tesnie`re), 9⫺13.
144
II. Lucien Tesnie`re und seine Zeit
Barnicaud, G. et al. (1967): Le proble`me de la ne´gation dans diverses grammaires franc¸aises. In: Langages 7, 58⫺73. Baum, Richard (1976): „Dependenzgrammatik“. Tesnie`res Modell der Sprachbeschreibung in wissenschaftsgeschichtlicher und kritischer Sicht (⫽ Beihefte zur Zeitschrift für Romanische Philologie 151). Tübingen. Brunot, Ferdinand (1922): La pense´e et la langue. Me´thode, principe et plan d’une the´orie nouvelle du langage applique´e au franc¸ais. Paris. Damourette, Jacques/Pichon, Edouard (1911⫺40): Des mots a` la pense´e. Essai de grammaire de la langue franc¸aise. Paris. Givo´n, Talmy (1978): Negation in language: pragmatics, function, ontology. In: Cole, Peter (Hg): Syntax and semantics. Vol. 9: Pragmatics. New York, 69⫺112. Haspelmath, Martin (1997): Indefinite pronouns. Oxford. Hentschel, Elke (1998): Negation und Interrogation. Studien zur Universalität ihrer Funktionen (⫽ Reihe Germanistische Linguistik 195). Tübingen.
Horn, Laurence R. (1989): A natural history of negation. Chicago/London. Koch, Peter (1981): Verb, Valenz, Verfügung. Zur Satzsemantik und Valenz französischer Verben am Beispiel der Verfügungs-Verben (⫽ Reihe Siegen 32). Heidelberg. Mettouchi, Amina (1995): La ne´gation dans les Ele´ments de syntaxe structurale de Lucien Tesnie`re: syntaxe et e´nonciation. In: Madray-Lesigne, Franc¸oise/Richard-Zappella, Jeannine (Hgg.): Lucien Tesnie`re aujourd’hui. Actes du colloque international C.N.R.S. URA 1164 ⫺ Universite´ de Rouen, 16⫺17⫺18 novembre 1992 (⫽ Bibliothe`que de l’Information grammaticale 30). Paris, 341⫺347. Ruwet, Nicolas (1967): Introduction a` la grammaire ge´ne´rative. Paris. Tesnie`re, Lucien (1988): Ele´ments de syntaxe structurale. Paris (2. Aufl.).
Richard Waltereit, Tübingen (Deutschland)
16. Metataxe bei Lucien Tesnie`re 1. 2. 3. 4. 5. 6. 7. 8.
1.
Hintergründe und Kern des Metataxe-Konzepts Grammatische Kategorien Knoten und Konnexionen Valenz, Aktanten und Zirkumstanten Junktion und Translation Probleme Konklusion Literatur in Auswahl
Hintergründe und Kern des Metataxe-Konzepts
1.1. Stellenwert des Metataxe-Konzepts bei Tesnie`re Von den zentralen Beschreibungskonzepten, die Lucien Tesnie`re in seinem Hauptwerk Ele´ments de syntaxe structurale (1959) einführt, sind nur einige wenige (‘Dependenz’, ‘Valenz’, ‘Aktant’ u. a.) breit rezipiert worden, während zahlreiche andere in der Folgezeit kaum zur Kenntnis genommen wurden (‘Konnexion’, ‘Junktion’, ‘Translation’ u. a.). Zu letzteren gehört auch das Konzept der ‘Metataxe’. Dies ist um so überraschender, als ein besonders vielzitiertes Dictum Tesnie`res gerade im Kontext der Metataxe erscheint (es ist der zweite Teil des folgenden Zitats): „[…] il y a lieu de connaıˆtre a` fond la
structure actantielle des verbes, tant dans la langue a` traduire que dans celle dans laquelle on traduit. […] Un verbe dont on connaıˆt le sens, mais dont on ignore la structure actantielle, est inutilisable“ (1959, Kap. 122, §§ 8, 9; vgl. unten 4.1.). ‘Metataxe’ ist, wie ersichtlich, per definitionem ein Konzept für den Sprachvergleich, für die kontrastive Linguistik: „[Dans certains cas,] la traduction d’une langue a` l’autre oblige a` faire appel a` une structure diffe´rente. Nous donnerons a` ce changement structural le nom de me´tataxe. Il va de soi que la me´tataxe n’intervient en principe que lors du passage d’une langue a` une autre, c’est-a`-dire au cours de la traduction“ (1959, Kap. 120, §§ 2⫺3). 1.2. Metataxe und Dependenzstemma Es liegt auf der Hand, dass Tesnie`re das Phänomen der Metataxe vom spezifischen Beschreibungsinstrumentarium seiner syntaxe structurale her definiert. Maßstab der syntaktischen Verschiedenheit zweier Sätze, die einander in zwei verglichenen Sprachen entsprechen, sind die betreffenden Dependenzstemmata: „La me´tataxe comporte par de´finition une diffe´rence entre le stemma de la phrase a` traduire et celui de la phrase traduite dans une autre langue“ (1959, Kap.
145
16. Metataxe bei Lucien Tesnie`re eut
entging
er
Feinden
seinen
mit Not
knapper
il
bien de la peine
à échapper à ennemis ses
Abb. 16.1
120, § 4). So lassen sich die Unterschiede zwischen dem deutschen Satz (1a) und der französischen Entsprechung (1b) aus dem Vergleich der Stemmata Abb. 1a und Abb. 1b ablesen (sich entsprechende, aber syntaktisch unterschiedlich gestaltete Elemente in den beiden Sätzen werden, nach einer von Tesnie`re bisweilen verwendeten Notation, quer zu den beiden Stemmata durch gestrichelte Linien miteinander verbunden): (1)
a. dt. Mit knapper Not entging er seinen Feinden. b. fr. Il eut bien de la peine a` e´chapper a` ses ennemis.
Die Aspekte, unter denen sich Stemmata metataktisch unterscheiden können, ergeben sich im Wesentlichen aus den übrigen zentralen Konzepten der syntaxe structurale (wobei zwischen den einzelnen Aspekten durchaus Überschneidungen auftreten): grammatische Kategorien (s. u. 2.); Knoten und Konnexionen (s. u. 3.); Valenz, Aktanten und Zirkumstanten (s. u. 4.); Junktion und Translation (s. u. 5.). 1.3. Vorgeschichte und Rezeption Bekanntlich hat Tesnie`re am Konzept seiner syntaxe structurale über etwa zwei Jahrzehnte hin bis zu seinem Tod (1954) gearbeitet. Das Phänomen der Metataxe scheint ihn allerdings zunächst noch nicht vorrangig beschäftigt zu haben. In dem ersten Denkanstoß von 1934 spielt es jedenfalls noch keine Rolle. In der kurzen Syntax-Skizze von 1953, 5, taucht immerhin schon ein einziges Beispiel für eine ‘interversion des actants’ auf (es ist das unten in Abb. 16.7 wiedergegebene Beispiel), aber der Oberbegriff ‘Metataxe’ erscheint hier
nicht. Nun hatte Tesnie`re die Ele´ments im Manuskript schon Anfang der 40er Jahre fertig (vgl. Oesterreicher 1981, 224). Getreu seinem Interesse an der Vielfalt der menschlichen Sprachen und an ihren Unterschieden, muss ihn auch das Problem der Metataxe immer mehr beschäftigt haben, so dass er ihm im Endeffekt immerhin das ganze Buch E des ersten Teils der Ele´ments widmete. Einen wichtigen Einfluss dürfte hier – neben einer immer wieder zitierten lateinischen (Schul?)Grammatik – Alfred Malblanc ausgeübt haben, dessen stylistique compare´e in einer ersten frühen Version bereits in den 40er Jahren erschienen war (1944) und auf den Tesnie`re an zahlreichen Stellen ausdrücklich verweist. Malblanc seinerseits ist in bestimmten Punkten eindeutig von Strohmeyer (1924) und Bally (1932) inspiriert worden. Diese Filiation der kontrastiven Linguistik findet also, soweit die Syntax betroffen ist, in Tesnie`res Metataxe-Lehre ihren bis dahin strengsten Beschreibungsapparat. Um so bedauerlicher ist es, dass Tesnie`res Metataxe-Konzept später nur vereinzelt von anderen Linguisten aufgegriffen wurde, selbst wenn sie de facto Phänomene behandelten, die genau in den Bereich fielen, den dieses Konzept abdeckt. So lässt Wandruszka (1969), der seinerseits von Bally und Malblanc beeinflusst ist, Tesnie`re unbeachtet. Aber selbst Publikationen, deren ausdrücklicher Gegenstand Tesnie`res syntaxe structurale ist, erwähnen das Problem der Metataxe weithin nicht (vgl. etwa Baum 1976; Tarvainen 1981; Welke 1988; Fuchs/Le Goffic 1992, 31⫺39; Helbig 1992; Weber 1992; vgl. demgegenüber Oesterreicher 1981, 230; Werner 1993, 111, 278). Überraschend ist auch die
146
II. Lucien Tesnie`re und seine Zeit
Tatsache, dass die neuere Sprachtypologie von Tesnie`res Metataxe-Begriff keine Notiz genommen hat, obwohl sie sich zum Teil durchaus mit Problemen konfrontiert sieht, die unter diesen Begriff fallen würden (vgl. etwa 2.2.; 3.3.; 4.3.2.). Ebenso überraschend ist es, dass die sprachdidaktische Relevanz des Konzepts (vgl. Pietri 1995) bisher nicht ausreichend gewürdigt wurde. Relativ nahtlos wird das Metataxe-Konzept hingegen bei Schubert und anderen für Zwecke der maschinellen Übersetzung übernommen (vgl. Schubert 1987; 1989). Im Rahmen einer dependenziellen Syntax (die im Detail freilich nicht mehr mit Tesnie`res Modell identisch ist) werden als ‘Metataxe’ alle Prozesse bezeichnet, die auf der Grundlage dependenzieller Einträge in einem zweisprachigen Wörterbuch und allgemeiner Redundanzregeln Baumstrukturen der Ausgangssprache in Baumstrukturen der Zielsprache transformieren. Nur in lockerer Anlehnung an Tesnie`re und mit Bezug auf verschiedene Ebenen der Sprache bis hinunter zur Morphologie verwendet Bossong (1979, 52 f.) den Terminus ‘Metataxe’ als Maßstab für Übersetzungsentsprechungen im Rahmen eines Akkulturationsprozesses.
2.
Grammatische Kategorien
2.1. Grundlagen bei Tesnie`re und seinen Zeitgenossen Die grammatischen Kategorien, um die sich alle Beziehungen in Tesnie`res Stemmata drehen, sind die vier autosemantischen Hauptwortarten (‘espe`ces de mots pleins’) Substantiv, Verb, Adjektiv und Adverb (Tesnie`re 1959, Kap. 32⫺37). Schon bei der Wortartverteilung zeigen sich im Sprachvergleich interessante Unterschiede: „Toute langue e´tablit entre les cate´gories de la pense´e et les cate´gories grammaticales qui les expriment, certaines correspondances qui lui sont propres.
(cum) fecisset
multa
Abb. 16.2
crudeliter
[…] Mais, toutes les langues ne faisant pas force´ment appel a` la meˆme cate´gorie grammaticale pour exprimer la meˆme cate´gorie de la pense´e, il en re´sulte que la traduction d’une langue dans une autre ne´cessite quelquefois l’appel a` une cate´gorie grammaticale diffe´rente“ (op. cit., Kap. 121, §§ 1, 2). Tesnie`re sieht hierin die einfachste Form der Metataxe (‘me´tataxe simple’). Im Kern geht es dabei um das, was in der Tradition der stylistique compare´e als ‘Transposition’ bezeichnet wurde: „Proce´de´ par lequel un signifie´ change de cate´gorie grammaticale“ (Malblanc 1968, 13, und gleichlautend Vinay/Darbelnet 1958, 16). Wie Tesnie`res Beispiele zeigen, ist diese Art von Kategorienwechsel allerdings in der Regel mit anderen metataktischen Aspekten verquickt. So impliziert die Äquivalenz von dt. Fort! und fr. Va-t-en! natürlich auch eine Veränderung bezüglich des Knotens und seiner Konnexionen (3.). Die Übersetzung von dt. jemandem das Versprechen abnehmen durch fr. faire promettre a` quelqu’un involviert auch Probleme der Valenz und der Aktantenverteilung (4.). In dem stemmatisch wie in Abb. 16.2 dargestellten Beispiel (2) findet vordergründig eine parallele Verschiebung der Verb-Adverb-Relation zu einer Substantiv-Adjektiv-Relation statt (ein Punkt, auf dem Tesnie`re 1959, Kap. 121, §§ 8, 9, ausdrücklich insistiert), aber bei dem Verb lat. fecisset ist natürlich auch die Translation zweiten Grades, bei fr. de cruaute´ die Translation ersten Grades tangiert (5.): (2)
a. lat. cum multa crudeliter fecisset b. fr. apre`s de nombreux actes de cruaute´
Wie übrigens Tesnie`res Beispiel dt. Gehen Sie um das Haus!/fr. Faites le tour de la maison! implizit zeigt (und wie Malblanc 1968, 27 prinzipiell annimmt), beschränkt sich die Möglichkeit des Wortartwechsels keineswegs auf die vier Hauptwortarten, sondern schließt Präpositionen und Konjunktionen mit ein. Hier noch ein Beispiel für eine Meta-
(après) de(s) actes
nombreux
de cruauté
147
16. Metataxe bei Lucien Tesnie`re
taxe Konjunktion J Substantiv, Hand in Hand mit einer Metataxe Verb J Substantiv (bei Vinay/Darbelnet 1958, 113, als Beispiel einer ‘Transposition’ zitiert): (3)
a. engl. It depends on when you have to go. b. fr. Cela de´pend de la date de votre de´part.
2.2. Typologischer Ausblick Metataxe-Probleme, wie sie in 2.1. angesprochen wurden, spielen mittlerweile eine interessante Rolle in der Sprachtypologie. Nach Lehmann (1990, 165⫺171) unterscheiden sich Sprachen unter anderem in typischer Weise dadurch, in welcher Wortart sie Eigenschaftskonzepte versprachlichen. In Sprachen wie dem Deutschen dienen hierzu Adjektive, wobei (4a) der prädikativen und (4b) der attributiven Verwendung entspricht: (4)
a. dt. Der Mann ist niederträchtig. (vgl. Abb. 16.3). b. dt. der niederträchtige Mann.
In einer Sprache wie dem Turkana (nilotisch, Kenia) enthält demgegenüber (5a1) als Entsprechung von (4a) eine Verbform, wie aus der perfekten Parallelität zu (5a2) hervorgeht: (5) a1. Turkana i`-mc` n e-kı`le (Abb. 16.3) 3 sg-niederträchtig m sg-Mann (nom) ‘Der Mann ist niederträchtig.’ a2. Turkana i`-bu`n-ı` e-kı`le 3 sg-kommen-imperf m sg-Mann ‘Der Mann kommt.’ (nom) In Tesnie`res Stemmadarstellung (auf die Lehmann jedoch nicht zurückgreift), ließe sich dies folgendermaßen als Metataxe erfassen
(wobei dt. ist niederträchtig einen zweigeteilten Nukleus darstellt; vgl. zu dieser Darstellungsform Tesnie`re 1959, Kap. 67 und 74, § 3; kritisch dazu: Weber 1992, 30⫺32) (s. Abb. 16.3). Um in einer Sprache wie dem Turkana ein Eigenschaftskonzept attributiv zu versprachlichen, bedarf es dann – wiederum ganz parallel zu (5b2) – eines Relativsatzes wie in (5b1): (5) b1. Turkana e-kı`le m sg-Mann (nom) lc-a-mcn-a-n rel m sg-3 sg-niederträchtig-stat-sg ‘niederträchtiger Mann’ b2. Turkana e-kı`le m sg-Mann (nom) lc-i`-bun-ı` rel m sg-3 sg-kommen-imperf-sg ‘Mann, der kommt’ In Tesnie`res Dependenzsystem müsste man zur Beschreibung dieser Zusammenhänge auf den Mechanismus der Translation zurückgreifen (vgl. 5.). Auch wenn bei Beispielen wie in (4), (5) und Abb. 16.3 die kritische Diskussion über Tesnie`res Beschreibungsoptionen natürlich nicht mehr ausgeblendet werden kann, so ist doch unbestrittenen, dass sein Metataxe-Konzept geradewegs in die Sprachtypologie hineinführt.
3.
3.1. Grundlagen bei Tesnie`re Ein markanter Typ von Metataxe besteht darin, dass die Konnexionsrelation zwischen zwei Knoten beim Übergang von einer Spra-
ist
der Mann
der
Abb. 16.3
Knoten und Konnexionen
-m n
niederträchtig
e-kìle
148
II. Lucien Tesnie`re und seine Zeit ne décourageait pas
entmutigte nicht
ihn
die Gefahr
große
la grandeur
le
du danger
Abb. 16.4
vient
ist fortgegangen
Anton
eben
Antoine
de partir
Abb. 16.5
che zur anderen umgedreht wird: „[…] de telle sorte que l’ide´e exprime´e dans une langue par le nœud re´gissant le soit par le nœud subordonne´ dans l’autre et inversement“ (1959, Kap. 128, § 1). Um dieses ‘chasse´-croise´’ (‘Überkreuz’) genannte Phänomen zu veranschaulichen, greift Tesnie`re u. a. ein altes, letztlich auf Strohmeyer (1924, 151) zurückgehendes, von Malblanc (1968, 167) präsentiertes Beispiel auf: (6)
a. dt. Die große Gefahr entmutigte ihn nicht. b. fr. La grandeur du danger ne le de´courageait pas.
Getreu seinem verbozentrischen Ansatz hebt Tesnie`re (1959, Kap. 129) als Sonderfall des ‘chasse´-croise´’ den Fall heraus, in dem das Verb als strukturelles Zentrum des Satzes involviert ist wie etwa in: (7)
a. dt. Anton ist eben fortgegangen. b. fr. Antoine vient de partir.
3.2. Das ‘chasse´-croise´’ als gängiges Problem der kontrastiven Linguistik Schon traditionell sind ‘chasse´-croise´’-Phänomene ein Interessenschwerpunkt von Sprachcharakteristik und Sprachvergleich, und sie bleiben es, großenteils auch unabhängig von Tesnie`re, insbesondere dort, wo germanische Sprachen (speziell Deutsch und Englisch) und romanische Sprachen (speziell Französisch) miteinander verglichen werden
(vgl. etwa Strohmeyer 1924, 192; Bally 1965, 349 f.; Malblanc 1968, 66⫺70, 92⫺94, 161⫺ 165; Vinay/Darbelnet 1964, 58, 105⫺107; Wandruszka 1969, 460⫺469; Blumenthal 1997, 11, 70 f.). Als typische semantische Bereiche, in denen sich ‘chasse´-croise´’-Phänomene beobachten lassen, erscheinen in der einschlägigen Literatur und ebenso bei Tesnie`re (1959, Kap. 129⫺131): aspektuelle Präzisierungen eines Verbkonzepts (s. o. (7a/b) mit Abb. 16.5); epistemische oder attitudinale Präzisierungen eines Verbkonzepts (8a/b); Zustandsänderungen mit Präzisierung der Art und Weise (9a/ b); schließlich – als wohl bekanntester Typ – Verbkonzepte der Bewegung ((10a/b/c/d); dazu die Darstellung nach Tesnie`re in Abb. 16.6). (8)
a. dt. Ich lese gern. b. fr. J’aime lire.
(9) .
a. dt. Er schaltete um. b. fr. Il changea de circuit.
(10) a. dt. Anton schwimmt über den Fluss. b. engl. Anthony is swimming across the river. c. fr. Antoine traverse la rivie`re a` la nage. d. sp. Antonio atravesa el rı´o a nado. Tesnie`re gelingt es durch seine Stemma-Darstellung, verschiedenen Problemtypen wie (7)–(10) ein einheitliches Grundprinzip zu
149
16. Metataxe bei Lucien Tesnie`re fr. traverse sp. atravesa
dt. schwimmt engl. is swimming
dt. Anton engl. Anthony
über den Fluss across the river
fr. Antoine sp. Antonio
la rivière el río
à la nage a nado
Abb. 16.6
unterlegen (wobei in allen Fällen natürlich auch Wechsel der grammatischen Kategorien entsprechend 2.1. vorliegen). Die betreffenden Phänomene werden von Tesnie`re also dezidiert als syntaktisches Problem aufbereitet, während einige der oben zitierten Autoren teilweise den lexikalischen Aspekt stärker betonen: angesichts der Tatsache, dass in Fällen wie (10c/d) die knappere Ausdrucksweise fr. Antoine traverse la rivie`re/sp. Antonio atravesa el rı´o durchaus genügen würde, stellt sich hier also das Problem der größeren „Abstraktheit“/des geringeren Informationsgehalts der französischen und spanischen Verblexeme im Vergleich zu den deutschen/ englischen (vgl. auch Hilty 1965; Albrecht 1970, 41⫺43, 180 ff., 282 ff.; Blumenthal 1997, 71). 3.3. Lexikalisch-typologischer Ausblick Die ‘chasse´-croise´’-Problematik ragt also in die lexikalische Semantik hinein, ist dabei aber zugleich typologisch bedeutsam. Insofern leistet das Metataxe-Konzept hier einen genuinen Beitrag zu einer lexikalischen Typologie (vgl. Koch, P., 2001, 1169⫺1171). Talmy (1985) hat im Rahmen der Kognitiven Semantik – allerdings ohne jeden Bezug auf Tesnie`re oder die europäische Tradition des Sprachvergleichs – die Struktur des event frame von Bewegungs-Konzepten mit Hilfe einer bestimmten Anzahl von Komponenten beschrieben, darunter bewegung, pfad und art und weise. Deutsch und Englisch (10a/ b) wären danach „satellite-framed“, da sie die Komponente pfad, vereinfacht gesagt, außerhalb des Verbs ausdrücken, das bewegung und art und weise beinhaltet (so die meisten indoeuropäischen – außer den romanischen – und die finno-ugrischen Sprachen, Chinesisch u. a.). Französisch und Spanisch (10c/d) wären demgegenüber „verb-framed“, da sie die Komponente pfad zusammen mit bewegung im Verb ausdrücken (so allgemein die romanischen und die semitischen Sprachen,
Japanisch u. a.). Vom Prinzip her lässt sich dieser Beschreibungsansatz nach Talmy (1991) auch auf weitere der hier in (7)–(10) exemplifizierten Falltypen anwenden. Anders als bei Tesnie`re wird das einheitliche Grundprinzip nicht auf syntaktischer Ebene, sondern in der Struktur konzeptuell-perzeptueller Frames gesehen.
4.
Valenz, Aktanten und Zirkumstanten
4.1. Grundlagen bei Tesnie`re Eine der häufigsten Formen der Metataxe betrifft nach Tesnie`re das Verb und seine Aktanten: „La me´tataxe intervient chaque fois que la structure actantielle d’un verbe diffe`re d’une langue a` une autre. En pareil cas, a` un actant d’une langue correspond se`mantiquement un autre actant dans une autre langue, et la traduction de l’une a` l’autre n’est possible qu’en changeant la nature de l’actant“ (1959, Kap. 122, § 1; vgl. auch oben in 1.1. das Zitat aus §§ 8 und 9). Tesnie`re bezeichnet diesen Prozess als ‘interversion des actants’. Charakteristische Beispielpaare sind: lat. tela milites2 deficiunt / fr. les traits font de´faut aux soldats3; lat. aegre necem2 effugit / fr. il e´chappa a` grand’peine a` la mort3; dt. sein Knecht half ihm3 / fr. son valet l’2aida.; dt. mir3 ist kalt / fr. j’1ai froid (sich entsprechende Aktanten in einzelsprachlich unterschiedlicher formaler Realisierung sind gemäß Tesnie`res triadischer Aktantensystematik indiziert: 1 = 1. Aktant; 2 = 2. Aktant; 3 = 3. Aktant). Während in den zitierten Beispielen jeweils nur ein Aktant von der Metataxe betroffen ist, kann diese in bestimmten Fällen auch zwei oder mehr Aktanten involvieren, was Tesnie`re als ‘interversion double/multiple des actants’ bezeichnet. Emblematisch sind Beispiele wie (11a/b), stemmatisch dargestellt in Abb. 16.7 (im Blick auf das in 4.3.2. zu Erör-
150
II. Lucien Tesnie`re und seine Zeit manquent
misses 1
he
2
his children
1
ses enfants
3
lui
Abb. 16.7
ternde fülle ich die Sätze gegenüber Tesnie`res Originalbeispiel in 1959, Kap. 123, § 2, mit lexikalischem Material auf): (11) a. engl. He misses his children. b. fr. Ses enfant lui manquent. Ein eindrückliches Beispiel aus dem trilateralen Sprachvergleich stellen die Verben für ‘lehren’ im Lateinischen, Französischen und Russischen dar (hier mit gleichartiger Schriftart der sich entsprechenden Aktanten und mit Indizierung nach Tesnie`res Systematik): (12) a. lat. Doceo pueros 2 grammaticam2. (mit zwei 2. Aktanten!) b. fr. J’enseigne la grammaire2 aux enfants 3. c. russ. Uчu дт 2 гра атик3. Zu erwähnen ist hier noch ein Typ von Metataxe, der – eigentlich unpassend – an einer ganz anderen Stelle (Kap. 133, § 20) aufgeführt wird: dt. jemandem etwas zur Unterschrift vorlegen vs. fr. soumettre quelque chose a` la signature de quelqu’un. Es handelt sich hier um ein „hybrides“ Verfahren, das vom Ausgangspunkt her in diesen Abschnitt 4. gehört (zwei Aktanten in ihrem Verhältnis zueinander), aber vom Zielpunkt her eher zu Abschnitt 3. passt (Herstellung einer direkten Konnexion und damit Dependenz zwischen den beiden Knoten). Dies ist im Übrigen ein durchaus wichtiger MetataxeTyp (vgl. Koch, P., 1996, 219 f.). 4.2.
Traditionalität und Aktualität der Problemstellung 4.2.1. Metataxe zwischen Aktanten als altes sprachdidaktisches Problem Schon in ganz traditionellen fremdsprachlichen Grammatiken wird üblicherweise auf „Unterschiede in der Rektion von Verben“ zwischen der vermittelten Sprache und der Muttersprache des Benutzers hingewiesen (vgl. z. B. Kühner/Stegmann 1976, §§ 70, 1;
76, 2 usw.; Klein/Strohmeyer 1968, §§ 114 ff.). Tesnie`re kann diese traditionellen Probleme mit Hilfe seines dependenziell-valenziellen Instrumentariums expliziter und systematischer auf den Begriff bringen und dabei zusätzlich das Subjekt als Aktanten in die Analyse einbeziehen (was sich in Fällen wie (11a/b) bezahlt macht; vgl. noch unten 4.3.2.). Das Konzept der Metataxe ist somit ein hervorragendes Instrument zur Vermeidung eines weit verbreiteten Typs von syntaktischen Interferenzen wie *Je lui aide bei deutschen Französischlernern oder *Darf ich Ihnen etwas fragen? aus dem Munde romanischer Muttersprachler (vgl. auch Heringer u. a. 1980, 162). 4.2.2. Metataxe und Inventare von Aktantenklassen Bekanntlich hat das Tesnie`resche Valenzmodell seit den 60er Jahren insbesondere in der germanistischen Diskussion erhebliche Modifikationen und Präzisierungen erfahren (vgl. etwa Welke 1988, 21⫺52; Helbig 1992, 72⫺ 85). Für den vorliegenden Zusammenhang entscheidend ist hier, dass Tesnie`res Gleichsetzung von (valenzgebundenen) Aktanten und Subjekten/Objekten einerseits und von Zirkumstanten und Adverbialen Bestimmungen andererseits revidiert wird, wobei Aktanten obligatorisch oder fakultativ sein können. In der Beschreibung der einzelsprachlichen Valenzverhältnisse führt dies zur Aufgabe der einfachen Tesnie`reschen Aktantentrias (1./2./ 3. Aktant) zugunsten umfangreicherer Inventare von Aktantenklassen (vgl. etwa: zum Deutschen Engel 1991, 187⫺198; zum Lateinischen Happ 1976, 224 f., 236⫺238, 461 f.; zum Französischen Kotschi 1981, 94; zum Englischen Emons 1978, 26⫺33; zum Italienischen einerseits Schwarze 1995, 117 f., andererseits Bianco 1996, 22⫺69, 110⫺159; zum Portugiesischen Busse/Vilela 1986, 35⫺ 41). Das Problem der Metataxe stellt sich aber auf dem neuen Forschungsstand mit un-
151
16. Metataxe bei Lucien Tesnie`re
verminderter Dringlichkeit und kann anhand der jetzt feinkörnigeren Systematiken sogar noch genauer beschrieben werden (vgl. etwa verschiedene kontrastive Beobachtungen zum Italienischen gegenüber dem Deutschen und anderen Sprachen in Schwarze 1995, 120⫺170, wo der Metataxe-Begriff allerdings nicht explizit auftaucht). Hier ein markantes kontrastives Beispiel zum Französischen und Deutschen: (13) a. fr. Les crapaudsS la DO de´gouˆtent. b. dt. Vor KrötenPOvor ekelt sie S sich. Durch die veränderte Grenzziehung zwischen Aktanten und Zirkumstanten erweist sich übrigens ein Fall wie (13a/b), bei dem Tesnie`re noch Metataxe zwischen einem Aktanten (fr. les crapauds) und einem Zirkumstanten (dt. vor Kröten) diagnostizieren müsste (vgl. 1959, Kap. 124, §§ 4⫺5) in Wahrheit als Metataxe zwischen Aktanten (vgl. jedoch 4.3.1., (24)). Zum Zwecke der besseren interlingualen Vergleichbarkeit wurden in (13) die betreffenden Aktantenklassen als S (= Subjekt), DO (= Direktes Objekt) und PO (= Präpositionalobjekt, mit nicht kommutierender Präposition) indiziert. An dieser Vorgehensweise wird jedoch zugleich ein Problem deutlich: mit welcher Berechtigung kann man überhaupt bestimmte – je einzelsprachlich zu definierende – Aktantenklassen gleichsetzen – und somit ein Nichtvorliegen von Metataxe unterstellen (vgl. Koch, P., 1994, 42 f.; 1995b, 117⫺119)? Nach Bianco (1996, 28⫺30/117⫺ 119) wird beispielsweise ein deutscher Genitiv-Aktant als normales Äquivalent eines italienischen di-Aktanten angesehen. Sicherlich entsprechen sich diese beiden Aktantentypen in bestimmten Fällen: (14) a. dt. Wir haben uns eines KassettenrecordersGEN bedient. b. it. Ci siamo serviti di un registratore a cassettaPOdi. Mit der gleichen Berechtigung könnte man aber als Äquivalent eines deutschen GenitivAktanten auch einen italienischen da-Aktanten ansehen (vgl. dt. sich einer Sache enthalten – it. astenersi da q. c.). Vor allem aber ist der deutsche Genitiv-Aktant äußerst selten, während die italienischen di-Aktanten im Deutschen eine Vielzahl von anderen möglichen Entsprechungen haben: it. trattarsi di q. c. – dt. sich um etw. handeln; it. accontentarsi di q. c. – dt. sich mit etw. begnügen; it. aver paura di q. c. – dt. Angst vor etw. haben
u. a. m. (vgl. auch Schwarze 1995, 125 f.). Gelöst werden müsste das Problem der Kommensurabilität von Aktantenklassen in verschiedenen Sprachen zweifellos in einem übergreifenden typologischen Rahmen, etwa auf der Basis eines abstrakteren – aber durchaus noch oberflächenbezogenen – ‘Kasus’Begriffs (vgl. Blake 1994). Die Probleme verschärfen sich, wenn man Sprachen vergleicht, die typologisch völlig verschiedene Aktantensystematiken aufweisen (z. B. Akkusativ- vs. Ergativsprachen). In diesem Zusammenhang ist es etwas überraschend, mit welcher Selbstverständlichkeit der an sich sehr typologiebewusste Tesnie`re im Falle der Ergativsprache Baskisch sowohl den Absolutiv-Aktanten in (15a) als auch den Ergativ-Aktanten in (15b) als 1. Aktanten, also als Subjekt, beschreibt (1959, Kap. 52, § 7): (15) a. bask. gizona ona da. ‘Der Mann ist gut.’ b. bask. gizonak erraiten du. ‘Der Mann spricht.’ Um hier auch nur annähernde Kommensurabilität zu garantieren, bedürfte es typologisch abgesicherter Tertia (etwa im Sinne von Croft 1990, 101⫺105). 4.2.3. Zweisprachige Valenzlexika Das didaktische Interesse an Valenzproblemen (4.2.1.) und die Verfeinerung der Inventare von Aktantenklassen (4.2.2.) bilden entscheidende Grundlagen für die modernen Verbvalenzwörterbücher, die inzwischen für eine Reihe von Sprachen erstellt worden sind. Sofern diese Wörterbücher von der Anlage her zweisprachig sind, ergibt sich unter Umständen auch die Notwendigkeit, Metataxen zu vermerken. Erstaunlicherweise greift kaum einer der Wörterbuchautoren den Tesnie`reschen Metataxe-Begriff explizit auf. Implizit werden nichtsdestoweniger in den zweisprachigen Wörterbuchartikeln auf Schritt und Tritt Metataxen sichtbar, so etwa für das Sprachenpaar Deutsch-Spanisch in (16) oder für das Sprachenpaar Italienisch-Deutsch in (17): (16)
BITTEN
um-Akk pedir […]
0(14 Er bittet Le pide (seinen Vater) ayuda a um Hilfe. su padre.
(Rall u. a. 1980, s. v. bitten) (Zur Erläuterung der Symbole für Aktantenklassen s. u. (18) und (19))
152
II. Lucien Tesnie`re und seine Zeit
(17) ricordare […] 2. N–V–N1–(N2) erinnern an 쏻 bsp. […] 5. […] quei Paralipomeni alla Batracomiomachia che ci ricordano il liceo … die uns an die Zeit im Gymnasium erinnern […] (Blumenthal/Rovere 1998, s. v. ricordare) (vgl. (19)!) (Aktantenklassen: N = Subjekt; N1 = direktes Objekt; N2 = indirektes Objekt (Dativ); vgl. op. cit., V, IX f./XII, XVI f.) Einige Wörterbuchautoren entwickeln sogar Notationskonventionen, die den Benutzer de facto auf Metataxen hinweisen. So werden in den von Ulrich Engel mitverfassten oder inspirierten deutsch-fremdsprachlichen kontrastiven Verbwörterbüchern Metataxen durch ein „!“ vor dem fremdsprachlichen Satzbauplan und durch „J“ bzw. „»“ für die Entsprechungen zwischen den unterschiedlichen Aktantenklassen signalisiert; so beispielsweise für die Sprachenpaare Deutsch-Rumänisch (18) und Deutsch-Italienisch (19):
(20) Mentir (1/2) […] […] N – V – a` Nqn jn belügen, jn anlügen Il a menti a` ses parents. (op. cit., s. v. mentir) (21) venger (2/3) […] N – se V – sur Nqn – de N
rächen […] s. für etw an jm rächen, etw an jm auslassen Il se venge sur ses e´le`ves de son insatisfaction. (op. cit., s. v. venger)
Für das Sprachenpaar Portugiesisch-Deutsch nimmt Busse inzwischen ausdrücklich Bezug auf den Metataxe-Begriff: „O sı´mbolo 쏻 […] indica que ha´ inversa˜o dos actantes (a metataxe de Tesnie`re)“ (1994, III). Ein Beispiel für solche – allerdings nicht systematisch erfassten – Metataxen: (22) escorrer […] 2. […] […] 2N – V – (N)
triefen; 쏻 fließen aus. […] […] A ferida escorria sangue. (op. cit., s. v. escorrer)
(18) liegen 04 Seine schlechte Proasta lui ! 03 a se 2an⫹D Laune liegt am dispozit¸ie se 4 J 3 datora Wetter. datoreaza˘ vremii. (Engel/Savin u. a. 1983, 16 und s. v. liegen) (19) erinnern/1 […] 0(1)4 C
ricordare/1 […] ! 01(3) C (1) » (3) 4»1 […] […] Diese Mode erin- Questa moda rinert (die Mutter) corda (alla mamma) an frühere Zeiten. i tempi andati. (Bianco 1996, 98, 187 f. und s. v. erinnern) (vgl. (17)!) (Aktantenklassen: 0 = Subjekt; 1 = Direktes Objekt; 3 = Indirektes Objekt; 4 = Präpositionalobjekt, mit nichtkommutierender Präposition; vgl. Engel/Savin u. a. 1983, 25⫺40; Bianco 1996, 68 f., 158 f.)
Busse/Dubost markieren für das Sprachenpaar Französisch-Deutsch einfache Metataxen typographisch (z. B. a` in (20)), komplexere Metataxen durch ein „Umkehrungszeichen“ wie in (21) (1983, IX):
4.3. Explizite Rezeption/Weiterentwicklung des aktantenbezogenen MetataxeKonzepts Nachdem von Tesnie`res Beschreibungsinstrumenten wirklich intensiv nur das ValenzKonzept rezipiert wurde, ist es nicht verwunderlich, dass auch im Bereich der Metataxe – soweit überhaupt – am ehesten noch der mit der Valenz eng verbundene Typ der ‘interversion des actants’ aufgegriffen wurde (vgl. auch 1.3.): so in Franc¸ois 1973 mit Querverbindung zur Generativen Semantik, deren prädikatenlogische Grundlage in der Tat Affinitäten zum Valenzmodell aufweist; kurz, aber dezidiert dann in Engel (1980, 11) und in Blumenthal (1982, 147) (dazu ausführlicher 4.3.1.). Stati (1992) spricht verschiedene Typen von Metataxen an, konzentriert sich letztlich aber auf die ‘interversion des actants’. Ausschließlich auf diesen Typ ausgerichtet sind neuere Arbeiten zu einem stratifizierten (4.3.2.) und zu einem diachronischen Metataxe-Konzept (4.3.4.).
16. Metataxe bei Lucien Tesnie`re
4.3.1. Metataxe und Formulierungstendenzen Blumenthal verdeutlicht mit seinem, wenn auch knappen, Hinweis auf die Metataxe (1982, 147), dass er in seinen sprachvergleichenden Untersuchungen zum Deutschen und Italienischen bzw. vor allem Französischen Themen des traditionellen Sprachvergleichs mit einem Bekenntnis zur dependenziellen Syntax verbindet und dass bei der Eruierung von „Formulierungstendenzen“ (148) auch die ‘interversion des actants’ zumindest als Denkmodell im Hintergrund steht. Hier geht es um Tendenzen wie die seinerzeit von Malblanc (1968, 234⫺236) psychologistisch unter dem Schlagwort ‘animisme’ verbuchte Bereitschaft des Französischen, die Subjektstelle für semantisch beliebige Elemente offenzuhalten, die im Deutschen eher in obliquer Position erscheinen (vgl. Blumenthal 1997, 11⫺13; Beispiel (23) von Malblanc): (23) a. fr. Cette souche permet de s’asseoir. b. dt. Auf den Klotz kann man sich setzen. (24) a. dt. Bei allen Beteiligten ist die ständige Bereitschaft zum Dialog erforderlich. b. fr. Toutes les parties concerne´es doivent faire preuve d’une disposition constante au dialogue. In (24) weicht das Französische sogar metataktisch von einem Zirkumstanten auf einen (Subjekt-)Aktanten aus (eine radikale Form der ‘interversion des actants et des circonstants’ nach Tesnie`re 1959, Kap. 124; vgl. demgegenüber 4.2.2., zu (13)). Es ist offensichtlich, dass hier auch Probleme der Informationsstruktur essentiell berührt sind (vgl. 4.3.2.). Dabei stellt sich natürlich zugleich die Frage nach der Unvermeidbarkeit dieser Metataxen (vgl. 6.). 4.3.2. Ein stratifiziertes Metataxe-Konzept Nachdem Tesnie`re mit einem „einstufigen“ Valenzmodell arbeitet, zielt auch das Konzept der ‘interversion des actants’ auf eine einzige (syntaktische) Ebene der Valenz. Nun hat es sich in den Jahrzehnten seit dem Erscheinen der Ele´ments als fruchtbar erwiesen, die Satzstruktur auf mindestens drei – nicht kongruenten, allenfalls in prototypischer Form aufeinander bezogenen – Ebenen zu beschreiben (vgl. etwa Danesˇ 1964; Halliday
153 1970; Koch, P., 1981, 36⫺52; Lazard 1981; Hage`ge 1982, 27⫺31): A: syntaktische Ebene (Aktantenklassen usw.) B: propositionale Ebene (Aktantenrollen usw.) C: Informationsstruktur (Thema/Rhema usw.) Es drängt sich dann geradezu auf, ein umfassenderes, stratifiziertes Konzept von ‘aktantieller Metataxe’ ins Auge zu fassen, das alle drei Ebenen berücksichtigt (vgl. Koch, P., 1994; 1995a; 1995b; 1996; Koch, I., 2000; von Tesnie`res Terminus ‘interversion des actants’ ist ohnehin besser abzurücken, da er auf den Ebenen B und C keinen rechten Sinn ergibt und im Übrigen leicht mit ‘Konversion’ verwechselt werden kann: vgl. 4.3.3.). Schon das Standardbeispiel (11) zeigt, dass bei Metataxen keineswegs nur die Ebene A betroffen sein muss (wie z. B. in (20)): offensichtlich besteht der Unterschied zwischen (11a) und (11b) nicht nur auf der Ebene A (engl. his children = DO vs. fr. ses enfants = S), sondern auch auf der informationsstrukturellen Ebene C (his children = Rhema vs. ses enfants = Thema). Derartige Unterschiede beruhen auf der Tatsache, dass jedes einzelsprachliche Verb in unmarkierter Verwendung seinen Aktantenrollen (B) nicht nur bestimmte syntaktische Realisierungen (A), sondern auch eine bestimmte informationsstrukturelle Hierarchie (C) vorgibt (vgl. Oesterreicher 1991, 353⫺357), wobei wiederum die Zuordnung zwischen den Ebenen A und C z. B. im Englischen und Französischen unmarkiert nach der Thematizitätshierarchie S > V > O erfolgt. Es gibt andererseits auch Metataxen, die neben der Ebene A auch die Ebene B betreffen: (25) a. fr. L’autre soufflait dans un petit roseau. b. sp. El otro soplaba una can˜ita. Hinter der unterschiedlichen syntaktischen Realisierung des zweiten Aktanten verbirgt sich der Unterschied zwischen einer lokalen Aktantenrolle im Französischen und einer Rolle vorgangstr‰ger im Spanischen. Hier kommt beispielsweise der Grad der ‘Transitivität’ (im Sinne von Hopper/Thompson 1980) ins Spiel. Nach derartigen Beobachtungen ergibt sich also insgesamt ein heuristisches Raster für aktantielle Metataxen, das die (Kombinationen von) potentiell betroffenen Ebenen der Satzstruktur umfasst: A, B, C, AB, BC, AC und ABC (vgl. auch Schweitzer 1995, 29;
154 Koch, I., 2000, 80 f.; ferner – ohne Rückgriff auf den Terminus ‘Metataxe’ – FabriciusHansen 1988). Ein solchermaßen stratifiziertes Konzept lässt Metataxe nicht mehr als rein idiosynkratisches Problem einzelner Verben erscheinen, sondern – zumindest teilweise – als Ausfluss typologischer Vorgaben. Als fundamental erweist sich für Akkusativsprachen der Unterschied zwischen ‘totaler Metataxe’ (die den S-Aktanten mit betrifft: z. B. (11), (13), (22)–(24)) und ‘partieller Metataxe’ (wo dies nicht der Fall ist: z. B. (12), (16)–(21), (25)). Unter anderem kann gezeigt werden, dass das Französische mit seiner ausgeprägten ‘Subjektprominenz’ (vgl. Sasse 1982) im Verhältnis zu weniger subjektprominenten Sprachen u. U. nach metataktischen Lösungen verlangt (vgl. Koch, P., 1995b, 121⫺125; 1996, 220 f.; hier besteht eine Querverbindung zu den in 4.3.1. diskutierten Fakten). Metataxen ergeben sich also nicht in erster Linie aus aleatorischen Möglichkeiten der Aktantenverteilung in jeder Sprache, sondern gerade auch aus typologischen Vorgaben, deren Nichtdeckungsgleichheit Äquivalenzprobleme erzeugt. Das stratifizierte (und damit teilweise semantische) Metataxe-Konzept ist ein Beitrag zu einer lexikalischen Typologie (vgl. Koch, P., 2001, 1171 f.). Es bietet z. B. die Möglichkeit, in einem corpusbasierten Übersetzungsvergleich „metataktische Schwerpunkte“ im Verbwortschatz der untersuchten Sprachen aufzuspüren (vgl. für Deutsch/Italienisch: Koch, I., 2000). Ein solcher Vergleich vermittelt zugleich einen Einblick in Übersetzerstrategien: die Äquivalenz auf den Ebenen B und/ oder C rangiert ganz offensichtlich vor der Äquivalenz auf Ebene A der Satzstruktur. 4.3.3. Metataxe, Diathesen und Konversen Nachdem das System der Diathesen integraler Bestandteil seines Valenz-Konzepts ist, berücksichtigt Tesnie`re selbstverständlich auch den Zusammenhang zwischen der Metataxe und den Diathesen (1959, Kap. 125⫺127). Dass hier ein Problemfeld liegt, ist – auch unabhängig vom Metataxe-Konzept – der traditionellen kontrastiven Linguistik vor und nach Tesnie`re bewusst (vgl. etwa Malblanc 1968, 230⫺234; Vinay/Darbelnet 1964, 133⫺ 137; Wandruszka 1969, 431⫺441). Aus der Sicht der Prädikatenlogik, die mit der Valenztheorie in manchen Punkten konvergiert, sind Aktivform und Passivform eines Verbs ‘Konversen’ (vgl. Reichenbach 1966, 118; Lyons 1977, I, 153 f., 280; zum Folgenden: Isaak 1984; Stati 1992, 11; Koch,
II. Lucien Tesnie`re und seine Zeit
P., 1981, 317⫺323, 352⫺356; 1994, 49 f.; 1995b, 110⫺126; Koch, I., 2000). Eine Aktiv-/Passiv-Metataxe erscheint damit als eine interlinguale Konversion: (26) a. fr. Mais j’ai e´te´ distrait par u ne cloche. b. sp. Pero me distrajo u na campana. Aus sprachlicher Sicht bedeutet ‘Konversion’ jedoch nicht völlige semantische Identität. Dies kann freilich nur ein stratifiziertes Metataxe-Konzept sichtbar machen: die beiden Diathesen bieten – und das ist gerade ihre Funktion – auf der Ebene C eine unterschiedliche Informationsverteilung. Eine Metataxe wie in (26) garantiert informationsstrukturelle Äquivalenz nur dadurch, dass im Spanischen das Subjekt una campana postverbal rhematisiert und damit die Konversion letztlich neutralisiert wird; es bleibt lediglich die syntaktische Metataxe auf Ebene A. Ähnliche Beobachtungen kann man bei interlingualen lexikalischen Konversionen machen: (27) a. engl. I like cats. b. it. Mi piacciono i gatti. Zu den Diathesen zählt nach Tesnie`re auch das Kausativum. Er selbst zitiert im Zusammenhang mit der Metataxe Beispiele von Malblanc (vgl. 1968, 243) wie etwa das folgende (vgl. auch Franc¸ois 1973, 14⫺19): (28) a. dt. Bei diesen Worten erbleichte Hans. b. fr. Ces paroles firent paˆlir Jean. Der Einsatz des französischen Kausativums garantiert die informationsstrukturelle Äquivalenz beider Sätze, indem er den deutschen Zirkumstanten zum Subjekt werden lässt, was wiederum der in 4.3.1. angedeuteten Tendenz entspricht. 4.3.4. Metataxe und Diachronie ‘Metataxe’ ist bei Tesnie`re ein strikt synchronisches und onomasiologisches Konzept, da es um Übersetzungsvergleich zwischen Sprachen geht, die synchronisch koexistieren oder die, in Fällen wie (2), (12a/b) usw., aus ihrem diachronischen Zusammenhang herausgelöst betrachtet werden. Wenn allerdings der diachronische Zusammenhang auch lexikalischetymologisch greifbar ist, wie z. B. in (29), so kann die Betrachtung der aktantiellen Metataxe ins Diachronische gewendet werden: (29) a. lat. Praefectus civesDO coetu ABL prohibebit. ‘Der Statthalter wird den Bürgern die Zusammenkunft verbieten.’
155
16. Metataxe bei Lucien Tesnie`re
b. it. Il governatore proibira` la riu nione DO ai cittadiniIO. Das Verb lat. prohibere > it. proibire hat seine syntaktische Valenz bei den Nicht-Subjektaktanten völlig verändert und außerdem ihren informationsstrukturellen Status umgewichtet: eine partielle diachronische Metataxe auf den Ebenen A und C (vgl. 4.3.2.), die allerdings semasiologisch eine lexikalische Kontinuität voraussetzt. Diachronische aktantielle Metataxen sind in der Geschichte aller Sprachen laufend zu beobachten (vgl. Koch, P., 1995a, 119 f.; 1995b, 126⫺133). Einen besonders spektakulären Wandel bieten diejenigen Verben, die in der Diachronie zu ihren eigenen Konversen (im Sinne von 4.3.3.) werden, wie z. B. vlat. inodiare > fr. ennuyer (der Asterisk steht hier für rekonstruierte Sätze): (30) a. vlat. *OmnesS inodiant strepitum DO. ‘Alle hassen den Lärm.’ b. > vlat. *Strepitus S inodiat omnesDO. ‘Der Lärm ist hassenswert für alle.’ > (abgeschwächt) fr. Le bruit S ennuie tout le mondeDO. ‘Der Lärm geht allen auf die Nerven.’ Diese Art des metataktischen Wandels, die auch die Verbsemantik tangiert, kann man als ‘Auto-Konversion’ bezeichnen (vgl. Koch, P., 1991, 296⫺299; 1995b, 130 f.; Blank 1997, 272⫺278; Waltereit 1998, 75⫺83; Fritz 1998, 124 f.). Das Geflecht von synchronischen und diachronischen Metataxen, Konversionen und diathetischen Verfahren in den Domänen leihen und (ver)mieten veranschaulicht I. Koch 1997 kontrastiv am Deutschen, Italienischen und Französischen.
5.
Junktion und Translation
Die letzten Kapitel (132⫺133) des MetataxeAbschnitts in Tesnie`res Ele´ments muss man im Lichte der Theorien der ‘Junktion’ bzw. der ‘Translation’ lesen, die eigentlich erst anschließend, im zweiten bzw. dritten Teil des Werkes eingeführt werden. Es zeichnet sich dann implizit folgende Systematik der verbleibenden Metataxen ab: 5.1. Metataxe und Junktion/Dependenz (Kap. 133, §§ 11⫺14) Zwei in der einen Sprache jungierte Knoten sind in der anderen Sprache durch eine Konnexion, also in Form einer Dependenzrela-
tion miteinander verbunden: lat. orare atque obsecrare vs. fr. prier instamment. orare
atque
obsecrare
prier
instamment
Abb. 16.8
Selbstverständlich erfolgt bei dem dependenziell heruntergestuften Knoten instamment ein Wechsel der grammatischen Kategorie gemäß 2. 5.2. Metataxe und Dependenz/Translation (Kap. 132) Es handelt sich hier um den in (1) und Abb. 16.1 exemplifizierten Typ, der einerseits in den Bereich ‘Knoten und Konnexionen’ (3.) gehört und ein ‘chasse´-croise´’ im Umkreis des strukturellen Zentrums des Satzes beinhaltet, andererseits aber für den dependenziell heruntergestuften Knoten (a` e´chapper) eine Translation ersten Grades mit sich bringt (die in Tesnie`res Stemma wohl deshalb nicht notiert wurde, weil sie an der betreffenden Stelle des Buches noch nicht eingeführt ist). 5.3. Metataxe und Junktion/Translation (Kap. 133, §§ 15⫺19) Den interlingualen Wechsel zwischen Parataxe und Hypotaxe erläutert Tesnie`re unter anderem an folgendem Beispiel: (31) a. dt. Vercingetorix hoffte seinen Sieger zu besänftigen und lieferte sich selbst aus. b. fr. Vercinge´torix, espe´rant adoucir le vainqueur, vint se livrer lui-meˆme. Tesnie`res Beschreibung (es gibt kein Stemma) geht in diesem Fall nicht wesentlich über Malblanc hinaus, auf den er sich auch an dieser Stelle beruft (vgl. Malblanc 1968, 190⫺ 193). Die weiterführenden Beschreibungsinstrumente der Junktion (dt. und) und der Translation (fr. -ant) bleiben hier noch ungenutzt (zur Vertiefung vgl. Franc¸ois 2000). Mit Lehmanns (1988) Typologie des ‘clause linkage’ und Raibles (1992) umfassendem Junktions-Konzept (das Tesnie`res ‘Junktion’ und weite Teile seiner ‘Translation’ abdeckt) verfügen wir mittlerweile über differenzierte Parameter zur Beschreibung intralingualer wie auch interlingualer Übergänge zwischen Parataxe und Hypotaxe.
156
6.
II. Lucien Tesnie`re und seine Zeit
Probleme
Drei Fragen seien hier abschließend angesprochen, die sich im Blick auf die MetataxeDiskussion aufdrängen und auf die wohl jeder stoßen wird, der sich genauer mit Metataxe beschäftigt. Ist Metataxe eine wechselnde formal-syntaktische „Verpackung“ ein und desselben semantischen Inhalts? Unterstützt wird dieser Eindruck durch Tesnie`res Betonung der „inde´pendance du structural et du se´mantique“ und durch seine Charakterisierung der Metataxe im Sinne von „exprimer une ide´e se´mantiquement identique par une phrase structuralement diffe´rente“ (1959, Kap. 120, § 8; vgl. auch § 1). Andererseits rückt Tesnie`re seine Konnexionen in die Nähe von Humboldts ‘innerer Sprachform’ (Kap. 1, § 12), die ja durchaus nicht unsemantisch zu denken ist. Wie wir aus 4.3.2. wissen, ist das Phänomen der Metataxe mit Sicherheit komplexer, als Tesnie`re vermutet, denn eine oder mehrere der drei Ebenen A, B und C können betroffen sein, wobei B und C rein semantische Ebenen darstellen. Sind Metataxen nur interlinguale oder auch intralinguale Phänomene? Bei Tesnie`re selbst stößt man auf einzelne Beispiele von „Metataxen“, die Umformulierungen innerhalb ein und derselben Sprache darstellen (vgl. 1959, Kap. 121, § 8; Kap. 129, § 17 mit Stemmata 228 und 229; Kap. 133, §§ 5, 7, 16). Stati (1992, 4 f.) erhebt dies explizit zum Programm, indem er intralinguale und interlinguale Metataxen terminologisch unterscheidet und Beispiele für beide Arten anführt. Die Möglichkeit intralingualer „Metataxen“ hat offensichtlich Konsequenzen für das im Folgenden angesprochene Problem der Obligatorik der interlingualen Metataxen (vgl. auch Franc¸ois 1973, 2 f.). Eindeutig intralingual sind natürlich die in 4.3.4. behandelten diachronen Metataxen; allerdings verhalten sich aus sprachvergleichender Sicht unterschiedliche Stadien einer Sprache im Prinzip nicht anders zueinander als verschiedene Sprachen. Sind Metataxen obligatorisch oder fakultativ? Wie der vorhergehende Punkt gezeigt hat, gibt es innerhalb einer Sprache oft Formulie-
rungsalternativen (ob man sie nun als ‘intralinguale Metataxen’ bezeichnen will oder nicht). Die Existenz solcher Alternativen könnte ein Hinweis darauf sein, dass die entsprechenden interlingualen Metataxen nur fakultativ, also nicht unausweichlich sind. Schon bei Tesnie`re selbst ist dies nicht unbedingt eindeutig (vgl. Franc¸ois 1973, 2; zur diesbezüglichen Methodik im Übersetzungsvergleich: Franc¸ois 2000). Blumenthal bekennt sich sogar in einer seiner Publikationen dazu, „die banalen, in jedem Wörterbuch vermerkten Valenzunterschiede“ (1982, 148) aus der Untersuchung auszuklammern, also zumindest einen Großteil dessen, was Tesnie`re gerade interessiert hat. Müssen aber deshalb die in 4.3.1. angesprochenen „Formulierungstendenzen“ allesamt als rein „stilistisch“ und damit fakultativ angesehen werden? Metataxen sind zweifellos um so „härter“, je unabweisbarer sie sich aus einzelsprachlichen oder gar typologischen Zwängen ergeben. (Eine Abstufung unterschiedlicher Grade der Obligatorik von Metataxen findet sich in Koch, I., 2000, 81⫺84).
7.
Konklusion
Wie auch bei anderen seiner Beschreibungskategorien hat Tesnie`re mit dem Entwurf des – leider viel zu wenig beachteten – Metataxe-Konzepts eine neue Perspektive eröffnet, sei es über die Potentialitäten, die in diesem Konzept liegen, oder sei es durch die Probleme, die es aufwirft und die nach neuen Lösungen verlangen. Es handelt sich um ein Konzept, das, durch alle Metamorphosen hindurch, in die Sprachdidaktik, in die kontrastive Lexikographie, in die Übersetzungswissenschaft, in den wissenschaftlichen Sprachvergleich, in die Stilforschung, in die Kognitive Semantik und in die Sprachtypologie hineingewirkt hat, vor allem aber noch hineinwirken könnte.
8.
Literatur in Auswahl
Albrecht, Jörn (1970): Le franc¸ais langue abstraite? (= Tübinger Beiträge zur Linguistik 10). Tübingen. Bally, Charles (1965): Linguistique ge´ne´rale et linguistique franc¸aise. Bern (4. Aufl., 1. Aufl. 1932). Baum, Richard (1976): „Dependenzgrammatik“. Tesnie`res Modell der Sprachbeschreibung in wissenschaftsgeschichtlicher und kritischer Sicht (= Beihefte zur Zeitschrift für Romanische Philologie 151). Tübingen.
16. Metataxe bei Lucien Tesnie`re Bianco, Maria Teresa (1996): Valenzlexikon Deutsch-Italienisch/Dizionario della valenza verbale. 2 Bde. (= Deutsch im Kontrast 17). Heidelberg. Blake, Barry J. (1994): Case. Cambridge. Blank, Andreas (1997): Prinzipien des lexikalischen Bedeutungswandels am Beispiel der romanischen Sprachen (= Beihefte zur Zeitschrift für Romanische Philologie 285). Tübingen. Blumenthal, Peter (1982): Satzmuster im Deutschen und im Italienischen. In: Welte, Werner (Hg.): Sprachtheorie und angewandte Linguistik. Festschrift für Alfred Wollmann (= Tübinger Beiträge zur Linguistik 195). Tübingen, 147⫺159. Blumenthal, Peter (1997): Sprachvergleich Deutsch – Französisch (= Romanistische Arbeitshefte 29). Tübingen (2. Aufl.). Blumenthal, Peter/Rovere, Giovanni (1998): PONS Wörterbuch der italienischen Verben. Konstruktionen, Bedeutungen, Übersetzungen. Stuttgart usw. Bossong, Georg (1979): Probleme der Übersetzung wissenschaftlicher Werke aus dem Arabischen in das Altspanische zur Zeit Alfons des Weisen (= Beihefte zur Zeitschrift für Romanische Philologie 169). Tübingen. Busse, Winfried (1994): Diciona´rio sinta´ctico de verbos portugueses. Coimbra. Busse, Winfried/Dubost, Jean-Pierre (1983): Französisches Verblexikon. Stuttgart (2. Aufl.). Busse, Winfried/Vilela, Mario (1986): Grama´tica de valeˆncias. Coimbra. Croft, William (1990): Typology and Universals. Cambridge. Danesˇ, Frantisˇek (1964): A three-level approach to syntax. In: Travaux linguistiques de Prague 1, 225⫺240. Emons, Rudolf (1978): Valenzgrammatik für das Englische. Eine Einführung (= Anglistische Arbeitshefte 16). Tübingen. Engel, Ulrich (1991): Deutsche Grammatik. Heidelberg (2. Aufl.). Engel, Ulrich/Savin, Emilia/u. a. (1983): Valenzlexikon deutsch-rumänisch (= Deutsch im Kontrast 3). Heidelberg. Fabricius-Hansen, Cathrine (1988): Valenz im Kontrast – aus rezeptiver Sicht. In: Mrazovicˇ, Pavica/Teubert, Wolfgang (Hgg.): Valenzen im Kontrast. Ulrich Engel zum 60. Geburtstag. Heidelberg, 110⫺124. Franc¸ois, Jacques (1973): La notion de me´tataxe chez Tesnie`re. Analyse critique sur la base de trois travaux de se´mantique ge´ne´rative (= Documentation et recherche en linguistique allemande contemporaine – Vincennes, Papier 5). Paris. Franc¸ois, Jacques (2000): Typen von „Metataxen“ auf Gliedsatzebene (aufgrund der vergleichenden Analyse von Kafkas Verwandlung ins Fränzösische). In: Lefe`vre, Michel (Hg.): Subordination in
157 Syntax, Semantik und Textlinguistik (⫽ Eurogermanistik 15). Tübingen, 187⫺198. Fritz, Gerd (1998): Historische Semantik (= Sammlung Metzler 313). Stuttgart/Weimar. Fuchs, Catherine/Le Goffic, Pierre (1992): Les Linguistiques Contemporaines. Repe`res the´oriques. Paris (2. Aufl.). Hage`ge, Claude (1982): La structure des langues (= Que sais-je? 2006). Paris. Halliday, Michael A. K. (1970): Language structure and language function. In: Lyons, John (Hg.): New Horizons in Linguistics. Harmondsworth, 140⫺165. Happ, Heinz (1976): Grundfragen einer DependenzGrammatik des Lateinischen. Göttingen. Helbig, Gerhard (1992): Probleme der Valenz- und Kasustheorie (= Konzepte der Sprach- und Literaturwissenschaft 51). Tübingen. Heringer, Hans Jürgen/Strecker, Bruno/Wimmer, Rainer (1980): Syntax. Fragen – Lösungen – Alternativen (= Uni-Taschenbücher 251). München. Hilty, Gerold (1965): Strukturunterschiede zwischen französischem und deutschem Bewegungsausdruck. In: Moderne Sprachen 9, 25⫺35. Hopper, Paul, J./Thompson, Sandra A. (1980): Transitivity in Grammar and Discourse. In: Language 56, 251⫺299. Klein, Hans-Wilhelm/Strohmeyer, Fritz (1968): Französische Sprachlehre. Stuttgart. Koch, Ildiko´ (1997): Die Autokonversion aus kontrastiver Sicht – eine Fallstudie am Beispiel einiger Verben des Verfügungswechsels im Französischen, Italienischen und Deutschen. In: Wotjak, Gerd (Hg.): Studien zum romanisch-deutschen und innerromanischen Sprachvergleich. Frankfurt/M. usw., 330⫺340. Koch, Ildiko´ (2000): Die Metataxe im deutsch-italienischen Sprachvergleich. Eine Studie der verbbedingten Abweichungen im Satzbau. Frankfurt/M. usw. Koch, Peter (1981): Verb, Valenz, Verfügung. Zur Satzsemantik und Valenz französischer Verben am Beispiel der Verfügungs-Verben (= Reihe Siegen 32). Heidelberg. Koch, Peter (1991): Semantische Valenz, Polysemie und Bedeutungswandel bei romanischen Verben. In: Koch/Krefeld (1991), 279⫺306. Koch, Peter (1994): Valenz und Informationsstruktur im Sprachvergleich Italienisch-Deutsch. In: Italienisch 32, 38⫺58. Koch, Peter (1995a): Verbvalenz und Metataxe im Sprachvergleich. In: Thielemann, Werner/Welke, Klaus (Hgg.): Valenztheorie – Werden und Wirkung. Wilhelm Bondzio zum 65. Geburtstag. Münster, 109⫺124. Koch, Peter (1995b): Aktantielle ‘Metataxe’ und Informationsstruktur in der romanischen Verblexik
158 (Französisch/Italienisch/Spanisch im Vergleich). In: Dahmen, Wolfgang u. a. (Hgg.): Konvergenz und Divergenz in romanischen Sprachen. Romanistisches Kolloquium VIII (Tübinger Beiträge zur Linguistik 396), Tübingen 115⫺137. Koch, Peter (1996): La me´tataxe actantielle. De Tesnie`re a` Busse/Dubost. In: Gre´ciano, Gertrud/ Schumacher, Helmut (Hgg.): Lucien Tesnie`re – Syntaxe structurale et ope´rations mentales. Akten des deutsch-französischen Kolloquiums anläßlich der 100. Wiederkehr seines Geburtstags Strasbourg 1993 (= Liniguistische Arbeiten 348), Tübingen 211⫺ 224. Koch, Peter (2001): Lexical typology from a cognitive and linguistic point of view. In: Haspelmath, Martin u. a. (Hgg.): Language Typology and Universals. An International Handbook. Berlin/New York, II, 1142⫺1178. Koch, Peter/Krefeld, Thomas (Hgg.) (1991): Connexiones Romanicae. Dependenz und Valenz in romanischen Sprachen (= Linguistische Arbeiten 268). Tübingen. Kotschi, Thomas (1981): Verbvalenz im Französischen. In: Kotschi, Thomas (Hg.): Beiträge zur Linguistik des Französischen (= Tübinger Beiträge zur Linguistik 154). Tübingen, 80⫺122. Kühner, Raphael/Stegmann, Karl (1976): Ausführliche Grammatik der lateinischen Sprache. II: Satzlehre. Hannover (5. Aufl.). Lazard, Gilbert (1981): Les structures de la phrase. In: Compre´hension du langage (= Collection „Linguistique“ 12). Paris, 43⫺45. Lehmann, Christian (1988): Towards a typology of clause linkage. In: Haiman, John/Thompson, Sandra (Hgg.): Clause Combining in Grammar and Discourse (= Typological Studies in Language 18). Amsterdam/Philadelphia, 181⫺225.
II. Lucien Tesnie`re und seine Zeit Oesterreicher, Wulf (1991): Verbvalenz und Informationsstruktur. In: Koch/Krefeld 1991, 349⫺384. Pietri, Etienne (1995): La me´tataxe et l’analyse des succe`s. In: Madray-Lesigne, Franc¸oise/RichardZappella, Jeannine (Hgg.): Lucien Tesnie`re aujourd’hui. Actes du colloque international C.N.R.S. URA 1164 – Universite´ de Rouen, 16⫺17⫺18 novembre 1992 (= Bibliothe`que de l’Information grammaticale, 30). Paris, 399⫺402. Raible, Wolfgang (1992): Junktion. Eine Dimension der Sprache und ihre Realisierungformen zwischen Aggregation und Integration (= Sitzungsberichte der Heidelberger Akademie der Wissenschaften. Philosophisch-historische Klasse. Jahrgang 1992, Heft 2). Heidelberg. Rall, Dietrich/Rall, Marlene/Zorilla, Oscar (1980): Diccionario de valencias verbales (= Tübinger Beiträge zur Linguistik 134). Tübingen. Reichenbach, Hans (1966): Elements of Symbolic Logic. New York/London (2. Aufl.). Sasse, Hans-Jürgen (1982): Subjektprominenz. In: Heinz, Sieglinde/Wandruszka, Ulrich (Hgg.): Fakten und Theorien. Festschrift für Helmut Stimm (= Tübinger Beiträge zur Linguistik 191), Tübingen 511⫺580. Schubert, Klaus (1987): Metataxis. Contrastive Dependency Syntax for Machine Translation (= Distributed Language Translation 2). Dordrecht/Providence (R. I.). Schubert, Klaus (1989): The theory and praxis of metataxis. In: Maxwell, Dan/Schubert, Klaus (Hgg.): Metataxis in Practice. Dependeny Syntax for Multilingual Machine Translation (= Distributed Language Translation 6). Dordrecht/Providence (R. I.), 233⫺245. Schwarze, Christoph (1995): Grammatik der italienischen Sprache. Tübingen (2. Aufl.).
Lehmann, Christian (1990): Towards lexical typology. In: Croft, William/Denning, Keith/Kemmer, Suzanne (Hgg.): Studies in Typology and Diachrony. Papers presented to Joseph H. Greenberg on his 75th birthday (= Typolological Studies in Language 20). Amsterdam/Philadelphia, 161⫺185.
Schweitzer, Hiltrud (1995): Metataxe im Sprachvergleich Portugiesisch-Deutsch (= Romanistische Linguistik. Berliner Staatsexamens- und Magisterarbeiten 1). Berlin.
Lyons, John (1977): Semantics. 2 Bde. Cambridge usw. Malblanc, Alfred (1944): Pour une Stylistique compare´e du franc¸ais et de l’allemand. Essai de repre´sentation linguistique compare´e. Paris.
Talmy, Leonard (1985): Lexicalization patterns: semantic structure in lexical forms. In: Shopen, Timothy (Hg.): Language Typology and Syntactic Description. III: Grammatical Categories and the Lexicon. Cambridge, 57⫺149.
Malblanc, Alfred (1968): Stylistique compare´e du franc¸ais et de l’allemand. Essai de repre´sentation linguistique compare´e et Etude de traduction (= Bibliothe`que de stylistique compare´e 2). Paris (4. Aufl.).
Talmy, Leonard (1991): Path to realization: a typology of event conflation. In: Proceedings of the Annual Meetings of the Berkeley Linguistics Society 17, 480⫺519.
Oesterreicher, Wulf (1981): Grammatische Strukturen; Strukturalismus, Dependenz-/Valenztheorie: Lucien Tesnie`re, Ele´ments de syntaxe structurale (1959). In: Hans-Martin Gauger/Oesterreicher, Wulf/Rudolf Windisch: Einführung in die romanische Sprachwissenschaft. Darmstadt, 224⫺240.
Tarvainen, Kalevi (1981): Einführung in die Dependenzgrammatik (= Reihe germanistische Linguistik 35: Kollegbuch). Tübingen.
Strohmeyer, Fritz (1924): Der Stil der französischen Sprache. Berlin.
Tesnie`re, Lucien (1934): Comment construire une syntaxe. In: Bulletin de la Faculte´ des Lettres de Strasbourg 12, 219⫺229.
159
17. Die Wegbereiter einer deutschen Valenzgrammatik Tesnie`re, Lucien (1953): Esquisse d’une syntaxe structurale. Paris. Tesnie`re, Lucien (1959): Ele´ments de syntaxe structurale. Paris. Vinay, Jean-Paul/Darbelnet, Jean (1964): Stylistique compare´e du franc¸ais et de l’anglais. Me´thode de traduction (= Bibliothe`que de stylistique compare´e 1). Paris. Waltereit, Richard (1998): Metonymie und Grammatik. Kontiguitätsphänomene in der französischen Satzsemantik (= Linguistische Arbeiten 385). Tübingen.
Wandruszka, Mario (1969): Sprachen ⫺ vergleichbar und unvergleichbar. München Weber, Heinz J. (1992): Dependenzgrammatik. Ein Arbeitsbuch. Tübingen. Welke, Klaus M. (1988): Einführung in die Valenzund Kasustheorie. Leipzig. Werner, Edeltraud (1993): Translationstheorie und Dependenzmodell. Kritik und Reinterpretation des Ansatzes von Lucien Tesnie`re (= Kultur und Erkenntnis 10). Tübingen/Basel.
Peter Koch, Tübingen (Deutschland)
17. Die Wegbereiter einer deutschen Valenzgrammatik 1. 2. 3. 4. 6. 7. 8.
1.
Ansätze für die Entwicklung des Valenzbegriffs Der Begriff der Wertigkeit bei Johannes Erben Inhaltbezogene grammatische Konzeptionen, in denen der Wertigkeitsgedanke implizit eine Rolle spielt Der Valenzbegriff bei Gerhard Helbig Weitere Schärfungen des Valenzbegriffs Zusammenfassung Literatur in Auswahl
Ansätze für die Entwicklung des Valenzbegriffs
1.1. Verkappte strukturalistische Traditionsstränge Die Lehre von den Valenzen des Verbs hat sich bekanntermaßen besonders im deutschsprachigen Raum durchsetzen können. Dafür lassen sich zwei Gründe anführen: Einmal gab es hier seit längerem einen Traditionsstrang in der Grammatikforschung, der sich bemühte, die syntaktischen Kategorien neu und vor allem aus den Eigenschaften der deutschen Sprache heraus aufzubauen. Der Blick ging dabei von der Ausdrucksgestalt der Sätze auf angenommene tiefer liegende Wirkkräfte. Titel wie ‘Die Erforschung der Sprach-„Zugriffe“’ (Weisgerber 1956/57) sind dafür bezeichnend. In dieser Traditionslinie sind u. a. die Satzbaupläne entdeckt und entwickelt worden (Weisgerber 1962; Glinz 1952; Grebe 1959; Brinkmann 1962). Kerne der Satzbaupläne sind die Verben, und so bereitete sich die Sicht auf die zentrale Stellung des Verbs organisch vor, wenn auch das Interesse zunächst an einer Taxonomie der unterschiedlichen Satzmodelle bestand. Wissen-
schaftsgeschichtlich lässt sich hier ein deutscher „Sonderweg“ unter Aufnahme strukturalistischer Ansätze erkennen. Zu einem Vorläufer der Valenzlehre im 19. Jahrhundert, Franz Kern, vgl. Keina`stö (2001). 1.2. Karl Bühlers ‘Sprachtheorie’ Die andere Traditionslinie, die den Boden für die Aufnahme des Valenzbegriffs bereitete, sind die Ansätze, Kompatibilitäten zwischen Wörtern, ihre gegenseitigen Bindungspotenzen zu betonen und dabei dem Verb den Ursprungsplatz zuzuerkennen. Hier sind strukturalistische Sichtweisen deutlicher zu erkennen. Sie sind auch sachlicher und allgemeiner formuliert. An erster Stelle ist zweifellos Karl Bühler zu nennen. Die vielzitierte Stelle aus seiner ‘Sprachtheorie’ ist eine Aussage, mit der Verbindbarkeiten und Besetzungsmöglichkeiten bei Wörtern allgemein gefasst werden. Sie lautet: „Es bestehen in jeder Sprache Wahlverwandtschaften; das Adverb sucht sein Verbum und ähnlich die anderen. Das lässt sich auch so ausdrücken, dass die Wörter einer bestimmten Wortklasse eine oder mehrere Leerstellen um sich eröffnen, die durch Wörter bestimmter anderer Wortklassen ausgefüllt werden müssen“ (Bühler 1934, 173). Bühler fährt fort: „Es ist der wichtige, schon den Scholastikern bekannte Tatbestand der Connotatio“ und bezieht auch spätere linguistische Traditionsstränge ein, u. a. beruft er sich auf Wilhelm Wundt (Wundt 1900). Seine Beispiele sind aus dem nominalen und dem verbalen Bereich genommen: „Der Begriff ‘Schlüssel’ z. B. enthält unter seinen Merkmalen eine Leerstelle für den Verwendungsbereich des Dinges; dorthin
160 kann ich nacheinander ‘Haus’, ‘Koffer’ usw. einsetzen, um die entsprechenden Komposita zu erhalten“ (Bühler 1934, 246). Man sieht, hier wird die Leerstellenidee auch für die Erklärung der Wortbildung genutzt. Was die Syntax betrifft, so wird später deutlich, dass auch bei Bühler schon das Verb als höherrangig angesehen wird, wenn er Folgendes ausführt: „Denn in dem Satze ‘Caius amabat patrem’ regiert einzig und allein die Wortklasse (amare) und nicht das Moment der Zeitstufe oder Aktionsart das Feld; der Subjekts- und der Objektskasus erfüllen (logisch gesprochen) zwei Leerstellen des Verbums amare und bleiben untangiert vom Moment der Zeitstufe und Aktionsart“ (Bühler 1934, 295). Im Gegensatz zu dem Komplex ‘Haustor’, bei dem die verbundenen lexikalischen Einheiten „Stoffwörter sind (auf derselben niedersten Formalisierungsstufe stehen), während das zweite Moment in ‘amabat’ das Moment der Zeitstufe oder Aktionsart, rein logisch betrachtet, ein Formmoment ist (einer höheren Formalisierungsstufe angehört)“ (Bühler 1934, 295). 1.3. Walter Porzigs ‘Wesenhafte Bedeutungsbeziehungen’ Die im gleichen Jahr wie Bühlers ‘Sprachtheorie’ erschienene Abhandlung ‘Wesenhafte Bedeutungsbeziehungen’ von Walter Porzig (Porzig 1934) hebt auf das Miteinandervorkommen von Wörtern im syntagmatischen Verband ab. Dieses Phänomen sei „im wesen der gemeinten bedeutungen selbst“ begründet (Porzig 1934, 70). Von Valenzen oder Leerstellen des Verbs wird dabei nicht gesprochen, doch wird den Verben durchaus eine Priorität eingeräumt, als es nach Porzig Verben gibt, die nur eine Art Subjekt zulassen: „bellen kann nur ein hund, wiehern nur ein pferd, blühen nur eine pflanze, wachsen nur ein organismus“ (Porzig 1934, 72). Bei anderen Verben sei die Art des Objekts festgelegt: „was man fällt, muss immer ein baum sein, was man jemandem vorsetzt, ist notwendig speise oder trank“ (Porzig 1934, 72). Verben und Adjektive sind dem Substantiv insofern vorgeordnet, als diese „notwendige ergänzungen zu bestimmten Verben und von ihnen mitgesetzt“ sind. Verben und Adjektive lassen sich deswegen als „kern eines elementaren bedeutungsfelds ansehen“ (Porzig 1934, 76). Sachlich und im Prinzip auch terminologisch ist hier der Ansatz der Valenzlehre zu fassen, aber es sind doch eher semantisch betrachtete Verbindbarkeiten, die Bühler und
II. Lucien Tesnie`re und seine Zeit
Porzig interessiert haben. Immerhin war dadurch eine syntaktisch vorgehende Leistungsbestimmung der Verben vorbereitet. 1.4. Der Begriff der ‘Fügungspotenz’ bei Wladimir Admoni Der Valenzbegriff wird des öfteren auch mit dem Begriff der „Fügungspotenz“ verglichen, wie er von Admoni (1960) verwendet wird (vgl. z. B. Helbig 1965, 13; ein Hinweis auf Admoni auch bei Erben 1961, 178). Dies liegt nahe, weil wiederum Admoni an der einschlägigen Stelle auf Erben, Brinkmann und Bühler verweist (Admoni 1966, 82). Admoni geht es jedoch im Wesentlichen um eine Wortartenlehre und eine Zumessung der syntaktischen Aufgaben an die einzelnen Wortarten. Dabei hebt er auf den traditionellen Rektionsbegriff und auf den semantischen Relationsbegriff ab, wie er sich bei Behaghel (Behaghel 1923⫺1932) findet. „Jeder Redeteil enthält also in sich eine ganze Reihe von Fügungspotenzen, die bei seiner Einschaltung in den Satz als Ausdruck der vom Redenden beabsichtigten Bedeutungsfüllung des Satzes und unter dem Einfluss von Kontext und Situation zum Teil aktualisiert werden. Diese Potenzen ‘schlummern’ im Redeteil und werden erst durch Berührung mit dem konkreten Redeprozess zum Leben erweckt“ (Admoni 1966, 82).
Admoni hat sich jedoch weder auf die Position eines strukturalistischen Zugangs zur Satzbeschreibung begeben, noch von der herkömmlichen Subjekt-Prädikat-Auffassung gelöst, wie seine Ansicht über das Verhältnis von Verb und Subjekt zeigt: „Aber in einem Fall ist auch aus rein grammatischen Gründen die Beziehung des ‘leitenden’ Redeteils zum ‘abhängigen’ zugleich obligatorisch. Es ist die des Nominativs in seiner wichtigsten Funktion, der Subjektfunktion, zu dem finiten Verb, denn obgleich das Verb formell von der Form des Subjektnominativs abhängt, so ist doch der Subjektnominativ unmöglich ohne das Prädikatsverb oder überhaupt ohne das Prädikat ⫺ es sind aufeinanderbezogene und einander zugeordnete Größen“ (Admoni 1966, 82).
Der „leitende Redeteil“ ist hier, wohlgemerkt, das Subjekt! Alle angeführten Konzeptionen haben den Valenz- oder Wertigkeitsbegriff, wie er sich am Ende der fünfziger Jahre entwickelt hat, mit vorbereitet. Ein wirklich syntaktisches Prinzip ist damit noch nicht verbunden. Wie im Abschnitt 3 noch deutlich werden wird, ist die deutsche Grammatik in dieser Zeit noch sehr stark von funktionsdeutenden Zugängen
161
17. Die Wegbereiter einer deutschen Valenzgrammatik
geprägt. Einzig die Grammatik von Johannes Erben nutzt den Wertigkeitsgedanken konsequent.
2.
3. Mitschüler helfen Fritz; die „Ansage einer ‘Bezugshandlung’“. 4. Fritz geht zum Arzt/liegt im Krankenhaus; die „Lagesätze“.
Der Begriff der Wertigkeit bei Johannes Erben
Etwa gleichzeitig mit Tesnie`re hat Johannes Erben den Wertigkeitsgedanken entwickelt und in eine umfassende grammatische Konzeption aufgenommen. In der 1. Auflage seines ‘Abrisses der deutschen Grammatik’ (Erben 1958) im Abschnitt ‘Ausgestaltung’ über den deutschen Satz heißt es: „Dreierlei ist dabei entscheidend. a) Die Wortwahl, d. h. vor allem die Wahl des Verbs, das im deutschen (Verbal-)Satz den charakteristischen Aussagekern bildet. Von seiner Art und ‘Wertigkeit’ ⫺ man kann sie geradezu mit der Valenz des Atoms vergleichen ⫺ hängt es wesentlich ab, welche und wie viele Ergänzungsbestimmungen im Vor- und Nachfeld des Verbs auftreten und das Satzschema ausgestalten“ (Erben 1958, 165).
Erben unterscheidet vier Grundmodelle. Den „verbalen Aussagekern“ bezeichnet er mit „V“, mit „E“ die „Ergänzungsbestimmungen“. „Die Ziffern E1, E2 etc. beziehen sich nur auf die Anzahl der hinzutretenden Ergänzungsbestimmungen, nicht auf Rang oder Wortfolge“ (Erben 1958, 165). Das Subjekt wird in den graphischen Modellen allerdings links vom Verb platziert, während die anderen Ergänzungen rechts stehen. Die Modelle werden wie folgt dargestellt und mit Beispielsätzen belegt, die die Wertigkeiten verdeutlichen: E1
V
Hierunter fallen alle Sätze mit einer Ergänzungsbestimmung, von agenshaltigen über Geschehensverben (Vater schläft) bis zu unpersönlichen Ereignisverben (Es taut). E1
V
E2
Hier unterscheidet Erben vier Varianten: 1. Großvater ist Katholik/katholisch; dies sind die Prädikativkonstruktionen, womit auch dem Hilfsverb sein Valenz zuerkannt wird. 2. Katzen fangen Mäuse; die Handlungssätze.
E2 E1
V E3
Hier werden fünf Varianten angeführt: 1. 2. 3. 4.
Fritzchen nennt Anton Onkel/faul. Mutter lehrt Berta das Stricken. Gastwirte geben Stammgästen Freibier. Mädchen stellen Blumen auf den Tisch.
In der 4. Auflage findet sich noch ein weiterer Typ: 5. Freunde stehen Fritz zur Seite, verhelfen ihm zu einer Reise. (Erben 1961, 176) E2 E1
V
E3 E4
Hier werden die Pertinenz- und die Objektsprädikativkonstruktionen genannt. 1. Er schleudert ihm den Handschuh ins Gesicht. 2. Sie macht ihm sein Unrecht klar. Wie man sieht, sind hier die wichtigsten deutschen Satztypen nach Wertigkeitsgesichtspunkten zusammengestellt. Es werden damit mehr Ergänzungsbestimmungen als bei Tesnie`re gefasst, insbesondere die Prädikative. Erben geht auch auf reduzierte Valenz ein, in eindeutigen Sprachsituationen könnten „manche Bestimmungen ungesagt bleiben“ (Erben 1958, 167) (Vater liest). Weitere sprachliche Mittel, „nähere Angaben, besonders der Umstände eines Geschehens oder Seins“, könnten hinzugefügt werden (Vater liest morgens/ am Frühstückstisch/ interessiert die Zeitung). Dass die Wertigkeitsbestimmung zu einer hierarchischen Strukturierung des Satzes führt, zeigt das folgende Schema (Erben 1958, 188) mit dem der Satzgliedbegriff neu gedeutet wird: „Das, was man als Satzglieder anspricht, sind im Grunde ‘besetzte Rollen’
162
II. Lucien Tesnie`re und seine Zeit vermachte Satzglieder 1. Grades 2. Grades
Besitzer Der
3. Grades 4. Grades
Grundstück
Erben
das
seinen
achtzigjährige Hauses fast
dieses
eleganten sehr
Abb. 17.1.
oder ‘(Plan-)Stellen’ unserer Satzbaupläne …“ (Erben 1958, 188). Erben weist an dieser Stelle auf Tesnie`re hin, vorher zitiert er K. Bühlers bis dahin noch wenig rezipierten Leerstellenbegriff (Erben 1958, 165, Anm.) Erben gibt im Rückblick zu erkennen, dass er auf den Ausdruck Wertigkeit bei der Ausarbeitung des entsprechenden Artikels für das Grimmsche Wörterbuch gestoßen sei. Dieses Fachwort der Chemie (vgl. Art. 2) erschien ihm „als Hilfsbegriff auch für die Syntax brauchbar“ (Erben 1995, 67). Das Verb als „kategorial wichtigste Wortklasse“ (Erben 1995, 68) hatte er bereits in einem Aufsatz von 1955 als Satzkern, als Träger der eigentlichen Satzaussage bestimmt (Erben 1955; vgl. Erben 1995, 68). Damit ist bei Erben das Verb in seiner „vertikalen“ Organisationsrichtung gefasst. Die etwas früher erschienene, die deutsche Syntax radikal von der am Latein orientierten grammatischen Tradition freimachende Darstellung von Hans Glinz, ‘Die innere Form des Deutschen’ (Glinz 1952) verbleibt, trotz aller Neuerungen, im „horizontalen“, linearen Strukturschema. Glinz’ Ausdruck „Leitglied“ für das finite Verb als festen Pol des Satzes, „da es gewissermaßen den Bau des ganzen Satzes leitet“ (Glinz 1962, 97) ist konstitutionell gedacht. Für Tesnie`re hat Glinz wenig Verständnis; in seiner ‘Deutschen Syntax’ spricht er von den „ziemlich spekulativen Begriffe[n]“ Tesnie`res (Glinz 1967, 78).
3.
Inhaltbezogene grammatische Konzeptionen, in denen der Wertigkeitsgedanke implizit eine Rolle spielt
3.1. Hennig Brinkmann In seinem 1962 in erster Auflage erschienenen Werk ‘Die deutsche Sprache. Gestalt und
Leistung’ geht Hennig Brinkmann im Kapitel „Das Verbum“ auf die Valenz in einem eigenen Abschnitt ein, wobei er sich ausdrücklich auf Tesnie`re, Admoni und Erben beruft. Da seine gesamte Abhandlung darauf gerichtet ist, die Leistung der jeweils ins Auge gefassten Phänomene auf dem Hintergrund des bisherigen grammatischen Wissens darzustellen, verwundert es nicht, dass trotz der Aufnahme des in Deutschland gerade erst bekannt gewordenen Valenzansatzes die Subjekt-Prädikat-Beziehung Hintergrund der Ausführungen bleibt: „Das Verbum wirkt sich für den Satz nicht allein durch das Subjekt-Praedikatsverhältnis aus, sondern auch durch weitere Beziehungen, die dann naturgemäß in das so erweiterte Subjekt-Praedikatsverhältnis eingeschlossen werden. Wir nennen die Fähigkeit des Verbums, weitere Stellen im Satz zu fordern, mit Tesnie`re: ‘Valenz’“ (Brinkmann 1962, 223). Auch bei der dann vorgenommenen Einzelbeschreibung von Verbvalenzen spricht er immer vom Offenhalten weiterer Stellen neben dem Subjekt, führt aber sodann ganz realistisch auch nullwertige Verben (es friert, „ohne Nennung des Subjekts, mit dem ‘Wert Null’“) auf (Brinkmann 1962, 224). In aufsteigender Linie werden sodann höherwertige Verben gemustert. Zwar dominieren dabei die Stellenbesetzungen im reinen Kasus, aber auch Anschlüsse „durch ein Beziehungswort“ (Die Wohnung besteht aus vier Zimmern. ⫺ Ich wohne in der Stadt.) (Brinkmann 1962, 225) werden verbucht. Geprüft wird jeweils die Passivfähigkeit der Konstruktionen. Wie stark bei allem aber die inhaltbezogene Grammatikkonzeption dominiert, zeigt sich an Sätzen wie dem folgenden, mit dem die Typen in ihrer Bedeutung charakterisiert werden: „Die erste Schicht stellt Leben als Wirkung einer ungenannten und ungreifbaren Macht dar; die zweite Schicht stellt Leben dar, das vom Menschen
163
17. Die Wegbereiter einer deutschen Valenzgrammatik unabhängig ist, und zwar als Geschehen. […] Verben, die das Leben an und um den Menschen in seiner Kontinuität darstellen, können sich mit einer Stelle begnügen“ (Brinkmann 1962, 225).
Hier geht es um einstellige Verben vom Typ mich friert ⫺ Der Versuch ist missglückt ⫺ Der Vater schläft. So verwundert es nicht, wenn Brinkmann an späterer Stelle, im Kapitel über die Satzmodelle, die Relevanz des Valenzansatzes relativiert: „Die Unterscheidung der Verben nach ihrer ‘Valenz’, nach der Zahl der ‘Mitspieler’, die sie fordern oder ermöglichen, ist sicher von großer Bedeutung […] aber sie erschließt nicht ‘Satzmodelle’, sondern nur Klassen des Verbums (die dann freilich für die Satzstruktur wichtig sind.) […] Für die inhaltliche Leistung des Satzes maßgebend ist nicht die Zahl, sondern die Art der sprachlichen Elemente, die sich mit einem verbalen Praedikat verbinden“ (Brinkmann 1962, 511).
Die Satzmodelle erfasst Brinkmann sodann im Anschluss an Paul Grebe. 3.2. Paul Grebe Grebe hat seine Konzeption für die 1959 erschienene Neuausgabe der Dudengrammatik erarbeitet (Grebe 1959). Im Kapitel „Das Verb“ heißt es: „Da es dem Verb zufällt, das Sein und Geschehen zu bezeichnen, bildet es in fast allen Sätzen den grammatischen Kern der Aussage. Dadurch kommt ihm eine Bedeutung zu, die es über alle anderen Wörter erhebt. Das bringt auch das lateinische Wort verbum zum Ausdruck, das einfach ‘Wort’ bedeutet“ (Grebe 1959, 81).
Auch im Kapitel „Die Grundformen deutscher Sätze“ finden sich valenztheoretische Einsichten, wenn es z. B. heißt: „Die Aussage kann in bestimmten Fällen von dem verbalen Glied allein geleistet werden: Die Sonne ⫺ scheint“ (Grebe 1959, 434). Hier und bei den „Sinnergänzungen“, bei denen ein- und mehrgliedrige unterschieden werden, zeigt sich aber, dass von der Subjekt-Prädikat-Gliederung doch nicht abgegangen wird. Immerhin ist die Liste der „Grundformen deutscher Sätze“ (Grebe 1959, 466⫺469) nach den Verben vorgenommen und sie enthält die „Raumergänzung“ (Ich hänge das Bild an die Wand), die „Zeitergänzung“ (Die Beratung dauert zwei Stunden), die „Artergänzung“ (Die Rose ist schön) und die „Begründungsergänzung“ (Das Verbrechen geschah aus Eifersucht).
4.
Der Valenzbegriff bei Gerhard Helbig
In seinem ersten einschlägigen Aufsatz motiviert Gerhard Helbig die Beschäftigung mit der Valenz von Verben mit den dadurch verbesserten Möglichkeiten, im Ausländerunterricht Fehler wie *Ich besuche oder *Ich gebe zu vermeiden (Helbig 1965, 10). Der bis zu diesem Zeitpunkt sehr unterschiedlich verwendete Valenzbegriff lässt sich in seiner Entwicklung nach Helbig in drei Stufen unterscheiden. Er tauche zuerst dem Sinne, dann dem Begriffe und schließlich dem Terminus nach auf. Außer auf die oben schon genannten Grammatiken weist Helbig dabei auf Heyse (1908), Schulz/Griesbach (1962) und W. Schmidt (1963) hin, mustert insbesondere die Verwendung in den grammatischen Konzeptionen bei Erben, Grebe und Brinkmann und formuliert sodann drei Voraussetzungen „für einen klaren, d. h. strukturellen und weitgehend formalisierbaren Valenzbegriff, der auch in der Fremdsprachenmethodik seinen Platz einnehmen kann“ (Helbig 1965, 14). Zuerst sei der Satz vom Verb her zu begreifen. Erst dadurch könne die Wirksamkeit des Ansatzes sich voll entfalten. Weder die Subjekt-Prädikat-Dichotomie, noch die kommunikativ-grammatische Betrachtung des Satzes könne diese Einsicht vermitteln, sondern man „muß seinen Ausgang vom finiten Verb als Festpunkt des Satzes nehmen“ (Helbig 1965, 14). Die Mitspieler des Verbs werden dadurch semantisch gesehen untereinander gleichrangig, dem Subjekt kann allenfalls eine strukturelle Sonderstellung wegen der Kongruenz mit dem finiten Verb zugewiesen werden. Das zweite Problemfeld stellt nach Helbig die Frage dar, was als Sättigung des Verbs anzusehen sei. In der Diskussion der Vorschläge von Renicke (1961) („Syntaktisches Minimum“), Weisgerber (1962), Grebe (1959) („Abstrichmethode“) und Glinz (1952) („Weglassprobe“) wird deutlich, dass die grammatischen Bemühungen in den fünfziger Jahren mehr oder weniger bewusst strukturalistische Konzeptionen entwickelt haben, die vorher in der grammatischen Tradition nicht vorhanden waren. Die Problematik der Weglassbarkeit bzw. Nichtweglassbarkeit im Vergleich von Sätzen wie Ich lege das Buch auf den Tisch versus Die Henne legt führt Helbig dabei zum Problem der Verbvarianten. Das dritte von Helbig benannte „Hauptproblem“ (Helbig 1965, 17), nämlich, inwie-
164 fern auch Adverbialbestimmungen der Rang als Mitspieler des Verbs zuerkannt werden kann, war de facto durch die Methoden der Bestimmung des syntaktischen Minimums schon entschieden: Damit steht die hier nun verstärkt einsetzende Grammatikschreibung im deutschsprachigen Raum auf eigenen Füßen. Als „Glieder ersten Ranges“ nach dem Verb führt Helbig dann konsequenterweise auf: „Subjekt, Prädikativum, O4, O3, O2, präp. O, Adv. Bestimmung (notwendig)“ (Helbig 1965, 18) und weist darauf hin, dass letztere den „Umstandsergänzungen“ bei Grebe und den „Prädikatsergänzungen“ bei Schulz/Griesbach (1962) entsprechen. Zu den „freien Angaben“ wird auch der freie Dativ gerechnet. Wichtig ist ferner, dass bei den Ergänzungen zwischen obligatorischen und fakultativen Valenzen unterschieden wird. Dies schlägt sich in den den Verben beigegebenen Valenzindizes nieder, fakultative Valenzen werden den obligatorischen in Klammern nachgestellt. Schließlich werden von Helbig auch die „syntaktischen Selektionsbeschränkungen“ bedacht, und zwar mit dem Hinweis auf die Arbeiten von Chomsky. Auch wenn die ersten umfassenden Arbeiten in deutscher Sprache zum Valenzbegriff lexikalisch orientiert sind, so wird doch großer Wert auf die strukturell-syntaktische Leistung des Valenzbegriffs gelegt. 1969 erscheint das ‘Wörterbuch zur Valenz und Distribution deutscher Verben’ von Gerhard Helbig und Wolfgang Schenkel (Helbig/ Schenkel 1969). Es enthält im Einleitungsteil eine ausführliche grammatikologische Begründung des gewählten Ansatzes; die in Helbig (1965) und Helbig (1966) dargestellten Ansichten werden hier noch einmal gemustert. U. a. wird auf den für schulgrammatische Belange entwickelten Ansatz Flämigs (Flämig 1966) eingegangen, der das Verb als strukturell-grammatisches Zentrum des Satzes ansieht und die Strukturtypen des deutschen Satzes von der Valenz der Verben her beschreibt (Helbig/Schenkel 1969, 18 f.). Helbig/Schenkel ist es besonders darum zu tun, „daß das finite Verb als strukturelles Zentrum des Satzes begriffen wird“ (Helbig/ Schenkel 1969, 20). Damit werde die Binarität des Satzes aufgegeben, wie sie von der traditionellen Grammatik, aber auch von der „modernen Phrasenstruktur- und Transformationsgrammatik amerikanischer Prägung“ (Helbig/Schenkel 1969, 24) angenommen werde. Helbig weist hier auch auf die
II. Lucien Tesnie`re und seine Zeit
Relationslogik hin, in der auch andere als zweigliedrige Urteile angenommen werden. Als nächstes muss festgelegt werden, was als Sättigung des Verbs anzusehen ist. Helbig mustert die verschiedenen Typen der Abstrichmethode und entscheidet sich dann für die Glinzsche Weglassprobe, die man mit der Transformationsgrammatik auch „Eliminierungstransformation“ nennen könne (Helbig/ Schenkel 1969, 27). Dadurch gelangt er zu einer Schichtung des Satzes, bei der alles, was im Stellenplan des Verbs verankert ist, als „Glieder ersten Ranges“ bezeichnet wird, als „Glieder zweiten Ranges“ erscheinen dann ⫺ gleichrangig ⫺ Attribute zu Gliedern ersten Ranges, der freie Dativ und die nicht notwendigen Adverbialbestimmungen (Helbig/ Schenkel 1969, 30). Wenn in den späteren Valenzgrammatiken die Schichtung des Satzes doch wieder an die grammatische Tradition angenähert worden ist, so zeigt die Gliederung von Helbig in größter Klarheit, dass die verbzentrierte Sichtweise den Aufbau des Satzes radikal anders sieht als alle herkömmlichen und konstitutionell orientierten Syntaxen, nämlich als rein hierarchisch zu betrachtender Komplex, in dem Verbnähe das bestimmende Kriterium darstellt. Dadurch ist ‘Weglassbarkeit’ für die Glieder primären Ranges allerdings ein zu weites Kriterium, denn auch valenzgebundene Glieder, die nur fakultativ sind, können eliminiert werden. Dies ist aber wiederum ausschließlich durch das jeweilige Verb begründet. Als Test eignet sich für die Adverbialbestimmungen u. a. die „Negationstransformation“. Die valenzgebundene zieht die Negation voran, die freie erlaubt Nachstellung (Ich lege das Buch nicht dorthin. Ich treffe ihn dort nicht.) (Helbig/Schenkel 1969, 33). Gerade die letzteren Überlegungen führen gleichsam zwangsläufig dazu, die Umgebungen der Verben je einzeln zu prüfen, um von daher zur Bildung von richtigen Sätzen zu gelangen. Konsequenterweise ist dann auch die erste umfassende Arbeit zum Valenzbegriff das ‘Wörterbuch zur Valenz und Distribution deutscher Verben’ von Gerhard Helbig und Wolfgang Schenkel (Helbig/Schenkel 1969), das bis 1991 in acht Auflagen erschienen ist. Für die Entwicklung des Valenzbegriffs ist am Wörterbuch von Helbig/Schenkel Folgendes bedeutsam gewesen: Die Verbeinträge werden in drei Stufen vorgenommen. Auf der ersten Stufe wird die quantitative Valenz mit der Angabe, ob es sich um obligatorische
165
17. Die Wegbereiter einer deutschen Valenzgrammatik
oder fakultative Mitspieler handelt, festgelegt. Unter dem Einfluss Noam Chomskys werden auf einer zweiten und dritten Stufe syntaktische und semantische Umgebungen der Verben festgelegt und in Parallele zu den „strikten Subkategorisierungsregeln“ und „Selektionsregeln der generativen Transformationsgrammatik“ gesetzt. Die syntaktischen Umgebungen spezifizieren die Typen der Mitspieler, die semantischen geben eine Feinbestimmung in der Art, wie sie konzeptionell zuerst bei Porzig aufgetaucht war. Auf diese Weise wird der Satzbau konsequent als generell vom Verb gesteuert und speziell von jedem einzelnen je nach seinen syntaktischen und semantischen Voraussagen her aufgefasst. Desweiteren ergibt sich eine Rückkopplung zu prinzipiellen lexikalischen Entscheidungen: Der Dreischritt im Aufbau der verbalen Lexikoneinträge führt bei der Masse der Verben zum Ansatz von Varianten, z. B. bei ansehen: 1. ansehen2(3) ‘anblicken, anschauen’ (Der Lehrer, der Hund sieht den Fremden an), 2. sich ansehen2, ‘intensiver betrachten’, (Der Gast sieht sich die Bilder an), 3. ansehen3 ‘jemandem etwas anmerken’ (Der Lehrer sieht dem Kind den Kummer an.), 4. ansehen3 ‘halten für’ (Das Institut sieht ihn als neuen Chef an.). Mit diesem Zugang wird die Bildung von richtigen und nur richtigen Sätzen im Prinzip gewährleistet, eine Forderung, die bis dahin in einer deutschen Grammatik nicht formuliert worden war. Dadurch wird der Regelcharakter der Grammatik überhaupt erst fassbar. Helbig unterstreicht auch in einer etwas später erschienenen Arbeit (Helbig 1971) die Notwendigkeit eines syntaktisch-strukturellen Ansatzes im Gegensatz zu semantisch ausdeutenden. Mit seiner Auffassung über Hierarchien in den Valenzbeziehungen hat Helbig schließlich auf die Nutzung des Valenzbegriffs für weitere syntaktische Schichtungen vorbereitet. So kommt nach ihm dem Satz Wir wollen ihn besuchen das folgende Stemma zu: wollen wir besuchen ihn
(Helbig 1971, 41)
5.
Weitere Schärfungen des Valenzbegriffs
5.1. Logische und grammatische Zugänge Die valenztheoretischen Arbeiten der sechziger und frühen siebziger Jahre berufen sich zunehmend auf Tesnie`re, versuchen aber auch Verbindungen zur Relationslogik Fregescher Prägung und zu strukturalistischen und transformationalistischen Ansätzen zu ziehen. Dabei werden vor allem die Ebenen des Valenzbegriffs präzisiert. Bondzio (1971) setzt als Grundlage für die Bedeutungskonstitution des Satzes die semantisch-logische Ebene an, die wiederum entsprechende Beziehungen in der außersprachlichen Wirklichkeit spiegele (Bondzio 1971, 88). An eine Isomorphie sei dabei aber nicht zu denken. Die später von ihm entwickelte Auffassung von der „Valenz zweiter Stufe“ (Bondzio 1974) verrechnet adverbiale Leerstellen mit der gesamten Satzbedeutung. Die logischen Ansätze der polnischen und russischen Schule integriert Welke (1965) in seine Modalverbuntersuchung. Bei Welke heißt es explizit: „Unsere Darstellung findet eine ziemlich genaue Analogie in der Struktur von Aussagen des Aussagenkalküls der Logik“ (Welke 1965, 36). Die Schichtung des Satzes zeige sich unter dieser Perspektive gut bei der Betrachtung der Modalverben. „In einem Satz wie Er will das Fenster öffnen ist öffnen ein Prädikat bzw. allgemeiner ein Operator erster Stufe und will ein Prädikat bzw. allgemeiner ein Operator zweiter Stufe, weil dem ersten übergeordnet. Der Operator erster Stufe mit seinen Argumenten ist Argument des Operators zweiter Stufe“ (Welke 1965, 41). Bei Flämig (1971) finden sich Repräsentationen von der „Objektiven Realität“ mit ihren „Sachverhalten“ über das „Bewußtsein“ mit ihren Aussagestrukturen und logischen Prädikationen bis zur sprachlichen Ausformulierung, in der die semantische Struktur vor der „grammatischen“ angesiedelt ist (Flämig 1971, 110). Mit diesen Ansätzen werden die semantischen Nutzungen des Valenzbegriffs vorbereitet. Dies gilt in einer etwas anderen Sichtweise auch für die Arbeiten von Klaus Heger. Während Welkes Intentionen satzsemantische Analysen sind, nimmt Heger (1966) eine sprachphilosophische Grundlagenklärung der an die Sätze gebundenen Aussagemöglichkeiten vor. Zentralbegriff, an dem Valenz sich manifestieren kann, ist bei ihm der Begriff des
166 „Vorgangs“. Von Avalenz (Nullwertigkeit) geht der Weg über Monovalenz (Einwertigkeit) zu höherer Wertigkeit durch Kombination mit Ursache-/Wirkungs-Aktanten und -Relationen. In Heger (1971) werden die Zerlegungen von Sätzen in derartige Primärrelationen weitergeführt. Aus solchen konstruierbaren Aktantenmodellen werden bei Ballweg/ Hacker/Schumacher (1972) mit Hilfe von Lexikonregeln Überführungen in die reale Sprache vorgenommen. 5.2. Die Nutzung von Valenz- und Dependenzrelationen in einer formalen Grammatik: Hans Jürgen Heringer Während in den grammatischen Konzeptionen der Valenzbegriff entweder für die Klärung von sprachtheoretischen Grundsatzfragen oder für praktische Sprachlehrzwecke herangezogen worden ist, wird eine komplette valenz- und dependenzbasierte Grammatik zum ersten Mal von Hans Jürgen Heringer für das Deutsche erarbeitet. In Heringer (1967) sind die erforderlichen valenztheoretischen Vorklärungen vorgenommen worden. Dazu gehört die Berücksichtigung von verbalen Varianten („variierende Wertigkeit“, Heringer 1967, 15), die „Einteilung der Verben nach den Beziehungen der Ergänzungsbestimmungen“ mit Hilfe relationslogischer Kategorien (Heringer 1967, 17) und eine ausführliche Diskussion der nullwertigen Verben in syn- und diachroner Perspektive. Die hier entwickelten valenziellen Einsichten sind von Heringer in seiner ‘Theorie der deutschen Syntax’ (Heringer 1970) ausgebaut worden. Die Dependenztheorie (D) wird hier als komplementäre Theorie des Konstitutionssystems (K) eingesetzt und insbesondere für die Inhaltssyntax genutzt. Primär sind die K-Regeln. In diese gehen die Valenzregularitäten ab der zweiten K-Regel ein. (In der ersten werden u. a. Sätze von „Kurzsätzen“ abgegrenzt.) Sie lautet: K(SF1, Pi ⫹ F(En) ⫹ F(An)). Zu lesen als: Das ungesättigte Prädikat P und eine Folge von Ergänzungen (E) und eine Folge von Angaben (A) bilden die Sätze. „Diese Einteilung bildet die Grundlage der Wertigkeitstheorie. Welche E jeweils stehen müssen, wird vom Prädikat bestimmt“ (Heringer 1970, 114). Dies schlägt an verschiedenen Stellen des K-Systems durch, entscheidend in K 34, das die Verbtypen nach ihrem Wertigkeitsindex ordnet. Von erheblicher Bedeutung ist auch die Regel K 27, in der als Besetzungsalternativen des Prädikats einfache Verben, Adjektivprädikate,
II. Lucien Tesnie`re und seine Zeit
Verknüpfungsprädikate und Funktionsverbgefüge aufgeführt werden. Was letztere betrifft, so ist Heringers Syntax die erste Grammatik, in der diese die deutsche Sprache so auffällig kennzeichnenden Strukturen überhaupt systematisch aufgenommen worden sind. Bei den Verknüpfungen wird, vor allem in Auseinandersetzung mit Helbig, diskutiert, wie sich Auxiliar- und Modalverbkonstruktionen im Vergleich mit einfachen Verbkonstruktionen verhalten. Heringer wertet sie, letztlich unter Berücksichtigung valenzieller Gesichtspunkte, als „zusammengesetzte Prädikate“ (Heringer 1970, 175). Die Adjektivprädikate fasst Heringer analog auf. „Die Wertigkeit des Adjektivprädikats ist eine Funktion der Wertigkeit des Verbs und des Adjektivs“ (Heringer 1970, 180). Insbesondere wird hier dem Umstand Rechnung getragen, dass auch Adjektive anders als „nullwertig“ verwendet werden können, z. B. lang in Das Grundstück ist 20 m lang. Die Prädikatstypen nach (Gesamt)wertigkeiten umfassen ein- bis vierwertige. Wegen des komplexen Prädikatsbegriffs erscheinen bei den einwertigen z. B. solche wie es will dunkel werden, bei den zweiwertigen x1 ist bekannt y6 [als], bei den dreiwertigen x1 sieht y2 z2 groß werden lassen und bei den vierwertigen etwa w1 läßt x2 y2 z6 [als] betrachten (Heringer 1970, 194⫺198). (Der Index 6 steht für Ergänzungen, die durch „Identifikationstranslative“ angeschlossen werden.) Insgesamt ist die Syntax von Heringer, die bereits 1973 in zweiter Auflage und in einem Abriss (Heringer 1970a, 2. Aufl 1972) erschienen ist, die erste komplette moderne Grammatik des Deutschen überhaupt, wenn man von Bierwischs Grammatik des deutschen Verbs (Bierwisch 1963) absieht, die auf einem generativ-transformationellen Ansatz beruht. Heringers Grammatik ist konstitutionell angelegt, setzt in einem eigenen Kapitel die mit Konstituentenregeln erzeugten Sätze in ein Dependenzsystem um, bei dem der Dependenzbegriff über die Wortartabhängigkeiten sowohl nach unten (in den Morphembereich) als auch nach oben erweitert wird (Heringer 1970, 235⫺254). Bei ihm wie auch bei Baumgärtner (1970), Vennemann (1972) und Vater (1975) werden Konstituenz und Dependenz als komplementäre grammatische Beschreibungsarten aufgefasst. (Zur Bewertung dieser Auffassung vgl. u. a. Maas 1974 und Eroms 1981.)
167
17. Die Wegbereiter einer deutschen Valenzgrammatik
5.3. Weiterentwicklung der Valenztheorie in der Bundesrepublik Deutschland Der in der DDR intensiv betriebenen Valenzforschung in theoretischer und praktischer Perspektive, den Ansätzen von Heringer und anderen Linguisten, vor allem aus Heidelberg, folgten zu Beginn der siebziger Jahre eine Fülle von grammatischen Untersuchungen, die schließlich in Aktivitäten des Instituts für deutsche Sprache (IdS) Mannheim zur Erstellung eines Valenzlexikons gebündelt wurden. Der Stellenwert, der der Valenztheorie zugemessen wurde, zeigt sich darin, dass die neue vom IdS herausgegebene Zeitschrift ‘Deutsche Sprache’ mit zwei methodischen Grundsatzartikeln zur Valenz eröffnet wurde. In den ‘Aspekten der Valenztheorie’ (Arbeitsgruppe Marburg 1973) wird der damalige Stand der Valenzlehre kritisch diskutiert. Valenz wird hier explizit der Syntax zugeordnet (Arbeitsgruppe Marburg 1973, 7), die Helbigsche Trennung in obligatorische und fakultative Ergänzungen wird übernommen und die Fragen der Abgrenzung von Syntax und Semantik werden ausführlich behandelt. Die sich bereits in den ersten Arbeiten zur Valenz abzeichnende Unterschiedlichkeit des valenziellen Zugriffs (logisch, semantisch, oberflächenstrukturell, vgl. insbesondere die Abschnitte 4 und 5.1⫺5.3) hatte zu grundsätzlichen Trennungen der Ebenen, wie in Stötzels Untersuchung zur Ausdrucks- und Inhaltsvalenz (bei ihm anhand der Problematik der Darstellung reflexiver Verben) geführt (Stötzel 1970). Auch die Arbeiten Fillmores werden hier bereits unter valenztheoretischem Aspekt gemustert. An Kritikpunkten zur Valenz wird u. a. vermerkt, dass die hierarchischen Strukturen der Sätze nicht so gut wie in der Konstituentenstrukturgrammatik erfassbar seien und dass Wortstellung und Intonation sich ebenfalls partiell ihrem Zugriff entzögen (Arbeitsgruppe Marburg 1973, 36). Entwicklungsmöglichkeiten werden vor allem in der Erfassung verbaler Strukturen und im Sprachvergleich gesehen. Zwar erschien erst 1976 ein Sammelband aus dem IdS, in dem der Valenzbegriff mit der Dokumentation der Vorarbeiten für ein Valenzlexikon präzisiert wurde (Schumacher (Hg.) 1976), aber die darin enthaltenen Berichte und die Bibliographie weisen aus, dass seit 1970, also unmittelbar nach dem Erscheinen des Wörterbuchs von Helbig/Schenkel, intensiv an einem Pendant gearbeitet wurde. Die Wörterbucharbeit wird simultan begleitet von der Ausarbeitung einer Syntax durch Ul-
rich Engel, die im Sammelband als „vorläufige Fassung“ angeführt wird. Sie erscheint 1977 (Engel 1977). In Schumacher (Hg.) (1976) wird der Gärungs- und Klärungsprozess der Mannheimer Arbeitsgruppe in allen Einzelheiten präsentiert. Interne Kritik richtet sich u. a. an Ulrich Engels Auffassung über Dependenz als „gerichtete Konkomitanz“ und daran, dass Dependenz als äquivalente, nicht als komplementäre Relation der Konstituenz aufgefasst wird (Pape 1976). Der Valenzbegriff in dem dann im gleichen Jahr erscheinenden ‘Kleinen Valenzlexikon deutscher Verben’ (Engel/Schumacher 1976) wird „als Sonderfall der Rektion definiert. Valenz ist die Rektion von Teilen von Wortklassen“ (Engel/Schumacher 1976, 15) und damit auch nicht auf die Verben beschränkt. Allerdings hat das Verb eine bevorzugte Stellung, weil es „im (deutschen) Satz durchschnittlich die reichsten und vielfältigsten Verbindungen eingeht“ (Engel/Schumacher 1976, 18). Die vom Verb valenzbedingt abhängigen Glieder, die Ergänzungen, werden in neun Klassen geteilt: E0 (Nominativergänzung), E1 (Akkusativergänzung), E2 (Genitivergänzung), E3 (Dativergänzung), E4 (Präpositionalergänzung), E5 (Situativergänzung), E6 (Direktivergänzung), E7 (Einordnungsergänzung), E8 (Artergänzung), E9 (Ergänzungssatz). Die Kombinationsmöglichkeiten in Bezug auf unterschiedliche Verben führen zu den Satzbauplänen. Über den Aufbau des Lexikons und die Einzelheiten bei den Verbeinträgen unterrichtet Art.110. Hier sei nur auf die in anderen Grammatiken bis dahin nicht zu findende Ergänzungsklasse der Ergänzungssätze eingegangen. Es handelt sich dabei um Fälle wie Es heißt, dass dicke Menschen gemütlich sind, mein Bruder lässt den Wagen waschen und es gilt, den Preis zu gewinnen. Bemerkenswert ist, dass hierzu Valenzschichtungen angesetzt werden. Der Satz Vater lässt die Kinder das Zimmer aufräumen erhält folgende Darstellung: lässt
Vater
aufräumen
die Kinder das Zimmer
In einer Symbolschreibweise zeige sich, dass die Kinder als E0 zu aufräumen zu werten
168
II. Lucien Tesnie`re und seine Zeit
seien, aber als Akkusativ erscheinen. „Offenbar liegt eine Regel zugrunde, nach der innerhalb jeder E9 die entsprechende E0 in ein Akkusativelement transformiert wird. Wir schreiben deshalb korrekter“: V
E0
7.
V
E0
1
E1
(Engel/Schumacher 1976, 78 f.) Mit anderen Worten: Hier wird im Rahmen der Valenzlehre mit Transformationen operiert, eine Möglichkeit, die sich fast alle valenziellen Konzeptionen sonst entgehen lassen.
6.
semantischen Konzeptionen, der generativtransformationellen und der dependenziellvalenziellen, unter verschiedener Perspektive nun jedoch allmählich integriert (die erstere etwa in Abraham (1995) und die letztere bei Zifonun/Hoffmann/Strecker (1997) und Eroms (2000)).
Zusammenfassung
Die Entdeckung des Wertigkeitsprinzips, bzw. die Rezeption der Valenzidee Tesnie`rscher Prägung in der deutschen Grammatik hat zu einer Neuorientierung und Neugestaltung grammatikologischer Auffassungen geführt. Dies vollzog sich simultan mit der Rezeption der generativ-transformationellen Grammatik, die in einer, für die Valenzlehre fundamentalen Weise, bei der grammatischen Tradition verblieb, ja diese geradezu noch radikalisierte, dass nämlich jeder Satz in zwei Grundkonstituenten zu teilen sei, eine vom Subjekt und eine vom Verb gesteuerte Komponente. Damit verbunden ist die Auffassung, dass jeder Satz ein Subjekt enthalten müsse. Zwar hat die sich außerordentlich rasch entwickelnde Valenzgrammatik nie den Formalisierungsgrad der generativ-transformationellen Grammatik erreicht, aber sie hat die bis in die Mitte der fünfziger Jahre in Deutschland herrschende inhaltlich deutende Grammatikschreibung innerhalb kurzer Zeit marginalisiert. Dass dabei auch wesentliche Einsichten in die semantische Struktur des Satzes verloren gegangen sind, ist ein Faktum, das wohl unvermeidlich war, wenn eine Grammatik auf klare, empirisch verifizierbare Prinzipien gegründet werden sollte. Die in den älteren Standardgrammatiken enthaltenen wertvollen Beobachtungen werden seit dem Innovationsschub der beiden großen
Literatur in Auswahl
Abraham, Werner (1995): Deutsche Syntax im Sprachenvergleich. Grundlegung einer typologischen Syntax des Deutschen. Tübingen. Admoni, Wladimir (1960): Der deutsche Sprachbau: theoretische Grammatik der deutschen Sprache. Leningrad. Admoni, Wladimir (1966): Der deutsche Satzbau. Leningrad (2. Aufl.). Andresen, Helga (1973): Ein methodischer Vorschlag zur Unterscheidung von Ergänzung und Angabe im Rahmen der Valenztheorie. In: Deutsche Sprache 1, 49⫺63. Arbeitsgruppe Marburg (1973): Aspekte der Valenztheorie. In: Deutsche Sprache 1, 3⫺48. Ballweg, Joachim/Hacker, Hans-Jürgen, Schumacher, Helmut (1972): Valenzgebundene Elemente und logisch-semantische Tiefenstruktur. In: Linguistische Studien II. Düsseldorf, 100⫺145. Baumgärtner, Klaus (1970): Konstituenz und Dependenz. Zur Integration der beiden grammatischen Prinzipien. In: Hugo Steger (Hg.): Vorschläge für eine strukturale Grammatik des Deutschen. Darmstadt, 52⫺77. Behaghel, Otto (1923⫺1932): Deutsche Syntax. Eine geschichtliche Darstellung. 4 Bde. Heidelberg. Bierwisch, Manfred (1963): Grammatik des deutschen Verbs. Berlin. Bondzio, Wilhelm (1971): Valenz, Bedeutung und Satzmodelle. In: Helbig (Hg.) (1971), 85⫺103. Bondzio, Wilhelm (1974): Die Valenz zweiter Stufe als Grundlage der Adverbialsyntax. In: Wiss. Zeitschrift der Humboldt-Universität zu Berlin. Gesellschafts- und Sprachwiss. Reihe 23, 245⫺257. Brinkmann, Hennig (1962): Die deutsche Sprache. Gestalt und Leistung. Düsseldorf. Bühler, Karl (1934): Sprachtheorie. Die Darstellungsfunktion der Sprache. Jena. Engel, Ulrich/Schumacher, Helmut (1976): Kleines Valenzlexikon deutscher Verben. Tübingen. Erben, Johannes (1958): Abriß der deutschen Grammatik. Berlin (4. Aufl. 1961). Erben, Johannes (1995): Zur Begriffsgeschichte von Wertigkeit und Valenz. In: Eichinger, Ludwig M./Eroms, Hans-Werner (Hgg.): Dependenz und Valenz. Hamburg, 67⫺69. Eroms, Hans-Werner (1981): Valenz, Kasus und Präpositionen. Untersuchungen zur Syntax und Se-
17. Die Wegbereiter einer deutschen Valenzgrammatik
169
mantik präpositionaler Konstruktionen in der deutschen Gegenwartssprache. Heidelberg. Eroms, Hans-Werner (2000): Syntax der deutschen Sprache. Berlin/New York. Flämig, Walter (1971): Valenztheorie und Schulgrammatik. In: Helbig (Hg.) (1971), 105⫺121. Glinz, Hans (1952): Die innere Form des Deutschen. Eine neue deutsche Grammatik. Bern/München (3. Aufl. 1962). Glinz, Hans (1967): Deutsche Syntax. Stuttgart (2. Aufl.). Heger, Klaus (1966): Valenz, Diathese und Kasus. In: Zeitschrift für romanische Philologie 82, 138⫺ 170. Heger, Klaus (1971): Monem, Wort und Satz. Tübingen. Helbig, Gerhard (1965): Der Begriff der Valenz als Mittel der strukturellen Sprachbeschreibung und des Fremdsprachenunterrichts. In: Deutsch als Fremdsprache 2, Heft 1, 10⫺23. Helbig, Gerhard (1966): Untersuchungen zur Valenz und Distribution deutscher Verben. In: Deutsch als Fremdsprache 3, Heft 1, 1⫺11 und Heft 2, 12⫺19. Helbig, Gerhard (Hg.) (1971): Theoretische und praktische Aspekte eines Valenzmodells. In: Helbig (Hg.) (1971), 31⫺49. Helbig, Gerhard (1971): Beiträge zur Valenztheorie. Den Haag/Paris. Heringer, Hans-Jürgen (1967): Wertigkeiten und nullwertige Verben im Deutschen. In: Zeitschrift für deutsche Sprache 23, 13⫺34. Heringer, Hans-Jürgen (1970): Theorie der deutschen Syntax. München. Heringer, Hans-Jürgen (1970a): Deutsche Syntax. Berlin.
Maas, Utz (1974): Dependenz. In: Arnold, Heinz Ludwig/Sinemus, Volker (Hgg.): Grundzüge der Literatur- und Sprachwissenschaft. Bd. 2: Sprachwissenschaft. München, 257⫺275. Pape, Sabine (1976): Bemerkungen zu einigen Grundbegriffen der Valenztheorie. In: Schumacher (Hg.) (1976), 21⫺53. Porzig, Walter (1934): Wesenhafte Bedeutungsbeziehungen. In: Beiträge zur Geschichte der deutschen Sprache und Literatur 58, 70⫺97. Renicke, Horst (1961): Grundlegung der neuhochdeutschen Grammatik. Berlin.
Heyse, Johann Christian August (1908): Deutsche Grammatik. Hannover/Leipzig. Keina`stö, Kari (2001): „Unberechtigtes Altes umstoßen und berechtigtes Neues einführen.“ Franz Kern als Vorläufer der deutschen Dependenzgrammatik. Frankfurt u. a. (⫽ Finnische Beiträge zur Germanistik 5).
Wundt, Wilhelm (1900): Völkerpsychologie. 1. Band. Die Sprache. Leipzig.
Schmidt, Wilhelm (1963): Lexikalische und aktuelle Bedeutung. Berlin. Schumacher, Helmut (Hg.) (1976): Untersuchungen zur Verbvalenz. Eine Dokumentation über die Arbeit an einem deutschen Valenzlexikon. Tübingen. Schulz, Dora/Griesbach, Heinz (1962): Grammatik der deutschen Sprache. München. Stötzel, Georg (1970): Ausdrucksseite und Inhaltsseite der Sprache. Methodenkritische Studien am Beispiel der deutschen Reflexivverben. München. Vater, Heinz (1975): Towards a generative dependency grammar. In: Lingua 36, 121⫺145. Vennemann, Theo (1977): Konstituenz und Dependenz in einigen neueren Grammatiktheorien. In: Sprachwissenschaft 2, 259⫺301. Weisgerber, Leo (1956/57): Die Erforschung der Sprach„zugriffe“. I. Grundlinien einer inhaltbezogenen Grammatik. In: Wirkendes Wort 7, 65⫺73. Weisgerber, Leo (1962): Grundzüge der inhaltbezogenen Grammatik. Düsseldorf. Welke, Klaus (1965): Untersuchungen zum System der Modalverben in der deutschen Sprache der Gegenwart. Ein Beitrag zur Erforschung funktionaler und syntaktischer Beziehungen. Berlin.
Zifonun, Gisela/Hoffmann, Ludger/Strecker, Bruno (1997): Grammatik der deutschen Sprache. Berlin/ New York.
Hans-Werner Eroms, Passau (Deutschland)
III. Dependenz. Grundlagen und Grundfragen Dependency. Basic Principles and Basic Issues 18. The Dependency Concept and its Foundations 1. 2. 3. 4. 5. 6. 7.
Introduction Companionship and dependency Definition of head and dependent; criteria and tests Arguments for heads at sentence level Special constructions Conclusion Select Bibliography “A grammar without heads is as misguided as a portrait-painting showing everything from the shoulders down.” (Hudson 1993, 289)
1.
Introduction
In the course of time, syntactic structures have been analysed partly according to two devices: dependency and constituency. Whereas constituency is a relatively recent phenomenon, foreshadowed by Wilhelm Wundt’s ideas on syntagmatic structures, dependency seems to be much older. The oldest ideas about it go back to Panini’s Sanskrit grammar. Obviously, dependency theory has its roots in an ancient tradition. But medieval Arabic grammarians seem to have made use of some concept of dependency, too. According to Owens (1988), Corbett/Fraser/McGlashan (1993, 3) and Hudson (1993, 270) they even applied it to establishing word order regularities. The latter claim, however, seems to have been exaggerated since cases were the primary interest of these Arabic grammarians. According to Croft (1996, 50) the first reference to heads by name that he is aware of is in Sweet (1891, 16). He also mentions the oft-cited passage of Bloomfield (1933, 195) as “the startingpoint of structuralist and generative theories of headhood”: If all of the syntactic constructions which go to make up a phrase are endocentric, then the phrase will contain among its ultimate constituents some word (or several words, members of a co-ordination) whose form-class is the same as that of the
phrase. This word is the center of the phrase. In the phrase all this fresh milk, the word milk is the center, and in the phrase all this fresh bread and sweet butter, the words bread and butter are the centers.
However, dependency was first elaborated and formalized systematically by the French linguist Lucien Tesnie`re (1959). He found followers especially in German-speaking circles (cf. e. g. Engel 1977; Vennemann 1977; Heringer/Strecker/Wimmer 1980; Tarvainen 1982; Eichinger/Eroms 1995; Eroms 2000; Weber 1997). Hudson (1984, 76) deplored the fact that only recently dependency had gained ground in the Anglo-Saxon linguistic literature, especially in Britain (e. g. Matthews 1981; Atkinson et al. 1982; Herbst et al. 1980). Earlier work had remained marginal. For quite some time now, the two strategies of constituency and dependency have been in competition with each other. On the other hand, one has observed a number of frameworks that combine the two devices, part-whole relations and head-dependent (⫽ head-modifier) relations respectively (with Baumgärtner 1970, Matthews 1981 and others as pioneers). Particularly important are theories such as X-bar theory, Government and Binding, and Generalized Phrase Structure Grammar, where heads play a clear, though maybe not an essential role (see below) except in Head-driven Phrase Structure Grammar. Anyway, we can say that at present, there is almost no grammatical framework that does not make use of the notion ‘head’. A number of linguists reject the combination of dependency and constituency and stick to pure dependency (Engel 1983; Eroms 1985; Hudson 1984, 1990, 1993; Hudson/Van Langendonck 1991; etc., see also below). In this chapter, I will focus mainly on dependency as such, and refer to constituency
18. The Dependency Concept and its Foundations
171
where deemed appropriate. Finally, I will limit the discussion essentially to dependency in syntax. More specifically, I will consider both dependents and heads as words, as in the classical literature. Dependency within morphology will not be dealt with here (cf., among others, Schultink 1988; Haspelmath 1992). It should also be pointed out that a headword can be a functional as well as a lexical word. This dichotomy appears to cut across most word-classes. For instance, both auxiliaries and main verbs can function as head depending on the construction. Both pronouns and full nouns can be heads, etc. As for the notation, I will adopt Hudson’s practice of indicating the relation between head and dependent by an arrow pointing to the dependent. Companionship will be shown by a simple line, indicating a merely symmetric relationship. The term ‘phrase’ will be used in a wide sense, encompassing dependency and companionship chains as well as constituents. N. B. I wish to thank Mark Van de Velde for his valuable comments and remarks, and an addendum on Hawkins (1994). Thanks also go to Pierre Swiggers for his critical reading.
does not suffice to characterize these (and surely most other) phrases more accurately. To mention just this: in (2a) we have an NP, in (2b) a sentence. The two constructions are obviously in need of more structuring. This can be obtained by adding the asymmetric relation of dependency to these chains. We then see that each of the constructions receives a series of arrows that go in the opposite direction:
2.
Companionship and dependency
Dependency is in fact a special case of companionship (German: Konkomitanz). Words that occur together may display a semanticsyntactic relationship sanctioned as companionship by the grammar. This relation seems to be the most simple syntagmatic relation possible. Consider the utterances: (1)
a. not very good tomatoes b. Take tomatoes with lettuce.
The minimum of structure we can assign to these word strings is companionship between words that belong together from a semantic and syntactic viewpoint: (2)
a. not
very good tomatoes
b. Take tomatoes with lettuce. Both phrases receive the same structure here, but simple intuition tells us they have not been sufficiently characterized in this way, i. e. this symmetric relation of companionship
(3)
a. not very good tomatoes b. Take tomatoes with lettuce.
In (3a) tomatoes is the head of good, which is head of very, which in turn is head of not. In (3b), on the other hand, take is head of tomatoes; this is head of with, and with is head of lettuce. All of these head-dependent syntagms can be formulated in more general terms that take into account word-classes. I will exemplify this criterion with the phrases in (1a & b). Adjectives depend on the accompanying nouns (good tomatoes), the adverb on the accompanying adjective (very good), the object on its accompanying verb or preposition (take tomatoes; with lettuce), the comitative preposition (together with its own dependent: with lettuce) on the accompanying noun tomatoes. We can easily see that the companionship analysis is included in the dependency analysis but that the reverse does not hold: the dependency analysis yields a more specific structure. This enriched analysis appears to be necessary in most constructions. I will come back to this later. Assuming for the time being that the dependency analysis of (3a & b) is a correct grammatical analysis (and that applying a constituent tree is unnecessary), we are still far from an exhaustive characterization since we have looked only at the general syntagmatic relations between the words. We should at least consider grammatical relations (subject, object etc.) and of course also a paradigmatic analysis in terms of word classes, etc. These will be the topic of later paragraphs. However, first a serious attempt should be made at explaining why the arrows should go in the direction indicated. In other words, we are in need of a definition of head and dependent, and hence of criteria and tests to find the head of a phrase.
172
3.
III. Dependenz. Grundlagen und Grundfragen
Definition of head and dependent; criteria and tests
In most recent constituency based grammars, head status is assigned to certain elements. However, as Hudson (1993, 266) observes, we should distinguish between the simple presence of dependency in grammars and its essential status in sentence structure. In most mixed frameworks, the head is indicated indirectly, either by the constituent structure (ccommand, etc.) or by features. Langacker (1991, 144), however, comes closer to a more relevant notion: “a head is properly described as the profile determinant at a given level of constituency”. In his Cognitive Grammar, the head can be a word or a constituent or even an affix. Hudson (1993, 275) draws attention to a confusion that should be mentioned in the present context: According to constituency theory, a word is the head of its mother phrase, but for dependency theory it is the head of the words that depend on it. For example, consider the sentence He lives in London. If we ask ‘What is in the head of?’, we get two quite different answers according to whether we are assuming constituency or dependency theory: it is the head of in London in the first case, and of London in the second. Conversely, if we ask ‘What is the head of in London?’, the constituency answer is in, while the dependency answer is (speaking rather loosely) lives.
Needless to say, it will be the dependency answer that is used here since I will concentrate on grammars where dependency is the primary structuring principle. An attempt will be made to consider dependency in a general way, more or less independently of specific frameworks. A caveat should be launched here. In the last decade there has been a tendency in linguistic typology to treat so-called universal categories (word-classes, grammatical relations and even dependency) as language-specific. This is particularly clear in William Croft’s Radical Construction Grammar (cf. Croft 2001; see also Dryer 1997). In the case of dependency the debate on headedness, for example between Zwicky (1985) and Hudson (1987), or among German scholars (Heringer (1993), Engel (1991), Eichinger/Eroms (1995), etc.) has tended to centre on the English or German language (both of them Germanic languages!). As Corbett/Fraser/McGlashan (1993, 5) put it: “There is much scope for reexamination of the arguments and issues in the
context of other languages … the head of a given construction may change from language to language …”. On the other hand, this relativism of Corbett et al. is partly inspired by Cann (1993), who works in the Government and Binding framework, but, as said before, already the simple mixture of constituency and dependency appears to lead to divergent conclusions. Nonetheless, it is imperative to be cautious about crosslinguistic syntactic generalizations. Croft’s (2001) general solution for the ubiquitous diversity in syntactic structures is to start from some general semantic properties and to see how they can be applied to a fine-grained analysis of language-specific constructions. With these ideas in mind and the starting point that dependency is essentially a relation between words, I will attempt to define the dependency relation as generally as possible. For crosslinguistic purposes, I will deal first with the semantic nature of dependency. Afterwards, I will try to find out how this relates to syntactic structure. Here, I will again have to limit myself mainly to English examples for practical reasons. To come to grips with dependency, we should realize that it can be viewed from two angles. This becomes especially clear from the terminology used for the dependent. The terms dependent and subordinate suggest a passive status. Other terms, like operator, modifier, specifier and complement, refer to the active status of the dependent. On the other hand, the prominent status of the ‘head’ can be read from this very term; its passive status from terms like operand and modified. I will take into account this insight in the discussion of the semantic and the syntactic structure. The semantic and syntactic criteria will lead to a semantic-syntactic test to identify head and dependent, viz. the question-word test. Armed with these criteria and tests we may be able to cope with a few controversial dependency relations, such as [determiner ⫹ noun], [auxiliary ⫹ verb], [complementizer ⫹ finite verb]. 3.1. Semantic structure Let me first make clear that with ‘semantic structure’ I am not referring here to the opposition between functor (function) and argument. It has been argued by Hawkins (1983; 1984) that this dichotomy does not coincide with the head-dependent relation. What is more, the function-argument relation
18. The Dependency Concept and its Foundations
173
has appeared to be inadequate to capture crosslinguistic word order generalizations. Only the head-dependent relation seems capable of that to a certain extent (though see Hawkins 1990, 1993, 1994, and see below). I will now look at the defining semantic criterion of the head-dependent relation, keeping in mind the active and the passive side of it.
whole construction refers to a hyponym of what the head refers to. For instance, good friends is a kind or subtype of friends: good modifies friends; hence, the last one is the modified. To make the latter property more general and thus applicable to all constructions, including, e. g., the determiner-noun combination, we will have to make an adjustment. For instance, it does not make much sense to say that, e. g., this book refers to a kind of book, let alone a kind of this. Let us therefore widen the criterion as follows: the whole construction refers to an instance of what the model, i. e. the head, refers to, thereby applying Hudson’s paradigmatic notions instance and model (Hudson 1990, 35) to the syntagmatic dependency relation. In this way, we can much more easily accommodate the most diverse constructions, like e. g., knocking once, which we can now say refers to an ‘instance’ of knocking, not a ‘kind’. Likewise, we can now easily analyse NPs like one book, a book or the book as instances of ‘book’ (see also below).
a) On the active side of the head, we can hold that the head says what the composite concept of head plus dependent is about. The dependent is the accessory companion. Its occurrence depends on that of the more prominent, the superordinate element, i. e. the head. The head is semantically required, the dependent is optional. The term ‘head’ suggests this active status, while the term ‘dependent’ points to its passive status. Consider the phrase not very. The phrase very shows that the whole concept is about a degree. While the phrase very good tomatoes makes sense, *not good tomatoes does not and is even ungrammatical. Of course, it is still possible to say no good tomatoes, where no modifies good. But then something else is asserted. Mutatis mutandis, the same goes for the other phrases. For example, it is possible to say tomatoes with lettuce, but this is about tomatoes only, and not about taking tomatoes, as in (3a). The head creates a semantic syntagmatic slot that allows for specific semantic fillers. This is particularly clear in the case of verbs, since the verb (often polysemous) establishes which semantic roles can go together with it (see especially Tarvainen 1987). For instance, in the sentence Peter bought us a drink, the word Peter is the agent, a drink the patient, and us the beneficiary of the verb bought. b) On the passive side of the head, we can establish that it is modified by the dependent. Hence, terms like modifier, specifier, operator are used for the dependent, and modified or operand for the head. Indeed, it is common to state that the dependent modifies its head in a syntagmatic way, i. e. it makes the head into a subtype of a superordinate type. This squares well with Croft (2001) adopting the crosslinguistic semantic property of ‘modification’ (a notion well-established since the 18th century). According to Hudson (1990, 106) the essence of a head-dependent relation appears to lie in the fact that the
3.2. Syntactic structure On the syntactic side, the superordinate, prominent character of the head appears to be the most conspicuous element. Nevertheless, the dependent shows its active side as well, but the two sides are so much interwoven here that I will refrain from making a sharp distinction. As reflexes of the semantic criterion, several morphosyntactic criteria have to be mentioned. 1) Category constancy Vennemann (1973; 1974) introduced the criterion of ‘category constancy’. It says that the category of the head determines the category of the syntagm that results from adding a dependent to that head, so the whole syntagm has the same syntactic status as its head (but see Hawkins 1993). This was already implicit in the labeling of higher nodes in constituent structure. For instance, a verb phrase is a syntagm headed by a verb; a noun phrase is a syntagm headed by a noun, etc. This property of heads is closely related to the criterion that the head determines the external relations of the whole syntagm. 2) The head determines the external relations Hudson (1990, 106) states: “The external syntactic relations of C [a construction] are all due to the properties of H [the head]: C can
174
III. Dependenz. Grundlagen und Grundfragen
be used as it is used because H is the kind of word that allows this”, i. e. the head is the word which is ‘distributionally equivalent’ to the construction (Zwicky 1985; 1993, 297). It appears that ‘distributional’ may have to be interpreted as ‘functional’. For instance, the phrase not very good tomatoes in (3a) can act as a subject because the noun tomatoes can: (not very good) tomatoes were served. 3) The head is the obligatory companion In sentence (3b) it is possible to leave out the dependent with lettuce, but not tomatoes, compare: take tomatoes vs. *take with lettuce. However, we should be cautious about cases of ellipsis. As Zwicky (1993, 297) points out: With respect to its internal syntax, the Head is the required element in a construction, even an Argument ⫹ Head construction, ‘required’ in the special sense that without this element the construct is elliptical; the Verb Phrase turkey in I ate chicken, and Kim turkey is missing its Head Verb, and is grammatical but elliptical. A Dependent is syntactically ‘accessory’, in the sense that without a Dependent a construct is simply of a different type; the Verb Phrase walked in Kim walked lacks a Dependent, but is simply an intransitive, rather than an elliptical transitive.
Sometimes, the same syntactic pattern may allow or not for ellipsis according to its morphological characteristics. The Dutch pattern [adjective ⫹ noun] allows for ellipsis almost only if it contains an adjective that can have the ending -e, compare (4, with ending) and (5, without ending): (4)
Er zijn mooi-e popjes. / Er zijn mooi-e. ‘There are nice dolls.’ / ‘There are nice (ones).’
(5)
Er zijn houten popjes. / *Er zijn houten. ‘There are wooden dolls.’ / ‘There are wooden (ones).’
4) The head creates a valency structure The head creates a valency structure, i. e. it allows certain modifiers and not for others. As in the case of the semantic roles, this is particularly true of verbs. As Tesnie`re (1959) put it, a verb has some specific, lexical valents (actants, i. e. subject and complements) and some more general valents (circonstants, adjuncts). From the syntactic viewpoint, the verb bought in the sentence Peter bought us a drink has a subject slot filled by Peter, a direct object slot filled by a drink, and an indirect object slot filled by us. In principle, ad-
juncts (often adverbials) can be added to any verbal structure, as in: Yesterday, Peter bought us a drink in a restaurant. Other word-classes can show a lexical valency as well, e. g. adjectives. The (predicative) adjective worth has a subject and a complement, as in: This is worth it. In this valency criterion, a passive aspect can be discerned: the syntactic fillers determine the structure of the clause, albeit together with the verb. In this sense, we are to understand that the verb is the ‘subcategorizand’, i. e. it is subcategorized by its lexical valents. 5) The head is the governor As a consequence of the preceding property of heads that they are responsible for valency, the head governs its dependent, i. e. it determines the morphosyntactic form of its modifier. Again, this is especially clear in the case of verbs, but obtains for other wordclasses as well. For instance, the German verb helfen ‘to help’ takes the dative case, as in einem helfen [somebody-DAT help] ‘to help somebody’. The German preposition aus also takes a dative, as in aus einem Buch ‘from a book’. 6) The head is the morphosyntactic locus The head is the morphosyntactic locus, i. e. it is the element that exhibits morphosyntactic properties such as inflections belonging to the head-dependent chain as a whole. Thus, the head verb eats in the verb phrase eats fish in Kim eats fish exhibits in its suffix the present-tense property of the VP as well as the third person and singular number properties that belong to this phrase (Zwicky 1993, 298). N. B. We should ask the question here whether the head also determines agreement (concord). As Hudson (1987; 1993) argues, although “agreement generally involves a dependent and its head”, it is not a valid test for headship: Agreement does not tell us which of the linked elements is the head and which the dependent, in spite of the widely held assumption that the dependent always agrees with the head. Rather, I claim that the relevant generalization is much simpler than this: the element which determines the agreement is the one which is a noun, because this is generally the one whose semantics and syntax fix the values concerned. For example, in They are coming, the plurality of the subject is fixed by its meaning, so
18. The Dependency Concept and its Foundations
175
it determines the number of the verb, rather than vice versa. (Hudson 1993, 290⫺291)
Note that in the above cases, it is impossible to substitute the head for any WH-word in a normal question. For example, replacing the head in (6a, b, d) would yield the ungrammatical sentences: *What Kevin Ann?, *What Kevin stopped? and *What Paris does she live? respectively. This turns the questionword test into an easy means for identifying the head in a given dependency pair. That not every case can be accounted for in terms of the WH-test is illustrated by the impossibility to replace the negation not by a WH-word (see also below). But here, we could use the criterion of obligatoriness. Above, it was already indicated that in the phrase not very good tomatoes we can leave out not, but its head very must remain, compare: very good tomatoes vs. *not good tomatoes.
Indeed, according to other tests (e. g. the WH-test, see below), the subject is not the head of the accompanying verb. 3.3. The question-word test (WH-test) The above semantic and syntactic characterization can provide us with a semantic-syntactic test: the question-word test (WH-test). Since a dependent element is supposed to modify or specify its head, it must be possible, in a given head-dependent pair, to replace the dependent, but not the head, by an appropriate question-word. Disregarding echo-questions (where everything is possible) and sticking to normal WH-questions consisting of one clause, we can apply this test in prototypical and even in more marginal cases (probably in most languages). In other words, if in a normal question-word sentence the replacement of some companion or other by a WH-word yields an acceptable sentence, this companion will be a dependent, i. e. a word that modifies another. By contrast, the companion that resists such a WH-question formation will be the head. To be able to apply this criterion more generally, we may sometimes have to use an attributive WH-word accompanied by a general term instead of a simple WH-word (as in 6b, d, e, f, j). Here are some examples (where the dependents have been italicized): (6)
a. b. c. d. e. f. g. h. i. j.
Kevin loved Ann. ⬍ Kevin has stopped. ⬍ She lives in Paris. ⬍ in Paris ⬍ good books ⬍ few pages ⬍ some girl ⬍ this distance ⬍ that far ⬍ years ago ⬍
3.4. Some controversial dependency relations In the following I would like to go into a few controversial dependency relations, such as: [auxiliary ⫹ verb], [determiner ⫹ noun], [complementizer ⫹ finite verb], asyndeton, apposition and coordination. 1) Auxiliary ⫹ Verb Ever since Pullum and Wilson (1977), at least conjugated (tensed) auxiliaries have tended to be considered as real verbs that have the so-called main verb (infinitive or past partici-
Who loved Ann? What has Kevin done? Where does she live? In what city (does she live)? What kind of books (does she read)? How many pages (have you written)? What girl (did you see)? What distance (did he cover)? How far (did she go)? How long ago (did it happen)?
To achieve uniformity, we could generalize the insertion of a general term to the other phrases, e. g. for (6a) we could put the question: ‘Which person loved which person?’. A good heuristic is to work bottom-up, i. e. to start from the smaller phrases to end up with the whole clause. For instance, first we ask the question in what city?, answered with in Paris; only then should we ask where does she live?, answered with she lives in Paris, and so on.
ple) as their complement, and not vice-versa. Indeed, the authors’ evidence is corroborated by the WH-test, which equally indicates that the auxiliary is the head; compare (6b) Kevin has stopped ⬍ what has Kevin done? Zwicky (1993, 305) argues that for combinations of an auxiliary verb with a complement verb phrase, the characteristics of the head are split between specifier and specified. However, let us look at his arguments. He agrees that auxiliaries are morphosyntactic
176
III. Dependenz. Grundlagen und Grundfragen
loci (of tense, person and number), and certainly government triggers, since each auxiliary requires a particular verb form as its complement (infinitive, present participle or past participle). According to a few other criteria the picture is claimed to be different. Zwicky (1993, 304) claims that the meaning of will sing is a subtype of the meaning of sing. But it is not inconceivable to argue the opposite, i. e. that the whole phrase is about a future situation. Zwicky also claims that auxiliaries are not ‘required’: “for the most part, English clauses do not have to have an auxiliary to be well formed (though there are special clause types, like the inverted type in Do you love me?, that do)”. In my view, this is a fallacious argument. What is relevant is not the fact that in many clauses there are no auxiliaries, but rather that they cannot be omitted in the constructions in which they figure. Although in English this may not be so clear because of its poor morphology, there are enough cases where it obtains, compare: She has given me this vs. *She given me this. Zwicky (1993, 304) also contends that auxiliaries are not external representatives: The distribution of a Verb Phrase like must rain a lot in Seattle or is raining here is predictable not from the properties of modal must or progressive be, but from the properties of their Complements, both of which have the weather verb rain as their Head.
No example of an external property is given here. However, it seems to me that both of these VPs can be turned into a subordinate clause thanks to the very presence of the auxiliaries, compare: (7)
a. It is obvious that it must rain … / is raining here. b. *It is obvious that it rain … / raining here.
It seems that many of the objections raised by Zwicky come from the fact that he uses such unnecessary concepts as functor and functee, and also that he argues the dependent is a whole phrase rather than a word. Last but not least, he does not always take into account relevant differences between constructions. 2) Determiner ⫹ Noun [D ⫹ N] As to the pair [D ⫹ N] I should point out first that according to Dryer (1992) the category of determiner is far from universal.
First, most languages have no articles. Second, where they exist, they cannot always be accommodated in the same paradigm as demonstratives, possessives, etc. Even in Indo-European languages this may be the case. Italian has structures like la mia mamma ‘(the) my mommy’. In Swedish the definite article may be suffixed, as in flicka-n ‘the girl’. If a noun is accompanied by an adjective, the suffix is preserved, but another article with word status is preposed, as in: den stora flicka-n ‘the big girl’. Indeed, crosslinguistically, articles tend to show a different ordering behaviour than demonstratives (Dryer 1992). So what I will say about determiners is valid essentially for [demonstrative ⫹ noun]. Only in languages like English can it be applied to the whole determiner category. Abney (1987) was the starting-point for the so-called DP analysis; i. e. instead of speaking of NPs, Abney claimed we should speak of determiner phrases (DPs) since the determiner was the head in the phrase [determiner ⫹ noun]. Ever since, this has remained a moot point. The thesis that determiners are heads in this pattern was put forward, among others, by Corver (1990), Hudson (1990) and Hewson (1991). Eroms (1985, 316; 1988) also seems to be in favour of this idea, but after some discussion, prefers to regard the article as a kind of prefix (Wortteil ⫽ ‘part of a word’). A reaction to such claims is to be found in Coppen (1991), Van Langendonck (1993; 1994), and a number of other works. Applying the WH-test to [demonstrative ⫹ noun] results in a question where only replacing the demonstrative with a WH-word yields a well-formed interrogative sentence, as in: (6h) this distance ⬍ what distance (did he cover)? Thus, this distance is an instance of distance. By contrast, it remains hard to see how we could look upon the referents of phrases like these and also others like one book, a book, the book as instances of this, one, a and the respectively. According to this criterion, in a [D ⫹ N] pair, N is to be regarded as the head, not as the modifier, i. e. not as the complement of D. Hudson (1990, 271) exploits the criterion of external syntactic relations in respect of determiners: “The determiner is the locus of many properties which are crucial to the whole phrase’s distribution ⫺ negation (no student), …, definiteness, number (these students, some sheep), distributivity (every student)”. However, this is not obvious. Take,
177
18. The Dependency Concept and its Foundations
for example, every. I cannot say *They distributed every street, but it is fine to say They distributed every book, because individual copies of a book can be made, so the noun seems to determine the combinability with the verb distribute rather than the quantifier. As to negation, if the negative particle were the head of the NP, why then not in not enough or in no different? But few may want to go that far. Finally, it is not clear why the ‘wh-ness’ of certain determiners is not deemed relevant to headship. In connection with NPs, it is worthwhile to look at proper names, an often neglected source of evidence. With proper names, definiteness and number (singularity) are inherent, and hence, determiners are rather marginal: the prototypical proper name even lacks an article; possible determiners are either fixed or optional, depending on the subclass of the proper noun; moreover, only a limited number of determiners is allowed (unless the name is appellativized as in another John, cf. Van Langendonck 1999): (8)
London, (that) (stupid) John, the Sahara (vs. this hell of a Sahara), It. la Callas, Germ. (der) Johann, etc.
This strongly suggests that the proper name lexeme and not the determiner is the head of the proper name phrase. If we want to save the criterion of external relations, it seems to me we should rather look at phenomena that relate to what we normally call valency, viz. the relation of the phrase, and thus of the head, to grammatical functions and the like: how does the putative head relate to subject, complement and adjunct valency, to genitivization, to vocativization, etc.? I take one example: genitivization (and refer for the others to Van Langendonck 1994). It is interesting to see that in both English and Dutch the ’s genitive is made possible by the noun, not by the determiner, because even used substantively, the determiner cannot take ’s (though some inherently substantive pronouns can), compare: (9)
a. those women’s boyfriends, any men’s money b. women’s boyfriends, men’s money c. *those’s (women) boyfriends, *any’s (men) money d. mijn moeders jurk ‘my mother’s dress’ e. moeders jurk ‘mother’s dress’
f. *dezes jurk ‘this one’s dress’ g. ieders gebreken, everybody’s faults, anybody’s money This again indicates that the noun acts as head of the combination [D ⫹ N] (see also Payne 1993, and below). Finally, the similarity between [D ⫹ N] and [Aux ⫹ V], adduced by Hudson (1990, 271; Zwicky 1993, 305⫺306) is far from obvious. It is true there is a similarity that resides in the ‘grounding’ function of determiner and auxiliary (cf. Langacker 1991, chapter 3): the determiner grounds the referent in spatial proximity to the speaker, the auxiliary grounds the event in temporal proximity to the speaker. However, according to Davidse (1997, 415) the grounding of the clause also depends on the subject. Indeed, both (definite) determiners and (definite) subject NPs are grounding elements and can be topical. So it seems there is a greater similarity between [determiner ⫹ noun] and [subject ⫹ verb]. This is corroborated by the comparison of sentences with their nominalization, compare: They destroyed the city with their destruction of the city. 3) Complementizer ⫹ Finite Verb Subordinating conjunctions can be simple functional complementizers like that or they can have lexical content like because, since, etc. In terms of dependency they have in common that they have a finite verb as complement. A similar situation is found with adpositions: they may be purely functional (as in certain uses of of) or they may be lexical (as in before, after). Obviously, there is some semantic similarity between them. Many words can be used both as preposition and as subordinating conjunction, e. g.: (10) a. Before/After her arrival (she was poor). b. Before/After she arrived (she was poor). In both cases the main idea concerns a temporal sequence (from when to when?). Therefore, if we recognize the adposition as the head of a PP (cf. Zwicky 1993, 306), there is no reason not to do so for the subordinating conjunction. The WH-test confirms this. For both before/after-sentences we can set up the question: before/after what time was she poor? Already Jackendoff (1973) argued convincingly that subordinating conjunctions and
178
III. Dependenz. Grundlagen und Grundfragen
prepositions form a single grammatical category (see also Vincent 1993, 163). Crosslinguistically, adpositions, complementizers and subordinating conjunctions behave in the same way as verbs concerning the order of the accompanying complement (Dryer 1992). Hence, there is no reason to consider constructions such as in (10) exocentric, let alone to treat the adposition or the conjunction as the modifier. 4) Asyndeton, apposition and coordination In constructions like asyndeton and loose apposition there is no reason to see any dependency since an asymmetric relationship is lacking. Therefore, we can use the device of companionship, as in:
(13) a. [[John] and [Peter or Mary]] (will do it). b. [[John and Peter] or [Mary]] (will do it). Indeed, the WH-test suggests there is no dependency involved here since no normal question-word formation concerning the conjunction appears to be possible. A solution to the problem of (at least) sentential coordination is proposed by Eroms (1985, 310) for German. He introduces a sentential marker that heads the finite verb, or as in (14), the modal adverbial or negation. This sentential marker is equated with the punctuation mark (assertion, question, imperative) and is considered a word-equivalent. If a coordinating conjunction precedes, it heads this sentential marker, e. g.:
(14) denn ¿˙ S ¿˙ vermutlich ¿˙ ist ¿˙ das (richtig) for S presumably is that (right) For, presumably, this is right. (11) Veni, vidi, vici. (12) Johnson, the doctor / the doctor, Johnson The case of close apposition seems to be a moot point. In patterns like the City of London it seems plausible to look upon City as the head of of, and of as the head of London, although not much sense is to be found in this use of of. For this pattern and for the pattern the poet Burns the WH-test indicates the apposition as dependent, compare: ‘What city / What poet are you talking about?’ Things become more difficult where no article is present, as in: President Bush. According to the obligatoriness criterion Bush should be the head, but this contradicts the WH-test (‘what president?’; *‘what Bush?’). A solution could be to consider close appositional structures as headless, just like loose appositional structures. We cannot go into this any further here. Coordination is a moot point as well. Hudson (1984, 211⫺240) argued in favour of applying phrase structure in the case of coordination. This distinguishes it clearly from subordination, where dependency is relevant. Moreover, it appears to have certain advantages for the analysis of sentences. The main reason for adopting a kind of constituent structure for coordination lies in the fact that such strings as John and Peter or Mary (will do it) are ambiguous. This ambiguity can be removed only by bracketing, compare:
This seems to solve at least two problems: first, we can entirely dispense with constituency; second, we get rid of the problem of sentence adverbials (modals), which seem to modify a whole clause, an undesirable situation in a dependency framework (see also below). A problem with Eroms’ analysis is that it is hard to be falsified: the above criteria can hardly be applied, although the word-equivalent ‘S’ is not an empty category since ‘S’ is a kind of intonation morpheme, a suprasegmental sign (cf. also Eroms 2000). Further, it is unclear to me how the ambiguity in such NPs as in (13) should be solved in Eroms’ analysis. So it seems that coordination must continue to be treated in terms of constituency.
4.
Arguments for heads at sentence level
It will be clear from the above that the notion ‘head’ is an essential category in syntax (and semantics) since it brings together a number of phenomena as described above: modification, hyponymy, subordination, category constancy, valency, government, subcategorization, morphosyntactic locus, etc. This in itself provides us already with an argument for the establishment of ‘head’ as a valid grammatical concept. In the following, I would like to focus on valency, i. e. grammatical relations, and some
18. The Dependency Concept and its Foundations
179
other phenomena that can be accommodated by a dependency theory, i. e. a theory that takes heads seriously at sentence level. Word order can partly be accounted for by dependency. I will also point out that, in certain essential respects, dependency exhibits more psychological reality than constituency and is better suited for the analysis of early child language.
We can distinguish two major subclasses of relator: coordinative and subordinative relators. The latter further subdivide into predicative and non-predicative relators. Coordinative relators include coordinating conjunctions, as in John and Mary. Predicative relators are verbs and other predicates, as in John loves Mary. Non-predicative relators include adpositions (pre- or postpositions), subordinating conjunctions and certain particles, such as the comparative particle than. Note that in Eroms’ (1985) framework both subordinating and coordinating conjunctions would be relators with a complement, so all relator constructions could then be regarded as subordinating. Usually, only non-predicative relators are explicitly recognized as relators, but in my view it is important to broaden the definition of relator so as to include the three categories mentioned (coordinative, predicative and non-predicative relators; compare Eroms 1985, 319, mentioning only prepositions as ‘semantic relators’).
4.1. Grammatical relations In a dependency grammar, grammatical relations can be considered as a specific kind of dependents. On the syntactic side, we can accommodate subjects, complements (objects etc.) and adjuncts as syntactic dependents. On the semantic side, we find semantic roles like agent and patient, etc., as semantic dependents. On the basis of English syntax, the X-bar analysis (Government and Binding) introduced another relation, that of ‘specifier’. However, as Hudson (1993, 290) points out, this notion is unclear and ill-defined in GB theory. For some, the typical specifier is a degree expression, for others the subject. For Chomsky (1986, 3) the subject is the specifier of the VP, for others it is the aspectual auxiliary or even the ‘floated’ quantifier all. 4.1.1. Relators In my view, the notion of specifier (or: attribute) need not be removed from the grammar provided we introduce the category of ‘relator’, but in such a way that verbs (with complements) are included into the relator constructions. A relator can be defined as a free or bound morpheme that has basically two syntagmatic slots (relata) in its semantic-syntactic structure such that the relator defines a specific semantic-syntactic relation between the two relata. The first relatum is more prominent pragmatically; it is also more general in nature, has a freer position in the sentence and can sometimes be dropped. The second relatum is usually syntactically obligatory and has a fixed position because it has a tighter semantic-syntactic bond with its relator (Van Langendonck/Swiggers/Van de Velde, to appear). For example, in a sentence like John is in London, where the preposition in is the relator, John the first relatum and London the second, London has a fixed position immediately after in, whereas John does not immediately precede the preposition.
(15) John and Mary (16) John loves Mary. (17) The girl (is) in the garden. What is important in the present context is the subordinative relators. The two relata of subordinative relators are hardly interchangeable because of the clearly asymmetric relationship between the two. Especially with predicative relators, the first relatum is more prominent in the unmarked situation. I distinguish two types of subordinative relators. With predicative relators, which are mostly verbs, the first relatum functions as the subject of the verb. With non-predicative relators the first relatum is either the relator’s head or the subject of the predicate of a clause. In both types, the second relatum has a tighter bond with its relator. In my view, it functions as a complement and is hardly omissible. I would like to go one step further here, claiming that a complement is the second relatum in a subordinative relator construction. Examples of non-predicative relators are to be found in (18): In (18a) the preposition in heads its object (the) garden. In (18b) the preposition before heads its object (his) departure. In (18c) the subordinating conjunction before heads its complement (he) left. In (18d) the comparative particle than heads its object Alice. The first relatum is either the relator’s head (18a,
180
III. Dependenz. Grundlagen und Grundfragen
b, c: girl, excitement, did ) or the subject of the clause’s predicate, as in the comparative sentence (18d: Kevin):
changes: adpositions without an object are called adverbs, e. g., before in She did it before.
(18) a. the girl in the garden 1st Rum Ror 2nd Rum b. the excitement before his departure 1st Rum Ror 2nd Rum c. He did it before he left. 1st Rum Ror 2nd Rum d. Kevin is taller than Alice. 1st Rum Ror 2nd Rum
4.1.2. Adjuncts and attributes; subjects Having defined complements as the second relata of subordinative relator constructions, we can now define adjuncts and attributes (specifiers), and also subjects. Except for relata, relator heads can have other modifiers; these can be seen as adjuncts. As is well-known, it is especially verbs that have adjuncts (adverbials); but other relator heads can have adjuncts as well, e. g. just is not a relatum, but an adjunct of the preposition before in the pattern just before dinner (see also Eroms 1985, 319). As is also well-known, it is not always easy to distinguish adjuncts from complements (cf. especially discussions in German works on dependency; compare also Hudson 1990, 232⫺ 238). For instance, manner adverbs and certain adpositional modifiers of verbs seem to occupy an intermediate position in between complements and adjuncts. Attributes (specifiers) can now be defined as dependents of words that are not relators, as in the following English patterns, which display the order attribute-before-head, e. g.:
A predicative relator has the subject of the predicate as its first relatum and (again) a complement as its 2nd relatum. In case a verb has several complements, we have to do with more than one ‘second’ relatum (cf. 19a). The prototype of a predicative relator is a transitive verb. Predicative relators refer to all sorts of verbal categories (including auxiliaries, modal verbs and copulas), as well as predicative adjectives as in She (is) worth it. As 2nd relata of main verbs we consider not only direct objects as in (16), but, for instance, also indirect objects (19a) and prepositional objects (19b): (19) a. It cost me that. b. She looked after him.
(21) determiner ⬍ noun: predeterminer ⬍ demonstrative: numeral ⬍ noun: adjective ⬍ noun: family name modifier ⬍ noun: nominal modifier ⬍ noun adverb ⬍ adjective: adverb ⬍ adverb: compounds: Auxiliaries and modal verbs have another verb as their complement, as in: (20) a. Mary has arrived. b. Ann must go. where to have displays its participial complement, and must its infinitive complement. We can conclude that not only transitive, but also intransitive verbs are relators provided they have a complement. Even a verb such as to rain can have a so-called internal object, as in: It’s raining cats and dogs. Still, it is possible that some verb or other lacks any complement, and hence, is no relator. The same situation obtains for adpositions, but in this case the terminology
that town all those three plants nice girl, red cap the Everard Brothers a London shop extremely intelligent very well, not quite broomstick, furniture shop
That the pattern [adjective ⫹ noun] figures among the non-relator constructions, contradicts Langacker’s (1987, 216) claim that adjectives are ‘relational’. In my view, they do not function as relators since they do not combine two relata. Kleiber (1993, 121) levels a similar criticism, observing that the socalled landmark is never expressed here. Indeed, why should we posit categories that are always empty? At least in this case, there seems to be no reason for that. The subject, finally, cannot be seen as an attribute (specifier) since it is the first relatum of a verb. In contrast with other first relata, the subject depends on its relator instead of heading it, compare:
181
18. The Dependency Concept and its Foundations
(22) John loves Mary. vs. somebody from London Indeed, it should not come as a surprise that the subject must be seen as a special kind of dependent of the verb, as is also evident from its other characteristics. 4.2. Word order The fact that there is no direct connection between dependency and word order, appears to be an advantage. When we look at languages with less fixed word order, this becomes obvious. Consider the following Latin sentence from Vergil (Michael Covington, http://www.ims.uni-stuttgart.de/⬃nobi/compl ing/dg-faq.html):
much less to poetic utterances, especially in languages with cases, where the role of syntax is reduced. ii) In his earlier work, Hawkins (1983; 1984) was arguing that languages display cross-category harmony based on the ordering of head and dependent. This is true of a number of languages. Japanese, Turkish and Tamil are examples of the basic order modifier-before-head, while others show the reverse order: Welsh, Tagalog, and quite a few Semitic and African languages show head-beforemodifier as their unmarked order. However, Dryer (1992) found that there is a significant correlation between the basic order of verb ⫹ object, verb ⫹ subject, adposition ⫹ object, copula ⫹ verb, want ⫹ VP, tense/aspect auxiliary verb ⫹ VP, complementizer ⫹ S, adverbial subordinator ⫹ S,
(23) ultima Cumaei venit iam carminis aetas last (nom.) Cumean (gen.) has-come now song (gen.) era (nom.) Since in almost all constituent frameworks the tree at once indicates word order it would be hard to impose a constituent tree on this sentence, in which the phrases (NPs in this case) have been torn apart. In a dependency framework, serialization rules must be formulated in a separate component. This, however, does not prevent dependency from being relevant to word order. Languages can and mostly do exploit dependency to order their meaningful elements, especially in unmarked syntactic structures. There are at least two principles that link word order to dependency: the adjacency of head and dependent, and the placement of the dependent with respect to its head. i) Simple adjacency (Hudson 1984, 98 ff.) (or: principle of head proximity, Rijkhoff 1992, 229) is the principle according to which a modifier is put as close as possible to its head. For instance, objects tend to accompany the verb they depend on, adjectives the governing noun. Of course, the modifier may be separated from its head by other modifiers of the same head, compare: (24) She liked those three nice little wooden dolls. where the modifiers of the noun dolls are as close as possible to the noun. As one will have gathered from example sentence (23) the adjacency principle applies
noun ⫹ genitive, noun ⫹ relative clause, adjective ⫹ standard of comparison, verb ⫹ PP, verb ⫹ manner adverb, and a few marginal constructions. By contrast, he did not find any correlation between the order of verb ⫹ object and the order of other pairs like: adjective ⫹ noun, demonstrative ⫹ noun, intensifier ⫹ adjective, negative particle ⫹ verb. One of several possible explanations for this crosslinguistic word order split was formulated by Dryer (1992, 106) as the Head Complement Theory (HCT): Verb patterners are heads and object patterners are complements. That is, a pair of elements X and Y will employ the order XY significantly more often among VO languages than among OV languages if and only if X is a head and Y is a complement.
As Dryer argues, at first glance, complements look like the right subclass of the class of dependents to account for the data: none of the dependents in the noncorrelation pairs is a complement: “all of them ⫺ adjectives, demonstratives, intensifiers, negative particles, and tense/aspect particles ⫺ are attributes or adjuncts” (Dryer 1992, 106). By contrast, the object patterners of the correlation pairs seem to be complements. In Dryer’s view, not all of the purported complements appear to exhibit real complement status: manner adverbs, adpositional modifiers of verbs, standards of comparatives, relative clauses. The status of the genitive is considered unclear.
182 As to comparatives and relative clauses, an important point should be made. According to Dryer (1992), neither the comparative marker (Eng. than) nor the relative pronoun (Eng. who, that, which) are deemed essential. The comparative marker is even ignored explicitly (p. 92, 108). However, it is obvious that both comparative and relative markers have complements, but not the comparative adjective and the antecedent of relatives. The main problem remaining for the HCT is the placement of the subject. However, in view of the preceding discussion on kinds of dependent, it becomes relatively easy to accommodate the basic order of languages like English. Languages like English display the canonical order of ‘relator in the middle’ in relator constructions (at least those in which the relator has word status). As a general principle we find it already in Dik (1983, 274): “the preferred position of a Relator is in between its two relata” (but note that Dik did not include the verb in his list of relators). In other patterns English shows modifier-before-head, i. e. attributebefore-head, as was exemplified already in (21). Adjuncts of verbs are freer in their positioning; they may join complements (as do manner adverbs and sometimes adpositional modifiers and other adverbial phrases), or they may be put at the beginning of sentences as scene-setters (many adverbial phrases), or they may directly precede a verb, as in: The postman always rings twice. Hudson (1993, 271) wonders whether there would be any languages in which all adjuncts consistently follow their heads and all complements precede theirs. In view of the gradual transition of complements into adjuncts (see above), this seems unlikely. As to the subject, it is the first relatum of the verb, and therefore, it is to be expected that it precedes so we get the canonical order SVO. As to the genitive in English: the Saxon genitive precedes the noun since it is a determiner (e. g. Mary’s clothes); the prepositional genitive follows the noun since we have a relator construction with the prepositional relator in the middle (e. g. the corner of the table). The treatment of English as a head-beforemodifier language (see especially Hudson 1984; 1990; 1993, 270) leaves unexplained why so many patterns do show modifier-before-head. By contrast, if we start from the order modifier-before-head as the default (cf. 21), the order of other basic patterns can be
III. Dependenz. Grundlagen und Grundfragen
explained by the principle ‘relator in the middle’. The head-first phenomenon can then be seen as a side-effect of the fact that this iconic principle automatically leads to the head-first order except for the subject (see the sentences in 22). The head-first thesis has also been inspired by the fact that relator constructions yield a lot of patterns thanks to the verb’s acting as a relator. However, frequency should not automatically be an indication of default order. Explanatory adequacy should have priority. Indeed, there must be an explanation for the great crosslinguistic split discovered by Dryer (1988; 1992). This has been provided here by distinguishing between complements and attributes, whereby complements form part of a relator construction. In languages like English, the principle of ‘relator in the middle’ appears to be relevant. For languages like Dutch, a similar explanation can be given, with the proviso that it is not as pure a relator language as English: verbs have still their complements in front of them, except the finite verb in the main clause (see Van Langendonck/Hudson 1985). Something similar could be said about German. It may be interesting to note that the situation in English (and partly Dutch and German) is not the only possible split. There are languages in which things seem to be reversed: modifier-before-head in relator constructions and head-before-modifier in attribute patterns. For instance, we have SOV and postpositions, but noun-adjective and noun-genitive in unrelated languages like Galla (East-Cushitic) and Aranda (Australia) (source: Hawkins 1983). Dryer’s (1992) explanation of the great split in terms of his Branching Direction Theory is based on constituency, but appears to be flawed in a number of respects (cf. Van Langendonck/Swiggers/Van de Velde, forthcoming). Finally, the question can be raised in how far the dependency model is compatible with parsing models. Naturally, there will be no problem with parsing models that were set up in view of a dependency framework, like Fraser (1993). Hawkins (1994) abandoned his earlier ideas on the relation between word order and dependency and replaced them by his Performance Theory. This theory is based on the EIC (Early Immediate Constituents) Principle, which states that languages prefer the word order that allows the hearer to recog-
18. The Dependency Concept and its Foundations
183
nize the Immediate Constituents of a Mother Node as early as possible. The word early appears to be a bit misleading here, since EIC predicts that the Immediate Constituents of a sentence in left-branching languages such as Japanese should be recognized as far to the end of the sentence as possible. It would be more accurate to say that the Immediate Constituents of a Mother Node should be recognizable in a series of as few adjacent words as possible. Anyway, the human parser recognizes Immediate Constituents by means of Mother Node Constructing Categories (MNCCs): words that uniquely determine a phrasal Mother Node. Hawkins argues that all categories that are called heads in Standard Theory are also MNCCs, but that not all MNCCs are necessarily heads. Thus, an NP in English can contain two MNCCs: the Noun and the Determiner, although only the Noun is the head (in the traditional view). Hawkins concludes that his theory is compatible with different approaches to heads, but that it could also do without heads. As for the possible use of heads as the grammatical basis in a performance model a` la Hawkins, I want to join Michael A. Covington’s comment (1999, 810⫺811), who wonders in his review:
which Mary put the cup into which I poured the tea. In view of GB’s use of extraction and empty categories to analyse such a sentence it should be a hard task for the hearer to process it. However, this is not the case (Pickering/Barry 1991, 244; Hudson 1993, 281). By contrast, Hudson’s Word Grammar analysis of this sentence in terms of dependency does not contain such devices and predicts the relative ease with which it is processed. Hudson (1993, 283⫺288) also provides evidence “that the extra phrasal nodes which GB assumes are psychologically implausible”. For instance, the extra VP mother nodes required to account for adjuncts in fairly simple sentences like I saw her yesterday at UCL pose a problem for GB as to the psychological reality of such nodes. Indeed, “at the point where the hearer has heard just the first three words, I saw her, there is no reason to assume more than one VP node (i. e. for an adjunct [WVL]), so the structure is like this” (p. 284):
Given the importance of heads, I would like to see how well the whole theory works when recast into dependency grammar. There, early immediate constituents would become early dependents, and inference of mother nodes would partly disappear and partly become prediction of heads.
I conclude that Hawkins’ principle seems to account for limitations on possible orderings of meaningful elements. However, it does not account for everything, for instance not for word orders that exemplify the great split (Dryer 1992), like English. 4.3. The psychological reality of constituency theories as compared to pure dependency frameworks In dependency theory there is no need to distinguish so-called ‘empty categories’, as we find in constituency theories like Government and Binding. In itself it is not wrong to assume empty categories. However, Hudson (1993, 275⫺283) argues that this practice leads to wrong predictions as to memory(over)load and processing difficulties. Consider the sentence Jane opened the cupboard in which Bill left the box from which Sue took the tray upon which John placed the saucer on
(25)
S
VP
NP
I
V
NP
saw
her
However, each time an extra VP node is added, the relations between V and S are changed: at first they are separated by just one VP, then by two (because of the addition of the adjunct yesterday) and finally by three (because of the addition of the adjunct at UCL). As Hudson claims, these revisions in the shape of the tree ought to be problematic for a hearer, but obviously they are not at all for a native speaker. 4.4. Constituency and dependency in child language Constituents appear to get still more in the way in child language. Indeed, children normally start their acquisition with ‘one word at a time’. Syntax begins with two words. Many such word combinations can be analysed in dependency terms; others only in terms of companionship because the utterance seems to be incomplete. Often they are ambiguous, as Bloom’s (1970) famous exam-
184
III. Dependenz. Grundlagen und Grundfragen
ple Mommy sock, which at one time meant ‘Mommy puts sock on’, at another ‘I collect Mommy’s sock’. Bloom therefore made different tree structures to distinguish the two readings. This appeared to be an improvement on so-called Pivot Grammar, which did not take meaning into account at all. However, soon it turned out that Bloom’s solution was psychologically unreal since a simple structure like Mommy sock had to receive the same tree diagram as, e. g., the more elaborate Mommy puts sock on of a later state of acquisition. What made things worse was that for the simple two-word utterance more operations (deletions) were necessary than for the elaborate sentence, which did not need any deletions. So it seemed that transformations and phrase structure itself got in the way. Nowadays, transformations have mostly been done away with, but phrase structure remained, enriched by traces, empty categories, pro-forms and the like. Pinker (1984) still works with a kind of phrase structure (Lexical Functional Grammar), although he does not insist on any particular framework. Thus, it seems that the problems that Hudson (1993) raised in connection with constituent structure and empty categories in adult language come back in child language and are even more problematic here. Two-word sentences in child language can be handled by companionship or by dependency. If there are two nouns, as in Mommy sock, there will be simple companionship. In other cases, e. g., in make house, there will be a dependency link from the verb to the noun. It is obvious here that syntax and semantics are not in step, but this has to be remedied in a semantic-pragmatic component. That dependency can play an important part in determining word order in child language as well, was indicated in a study on two-word utterances in Dutch, where dependency chains systematically showed the order modifier-before-head (cf. Van Langendonck 1987).
5.
Special constructions
To further corroborate the case for a dependency approach, I will adduce a few constructions discussed in constituent grammars, such as raising, relative clause formation and serial verbs, and attempt to analyse them in a dependency approach that has been somewhat enriched with respect to the classical theory.
Every dependency framework recognizes the fact that a head can have more than one dependent, as in the phrase those three nice little wooden dolls. By contrast, classical dependency theory does not accept the thesis that a word may have more than one head (modifier sharing). Neither does it allow interdependence. For Hudson (1990, 113⫺120; 1993, 274) both are, however, a necessity in order to account for complications in syntax that go by such well-known names as raising, equi-NP-deletion, extraction, extraposition, and relative clause formation. I will exemplify ‘modifier sharing’ with a case of raising, and interdependence with relative clause formation. On the other hand, I will adduce another complication, which is less known, viz. serial verbs. i) Raising and modifier sharing The problem of ‘raising’ can be solved by adopting modifier sharing. For instance, in the case of subject raising the subject will depend on two predicates, as in the sentence He kept talking (Hudson 1993, 274), where He depends on both kept and talking:
(26) He
kept
talking.
Note that this is not saying that a phrase can have two heads, since He belongs to two different phrases, one headed by kept and the other headed by talking. By contrast, Croft (2001), working in a constituency framework (Radical Construction Grammar) argues in favour of the thesis that phrases have two heads, e. g. in a VP both the auxiliary and the main verb head the VP. This analysis has at least the disadvantage that it becomes impossible to use dependency for word order. Payne (1993) argues against the multi-head hypothesis of noun-phrase structure, and in favour of a model in which the noun is the unique head, and determiners, numerals, adjectives and possessor phrases are all modifiers of that head. ii) Relative clause formation and interdependence In the case of relative clause formation there is not only modifier sharing but also interdependence, e. g., in the phrase men who(m) I
18. The Dependency Concept and its Foundations
185
like (I omitted the arrow that should go from the verb like to its subject I ):
In sentence (29⫽31) the subject Kofi depends on de, whereas aburow depends on de as object and at the same time on gu as subject; this verb gu has another modifier nsum:
(27) men
(31) Kofi
who(m)
I
like
First, the relative pronoun who(m) depends on both its antecedent men and the verb like. Second, there seems to be an interdependence between who(m) and like. However, this should be understood in the sense that who(m) depends on like as its object but also functions as a subordinator of this finite verb (cf. Hudson 1984; 1990). iii) Serial verbs Serial verb constructions occur in a number of languages and are notoriously difficult to analyse (for a recent account in the Principles and Parameters framework see Stewart 2001). I will attempt to analyse a couple of them with the help of companionship and modifier sharing. In serial verb constructions, a series of closely related events that form a unity is expressed by a corresponding juxtaposition of the verbs indicating the events. Consider the following sentences from Akan (from Schachter 1974, 254): (28) Kofi kcce baae. Kofi went came Kofi went and came back. where Kofi’s going precedes his coming back. (29) Kofi de aburow gu nsum. Kofi takes corn flows water-in Kofi pours corn into the water. where the action of taking causes the flowing to happen. The above serial verb constructions can be analysed by using companionship, dependency with modifier sharing, and the iconic ordering principle formulated by Greenberg (1966, 103) as follows: “the order of elements in language parallels that in physical experience or the order of knowledge”. The verbs can be linked by simple companionship (line underneath); their order reflects the order of events in time, as in the case of asyndeton. In addition, however, in sentence (28⫽30) the subject Kofi depends on both verbs at the same time: (30) Kofi k e baae
de
aburow
gu
nsum
Note that 28/30 shows a merely temporal sequence, but 29/31 a causal (resultative) sequence.
6.
Conclusion
In this overview, I attempted to define dependency between words in semantic as well as syntactic terms (for a very brief overview of dependency theory see Fraser (1994)). The active and the passive aspect of head and dependent were highlighted. A number of linguistic and psycholinguistic arguments were given for the thesis that dependency (and sometimes companionship) is to be preferred to constituency in syntactic analyses except for coordinative structures. A question-word test was set up to determine head and modifier in a more practical way. The test and the criteria were used to deal with some controversial pairs like [determiner ⫹ noun], [auxiliary ⫹ verb] and [complementizer ⫹ clause]. As major grammatical relations (subdivisions of dependents) I distinguished subject, complement (object, etc.), adjunct and attribute. The notion of relator appears to be a useful means not only to accommodate complements but also to set up crosslinguistic basic word order rules in conjunction with the dependency principle. Finally, an analysis of a couple of typical serial verb constructions was given in terms of dependency, companionship and an iconic word order principle.
7.
Select Bibliography
Abney, Stephen P. (1987): The English noun phrase in its sentential aspect. Ph.D. dissertation, MIT. Unpublished. Atkinson, Martin/Kilby, David/Rocca, Iggy (1982): Foundations of General Linguistics. London. Baumgärtner, Klaus (1970): Konstituenz und Dependenz: zur Integration der beiden grammatischen Prinzipien. In: Steger, Hugo (Hg.) (1970): Vorschläge für eine strukturale Grammatik des Deutschen. Darmstadt, 52⫺77. Bloom, Loise (1970): Language development: form and function in emerging grammars. Cambridge, Mass.
186 Bloomfield, Leonard (1933): Language. New York. Cann, Ronnie (1993): Patterns of headedness. In: Corbett, Greville/Fraser, Norman/McGlashan, Scott (eds.), 44⫺72. Chomsky, Noam (1986): Barriers. Cambridge, Mass. Coppen, Peter-Arno (1991): Specifying the noun phrase. Amsterdam. Corbett, Greville/Fraser, Norman/McGlashan, Scott (eds.) (1993): Heads in grammatical theory. Cambridge. Corver, Norbert (1990): The syntax of left branch extractions. Ph.D. dissertation. Tilburg. Covington, Michael A. (1999): Review: Hawkins: A performance theory of order and constituency. In: Language 75, 810⫺811. Croft, William (1996): What’s a head? In: Rooryck, Johan/Zaring, Laurie (eds.) (1996): Phrase Structure and the Lexicon (⫽ Studies in Natural Language and Linguistic Theory 330). Dordrecht, 35⫺75. Croft, William (2001): Radical Construction Grammar. Syntactic theory in typological perspective. Oxford. Davidse, Kristin (1997): The subject-object versus the agent-patient asymmetry. In: Leuvense Bijdragen 86, 413⫺431. Dik, Simon C. (1983): Two constraints on relators and what they can do for us. In: Dik, Simon C. (ed.) (1983): Advances in Functional Grammar. Dordrecht, 267⫺298. Dryer, Matthew S. (1988): Object-verb order and adjective-noun order: dispelling a myth. In: Lingua 74, 185⫺217. Dryer, Matthew S. (1992): The Greenbergian word order correlations. In: Language 68, 81⫺138. Dryer, Matthew S. (1997): Are grammatical relations universal? In: Bybee, Joan/Haiman, John/ Thompson, Sandra A. (eds.) (1997): Essays on language function and language type: dedicated to T. Givo´n. Amsterdam, 115⫺143. Eichinger, Ludwig M./Eroms, Hans-Werner (Hgg.) (1995): Dependenz und Valenz. Hamburg. Engel, Ulrich (1977): Syntax der deutschen Gegenwartssprache. Berlin. Engel, Ulrich (1983): Dependenz ohne Konstituenz: Zur Dogmenbildung in der Linguistik. In: Neuphilologische Mitteilungen 84, 8⫺14. Engel, Ulrich (1991): Deutsche Grammatik. Heidelberg. Eroms, Hans-Werner (1985): Eine reine Dependenzgrammatik für das Deutsche. In: Deutsche Sprache 13, 306⫺326. Eroms, Hans-Werner (1988): Der Artikel im Deutschen und seine dependenzgrammatische Darstellung. In: Sprachwissenschaft 13, 257⫺308.
III. Dependenz. Grundlagen und Grundfragen Eroms, Hans-Werner (2000): Syntax der deutschen Sprache. Berlin/New York. Fraser, Norman (1993): Dependency parsing. Ph.D. dissertation. London. Fraser, Norman (1994): Dependency grammar. In: Asher, Ronald E. et al. (eds.) (1994): Encyclopedia of Language and Linguistics. Oxford, 860⫺864. Greenberg, Joseph (1966): Some universals of grammar with particular reference to the order of meaningful elements. In: Greenberg, Joseph (ed.) (1966): Universals of Language. Cambridge/Mass. (2nd edition), 73⫺113. Haspelmath, Martin (1992): Grammaticization theory and heads in morphology. In: Aronoff, Mark (ed.) (1992): Morphology now. Albany, 69⫺ 82; 194⫺198. Hawkins, John A. (1983): Word order universals. New York. Hawkins, John A. (1984): Modifier-head or function argument relations in phrase structure? The evidence of some word order universals. In: Lingua 63, 107⫺138. Hawkins, John A. (1990): A parsing theory of word order universals. In: Linguistic Inquiry 21, 223⫺261. Hawkins, John A. (1993): Heads, parsing and word-order universals. In: Corbett, Greville/Fraser, Norman/McGlashan, Scott (eds.), 231⫺265. Hawkins, John A. (1994): A Performance theory of order and constituency (⫽ Cambridge Studies in Linguistics 73). Cambridge. Herbst, Thomas/Heath, David/Dederding, HansMartin (1980): Grimm’s grandchildren: current topics in German linguistics. London. Heringer, Hans Jürgen (1993): Dependency syntax ⫺ basic ideas and the classical model. In: Jacobs, Joachim/von Stechow, Arnim/Sternefeld, Wolfgang/Vennemann, Theo (eds.) (1993): Syntax ⫺ An International Handbook of Contemporary Research, vol. I. Berlin, 298⫺316. Heringer, Hans Jürgen/Strecker, Bruno/Wimmer, Rainer (1980): Syntax: Fragen ⫺ Lösungen ⫺ Alternativen. München. Hewson, John (1991): Determiners as heads. In: Cognitive Linguistics 2, 317⫺337. Hudson, Richard (1984): Word Grammar. Oxford. Hudson, Richard (1987): Zwicky on heads. In: Journal of Linguistics 23, 109⫺132. Hudson, Richard (1990): English Word Grammar. Oxford. Hudson, Richard (1993): Do we have heads in our minds? In: Corbett, Greville/Fraser, Norman/ McGlashan, Scott (eds.), 266⫺291. Hudson, Richard/Van Langendonck, Willy (1991): Word Grammar. In: Droste, Flip G./Joseph, John E. (eds.) (1991): Linguistic theory and grammatical description: nine current approaches (⫽ Current Issues in Linguistic Theory 75). New York, 307⫺335.
18. The Dependency Concept and its Foundations
187
Jackendoff, Ray (1973): The base rules for prepositional phrases. In: Anderson, Stephen/Kiparsky, Paul (eds.) (1973): A festschrift for Morris Halle. New York, 345⫺356.
Van Langendonck, Willy (1987): Word Grammar and Child Grammar. In: Belgian Journal of Linguistics 2, 109⫺132. Van Langendonck, Willy (1993): Towards a cognitive dependency grammar. Review-article of Richard Hudson’s English Word Grammar. In: Cognitive Linguistics 4, 311⫺329. Van Langendonck, Willy (1994): Determiners as heads? In: Cognitive Linguistics 5, 243⫺259. Van Langendonck, Willy (1999): Neurolinguistic and syntactic evidence for basic level meaning in proper names. In: Functions of Language 6, 95⫺ 138. Van Langendonck, Willy/Hudson, Richard (1985): Woordgrammatica. In: Droste, Flip G. (ed.) (1985): Stromingen in de hedendaagse linguı¨stiek. Leuven/Assen, 192⫺229. Van Langendonck, Willy/Swiggers, Pierre/Van de Velde, Mark (to appear): The relator principle as an explanatory parameter in linguistic typology: an exploratory study of comparative constructions. (Paper read at the Conference of the Societas Linguisticae Europaeae, 2001). In: Delbecque, Nicole/ Van der Auwera, Johan/Geeraerts, Dirk (eds.): Trends in Linguistics, Vol.: Sociolinguistic and typological perspectives on variation. Berlin/New York. Van Langendonck, Willy/Swiggers, Pierre/Van de Velde, Mark (forthcoming): Crosslinguistic word order, dependency and the relator principle. Vennemann, Theo (1973): Explanation in syntax. In: Kimball, John (ed.) (1973): Syntax and semantics, vol. II. New York. Vennemann, Theo (1974): Topics, subjects, and word order: from SXV to SVX via TVX. In: Anderson, John/Jones, Charles (eds.) (1974): Historical Linguistics. Amsterdam, 339⫺376. Vennemann, Theo (1977): Konstituenz und Dependenz in einigen neueren Grammatiktheorien. In: Sprachwissenschaft 2, 259⫺301. Vincent, Nigel (1993): Head- versus dependentmarking: the case of the clause. In: Corbett, Greville/Fraser, Norman/McGlashan, Scott (eds.), 140⫺163. Weber, Heinz J. (1997): Dependenzgrammatik. Ein interaktives Arbeitsbuch. Tübingen. Zwicky, Arnold (1985): Heads. In: Journal of Linguistics 21, 1⫺29. Zwicky, Arnold (1993): Heads, bases and functors. In: Corbett, Greville/Fraser, Norman/McGlashan, Scott (eds.), 292⫺315.
Kleiber, Georges (1993): Iconicite´ d’isomorphisme et grammaire cognitive. In: Faits de langues (Motivation et iconicite´), 105⫺121. Langacker, Ronald (1987): Foundations of Cognitive Grammar. Volume I: Theoretical Prerequisites. Stanford, CA. Langacker, Ronald (1991): Foundations of Cognitive Grammar. Volume II: Descriptive Application. Stanford, CA. Owens, Jonathan (1988): The foundations of grammar: an introduction to mediaeval Arabic grammatical theory. Amsterdam. Payne, John (1993): The headedness of noun phrases: slaying the nominal hydra. In: Corbett, Greville/Fraser, Norman/McGlashan, Scott (eds.), 114⫺139. Pickering, Martin/Barry, Guy (1991): Sentence processing without empty categories. In: Language and Cognitive Processes 6, 229⫺259. Pinker, Steven (1984): Language learnability and language development. Cambridge, Mass. Pullum, Geoffrey/Wilson, Deirdre (1977): Autonomous syntax and the analysis of auxiliaries. In: Language 53, 741⫺788. Rijkhoff, Jan (1992): The noun phrase. A typological study of its form and structure. Amsterdam. Schachter, Paul (1974): A non-transformational account of serial verbs. In: Studies in African Linguistics 5, 253⫺270. Schultink, Henk (1988): Morphological heads: evidence from Swahili. In: Yearbook of Morphology 1, 247⫺258. Stewart, Osamuyimen Thompson (2001): The serial verb construction parameter. New York/London. Sweet, Henry (1891): A new English Grammar, Logical and Historical, Part I. Oxford. Tarvainen, Kalevi (1982): Einführung in die Dependenzgrammatik. Tübingen. Tarvainen, Kalevi (1987): Semantic Cases in the Framework of Dependency Theory. In: Dirven, Rene´/Radden, Günther (eds.) (1987): Concepts of Case. Tübingen, 75⫺102. Tesnie`re, Lucien (1959): E´le´ments de syntaxe structurale. Paris.
Willy Van Langendonck, Leuven (Belgium)
188
III. Dependenz. Grundlagen und Grundfragen
19. Levels of Dependency in Linguistic Description: Concepts and Problems 1. 2. 3.
13. 14.
Auxiliary Notions Basic Assumptions Preliminary Illustrations: Sentence Structures (Semantic, Syntactic, and Morphological) Three Major Types of Linguistic Dependency Possible Combinations of the Three Types of Linguistic Dependency between Two Wordforms of a Sentence Correlations between the Three Types of Linguistic Dependency Current Fallacies Concerning Syntactic Dependency Syntactic Dependency in Action: Six Illustrative Cases Advantages of Syntactic Dependency Arguing for Syntactic Dependency Syntactic Dependency and Syntactic Constituency Insufficiency of Syntactic Dependency: Coordination Acknowledgments Select Bibliography
1.
Auxiliary Notions
4. 5. 6. 7. 8. 9. 10. 11. 12.
The logical analysis of the concept ‘dependency in language’ requires the following fourteen underlying notions: 1) Utterance: a speech segment which is sufficiently autonomous; it can appear between two major pauses, constitutes a prosodic unit and its internal structure is governed by linguistic rules. An utterance is a wordform, a phrase, a clause, or a sentence. 2) Wordform: a minimal utterance [= not containing other utterances]; it is a disambiguated word [= a lexeme] taken in a specific inflectional form (for instance, [to] SPEAK is a lexeme, while speak, speaks, spoke, spoken, etc. are its wordforms). The wordform is the ultimate unit in this article: only linguistic dependencies between wordforms are considered, but not those between wordform parts [= morphs and other signs of the morphological level] or between wordform configurations [= phrases or clauses]. 3) Phrase: an utterance consisting of at least two wordforms. 4) Clause: a phrase that is organized in essential respects as a sentence but can be used as a part of a sentence (in this case, semantically and formally, it does not have enough autonomy in speech).
5) Sentence: a maximal utterance. (Two or more sentences are a sequence of utterances.) The sentence constitutes the frame of analysis in this article: only linguistic dependencies between wordforms within a sentence are considered, but not those between wordforms from different sentences. 6)⫺8) Semantic predicate, semantic name, argument of a predicate: the notions themselves and the way they are used in linguistics are borrowed from the language of predicate calculus. A (semantic) predicate is a ‘binding’ meaning, which is somehow incomplete without other meanings ⫺ it has open ‘slots’ where other meanings should be inserted. A meaning that is not a predicate is a (semantic) name. Predicates refer to actions, activities, events, processes, states, properties, relations, localizations, quantities, etc.; their linguistic expressions can belong to any part of speech. Semantic names refer to objects (including beings), substances, and points in time und space; their expressions are nouns. A meaning that is inserted into an open slot of a predicate is called its argument; the traditional notation for a predicate P and its argument a is P(a). Thus, Leo is sleeping is represented as sleep(leo). A predicate can have several arguments: P(a1, a2, a3, …): e. g., send necessitates three arguments, cf. Leo sent a letter to Alan = send(leo, letter, alan). The number and the nature of possible arguments must be fully specified in the description of a predicate in one way or another, e. g., by ordering or numbering the arguments, so that, e. g., hit(leo, alan) ⫽ hit(alan, leo). A predicate can itself be an argument of another predicate, this phenomenon being recursive: Leo knows that Alan is in love with Helen = know(leo, be-in-love(alan, helen)); I think that Leo knows that Alan is in love with Helen = think(i, know(leo, be-in-love(alan, helen))); etc. 9)⫺10) Inflectional category: a set of mutually opposed inflectional meanings, called grammemes, such that the selection of one of them is obligatory for lexemes of a given class (e. g., number for a noun in English, with grammemes ‘singular’ and ‘plural’).
19. Levels of Dependency in Linguistic Description: Concepts and Problems
11)⫺13) Syntactics: one of the three components of any linguistic sign, in particular ⫺ of a wordform, which specifies the cooccurrence of the sign that is not determined by its signified nor by its signifier (i. e., more or less arbitrary ‘grammatical’ cooccurrence). A syntactics is composed of syntactic features, each of which admits a set of mutually exclusive values.
Assumption 2: Sentence structure. The central part of a sentence representation, called the central structure, appears formally as a labeled graph, whose vertices, or nodes, represent linguistic units of the corresponding level, and whose arcs represent relations between these units. It is here that the notion of linguistic dependency comes into play: the relations between linguistic units in sentence central structures of the semantic and the syntactic levels are dependencies.
14) Passive syntactic valency of a lexeme: a set of syntactic roles in which the lexeme can be inserted into larger constructions (maybe with some inflectional modifications). In other words, the passive syntactic valency of a lexeme is, roughly speaking, its syntactic distribution. Passive syntactic valency is normally defined for syntactic classes of lexemes, known as parts of speech. Thus, the passive syntactic valency of the English noun is 1. the syntactic subject of a finite verb, 2. the direct object of a transitive verb, 3. the indirect object of a special verb (send Father a letter), 4. the object of a preposition, 5. an address, 6. a fronted topic, etc.
2.
189
Assumption 3: Deep vs. surface distinction. On the syntactic and the morphological level the Deep and the Surface sublevels of the sentence structure are distinguished: the former is aimed at meaning and expresses explicitly all relevant semantic distinctions; the latter is aimed at form and expresses explicitly all relevant formal distinctions. (For more on Deep vs. Surface distinction, see Art. 42.)
3.
Preliminary Illustrations: Sentence Structures (Semantic, Syntactic, and Morphological)
Basic Assumptions
Assumption 1: Levels of sentence representation. A sentence has representations on four levels: semantic, syntactic, morphological, and phonological. (In what follows, the phonological representation will be left out. However, phonological dependency is considered in a number of works: thus, see An´ rnason 1989.) Each derson/Ewen 1987 and A representation reflects a set of such properties of the sentence that are of the same nature and belong to the level in question. This is also true of any non-minimal part of the sentence ⫺ e. g., the clause or the phrase.
In order to show the reader how linguistic dependencies ‘work,’ sentence structures that use these dependencies will be presented ⫺ before introducing the corresponding concepts formally. These illustrations will be referred to when discussing dependencies later on. Consider the English sentence (1) and its structures (2)⫺(5): For decades, cocoa farming has escaped such problems by moving to new areas in the tropics.
(1)
‘move’ 1
2
‘areas’
‘farm’
2
2
1
‘means’
1 1
‘people’
1
‘cocoa’ ‘new’ ‘escape’
2 2
‘such’
(2)
1
‘problems’
1
1
‘tropics’ 2
‘located’ ‘decades’
2
‘duration’
The Semantic Structure [= SemS] of (1) [drastically simplified; thus, grammemes are not indicated]
190
III. Dependenz. Grundlagen und Grundfragen
The Semantic Structure of a sentence is a network whose nodes represent meanings and are labeled with semantemes (roughly, lexical meanings of the language); its arcs represent predicate-to-argument relations and are labeled with numbers identifying an argument with respect to its predicate.
The Deep-Syntactic Structure of a sentence is a tree whose nodes are labeled with the full lexemes of the sentence; its arcs, called branches, are labeled with names of abstract universal Deep-Syntactic Relations (their number is about 10).
ESCAPE ind, pres, perf
FOR ATTR
ATTR II
I
FARMINGsg, non-def DECADEpl, indef
II
BY
PROBLEMpl, indef
II
II
ATTR
MOVEger COCOAsg, non-def
SUCH
I
II
AREApl, indef
FARMINGsg, non-def ATTR
ATTR
IN
NEW
II
TROPICSpl, def
(3)
The Deep-Syntactic Structure [⫽ DSyntS] of (1)
FOR
HAVE ind, pres
circumstantial
subjectival
prepositional
perfect-analytical
FARMINGsg DECADEpl
compositive
COCOAsg
ESCAPEpast participle
circumstantial directobjectival
BY PROBLEMpl
prepositional
modificative
MOVEger SUCH
prepositionalobjectival
TO prepositional
AREApl, indef modificative attributive
NEW
IN prepositional
THE
(4)
The Surface-Syntactic Structure [⫽ SSyntS] of (1)
determinative
TROPICSpl
19. Levels of Dependency in Linguistic Description: Concepts and Problems
The Surface-Syntactic Structure of a sentence is a tree whose nodes are labeled with all the lexemes of the sentence (including all auxiliary and ‘structural’ words); its arcs, also called branches, are labeled with names of language-specific Surface-Syntactic Relations, each of which represents a particular construction of the language (their number is somewhere between 40 and 70). FOR DECADEpl COCOAsg FARMINGsg HAVEind, pres, sg, 3 ESCAPEppart SUCH PROBLEMpl BY MOVEger TO NEW AREApl IN THE TROPICSpl. (5)
The Deep-Morphological Structure [= DMorphS] of (1)
The Deep-Morphological Structure of a sentence is a chain of lexico-morphological representations of its wordforms; its arcs are, so to speak, degenerated: they specify only the left-to-right ordering of wordforms, so that they need not be indicated explicitly. The SemS (2) shows semantic dependencies between the meanings of the wordforms of sentence (1), while the DSyntS (3) and the SSyntS (4) show the Deep and Surface syntactic dependencies between the wordforms themselves. As for morphological dependencies, given the morphological poverty of English, there is only one case in (1): the wordform has depends morphologically ⫺ for the singular and 3rd person ⫺ on farming. The Russian sentence (6), which is a close translation equivalent of (1), contains many examples of morphological dependency (its subtypes ⫺ agreement and government ⫺ are considered in 4.3.3, pp. 194⫺197): (6)
V tecˇenie desjatiletij, kul’tura kakao ne znala e`tix problem blagodarja rasprostraneniju na novye territorii v tropikax.
4.
191
Three Major Types of Linguistic Dependency
4.1. General Remarks We will consider three types of syntagmatic dependency relations between wordforms in a sentence: semantic dependency [= Sem-D], syntactic dependency [= Synt-D], and morphological dependency [= Morph-D], distinguished as proposed in Mel’cˇuk (1964, 1981, 1988, 105⫺149) and developed in Nichols (1986). We will leave aside: on the one hand, paradigmatic relations between wordforms, such as synonymy, antonymy or derivation; on the other hand, syntagmatic relations of a different nature, such as: ⫺ all kinds of lexical correspondences, e. g., between a word and a governed preposition (insist ⫺ on, borrow ⫺ from, central ⫺ to), or between a noun and its classifier; ⫺ the anaphoric relation (between a pronoun and its antecedent); ⫺ the inclusion relation (between a phrase and its constituents); ⫺ the ordering relation (between wordforms, phrases, and clauses); ⫺ the communicative dominance relation (between semantic units in a semantic representation). In our analysis, we deal only with direct dependencies, without indicating this explicitly every time. Dependency is by definition a non-symmetrical relation, of the same type as implication: one element ‘presupposes’ in some sense the other, but ⫺ generally speaking ⫺ not vice versa. Therefore, dependency is denoted by an arrow: w1 Jw2 means that w2 depends on w1; w1 is said to be a/the governor of w2,
Here, desjatiletij [gen] ‘decades’ depends for its case on v tecˇenie ‘during’ [government]; kul’tura [nom] ‘farming’ depends for its case on znala ‘has-escaped’ [government]; (ne) znala [sg, fem] ‘has-escaped’ depends for its number and gender on kul’tura ‘farming’ [agreement]; e`tix [pl, gen] ‘such’ depends for its number and case on problem ‘problems’ [agreement]; etc. In Russian, unlike English, almost all the wordforms of a sentence may be linked by morphological dependencies; English, on the other hand, demonstrates that, as a general rule, this is not necessary.
and w2 a dependent of w1. Other terms used to designate the governor in a dependency relation include: head, regent, ruler; here, however, only the term governor will be used. The term head, extremely popular in the litera-
192
III. Dependenz. Grundlagen und Grundfragen
ture, has the following defect: it is natural to speak of the head of a phrase/clause/sentence, but the expression ?the head of this wordform meaning ‘the governor of this wordform’ seems much less convenient. The concept of head is inherited from the phrase-structure syntax und carries with it all dangerous connotations. Moreover, governor of phrase P ⫽ head of phrase P: P’s governor is outside of P, P’s head is inside of P, so that in (7) the head of the phrase P = abc is the unit b, while P’s governor is the unit d:
(7)
d
c
b
a
Therefore, in this article the term head is used only in the precise sense ‘the Synt-head of a phrase/a clause/a sentence’, never in the sense of Synt-governor. (Cf. Hudson 1993, 274⫺ 275, on the head of a phrase vs. head of a wordform terminological problem.) An alternative term for dependent is satellite. Since Synt-D, due to its intermediate nature ⫺ between semantics and morphology ⫺, is the most difficult one to grasp, it will be treated after Sem-D and Morph-D. 4.2. Semantic Dependency 4.2.1. The Concept of Semantic Dependency As stated in 1, items 6)⫺8), and illustrated in (2), the meaning of a sentence is represented using the formalism of the predicate calculus. We say that an argument of a predicate semantically depends on its predicate, and for P(a) we write P⫺semJa. More precisely, we indicate on the arc between the predicate and its argument the number of the argument: P⫺1 Ja1, P⫺2 Ja2, etc. The meaning of the sentence Leo sent a letter to Alan can then be represented (leaving grammemes aside) as ‘send’ 1
2
3
‘Leo’
‘Alan’ ‘letter’
From this, we immediately obtain the definition of Sem-D between wordforms w1 and w2 in a sentence:
Definition 1: Semantic dependency The wordform w2 is said to semantically depend on the wordform w1 in the given sentence if and only if [= iff] the meaning of w1 is a predicate and the meaning of w2 is its argument in this sentence:
‘w1’(‘w2’). We write, as convened above, w1⫺semJw2. A Sem-dependent of a wordform is called its Sem-Actant. 4.2.2. The Logical and Linguistic Properties of Semantic Dependency a) Sem-D is anti-symmetrical: the meaning of a wordform (or any other type of meaning) cannot, at the same time, be an argument of the meaning of another wordform and have the latter as its own argument (*w1 IsemJw2). b) Sem-D is anti-reflexive: the meaning of a wordform (or any other type of meaning) sem
cannot be its own argument (*
). The w
anti-reflexivity of the Sem-D follows from its anti-symmetry. c) Sem-D is not necessarily anti-transitive. In most cases, it is anti-transitive: thus, if we have w1⫺semJw2 and w2⫺semJw3 in a sentence, then *w1⫺semJw3. However, in some cases, Sem-D can be transitive: we can have w1⫺semJw2 and w2⫺semJw3, and still obtain w1⫺semJw3 (here, the Sem-D is transitive). A typical example is the sentence I order [= w1] him [= w3] to go [= w2], which has the following SemS: ‘order’ 1
3 2
‘I’
1
‘he’
‘go’
Thus, the SemS may have undirected circuits (such a circuit is shown on the above diagram in boldface), but not cycles, i. e., circuits where all the arrows point in the same direction. d) Sem-Ds must be typed, or labeled: a SemD arc has to be supplied with the symbol identifying the corresponding argument. In the present approach, this is a purely distinctive number: it does not carry meaning by
19. Levels of Dependency in Linguistic Description: Concepts and Problems
itself; thus, an arc ⫺iJ expresses different semantic roles with different predicates. (The actual semantic role of an argument of the predicate ‘w’ is specified by the semantic decomposition of ‘w’. For instance, ‘X kills Y’ ⬅ ‘X, by acting upon Y, causes that Y dies’, which shows that X is the Agent and the Causer.) In other approaches, the symbols on Sem-arcs can be meaningful: e. g., ‘Agent’, ‘Perceiver’, ‘Beneficiary’, etc. Since this does not affect my reasoning in any essential way, I will not consider this possibility. e) Sem-D does not presuppose the uniqueness of the governor: a wordform can semantically depend simultaneously on many other wordforms, i. e., many different meanings can be predicated about one meaning at the same time: [a] nice little hotel renowned [ for its comfort] = ‘hotel’ 1
1
‘little’
some properties of w1. This leads to the following definition: Definition 2: Morphological dependency The wordform w2 is said to morphologically depend on the wordform w1 in the given sentence iff at least one grammeme of w2 is determined by w1.
We write w1⫺morphJw2. 4.3.2. The Logical and Linguistic Properties of Morphological Dependency a) Morph-D is not necessarily anti-symmetrical. In most cases it is anti-symmetrical (agreement of the ADJ with N, government of the case of an object by the verb, etc.), so that, as a general rule, we have *w1 ImorphJw2. However, in some cases it can be reciprocal (i. e., symmetrical): a wordform w2 can be inflected, for the category C1, as a function of the wordform w1, and, at the same time, w1 can be inflected, for a different category C2, as a function of w2, so that w1 ImorphJw2 is possible. Examples: (8)
1
‘nice’
‘renowned’
f) Sem-D is universal in the following three respects: it is present in all languages; it appears in all sentences of a language; and it embraces all wordforms of a sentence (this means that in a sentence, Sem-Ds always form a connected structure, such that there is a Sem-‘path’ between any wordform and any other wordform). Cf. Sem-Ds in the SemS of (2).
193
Rus. dv⫹a stol ⫹a ‘two tables’ two MASC.nom table[masc] SG.GEN
Here, stola morphologically depends for its singular and genitive case on dva, while dva depends on stola for its masculine gender; cf. pjat’ stol⫹ov [pl.gen] ‘five tables’ or dvadcat’ odin stol⫹Ø [sg.nom] ‘twenty-one tables’; dv⫹e [fem.nom] krovati [fem] ‘two beds’. A reciprocal Morph-D for the same inflectional category is of course impossible. b) Morph-D is anti-reflexive: the inflection of a word cannot be determined by itself morph
(*
). However, the inflection of a w
4.3. Morphological Dependency 4.3.1. The Concept of Morphological Dependency In many languages (but by no means in all!), a wordform w2 in a sentence can take a particular morphological form, or inflect, under the impact of another wordform, w1, of the sentence. Thus, in I am well vs. You are well the verb BE has different forms because of its subject [agreement, cf. 4.3.3]; in German, after the preposition NACH ‘after/to’ a noun is in the dative (nach dem Fest ‘after the feast’), but after WEGEN ‘because of’ it is in the genitive (wegen des Festes ‘because-of the feast’) [government, cf. 4.3.3]. Technically, in such cases a grammeme g of an inflectional category C of w2 is determined by
word can be conditioned by itself, which is not a case of Morph-D. Thus, in Alutor, in the ergative construction of a transitive verb, the subject w is in the instrumental, if w is not a proper name, and in the locative, if it is: (9)
Alutor (Kamchatka, Russia) le? us¸qiv a. enpenav ⫹ a old.woman sg.INSTR went.to.see ⫹nin qelavul⫹Ø 3sg.subj-3sg.obj man sg.nom ‘An old woman went to see [her] man’. le? us¸qiv b. Miti⫹ nak Miti sg.LOC went.to.see ⫹nin qelavul⫹Ø 3sg.subj-3sg.obj man sg.nom ‘Miti went to see [her] man’.
194 The case of the subject is determined here by the verb ⫺ but conditionally, i. e., depending on the indicated property of the subject. c) Morph-D is not necessarily anti-transitive. In most cases, it is: usually, with w1⫺morphJw2 and w2⫺morphJw3 in one clause, we have *w1⫺morphJw3. But there are cases where a transitive Morph-D occurs: if, in a clause, w1⫺morphJw2 and w2⫺morphJw3, it is sometimes possible that w1⫺morphJw3. An example of transitive Morph-D (again, for different inflectional categories): (10) Russian Ja zna ⫹ l ⫹ a ego molod⫹ I know past fem he-sg.acc young ym sg.MASC.instr ‘I [a woman] knew him young’. vs. Ja zna ⫹ l ⫹ a ee¨ molod⫹ I know past fem she-sg.acc young oj sg.FEM.instr ‘I [a woman] knew her young’. vs. Ja zna ⫹ l ⫹ a ix molod⫹ I know past fem they-pl.acc young ymi PL.instr ‘I [a woman] knew them young’. Here ego/ee¨/ix [= w2] depends on znala ‘knew’ [= w1] for its accusative case, while molodym/molodoj/molodymi [= w3] depends on ego/ee¨/ix for its number and gender, and on znala for its instrumental case. d) Morph-D must be labeled: if w1⫺ morphJw2, then which grammeme of which category C(w2) is imposed by w1 must be indicated. Thus, the labeling of Morph-Ds is meaningful rather than purely distinctive, as is the case with Sem-D. e) Morph-D does not presuppose the uniqueness of the governor: a wordform can morphologically depend simultaneously on several other wordforms ⫺ of course for different categories. Cf. (10), where w3 depends morphologically on w1 and w2 at the same time; another example of Morph-D with multiple governors (without transitivity) is (11) below. f) Morph-D is not universal: it is not present in many languages at all; in a language where it does exist, it is not present in all sentences;
III. Dependenz. Grundlagen und Grundfragen
and in a sentence where it is present, it does not necessarily embrace all the wordforms (that is, in a sentence, Morph-Ds do not form, generally speaking, a connected structure: there are wordforms that are not morphologically linked to the rest of the sentence). 4.3.3. The Three Major Types of Morphological Dependency There are three major types of Morph-D, universally recognized: agreement, government, and congruence (Mel’cˇuk 1993). Here are the corresponding definitions; in all of them the wordform w2 depends morphologically on the wordform w1 in the given sentence according to the inflectional category C2. The wordform w1 is called the controller, and the wordform w2, the target of the Morph-D in question. In the examples below, the controller is boxed, and the controlled grammeme and its marker in the target are boldfaced. Definition 2.1: Agreement The wordform w2 is said to agree with the wordform w1 in the category C2 iff the following two conditions are simultaneously satisfied: 1) the wordform w2 is not a substitute pronoun which replaces an occurrence of w1; 2) the grammeme g2苸‘w2’√g2苸C2 is selected depending upon: (a) either a grammeme g1苸‘w1’√g1苸C1, such that C2 is mirroring for C1; (b) or one of the following three syntactic features of w1: agreement class, pronominal person, or pronominal number; (c) or some semantic components of w1 or some properties of its referent.
Comments 1. An inflectional category C2 is mirroring for the inflectional category C1 iff (roughly) C2 exists in L exclusively to ‘reflect’ C1; thus, the adjectival number and adjectival case are mirroring for the nominal number and nominal case. (The relation is by no means symmetrical: C1 is not mirroring for C2.) 2. The agreement class A is such a subset of lexemes of the same part of speech (practically, of nouns) that in any context, a) any two wordforms of A impose on a third wordform the same grammeme, b) a wordform of A imposes on any two wordforms morphologically depending on it again the same grammeme, c) and this grammeme is not im-
19. Levels of Dependency in Linguistic Description: Concepts and Problems
posed by anything except the wordforms of A. The agreement class is a generalization of grammatical gender (as in Indo-European) and of nominal class (as in Bantu and Daghestanian); agreement classes are defined and established in particular languages prior to and independently of the notion of agreement (Mel’cˇuk 1993, 323⫺324). 3. Condition 1 separates agreement from congruence, see below. Condition 2a foresees agreement with grammemes of the controller (e. g., agreement of an ADJ with a N in number and case). Condition 2b foresees agreement with syntactic features of the controller (e. g., agreement of an ADJ with a N in gender; agreement of a V with one of its Synt-actants in person). Condition 2c foresees what is known as semantic agreement (Rus. Nasˇa vracˇ skazala ‘our[fem] doctor [a woman] said[fem]’, where, in spite of the ˇ is masculine, the fact that the noun VRAC agreeing adjective and the verb are both in ˇ the feminine, because in this sentence VRAC refers to a woman). Examples (11) a. In Akhwakh (North-Caucasian), a participle used as a modifier agrees both with its complement [= actant] (in class and number) and the modified noun (again in class, number and case): rocˇa ⫹Ø book[III] sg.nom b ⫹exeq’⫹ida ⫹je III bring part II.NOM jasˇe⫹Ø girl[II] sg.nom lit. ‘book bringing girl’ ⫽ ‘a girl who is bringing a book’ b. In Old Georgian, a noun N2 in the genitive that syntactically depends on another noun N1 agrees with N1 in case (thus, N2 has two case suffixes: the marker of its own genitive and the marker of the second, ‘agreeing’ case): neb⫹Ø⫹ita g mrt ⫹Ø⫹isa ⫹jta, will sg instr God sg gen INSTR lit.‘by-will of-God’ c. In Kayardild (Australia), all the objects and complements of the verb agree with it in tense/mood (Evans 1988, 221⫺222):
195
danga ⫹a bargi ⫹d¸a man nom chop non-fut t˝ungal⫹Ø ⫹ i tree acc NON-FUT nara ⫹nuni ⫹y knife instr NON-FUT ‘The man just chopped/is chopping the tree with a knife’. vs. danga ⫹a bargi ⫹d¸u t˝ungal ⫹Ø ⫹u man nomchop futtree acc FUT nara ⫹nuni ⫹wu knife instr FUT ‘The man will chop the tree with a knife’. vs. danga ⫹a bargi ⫹d¸ara man nom chop past t˝ungal⫹Ø ⫹ina nara⫹nuni⫹na tree acc PAST knife instr PAST ‘The man (had) chopped the tree with a knife’. Definition 2.2: Government The wordform w2 is said to be governed by the wordform w1 in the category C2 iff one of the following two conditions is satisfied: 1) either the grammeme g2苸‘w2’√g2苸C2 is selected depending upon a grammeme g1苸‘w1’√g1苸C1, such that C2 is not mirroring for C1; 2) or the grammeme g2苸‘w2’√g2苸C2 is selected depending upon a value g1 of a syntactic feature S1 of w1, this S1 being neither agreement class, nor pronominal person, nor pronominal number.
Comment Condition 1 foresees government by a grammeme of the controller. These are ‘exotic’ cases: the comparative that governs the case of the comparand (Rus. sil’n⫹ee smerti [gen] ‘stronger than death’) or the tense of the verb governing the case of its actants, see examples (12a⫺b). Condition 2 foresees government by a syntactic feature of the controller; it separates such government from the syntactics-induced agreement. These are ‘normal’ cases: a verb or a preposition governing the case of its object/complement. Examples (12) a. In Georgian, if a transitive verb is in the present/imperfect, it governs the nominative of the subject and the dative of the Dir(ect) O(bject); if it is in
196
III. Dependenz. Grundlagen und Grundfragen
the aorist, the subject takes the ergative and the DirO, the nominative; if the verb is in the perfect, it governs the dative of the subject and the nominative of the DirO. The agreement of the verb to itself does not change: it agrees both with its subject and with its DirO. Gogi⫹ Ø cœ eril⫹Ø ⫹s Gogi NOM letter sg DAT cœ er⫹s write pres.3sg ‘Gogi is-writing [a] letter’. vs. Gogi ⫹m cœ eril⫹Ø⫹ i Gogi ERG letter sg NOM da ⫹cœ er ⫹a compl(etive) write aor.3sg ‘Gogi wrote [a] letter’. vs. Gogi ⫹s cœ eril⫹Ø⫹ i Gogi DAT letter sg NOM da ⫹u ⫹cœ er ⫹i ⫹a compl 3pers write perf 3sg.sub ‘Gogi has-written [a] letter’. b. In Hindi, a transitive verb in the present governs the nominative of the subject and the nominative/the dative of the DirO (the latter for the human nouns only); if the verb is in the perfect, the subject takes the ergative and the DirO remains in the nominative/the dative. But, contrary to Georgian, the agreement of the verb changes, depending on the tense: in the present, it agrees with the subject, but in the perfect the verb either agrees with the DirO (if the DirO is in the nominative) or takes the unmarked form of the 3rd person singular masculine (if the DirO is in the dative). Larøk ⫹ a¯ kita¯b ⫹ Ø boy[masc] NOM book[fem] NOM parøh⫹ta¯ read impf.masc.sg haı˜ aux.pres.3sg ‘[The] boy is-reading [a] book’. vs.
Larøke ⫹ ne kita¯b ⫹ Ø boy[masc] ERG book[fem] NOM parøh⫹ı¯ read perf.fem.3sg ‘[The] boy read [a] book’. vs. Larøkiyo˜ ⫹ne Sita¯ ⫹ ko girls[fem] ERG Sita[fem] DAT dekh⫹a¯ see perf.masc.3sg ‘[The] girls saw Sita’. c. In Russian, the infinitive in a special ‘impossibility’ construction governs the dative of its semantic ‘subject’: Mne e`tu knigu ne procˇest’ I-DAT this book not read.perf-inf ‘I will not be able to read this book’. Alen⫹u tuda Alan sg.DAT till.there ne dojti not reach.walking.perf-inf ‘Alan will not be able to walk till there’. d. In Hungarian, the subordinate conjunction HOGY ‘that’, when it syntactically depends on a verb of will, governs the imperative of the Main Verb of the subordinate completive clause: Azt akarta, hogy this-acc want-past.3sg that lassan ja´r ⫹j slowly walk IMPER.2sg lit. ‘[S/he] wanted this that [you-SG] walk slowly’. Let it be emphasized that it is impossible to define agreement and government in a simpler way, for instance, following the traditional view that agreement is a correspondence between the inflectional form of one lexeme and the inflectional form of another lexeme, while government is a correspondence between the inflectional form of one lexeme and lexicographic properties of another lexeme. This viewpoint is simply wrong: many types of agreement involve lexicographic properties of the controller (gender, nominal class, animacy), and many types of government are determined by the inflectional form of the controller (cf., among others, examples (12a⫺b)).
19. Levels of Dependency in Linguistic Description: Concepts and Problems
Definition 2.3: Congruence The wordform w2 is said to be congruent with the wordform w1 in the category C2 iff w2 is a substitute pronoun replacing an occurrence of w1 and at least one grammeme g2苸‘w2’√g2苸C2 is selected depending on w1.
Comments 1. Congruence is a particular case of agreement, namely, ‘agreement in absentia.’ While agreement as such marks semantic and/or syntactic Ds within the borders of a clause, congruence marks anaphoric links, basically outside the borders of a clause. For congruence, agreement ‘according to the meaning’ is especially typical. 2. The choice between different pronominal lexemes as a function of w1 to be replaced is not congruence. Thus, professor or horse is replaced by HE, sister or battleship, by SHE, and warning or fly, by IT; but HE, SHE and IT are different lexemes rather than inflectional forms of the same lexeme, and the selection of the appropriate lexeme has to do with syntagmatic lexical correspondences, mentioned above, in 4.1, not with congruence. But in Spanish, caballo ‘horse’ is replaced with e´l ‘he’, mosca ‘fly’ with ella ‘she’, caballos [PL] with ellos, and moscas [PL] with ellas, and this is congruence: e´l, ella, ellos, and ellas are forms of one lexeme, inflected for gender and number. Examples (13) a. French Nous e´tudions un suffixe [masc.sg] et deux alternances [fem.pl] ; nous traiterons celui-la` [MASC.SG] imme´diatement, et nous analyserons celles-ci [FEM.PL] au chapitre suivant ‘We will study a suffix and two alternations; we deal with the former right away, and we analyze the latter in the next chapter’. The wordforms celui and celles are inflectional forms of the lexeme CELUI (unlike FORMER and LATTER, which are different lexemes). b. In Bushong (Bantu), a noun is replaced by different inflectional forms of the same pronominal lexeme -N ‘s/he, it, they’, namely ⫺ by the form of the corresponding nominal class:
I II III IV
197
aa ⫹n replaces a noun of the class I; baa ⫹n replaces a noun of the class II; muu ⫹n replaces a noun of the class III; mii ⫹n replaces a noun of the class IV; etc.
4.4. Syntactic Dependency 4.4.1. General Remarks Paraphrasing R. Jakobson, we can say that Sem-D is directly related to meaning and therefore it is conceivable or understandable, while Morph-D is directly related to (phonological) form and therefore it is perceivable. The Synt-D is, however, not directly related either to meaning or to form ⫺ it is more abstract, more indirect than Sem-D and Morph-D, and as a consequence, more questionable; even its mere existence needs justification. Syntactic dependency has been used to talk about the structure of sentences from Antiquity and throughout Middle Ages and modern times. All respectable pre-20th century grammatical traditions in syntax have been based on it, as has much language teaching. Arab grammarians distinguished ⫺ already in 8th to 10th century ⫺ the governor vs. the governed in syntax and used this distinction when formulating the rules for word order and inflection (Owens 1988; cf. Art. 5). One finds dependency trees as a means of sentence structure description, for instance, in German syntax books in the 19th century (Weber 1992, 13). In point of fact, constituency representation in syntax, i. e., what became known as phrase-structure, was first introduced ⫺ and that, almost exclusively in the English language domain! ⫺ in the early 20th century. The dependency approach [= D-approach] was properly presented for the first time in Tesnie`re 1959 (the first sketch of Tesnie`re’s theory: Tesnie`re 1934); this profound treatise made dependency available for serious theorizing. Yet, due to the dominance of Chomskian Generative-Transformational Grammar ⫺ which used, as its main syntactic tool, the phrase-structure representation (i. e., constituency) ⫺ the D-approach did not become popular in modern linguistics until the beginning of the 80s. Nevertheless, by early 60s, a number of publications had appeared which laid solid foundations for the D-approach (Hays 1960 [1961], 1964a, b, Lecerf 1960, Fitialov 1962, 1968, Mel’cˇuk 1962, 1963, 1964, Iordanskaja 1963, 1967, Paducˇeva 1964, Baumgärtner
198 1965, 1970, Marcus 1965a, b, Robinson 1970a, b, Heringer 1970). All these pioneering studies were more or less inspired by computational applications ⫺ primarily machine translation and other types of computer text-processing. Gradually, the field grew into real theoretical research, continuing to rely heavily on computer applications (Kunze/Priess 1967⫺1971, Goralcˇikova´ 1973, Machova´ 1975, Kunze 1975, Happ 1978, Hudson 1976, 1980a, b, 1984, Garde 1977, Korhonen 1977, Schubert 1987). And more recently, several general linguistic theories have emerged, based partially or completely on the D-approach, including Case Grammar (Fillmore 1968, Anderson 1977), MeaningText Theory (Mel’cˇuk 1974, 1988), LexicalFunctional Grammar (Bresnan 1982), Relational Grammar (Perlmutter 1983), Word Grammar (Hudson 1984, 1990), Stratificational Dependency Grammar (Sgall et al. 1986), Lexicase Theory (Starosta 1988); Cognitive Grammar (Langacker 1987, 1991, 1997) is also dependency-oriented. One also finds a few university manuals which use the D-approach (e. g., Matthews 1981, Tarvainen 1981, Weber 1992). The description of German syntax in Engel 1977 and the syntactic part of Engel 1988 ⫺ one of the most authoritative German reference grammars ⫺ are developed explicitly within the D-approach (see especially Engel 1988, 21⫺26). Let it be clear that, when speaking in what follows of D-approach, I mean exclusively dependency representation of the structure of sentences rather than dependency grammar, or a logical device consisting of rules that ensure the generation/parsing of sentences. The two notions are of course logically related, but should be kept distinct. (Cf. Hudson 1993, 266⫺269 on the difference between syntactic heads in sentence structure and syntactic heads in grammars.) 4.4.2. The Rationale for Syntactic Dependency The notion of Synt-D is proper to Syntactic Structure [= SyntS]: a formal object used to depict the organization of a sentence as opposed to its meaning (which is the target of the Semantic Structure [= SemS]). Synt-Ds are building blocks of a SyntS, and so it will be useful to start with a brief characterization of the latter. Formal considerations The SyntS of a sentence is called upon to ‘mediate’ between its SemS and its Morph(ological)S. The SemS is formalized as an arbi-
III. Dependenz. Grundlagen und Grundfragen
trary (n-dimensional) graph, i. e., a network, as we see in (2). The MorphS is a 1-dimensional (linear) graph, i. e., a chain, cf. (5). The SyntS must constitute a convenient bridge between the SemS and the MorphS: under text synthesis, that is, in the transition from meaning to text, the SyntS must be easily produced from the Sem-network and easily converted into the Morph-chain; under analysis, that is, in the transition from text to meaning, it must allow for the ease of the inverse operations. The formal object that satisfies these requirements is a 2-dimensional (planar) graph, i. e., a tree. Networks are relatively easy to arborize, and trees are easy to linearize (text synthesis); vice versa, chains are relatively easy to arborize, and trees are easy to convert to networks (text analysis). In other words, the Synt-tree is the most convenient intermediary between the Sem-network and the Morph-chain. That is how the idea of SyntS as a dependency tree composed of lexemes is formally arrived at. If the SyntS is a tree, then any of its arcs, or branches, represents an anti-reflexive, antisymmetrical and anti-transitive binary relation between lexemes ⫺ i. e., a Synt-D relation. Our reasoning leads us to the notion of Synt-dependency as a strict-order relation (see Definition 3, 4.4.3, p. 204). A dependency tree is a particular case of network: it is a network in which a) no node receives more than one entering branch (‘the uniqueness of Synt-governor’) and b) there is one and only one node that does not receive an entering branch at all (the top node of the tree, or the absolute head of the Synt-structure of the sentence; cf. 4.4.6, p. 206). Substantive considerations Now let us consider the problem of SyntS from another angle. Suppose we want to represent the SyntS of the sentence Leo knows that Alan is in love with Helen. There are exactly four types of linguistic means that this sentence uses to express its meaning: lexemes, order of lexemes (i. e., word order), prosody, and inflection. Note that: 1) there do not exist other types of linguistic means; 2) these linguistic means are used by all languages in all sentences ⫺ with the exception of inflection, which does not exist in quite a few languages and which, even in the languages where it does exist, does not appear in all sentences and on all the wordforms; 3) each of these means can be used either as a direct expression of meaning, i. e., in a semantic ca-
19. Levels of Dependency in Linguistic Description: Concepts and Problems
199
Table 19.1: Linguistic Means and Their Possible Uses Linguistic means
used in semantic capacity
used in syntactic capacity
lexical units
full words (for, decades, cocoa, farming, escape, the, etc.)
governed prepositions and conjunctions (as in depend on, to order that, etc.)
word order
arrangements that mark communicative structure (theme ⬃ rheme, given ⬃ new, etc.)
arrangements that mark syntactic constructions: N ⫹ N, PREP ⫹ N, ADJ ⫹ N, V ⫹ DirO, etc.
prosody
prosodies that mark questions vs. assertion, focus, emphasis, irony, threat, tenderness, etc.
prosodies that mark borders of constituents
inflection
number in nouns; aspect and tense in verbs
case in nouns; person and number in verbs; gender, number and case in adjectives (agreement and government categories)
pacity, or without a direct relation to meaning ⫺ that is, purely in order to indicate links between wordforms in the sentence, i. e., in a syntactic capacity, see Table 19.1. Non-lexical means used in syntactic capacity (shaded in Table 19.1) should not appear in a SyntS: they are means used to express the SyntS, therefore they cannot be part of it (all of them appear only in the DMorphS of the sentence). The SyntS has to replace them with a simple homogeneous device. This device must be, first of all, able to clearly indicate the linear arrangements of wordforms (prosody applies to an ordered sequence of wordforms; inflection is absent in many cases) ⫺ that is, to tell us where to position a wordform w2: before or after another wordform w1 and then more details about mutual positions of different wordforms all of which have to be positioned with respect of w1. The simplest way to do this seems to be to use a binary anti-reflexive, anti-symmetrical, and anti-transitive relation between w1 and w2 ⫺ a strict-order relation (in the logical sense). This is nothing but a Synt-D; thus, we have once again, this time via substantive reasoning, come to the same conception of SyntD relation. As a bridge between the SemS and the DMorphS of a sentence, the D-/S-SyntS must encode all relevant semantic contrasts that are expressed on the surface and all relevant formal contrasts that carry meaning. Therefore, the specific Synt-D relations that are introduced for a given language must be such as to satisfy this requirement. 4.4.3. The Concept of Syntactic Dependency What is of special importance for the concept of syntactic dependency is the fact that at the very beginning it was not, and even now it is
still not, always rigorously distinguished from Sem-D and Morph-D. Linguists would often talk about dependency tout court, aiming at the Synt-D, but in actual fact being involved with a mixture of the three. Since Synt-D is a very abstract formal concept, it is not as easy to define it as Sem-D and Morph-D. Three groups of criteria for Synt-D have to be introduced; but first, let it be emphasized that for simplicity’s sake we will be dealing exclusively with Surface-Syntactic [= SSynt-]dependency. (The results can be easily generalized to cover Deep-Syntactic dependency as well.) To establish a SSynt-D relation between two wordforms in a sentence we need: ⫺ A. Criteria for SSynt-connectedness of the two wordforms (= for the presence of a SSynt-D between them). ⫺ B. Criteria for the SSynt-dominance between the two wordforms (= for the direction of the SSynt-D between them). ⫺ C. Criteria for the type of the given SSynt-D between the two wordforms (= for the type of the SSynt-relation between them). A. SSynt-Connectedness Wordforms w1 and w2 have a direct Synt-D between them only if they have simultaneously the following two properties: A1. Potential prosodic unity. (a) In the language L, the wordforms w1 and w2 have the potential to form an utterance, i. e., a special prosodic unit ⫺ a phrase [general case]: N ⫹ V, N ⫹ ADJ, V ⫹ N, PREP ⫹ N, ADV ⫹ ADJ, NUM ⫹ N, etc. (b) In the language L, the wordforms w1 and w2 cannot form a phrase, but the word-
200 forms w1, w2 and w3 can, such that w2 and w3 also form a phrase in which w2 is the Syntgovernor [special case]: e. g., V [= w1] ⫹ PREP [= w2] ⫹ N [= w3] (escape from the problem is a phrase, from the problem is also a phrase in which from is the Synt-governor; therefore, we say that escape and from have a direct syntactic link). Obviously, not every prosodic unit in an actual sentence is a phrase; the concept of phrase needs an elaborate definition, which is outside of our frame here. A2. Potential linear unity. The linear position of one of the wordforms w1 and w2 cannot be specified without reference to the other. In languages where word order is used semantically ⫺ among other things, to express communicative organization (the Rheme/ Theme division, the Old vs. New, etc.), Criterion A2 applies limitedly: it has to be tried only within communicatively neutral expressions. Criteria A1 and A2 must concord. Examples: in (1), for decades is a phrase of English, and so is has escaped; but, e. g., *to new is not; therefore, in for decades and has escaped the wordforms can be linked by a Synt-D (Criterion A1-a). Criterion A2 does not contradict this: in (1), for has to be positioned before decades, and escaped after has, etc. Again in (1), escaped by moving is a phrase, and so is by moving; in by moving, the preposition BY is the Synt-governor; therefore, by Criterion A1-b, escaped and by are taken to be linked by a Synt-D. Criterion A2 is again fulfilled. B. SSynt-Dominance In the phrase w1⫺syntJw2 the Synt-governor is the wordform that determines ⫺ at least, to a greater extent than the other wordform, i. e., the Synt-dependent ⫺ the following three properties of the phrase: B1. The passive SSynt-valency of the phrase. If the passive SSynt-valency of the whole phrase w1⫺syntJw2 is rather that of w1 than that of w2, then w1 is the Synt-governor of w2. To put it differently, the Synt-head of a phrase determines more than any other of its elements all the external syntactic links of the phrase. This phenomenon is often referred to as Percolation [of the passive SSynt-valency]. Let it be emphasized that Criterion B1 does not require exact distributional equivalence between the Synt-head of a phrase and
III. Dependenz. Grundlagen und Grundfragen
the whole phrase, as is the case in several similar approaches. For us, it is sufficient if, in the phrase w1⫺syntJw2, the wordform w1 contributes to the passive SSynt-valency of w1⫺syntJw2 more than w2. Examples (14) a. In the phrase for decades, the passive SSynt-valency (= the distribution) of the phrase is determined by the preposition; therefore, for⫺syntJdecades. b. Similarly, in has escaped or does not escape, the phrase shows the distribution of, or plays the same Syntrole as, has/does (i. e., that of a finite, or tensed, verb) rather than that of the past participle escaped or the infinitive escape; therefore, has⫺syntJescaped, does⫺syntJescape. c. The phrase General Wanner has the passive SSynt-valency of Wanner, not that of general: I see General Wanner ⬃ I see Wanner ⬃ *I see general; therefore, GeneralIsynt⫺Wanner. B2. The morphological links between the elements of the phrase and its external context. If in the phrase w1⫺syntJw2, in which the passive SSynt-valency does not allow us to establish the Synt-governor, it is w1 that controls inflection of wordforms external to the phrase or whose inflection is controlled by such wordforms, then w1 is the Synt-governor of w2. Examples (15) a. The Russian phrase jubka-sˇtany, lit. ‘skirt-pants’, does not allow for the application of Criterion B1 (both its members are nouns); but Criterion B2 singles out jubka as the Synt-governor: e`ta jubka-sˇtany byla … ‘this skirt-pants was …’, where the external agreement is with jubka [sg, fem], and not with sˇtany [pl] (*e`ti jubkasˇtany byli …). b. In the phrase v sˇtate Nebraska ‘in [the] state [of] Nebraska’, sˇtat is declined regularly (sˇtat, sˇtata, sˇtate, …) in conformity with external context, while Nebraska remains in the nominative (v Nebraske, but *v sˇtate Nebraske); thus, sˇtat is here the morpho-
19. Levels of Dependency in Linguistic Description: Concepts and Problems
logical contact point, and it is again picked by Criterion B2 as the Syntgovernor: sˇtat⫺syntJNebraska. c. Similarly, in the phrase of the type cˇudo-jabloko, lit. ‘miracle-apple’, jabloko ‘apple’ is the Synt-governor, since it is declined according to the requirements of the external context while cˇudo remains invariable: cˇudo-jabloka, cˇudo-jabloku, …, cˇudo-jabloki, cˇudo-jablokami, … d.
In the phrase [pjat’] kilogrammov kolbasy ‘five kilos of sausage’, the noun kilogrammov is the Synt-governor, since it is the morphological contact point: [s pjat’ju] kilogrammami⫺syntJkolbasy ‘with 5 kilos of sausage’, [v pjati] kilogrammax⫺syntJkolbasy ‘in 5 kilos of sausage’, etc. e. Likewise in Germ. [zwei] Gläser Wein, lit. ‘two glasses [of] wine’, the Synt-governor is Gläser, which is the morphological contact point: (i) [zu diesen zwei] Gläser⫹n⫺ syntJWein, lit. ‘to these two glasses [of] wine’, where Gläsern is in the dative imposed by the preposition ZU; (ii) dies⫹e zwei Gläser Wein sind notwendig ‘these two glasses [of] wine are necessary’, where Gläser [pl] imposes the plural grammeme on the adjective and on the verb. Therefore, GläserJWein. f. In Dutch, the situation is slightly different: here, the Nmeasure is invariable itself, but it still imposes the plural agreement on the verb: Twee glazen wijn zijn[pl] **is[sg]+ noodzakelijk ‘two glasses [of] wine are necessary’; therefore, in Dutch also glazenJwijn. But in semantically equivalent phrases of Chinese, which has no inflection, the Synt-Ds are different: (16b).
B3. The semantic content of the phrase. If the phrase w1⫺synt⫺w2, in which neither the passive SSynt-valency nor the morphology allow us to establish the Synt-governor, means ‘a kind/an instance of w1’ rather than ‘a kind/an instance of w2’, then w1 is the Synt-governor of w2.
201
Examples (16) a. In jam sandwich, the Synt-governor is sandwich, because ‘jam sandwich refers to a kind of sandwich, rather than to a kind of jam’ (Hudson 1990, 98). b. In Chinese, the phrase shı´ ba`ng ro`u ‘ten pound(s) (of) meat’ consists of morphologically invariable wordforms. Here again, Criterion B3 applies: the phrase refers to an instance of meat, not to an instance of pounds, so ro`u ‘meat’ is the Synt-Governor: shı´Isynt⫺ba`ngIsynt⫺ro`u. One can say (with Zwicky 1991, 4) that in a two-word phrase the Synt-governor is the syntactic category determinant, or the morphosyntactic locus, or the semantic content determinant. In sharp contrast to many other approaches to the problem of Synt-governor, I do not require the concord between Criteria B1⫺B3. Only Criterion B1 is genuinely syntactic; B2 is morphological, and B3 semantic. And we know already that the directions of Sem-D, Synt-D and Morph-D can be opposite. Therefore, it is unwise to expect that these criteria will not be in conflict more often than not. For us, Criteria B1⫺B3 form a hierarchy: B1 > B2 > B3. Thus, if Criterion B1 is applicable, its indication is sufficient. Only if it is not applicable (because w1 and w2 are both of the same part of speech and thus have the same passive SSynt-valency), Criterion B2 applies ⫺ but only in a language having inflection and only for w1 and w2 with different morphological properties. Otherwise, Criterion B3 applies. Therefore, these criteria are never applied together (= simultaneously) and, as a result, they cannot contradict each other. The criteria for the direction of Synt-D (‘Head-vs.-Dependent’ problem) are thoroughly discussed in Zwicky 1985, 1991, Hudson 1987, 1990, 106⫺107, and in Corbett et al. (eds.) 1993. For a more accurate formulation of Criterion B1, see Mel’cˇuk 1988, 132⫺135. The Criteria B1⫺B3 call for the following two important remarks. First, Criteria B1⫺B3 are not universal: if, in the phrase X ⫹ Y of language L (X and Y being of different parts of speech), these criteria pick X as the Synt-governor, i. e., we have XJY, then this will not necessarily be the case in any language. Thus, in German (and Russian) Nmeasure JN, because Nmeasure
202 is the morphological contact point (cf. [zu diesen zwei] Gläser⫹n Wein in (15e)); yet it does not follow that N syntactically depends on Nmeasure that quantifies it in any language: in a language where the Nmeasure does not inflect and does not control the inflection of an ‘external’ wordform, Criterion B3 picks N as the Synt-governor: cf. Chinese in (16b). Second, Criteria B1⫺B3 are inherently insufficient: there are cases where all the three fail. It must happen where, in a phrase X ⫹ Y, both X and Y are of the same part of speech, both do not inflect nor can impose different inflections and both are semantically ‘equal.’ Take, for example, Russian expressions of the type vcˇera utrom, lit. ‘yesterday morning’ or segodnja popozzˇe, lit. ‘today later’. Both wordforms in them are adverbs, both have no morphology and both denote time; which one is the Synt-governor? (Note that both are equally omissible: Alen priexal vcˇera ‘Alan came yesterday’ and Alen priexal utrom ‘Alan came in the morning’.) In such cases, a more or less arbitrary solution imposes itself: the preceding element will be taken as the Synt-governor: vcˇeraJutrom, segodnjaJpopozzˇe. But there could be a semantic motivation, after all: ‘yesterday’ and ‘today’ are somehow more important than ‘in the morning’ and ‘later’. An even more difficult and problematic case is that of compound numerals in languages where numerals are morphologically invariable themselves and do not govern special inflections of the quantified nouns. (Otherwise, numerals do not create problems. Thus, in Russian, in sˇest’desjat tri ‘63’ the Synt-head is tri, because in compound numerals the rightmost numeral is the morphological contact point: sˇest’desjatItri stol⫹a, but sˇest’desjatIpjat’ ‘65’ stol⫹ov and sˇest’desjatIodin ‘61’ stol⫹Ø. This means that Criterion B2 applies here and indicates the Syntgovernor.) Take, for instance, Fr. soixanteneuf ‘69’. Since both its components are numerals, Criterion B1 is not applicable (soixante and neuf have the same passive Synt-valency); since almost all French numerals have no morphology and do not affect the morphology of the noun quantified, Criterion B2 is not applicable, either; finally, their meanings are strictly of the same type (= numbers), so that neither Criterion B3 can be used. The only way open is then to reason by analogy. The compound numeral soixante et un, lit. ‘60 and 1’ (and a few others with 1 as the last digit), would suggest the Synt-domi-
III. Dependenz. Grundlagen und Grundfragen
nance soixanteJetJun ⫺ by analogy with regular conjoined strings of the type AlanJandJLeo or beautifulJandJintelligent. But then consider two contradicting facts: ⫺ The numeral UN agrees in gender with the noun quantified: vingt et un garc¸ons [masc] ‘twenty-one boys’ vs. vingt et une [fem] filles ‘twenty-one girls’; according to Criterion B2, it is UN which must be the Synt-head. ⫺ Take the ordinals, such as soixante et unie`me ‘sixty-first’ or soixante-cinquie`me ‘sixty-fifth’ (similarly, soixante et onzie`me, lit. ‘60 and 11th’ = ‘71th’ et quatre-vingtonzie`me, lit. ‘80-11th’ = ‘91st’); here the Synt-governor is clearly the ordinal numeral unie`me ‘1st’, cinquie`me ‘5th’ et onzie`me ‘11th’ (according to Criterion B1), i. e., the rightmost numeral in a compound ordinal: troisIcentIsoixanteIcinquie`me ‘365th’, troisIcentIsoixanteIetIonzie`me ‘371st’, etc. Then, continuing reasoning by analogy and taking these two facts into account, we arrive at the same SSyntS in compound cardinals: troisIcentIsoixanteIcinq ‘365’. And, of course, troisIcentIsoixanteIetIun ‘361’. In a language like German, where numerals are regularly linked by a conjunction (und ‘and’), this gives the following Synt-structures: dreiIhundertIfünfIundIsechzigste ‘365th’, where sechzigste ‘sixtieth’ is clearly the Synthead; in a similar way, dreiIhundertIfünfIundIsechzig ‘365’. It is possible that the element of type ‘and’ (Fr. et, Germ. und) should not be considered coordinate conjunction within compount numerals; then the SyntSs shown above will look less exotic. C. Types of SSynt-Relations In the phrase w1⫺rJw2, the Synt-D that links the two wordforms can be labeled r (i. e., it can be the SSyntRel(ation) r) only if it has the following three properties:
19. Levels of Dependency in Linguistic Description: Concepts and Problems
C1. Absence of semantic contrast. The construction L(w1)⫺rJL(w2), where L(w1) and L(w2) are the lexemes to which w1 and w2 belong, cannot be implemented as two semantically different phrases, for any w1 and w2. Example (17) In Russian, the construction DESJAT’⫺?JDOLLAR has two different implementations with different meanings: desjat’ dollarov ‘10 dollars’ vs. dollarov desjat’ ‘approximately 10 dollars’; therefore, there are two SSyntRels: DESJAT’Iquantitative⫺DOLLAR = desjat’ dollarov; DESJAT’Iapprox-quantit⫺DOLLAR = dollarov desjat’. C2. Syntactic substitutability. The SSyntRel r can be characterized from the viewpoint of the following property, introduced in Kunze 1972 and called here the Kunze Property: Let there be, in language L, wordforms of types X, Y, Z, and W, complete subtrees DZ and DW (= subtrees having as their top nodes the wordforms of types Z and W) and a SSyntRel r; we say that r has the Kunze property iff for any pair of wellformed SSyntSs X⫺rJDZ and Y⫺rJDW, replacing DZ by DW and inversely does not affect the wellformedness. This is, in point of fact, what is known in linguistics as substitution test, except that it deals here with reciprocal substitution of subtrees which have to hang on the same SSyntRel r. However, the Kunze property is too rigid, since it does not allow for some desirable generalizations. For instance, it does not admit the same SSyntRel for nominal and infinitival SSynt-Subjects, as in the following French sentences: (18) La courseIr⫺fatigue, lit. ‘The running tires’. CourirIr⫺fatigue, lit. ‘To-run tires’. Since far from any verb in French takes an infinitive as its SSynt-Subject (*Pleuvoir m’a surpris, lit. ‘To-rain has caught me (out)’), the SSyntRel r in (18) does not have the Kunze property: with L(X) ⫽ SURPRENDRE ‘[to] catch N (out)’, DZ ⫽ NP (e. g., La
203
pluieIr⫺surprend) and L(Y) ⫽ FATIGUER ‘[to] tire’, DW ⫽ Infinitival Phrase (Courir Ir⫺fatigue), the replacement produces the syntactically ill-formed configuration *VinfIr⫺SURPRENDRE. As a result, using the Kunze property leads to having two different SSyntRels for nominal and infinitival SSynt-Subjects (as stated in Kunze 1975: 279). But it seems that in (18) the SSyntRel r should not be split: all the SSynt-Subjects, whether nominal or infinitival, share a set of important unique properties, and it is preferable to describe all of them by the same SSyntRel. Therefore, it is proposed to use the quasiKunze Property, which is weaker: substitutability is required only in one direction and only by at least one particular subtree, rather than in both directions and by any subtree. (The concept of the quasi-Kunze property has been elaborated jointly with L. Iordanskaja; it is introduced in Iordanskaja & Mel’cˇuk 2000.) The quasi-Kunze property is defined as follows: A SSyntRel r has the quasi-Kunze property if there exists in L a syntactic class (⬇ part of speech) X, which is different from substitute pronouns and such that for any SSynt-configuration L⫺rJDY, replacing DY by DX (but not necessarily vice versa!) in any SSyntS does not affect its syntactic wellformedness. The element DX that ‘passes’ with any governor of the SSyntRel r is nothing else but the prototypical dependent of the SSyntRel r. The SSyntRel r in (18) has the quasiKunze property, since this r has a prototypical dependent: a prepositionless noun (in French any finite verb admits a nominal SSynt-Subject). As a result, the SSyntRel r is allowed: this is the subjectival SSyntRel. To sum up: Any SSyntRel r in a language must have the quasi-Kunze property. Example (19) In English, in the phrases have⫺rJbeen and be⫺rJgoing the presumed SSyntRel r does not have the quasiKunze property: *have⫺rJgoing and *be⫺rJbeen. Therefore, there are two different SSyntRels: HAVE⫺perfect-analyticalJBEEN and BE⫺progressive-analyticalJGOING.
204
III. Dependenz. Grundlagen und Grundfragen
C3. Repeatability with one Synt-governor. The SSyntRel r is either not repeatable (only one branch labeled r can start from a node: all actantial SSyntRels, such as subjectival or direct-objectival), or fully repeatable (any number of branches labeled r can start from a node: the modificative SSyntRel). A SSyntRel cannot be limitedly repeatable. Note that the phenomenon known as ‘clitic doubling’ (for instance, Sp. A Marga le he dicho, lit. ‘To Margaret her [I] have said’, where a Marga and le are both IndirOs) is not considered as repeatability of a SSyntRel. Pronominal duplication of clause elements has a grammaticized character and is ‘orthogonal’ to the genuine cooccurrence of SSyntRels, since the noun and the clitic that duplicates it are necessarily coreferential. Examples (20) In Persian, we find extremely widespread expressions of the following type: Ra¯min⫹ ra¯ I?⫺ kard⫺?J beda¯r, Ramin DirO made waking [noun] lit. ‘[S/he/it] made [the] waking Ramin’ = ‘S/he/it woke Ramin’. These expressions are built on verbal collocations of the type beda¯r kard ‘waking make’ = ‘wake’ or dars dad, lit. ‘lesson give’ = ‘teach’, which, although they seem to include a DirO (such as beda¯r or dars), behave as transitive verbs and take ⫺ as a whole ⫺ a ‘genuine’ DirO (since the suffix -ra¯ is an unmistakable marker of DirO, after verbs meaning ‘kill’, ‘see’, ‘build’, etc.). The presumed SSyntRel in such expressions would be limitedly repeatable ⫺ just twice; therefore, there are two different SSyntRels: ¯ MINIdir-obj(ectival)⫺KARD⫺ RA ¯R quasi-dir-objJBEDA If at least one of Criteria C1⫺C3 is not satisfied, the presumed SSyntRel r should be split in two (or more) SSyntRels. As we see, SSyntRels are labeled, the label being meaningful (as is the case with MorphD): the label r of a SSyntRel refers to a family of specific syntactic constructions which implement, in the DMorphS of the sentence, the SSyntRel r. Thus, the label of the SSyntRel
“subj(ectival)” in Russian, i. e., the SSyntRel that appears in phrases of the type w1⫺ subjJw2, refers to a set of SSynt-rules that make the finite verb w1 agree with the noun w2 in person and number (if the verb is in the present or the future) and in number and gender (if the verb is in the past or the subjunctive); these rules also position w2 with respect to w1. In other words, the SSyntRel “subjectival” is the signified (= Saussure’s signifie´) of every construction in this family; generally speaking, a SSyntRel is a component of a linguistic sign. The SSyntRels of a language form a systematic inventory, just like phonemes or inflectional grammemes. Criteria C1⫺C3 are part of a methodology for establishing SSyntRels’ inventories. Now we are ready for a definition of Synt-D. Definition 3: Syntactic dependency (in the SSyntS) The wordform w2 is said to syntactically depend on the wordform w1 via SSyntRel r in a sentence iff each of the Criteria A⫺C is satisfied for this pair of wordforms and the SSyntRel r.
We then write w1⫺rJw2. 4.4.4. The Logical and Linguistic Properties of Syntactic Dependency a) Synt-D is anti-symmetrical: a wordform w1 cannot be the Synt-governor of another wordform w2 and simultaneously have w2 as its own Synt-governor (*w1 IsyntJw2); this would be absurd, since, for one thing, w1⫺syntJw2 signals that w2 is positioned with respect to w1, and if this is true, it is paradoxical to claim that also w1 Isynt⫺w2 and thus w1 is positioned with respect to w2. b) Synt-D is anti-reflexive: a wordform cannot be licensed by itself to occupy a slot in a synt
Synt-structure (*
). As with Sem-D, w
anti-reflexivity follows from anti-symmetry. c) Synt-D is anti-transitive: if in a sentence we have w1⫺syntJw2 and w2⫺syntJw3, then *w1⫺syntJw3. (Otherwise, the principle of the unique governor ⫺ see below, item e) ⫺ would be violated. This does not preclude, however, an indirect Synt-D: w3 is part of the subtree hanging from w1.) d) Synt-Ds must be distinctively labeled: to properly represent Mary loves John, in pairs
19. Levels of Dependency in Linguistic Description: Concepts and Problems
MaryIr1⫺love and JohnIr2⫺love the SSyntRel r1 and r2 must be different; otherwise the semantic contrast will not be preserved in the SyntS. (The SSyntS MaryIr⫺loves⫺rJJohn does not show who loves whom.) e) Synt-D presupposes the uniqueness of the governor: a wordform can syntactically depend only on one other wordform (or be independent, as is the top node of a Synt-tree). f) Synt-D is universal in the following three respects: it is present in all languages; it appears in all sentences of a language; and it embraces all wordforms of a sentence (that is, for a sentence, Synt-Ds always form a connected structure ⫺ like Sem-Ds, but unlike Morph-Ds). Examples of Deep-Synt-Ds and SurfaceSynt-Ds are given in the structures (3) and (4). For a detailed description of the SSyntRels of English, see Mel’cˇuk/Pertsov 1987, 85⫺156 (also Section 4.4.8 below) and Apresjan et al. 1992, 71⫺121; the inventories of SSyntRels for Russian are found in Mel’cˇuk 1974, 221⫺235, and Apresjan et al. 1989, 1992, 204⫺208; for the inventories of SSyntRels for German, Danish, Polish, Bangla, Finnish, Hungarian, Japanese, and Esperanto, see Maxwell/Schubert 1989. 4.4.5. Three Non-Definitorial Important Linguistic Properties of Synt-Governors and Synt-Dependents Synt-governors and Synt-dependents can be distinguished according to the following three important properties: omissibility, cooccurrence control, and incorporability. These properties, however, cannot be taken as definitorial: several types of Synt-governors, resp. Synt-dependents, in particular languages do not have them. Nevertheless, they are sufficiently characteristic of Syntgovernors and Synt-dependents and can be resorted to as convenient heuristic means. Omissibility This is the most important non-definitorial property that distinguishes Synt-governors and Synt-dependents. Typically, in the phrase w1⫺syntJw2, the Synt-dependent w2 is omissible without affecting the Synt-correctness of the SSyntS, while the Synt-governor w1 is not. Such is the case in the phrases AIN, NJNgen, VJPREP ⫹ N, XJConj coord ⫹ Y and a few others. (Let it be emphasized
205
that we speak here of omissibility in the Syntstructure, not in the actual sentence.) But this is not always the case: ⫺ The Synt-dependent can be not omissible: either in some contexts (as a DET in a DETIN phrase), or never ⫺ in exocentric constructions (as a N in a PREPJN phrase). Cf., for instance, non-omissible adjectives in the constructions of the type a man of various talents. ⫺ The Synt-governor can be omissible: for example, 1) the Russian preposition OKOLO ‘about’ with a numeral phrase (okolo tre¨x tonn ‘about three tons’ is syntactically equivalent to tri tonny) or the English prepositional configuration from ⫺ to, again with a numeral phrase (from three to six girls is syntactically equivalent to six girls); 2) the English subordinate conjunction THAT (John knows that Mary is in town is syntactically equivalent to John knows Mary is in town). Cooccurrence (= Subcategorization) Control Typically, in the phrase w1⫺syntJw2, the Synt-governor w1 controls the subcategorization of the Synt-governor of the whole phrase. Thus, if a verb admits a noun as its actant, the properties of the noun may play a role (this verb admits only human nouns, or only mass nouns, etc.); but it cannot be the case that the verb admits as its actant a noun with a special determiner ⫺ say, only with EVERY, or only with A/AN, etc. This fact points to N as the Synt-governor in the phrases DETIN or ADJIN. Similarly, in the phrase CONJsubord JVsubord (… whether [he] comes, … that [I] am [here]), it is CONJsubord that subcategorizes the Main Verb [MV] in the matrix clause: some verbs take WHETHER, some others take THAT, etc.; but the verb of the subordinate clause is immaterial in this respect. Consequently, we have Vmatrix JCONJsubord [JVsubord]. More generally, the Synt-governor w1 tends to be subcategorized for its Synt-dependent w2: we say manyIbooks, but muchInoise, etc.; or else dependJon, but borrowJfrom, etc. Incorporability Typically, in the phrase w1⫺syntJw2, the Synt-dependent w2 incorporates into the Synt-governor w1, and not the other way
206
III. Dependenz. Grundlagen und Grundfragen
around. If w2 has its own dependents, they can be incorporated with it or remain stranded in the sentence (as a function of the language and the context); but a Synt-dependent cannot be incorporated, while its governor is not. Here are two examples. (21) a. Southern Tiwa (New Mexico, USA) Wisi seuan⫹in bi⫹mu˜⫹ban two man pl 1sg see past ‘I saw two men’. vs. Wisi bi⫹seuan⫹mu˜⫹ban two 1sg man see past ‘I saw two men’. vs. Seuan⫹in *bi⫹ wisi⫹mu˜⫹ban man pl 1sg two see past ‘I saw two men’. b. Chukchee (North-Eastern Siberia, Russia) ne⫹tur⫹qine⫹te kupre ⫹te new instr net instr ‘with [a] new net’ vs. tur⫹ kupre ⫹te new net instr ‘with [a] new net’ [Non-incorporated adjectives in Chukchee have a prefix ne-, which marks them as adjectives, and a person/number suffix.] Let me emphasize once again that the property of Synt-governors to be or not to be semantically dominant and the property to control the inflectional form of their Synt-dependents or to have their own inflectional form controlled by a Synt-dependent should not be taken into account when deciding on the Synt-governor status of a wordform: semantic and morphological properties are, as was already stated, freely distributed among Synt-governors and Synt-dependents. A consistent combination of all these properties should not be expected. 4.4.6. The Absolute Head of the Synt-Structure of a Sentence Since Synt-D presupposes uniqueness of governor (no wordform in the sentence can depend syntactically more than on one other wordform), the SyntS of a sentence must have one ‘absolute’ head, or a top node ⫺ a wordform which does not syntactically depend on anything and on which all the other wordforms of the sentence depend (directly or indirectly). Practically, in most versions of
the D-approach known to me, in a complete sentence or a complete clause this role is filled by the finite, or tensed, verb ⫺ the Main Verb (at least in languages that obligatorily have one in each complete clause/sentence, cf. below; see Art. 53). This view was held, at least in Europe, already in 13th⫺14th centuries (Weber 1992, 13 speaks of Siger von Kortrijk, who was preaching the absolute dominance of the finite verb around 1300; cf. the following remark by Niccolo` Macchiavelli in 1516: ‘… dicono che chi considera bene le 8 parte de l’orazione … troverra` che quella che si chiama verbo e` la catena e il nervo de la lingua;’ quoted in Koch/Krefeld 1991, V). Thus, in the DSyntS (3), where the form of the MV, even an analytical one, is represented by one single node, the top node of the sentence is the verb ESCAPE (in the finite form of the Present Perfect); in the SSyntS (4), where each wordform, including the auxiliary ones, is represented by a separate node, the top node is the verb HAVE (in the finite form of the Present Indefinite). The choice of the MV as the Synt-head of the sentence is by no means arbitrary: the finite verb is, on Criteria B1⫺3, the Synt-governor with respect to all its partners, and in this way it ends up as the absolute head. Let us consider the application of Criteria B1⫺3 to the MV of a sentence. By Criterion B1, the finite verb is the governor of the subject, since the passive Syntvalency of the phrase Subject⫺synt⫺MV is determined by the verb: for a phrase to be insertable in the construction I know that … (or any similar one), it has to contain a finite verb; with respect to the phrases Object⫺ synt⫺MV or Circumstantial⫺synt⫺MV the syntactically dominant status of the verb is obvious (and has never been doubted). To this, two arguments can be added: ⫺ In many languages, subjectless sentences exist (Chinese, Japanese, Lezgian): for instance, Lezgian (Eastern Caucasian) Meqœ izva, lit. ‘Cold-is’ = ‘It is cold’ [no Syntsubject is possible, even a zero one ⫺ the Lezgian verb knows no agreement, so that nothing would justify positing a zero dummy subject]. Even in languages where the subject is not omissible, such as English or French, the imperative sentence uses a finite verb, but has no surface subject; in PRO-drop languages (Spanish, Polish, etc.), sentences without an overt sub-
19. Levels of Dependency in Linguistic Description: Concepts and Problems
ject are quite typical (Sp. Esta´ muy ocupado ‘[He] is very busy’ is a current example). Sentences without objects and circumstantials are even more widespread. Thus, the presence of the MV is the necessary and sufficient condition for the existence of a ‘genuine’ sentence. ⫺ The Sem-valency and the active Synt-valency of the MV determines the syntactic organization of the clause. Thus, if the MV is SLEEP, only one Sem-Actant and, consequently, only the Synt-Subject is possible; with SEE, two Sem-Actants and, consequently, the Synt-Subject and the DirO are necessary; KISS involves three Sem-Actants, but there can be only two Synt-Actants (the Synt-Subject and the DirO) or three Synt-actants: Alan kissed Helen’s hand vs. Alan kissed Helen on the forehead. Strictly speaking, we need not try Criteria B2 and B3, since Criterion B1 establishes the MV as the top node of a clause beyond any doubt. However, we will do it ⫺ in order to show that in this case they all agree. By Criterion B2, it is the finite verb that is the morphological contact point in a subordinate clause; for instance: ⫺ In French, after the conjunction QUOIQUE ‘although’, the MV of the subordinate clause has to be in the subjunctive: quoiqu’il soit **est+ malade ‘although he is ill’. ⫺ In French and English, after the conjunction SI/IF the MV of the subordinate clause has to be in the present, even if it refers to the future: S’il vient **viendra+ demain … /If he comes **will come+ tomorrow … ⫺ If a clause is nominalized in order to be used in the Synt-Structure as a noun, it is its MV that actually undergoes the nominalization: After John arrived, … ⇒ After John’s arrival, … And, finally, by Criterion B3 the whole sentence is semantically reducible to its MV rather than to its Synt-subject (John works at IBM is more ‘an instance of work’ that ‘an instance of John’). However, two complications arise in connection with the Main-Verb-as-the-SyntHead-of-the-Sentence principle: zero verb forms and verbless sentences.
207
Zero verb forms What is the top node of the SyntS of the Russian sentence (22), which does not contain an overt verb at all? (22) a. Leo moj drug, lit. ‘Leo my friend’ = ‘Leo is my friend’. Our first clue is that as soon as this sentence is transposed into the past, the future, the subjunctive or the imperative, a form of the verb BYT’ ‘[to] be’ obligatorily appears: b. Leo byl moim drugom Leo budet moim drugom Leo byl by moim drugom Leo, bud’ moim drugom
‘Leo was my friend’. ‘Leo will be my friend’. ‘Leo would be my friend’. ‘Leo, be my friend’.
Since (22a) stands in an obvious paradigmatic relation to (22b), we conclude that the verb BYT’ has a zero form in the present, so that the SSyntS of (22a) looks as follows: ’
BYT’pres is expressed by a zero signifier on the SMorph-level only; thus, it does not create a problem for the D-Synt-Structure of a sentence. See Mel’cˇuk 1988, 303 ff. or (newer version) 1995, 169 ff. for zero verb forms in syntax. Verbless sentences In quite a few languages, a full sentence does not have to include a finite verb. Thus, in Turkic languages, an equative sentence in the present (‘John is a doctor/John is Canadian’) does not admit a finite copula verb; instead, the predicative noun or adjective is supplied with a predicative suffix, which thus marks its special character. But in Salishan languages, all types of full sentences can currently make it without a finite verb.
208
III. Dependenz. Grundlagen und Grundfragen
(23) Lushootseed (British Columbia, Canada; Beck 1997, 98 ff.) a. s? uladxw ti? iL salmon that ‘That [is/was] a salmon’. b. sali? ti? e? sqwigwac two this deer ‘These deer [are/were] two’. dxw?al te hud into the burning te s ⫹ xwitœil ?e te biac the nominalizer fall of the meat lit. ‘Into the fire [is/was] the fall(ing) of the meat’ = ‘The meat falls/fell into the fire’.
c.
As Beck points out, this situation is typical for other Salishan languages as well: any element of the sentence, whatever its part of speech, can be turned into the syntactic predicate, provided it is rhematic (in Salishan languages, the SyntS of sentences very closely parallels their communicative structure). In such sentences, the top node of the SSyntS can really be anything ⫺ for instance, here is the SSyntS of (23c):
ably a finite verb. However, even these languages have ‘incomplete’ clauses of different types, in which the Synt-top node cannot be a finite verb (Best wishes to you and your family; Down with Saddam Hussein!; Yours sincerely; Rus. Mne esˇcˇe¨ domoj idti, lit. ‘To-me still home to-go’ = ‘I still have to go home’; Fr. Et elle de rire, lit. ‘And she to laugh’ = ‘She broke out laughing’, etc.). The languagespecific rules define the admissible top node for each type of these ‘minor’ sentences. 4.4.7. The Three Major Types of Syntactic Dependency Three major types of Synt-D are (more or less) universally recognized: complementation, modification, and coordination. (Complementation and modification are particular cases of subordination.) The distinctions between these types of Synt-dependents have been discussed for a long time (cf., e. g., Matthews 1981, 147⫺ 167; Lehmann 1985;Zwicky 1993), so here we simply formulate the corresponding definitions. In all of them, the wordform w2 depends syntactically on the wordform w1 in the given sentence: w1⫺syntJw2. Definition 3.1: Complementation The wordform w2 is said to be a complement, or a Synt-Actant, of the wordform w1 if w2 is also a Sem-dependent of w1:
DXw AL subjectival prepositional
’ SXwITIL
ɘ
T
prepositional
ɘ
ɘ T
BIAC determinative
T
synt
HUD
determinative determinative agentive
ɘ
As one can easily see, the top node in this SSyntS is a preposition meaning ‘into’. To take into account languages with verbless sentences, we have to generalize our MainVerb-as-the-Head-of-the-Sentence principle. This is readily done: The top node of the SyntS of a sentence is its SyntPredicate, whatever its surface realization.
In the languages of what Whorf called ‘Standard Average European’ type the Synt-predicate of a full-fledged clause is (almost) invari-
w2
w1 sem
Examples (complements are in boldface): Alan loves Helen; during [the] meeting; worth [a] trip; This must be seen; but [not] Helen. Comment Definition 3.1 is approximate: it does not cover all the types of complementation. Thus, the cases where a complement of a wordform w depends semantically on a different wordform wⴕ which stands in a complementation relation to w are left out of consideration. Definition 3.2: Modification The wordform w2 is said to be a modifier, or a Syntattribute, of the wordform w1 if w2 is a Sem-governor of w1: synt w2
w1 sem
209
19. Levels of Dependency in Linguistic Description: Concepts and Problems
Examples (modifiers are in boldface): good friend, love passionately; only him; not serious; wrote in Stuttgart; wrote when [he was in Stuttgart] Comment Definition 3.2 is also approximate and does not cover all the cases. The opposition ‘complementation ⬃ modification’ underlies, in an obvious way, the problem of distinguishing between actants (⬇ complements, Germ. Ergänzungen, Rus. dopolnenija) and circumstantials (⬇ modifiers, Germ. Angaben, Rus. obstojatel’stva). This distinction, first introduced probably in Tesnie`re 1959, is discussed in Engel 1977, 98⫺ 103, 158⫺179, Somers 1987, 12⫺28 and Helbig 1992, 75⫺98 (with rich bibliography). Definition 3.3: Coordination The wordform w2 is said to be a conjunct of the wordform w1 iff semantically neither of them depends on the other (w1 and w2 are not directly related semantically), but w1 and w2 are both Semdependents of a semanteme ‘and’ or ‘or’ (and of any of their semantic variants, like ‘but’, etc.).
Comments 1. The coordiniation of w1 and w2 can be of two types: ⫺ Either direct coordination, where w1 and w2 have a direct Synt-D between them: w1⫺coordJw2; this coordination is called asyndetic (‘conjunctionless’). Examples: Alan, Leo, Helen; eat, drink, sing, dance; red, [not] white ⫺ Or indirect coordination, where w1 and w2 are syntactically linked via a conjunction CONJcoord: w1⫺coordJCONJcoord⫺conjunct(ional)Jw2.
Examples Alan and Helen; either Alan or Leo; eat and drink, but not sing and dance; red, but [not] white. 2. Definition 3.3 covers the coordination in the DSyntS only. In the SSyntS, coordination is defined by formal analogy with ‘genuine’
Deep coordination, because on this level, formally coordinate structures can be used to express Sem- and DSynt-subordination. Thus, in Russian, we have izlovcˇilsja i ukusil, lit. ‘managed and bit’, where the conjunct ukusil is the DSynt-Actant II of izlovcˇilsja (example from Boguslavskij 1996, 28⫺32). The above distinctions between the three types of Synt-D are reflected in the DSyntcomponent of the Meaning-Text model by the three-pronged division of the DSyntRels: actantial (I, II, …, VI) = complementation vs. attributive (ATTR) = modification vs. coordinative (COORD) = coordination (cf. Mel’cˇuk 1988, 63⫺65). The relations between the three type of Synt-D can be shown in the following diagram:
SYNTACTIC DEPENDENCY
SUBORDINATION
COORDINATION
COMPLEMENTATION MODIFICATION
For the surface SyntS, a fourth type of SSyntRel is needed ⫺ to link ‘syntacticallyinduced’ wordforms (so-called structural words, chunks of idioms, parts of compound numerals, etc.), which do not appear in the Deep-SyntS and thus cannot be covered by the above dependency types. For want of a better term, we will call these SSyntRels ancillary, to emphasize their ‘subservient’ character.
4.4.8. An Illustrative List of Surface-Syntactic Relations (SSyntRels) of English In order to give the reader a more specific idea about SSyntRels, as they can be used in a description of a language, we cite here a tentative list of SSyntRels of English, taken ⫺ with some corrections and additions ⫺ from Mel’cˇuk/Pertsov 1987, 85⫺160. In the illustrations, the Synt-dependent is boldfaced and words not participating in the construction illustrated are included in brackets.
210 I. Subordinate SSyntRels Sentential/Clausal SSyntRels Valency-controlled SSyntRels = Complementation Actantial SSyntRels 1. Subjectival: IIsubj⫺am …; SmokingIsubj⫺is [dangerous]. That [Alan comes]Isubj⫺is [clear]. 2. Quasi-Subjectival: [It] is [clear]⫺quasi-subjJthat [Alan comes]. 3. Direct-Objectival: sees⫺dir-objJme; [to have] written⫺dir-objJnovels; worth⫺dir-objJ[a] trip; prefer⫺dir-objJ [her] staying [home]; explain [to me]ⴚdir-objJthat [Alan was absent] 4. Quasi-Direct-Objectival: make [it possible]⫺quasi-dir-objJto [neutralize the consequences] 5. Indirect-Objectival: gives⫺indir-objJAlan [some money]; convince [Alan]⫺indir-objJthat [he should work less] 6. Prepositional-Objectival-1: depends⫺prep-obj-1Jon [Alan]; respect⫺ prep-obj-1Jfor [Alan] 7. Prepositional-Objectival-2: translation[⫺prep-obj-1Jfrom Lushootseed]⫺prep-obj-2Jinto [Polish] 8. Infinitival-Objectival: can⫺inf-objJread; want⫺inf-objJto [read]; want⫺inf-objJ[Alan] to [stay] 9. Completive: find [this]⫺complJeasy; consider⫺complJ[Alan] happy 10. Copular: be⫺copulJeasy; be⫺copulJ[a] teacher; be⫺copulJwithout [a] hat seem⫺copulJin [a difficult position] 11. Agentive: written⫺agentJby [Alan]; arrival⫺agentJof [Alan] Copredicative SSyntRels 12. Subject-Copredicative: [Alan] returned⫺subj-copredJrich. 13. Object-Copredicative: [Alan] likes [Helen]⫺obj-copredJslim. Comparative SSyntRels 14. Comparative: older⫺comparJthan [Leo]
III. Dependenz. Grundlagen und Grundfragen
Non-Valency-controlled SSyntRels = Modification 15. Adverbial: walk⫺adverbJfast; [will] write⫺adverbJ[next] week; delve⫺adverbJdeeply 16. Modificative-Adverbial: [As always] elegant,Imod-adverb⫺[Alan] walked [over]. 17. Appositive-Adverbial: [An old] man,Iappos-adverb⫺[Alan] works [less]. 18. Attributive-Adverbial: Abroad,Iattr-adverb⫺[Alan] works [less]. 19. Parenthetical: Oddly,Iparenth⫺[Alan] works [less]. 20. Adjunctive: OK,Iadjunct⫺[I] agree. Absolute SSyntRels 21. Absolute-Predicative: [Alan walked in,] a stick⫺abs-predJin [hand]. Phrasal SSyntRels General Type Phrase SSyntRels Non-Valency-controlled SSyntRels = Modification 22. Restrictive: stillIrestr⫺taller, mostIrestr⫺frequent Verb Phrase SSyntRels Non-Valency-controlled SSyntRels = Ancillary 23. Perfect-Analytical: has⫺perf-analJbeen 24. Progressive-Analytical: was⫺progr-analJdreaming 25. Passive-Analytical: be⫺pass-analJloved Word-Like Phrase SSyntRels Non-Valency-controlled SSyntRels = Ancillary 26. Verb-Junctive: give⫺verb-junctJup, bring⫺junctJdown 27. Numeral-Junctive: fiftyInum-junct⫺three; fiftyInum-junct⫺third 28. Binary-Junctive: if […]⫺bin-junctJthen …; the [more …]⫺bin-junctJthe [more …]; till⫺bin-junctJafter; now⫺bin-junctJ that [this is clear …] 29. Colligative: [is] dealt⫺colligJwith [stranded prepositions] Conjunction Phrase SSyntRels Valency-controlled SSyntRels = Ancillary 30. Subordinate-Conjunctional: [Suppose] that⫺subord-conjJ[Alan] comes. 2so as9 [not]⫺subord-conjJto [irritate Leo]
19. Levels of Dependency in Linguistic Description: Concepts and Problems
31. Co-ordinate-Conjunctional: [Alan] and⫺coord-conjJHelen 32. Comparative-Conjunctional: than⫺compar-conjJHelen 33. Absolute-Conjunctional: If⫺abs-conjJ[a] pronoun, [the subject may …]; while⫺abs-conjJin [bed] Noun Phrase SSyntRels Valency-controlled SSyntRels = Complementation 34. Elective: [the] poorest⫺electJamong [peasants] Non-Valency-controlled SSyntRels = Modification 35. Determinative: myIdeterm⫺bed, aIdeterm⫺bed 36. Quantitative: threeIquant⫺beds 37. Modificative: comfortableImodif⫺beds 38. Descriptive-Modificative: [these] beds,⫺descr-modifJcomfortable [and not expensive], … 39. Possessive: Alan’sIposs⫺bed 40. Compositive: nounIcompos⫺phrase, colorIcompos⫺blind 41. Appositive: Alan⫺apposJ[the] Powerful; GeneralI appos⫺Wanner; [the] term⫺apposJ‘suffix’ 42. Descriptive-Appositive: This term⫺descr-apposJ(‘suffix’) [will be considered later]. [You forget about] me,⫺descr-apposJ [your] mother. 43. Sequential: man⫺sequentJmachine [interaction] fifty⫺sequentJto [seventy dollars] 44. Attributive: learners⫺attrJwith [different backgrounds] dress⫺attrJof [a beautiful color] a man⫺attrJ[the same] age 45. Descriptive-Attributive: Professor Wanner,⫺descr-attrJfrom [Stuttgart, was also present]. Prepositional Phrase SSyntRels Valency-controlled SSyntRels = Complementation 46. Prepositional: in⫺preposJbed 47. Prepositional-Infinitival: to⫺preposJgo [to bed] II. Coordinate SSyntRels 48. Coordinative: Alan⫺coordJand [Leo]; rich,⫺coordJintelligent⫺coordJand [beautiful]
211
Comments 1. Some of the modification SSyntRels can be valency-controlled, so that their dependents correspond to DSynt-Actants: myIdeterm⫺arrival ⇔ II I⫺ARRIVE; AmericanImodif⫺participation ⇔ AMERICAI I⫺PARTICIPATES; treat [someone]⫺adverbialJfriendly ⇔ TREAT⫺III JFRIENDLY; etc. Similarly, the coordinative SSyntRel can also be valency-controlled: try⫺coordJand [come] ⇔ TRY⫺II JCOME. The correlation between complementation and modification, as well as between complementation/modification and coordination on the DSynt- and SSynt-levels is complex enough and cannot be discussed here in depth. 2. The following proportionality obtains between three groups of SSyntRels: 1 2 3 modif : descr-modif : modif-adv ⯝ ⯝ appos : descr-appos : appos-adv = = attrib : descr-attrib : attrib-adv
5.
Possible Combinations of the Three Types of Linguistic Dependency between Two Wordforms of a Sentence
The three types of linguistic syntagmatic dependency that we are studying ⫺ semantic, syntactic, and morphological ⫺ are logically independent of each other, which means that they can co-occur in all possible combinations. Thus, two wordforms in a sentence can be related by a Sem-D with no Synt-D or Morph-D between them (a); or they can have a Sem-D and, at the same time, an inverse Synt-D, with still no Morph-D (b); or there can be a Synt-D with a Morph-D having the same orientation, but no Sem-D (c); etc. (a) w1⫺semJw2 sem
(b) w1
w2 synt
212
III. Dependenz. Grundlagen und Grundfragen synt
(c) w1
w2 morph
All in all, there are fourteen logically possible combinations of direct Sem-D, Synt-D and Morph-D between two wordforms, w1 and w2, of a sentence (cf. Mel’cˇuk 1964, 1988, 118⫺128); all of them are actually found in languages. Case 1: w1 w2, i. e., no syntagmatic dependency whatsoever between two wordforms. Example The wordforms cocoa and new in (1). Case 2: w1⫺semJw2, i. e., two wordforms are linked by a Sem-D, unsupported by any Synt-D or Morph-D. Example The wordforms farming and problems in (1) are semantically directly related (‘problems are-for farming’), yet there is no Synt-D or Morph-D between them. Case 3: w1⫺syntJw2, i. e., two wordforms are linked by a Synt-D, without any Sem-D or Morph-D between them. Examples (24) a. A quantitative adverb in Japanese, while bearing semantically on a DirO noun, as in ‘He reads many books’, depends syntactically on the verb, with which it has neither semantic, nor morphological links, cf.: Hon⫹o takusan yomimasita, lit. [He] books [acc] manylyIsynt⫺ reads’. b. A measure noun in English or French used as a DirO depends syntactically on the verb, but does not have a semantic or morphological link with it: John bought⫺syntJ[five] kilos of potatoes. Fr. Jean a achete´⫺syntJ[cinq] kilos de pommes de terre. Cf. Case 9, example (29b), p. 214. c. Any conjoined elements that are morphologically invariable, as, e. g., Alan, Helen, Leo, are linked syntactically without any direct semantic or morphological link between them.
Case 4: w1⫺morphJw2, i. e., two wordforms are linked by a Morph-D only, without any Sem-D or Synt-D. Examples (25) a. In Tabassaran (Eastern Caucasian), the Main Verb (MV) can agree with the 1st/2nd person Possessor of the Synt-subject, the Possessor being not directly related to the verb semantically or syntactically, cf.: Icˇ mudur ucˇvuhna our goat-kid[II] to-you he⫹b⫹ gnu⫹ jicˇ, left II left 1pl where the verb hegnu ‘left, fled’ agrees in class with mudur (the classmarking infix -b-), but in person and number with icˇ ‘our’. The same type of agreement of the MV is characteristic, for instance, of Chickasaw, Wichita, Tangut, and Maithili. b. In Maasai (Nilotic, Kenya), an infinitive which semantically and syntactically depends on the MV agrees in number with the subject of the MV (rather than with its own understood [= semantic] subject: A´ta´re´to help-perf-1sg.subj.3.obj cltwna´nı` /=ltw´ na´na´ the-man-sg.nom/ the-man-pl.nom a ⫹mw´ k ina´isho´ inf.sg brew beer-sg.nom ‘[I] helped the-man/the-men to-brew [sg] the-beer’. vs. K=´ta´re´to help-perf-1pl.subj.3.obj cltwna´nı` /=ltw´ na´na´ the-man-sg.nom/ the-man-pl.nom a´a ⫹mwk ina´isho´ inf.pl brew beer-sg.nom ‘[We] helped the-man/the-men to-brew [pl] the-beer’. c. In Alutor (cf. (9), p. 193), a transitive verb of perception which Synt-dominates a DirO clause can show objectagreement either with the Synt-Subject or with the DirO of this clause (depending on the communicative role of one and the other):
213
19. Levels of Dependency in Linguistic Description: Concepts and Problems
i. Qemaνe ⫹ nak na ⫹laøu⫹ Qamav sg.loc 3sg.subj see tkeni ⫹ γet γen⫹ anne pres 2sg.obj youSG instr Ø⫹ kelγatetke⫹ na ⫹ wwi 2sg.subj harness 3sg.obj pl qura ⫹ wwi reindeer pl lit. ‘Qamav sees-youSG youSG are-harnessing reindeer’ ⫽ ‘Qamav sees you harnessing the reindeer’. ii. Qemaνe ⫹ nak Ø⫹ laøu⫹ Qamav sg.loc 3sg.subj see tkeni ⫹ nina ⫹ wwi γen ⫹ anne pres 3sg.obj pl youSG instr Ø⫹ kelγatetke⫹ na ⫹ wwi 2sg.subj harness 3sg.obj pl qura ⫹ wwi reindeer pl lit. ‘Qamav sees-them youSG are-harnessing reindeer’ ⫽ ‘Qamav sees you harnessing the reindeer’. [The Alutor transitive verb enters in an ergative construction, with the Synt-Subject in the locative, if it is a human proper name, and in the instrumental otherwise; na- is a 3sg subject marker if the DirO is neither in the 3rd person nor 1sg, and Ø- is a 3sg subject marker if the DirO is in the 3rd person or 1sg. A verb of perception can also agree with its DirO clause as a whole, showing 3sg object-agreement; this case is, however, irrelevant in the present context.] Case 5:
sem
i. e., two wordforms are linked by a Sem-D and a synt Synt-D, oriented the same way, but no Morph-D is present. This is a typical situation with nominal objects in caseless languages. w2
w1
Example The wordforms escape and problems in (1). Case 6:
sem
i. e., two wordforms are linked by a Sem-D and a synt Synt-D, this time oriented the opposite ways, again with no Morph-D present.
w1
w2
Examples (26) a. Adjectives in languages where adjectives are invariable in ADJ ⫹ N phrase, cf. new and areas in (1). b. In Lushootseed, a PREP ⫹ NUM phrase syntactically depends on the clause predicate, which is its Sem-dependent, and there is no Morph-D between them:
? ebs ⫹ s ⫹ qweb⫹ qwebaj? elgwe? poss dog dog pl ?e ti?e? be⫹sali? by this two lit. ‘[They are] dogs-possessors by these two’ = ‘[They] have two dogs’ (example of D. Beck). sem
Case 7:
i. e.,
two
word-
w2 forms are linked by
w1
a Sem-D and a Morph-D, oriented the same way, but no to direct SyntD is present. morph
Example In a language where Clitic Raising exists, a clitic ⫺ in the SSyntS ⫺ can semantically and morphologically depend on an infinitive (i. e., on the lexical verb), while there will be no direct Synt-dependency, the clitic being a Synt-dependent of a higher verb: (27) Sp. LeIsyntⴚquisiera poder enviar este libro, lit. ‘To-him [I] would-like to-be-able tosend this book’. Semantically, le ‘to-him’ depends as an actant on enviar ‘send’; its dative form is also imposed by this verb. sem
Case 8:
i. e.,
two
word-
w2 forms are linked by
w1
a Sem-D and a Morph-D, oriented the opposite ways, without any direct Synt-D. morph
Example This is the case of attributive adjectives showing agreement with the subject. (28) Fr. Elle semblait fatigue´e ‘She seemed tired’, where semantically elle depends on fatigue´e [= ‘fatigue´’(‘elle’)], but morphologically fatigue´e depends on elle for its singular and femi-
214
III. Dependenz. Grundlagen und Grundfragen
nine; syntactically, the two are not directly related. Case 9:
synt
i. e., two wordforms are linked by w2 w1 a Synt-D and a morph Morph-D, oriented the same way, with no Sem-D between them.
Examples (29) a. In the Latin construction ab urbe condita, lit. ‘since [the] city founded’ = ‘since the foundation of the city’, the preposition ab ‘since’ syntactically and morphologically dominates the noun urbe, while semantically it bears on ‘conditio’ = ‘foundation’. b. A measure noun used as DirO in a language with cases depends syntactically and morphologically on the verb, but does not have a semantic link with it: Rus. Ivan kupil tonnu kirpicˇej ‘Ivan bought a ton of bricks’. Cf. Case 3, example (24b), p. 212. synt Case 10: i. e., two wordw2 forms are linked w1 by a Synt-D and a morph Morph-D, oriented the opposite ways, again with no Sem-D between them. Example A phasic or auxiliary verb which syntactically dominates its Synt-subject, but morphologically depends on it (= agrees with it in person and number), while the Sem-D relates this subject and the lexical verb, cf.: (30) The water begins to be warm, where water depends syntactically on begin, morphologically dominates it, and semantically depends on warm: ‘warm’(‘water’). sem Case 11:
i. e., two wordforms are linked w2 w1 synt by all the three morph types of dependency, oriented all the same way.
Example Nominal objects in languages with cases, cf. Rus. problem with respect to (ne) znat’ in (6). sem Case 12: i. e., two wordforms are linked w2 w1 synt by all the three morph types of depen-
dency, with Sem-D and Morph-D oriented the same way, while Synt-D goes in the opposite direction. Example Postnominal modifiers in languages having what is known as izafa construction. (31) Persian daftar⫹e nav, lit. ‘workbook new’, where nav [= w1] bears semantically on daftar and imposes on it a special form (= the izafa suffix -e), while being syntactically the dependent of daftar. sem Case 13: i. e., two wordw2 forms are linked w1 synt by all the three morph types of dependency, but this time Sem-D and Synt-D are oriented the same way while Morph-D is opposite. Example The verb in completive constructions in languages with polypersonal agreement of the verb, but no nominal cases, such as, e. g., Abkhaz. (32) Abkh. Sara Nadsˇ’a i⫹l⫹es⫹teitœ I Nadsha it her I gave asˇwqœ we book ‘I gave Nadsha [a] book’, where nouns and pronouns have no case inflection themselves, but impose agreement on the verb, whose prefixes cross-reference all the three actants. sem Case 14: i. e., two wordforms are linked w2 w1 synt by all the three morph types of dependency, of which Synt-D and MorphD are oriented the same way, with the opposite direction of Sem-D. Example Agreeing adjectives (in Slavic, Romance, Semitic, German, etc.). The consistent distinction of the three types of dependency allows for some elegant syntactic formulations. Three examples will suffice to make this point clear: ⫺ The adjective as a part of speech can be defined in terms of Sem-D vs. Synt-D (Beck 2002): A lexeme is an adjective iff it semantically dominates a noun, but syntactically depends on
19. Levels of Dependency in Linguistic Description: Concepts and Problems it. (Morph-D can go both ways or be absent altogether.)
Similarly, for the adverb (replacing ‘noun’ with ‘verb or adjective’). ⫺ Taking into account the three types of linguistic dependency, Zwicky (1993) presents the distinction between complements and modifiers in a compact and convenient form: Properties
Complement
Modifier
Semantic Syntactic
argument obligatory unique controller of agreement target of government
predicate optional repeatable target of agreement controller of government
Morphological
Let it be emphasized, however, that the properties stated in this table are verified all only in the most current, prototypical cases. As has been shown many times, syntactic and morphological properties of complements vs. modifiers can be in principle inverted. However, the semantic ⫺ definitorial ⫺ property is stable. ⫺ In the literature, one finds heated debates concerning the split of head-related properties between different sentence elements (what presumably makes the identification of heads difficult and/or dubious): a given element seems to be the head in one respect, but the dependent in another one. However, if one distinguishes the three types of dependency and uses Criteria B1⫺B3 in the hierarchical way, such a split is logically impossible. A Synt-head must have the property of Synt-heads only; it is absolutely irrelevant whether it has or not properties of Sem-heads or Morph-heads (as 14 combinations above show, in most cases it will not have them).
6.
Correlations between the Three Types of Linguistic Dependency
The following facts are known about the correlations between the three types of dependency (these correlations hold only for prototypical cases of morphological agreement and government, and that, only as a tendency; as a general rule, they can be violated).
215
Sem-D vs. Morph-D ⫺ Sem-governors morphologically agree with their Sem-dependents; ⫺ Sem-governors morphologically govern their Sem-dependents. This is the Keenan’s principle (Keenan 1974, 298⫺303; 1978, 94⫺98); cf. Zwicky’s slogan: ‘Functors are agreement targets and government triggers’ (1991, 2). Synt-D vs. Morph-D ⫺ If w2 morphologically agrees with w1, then w1 and w2 sometimes are, and sometimes are not, linked by a direct Synt-D (there can be no Sem-D between w1 and w2). ⫺ If w2 is morphologically governed by w1, then w1 and w2 are always linked by a direct Synt-D (a Sem-D can also be absent). As can be seen in our review of theoretically possible cases, in the phrase w1⫺syntJw2, the Morph-Ds can go both ways: the Syntgovernor can be both the controller and the target of a Morph-D. The same holds with respect to the linear dependency: in some cases the Synt-dependent w2 is positioned with respect to its Synt-governor w1 (ADJIN, NIV, ADJIV, etc.), but in others the Synt-governor is positioned with respect to its Synt-dependent w2 (PREPJV, Vaux JV, CONJJV, etc.). Sem-D and Synt-D are universal, and therefore they are represented explicitly in the SemS and the D-/S-SyntS of a sentence. On the contrary, Morph-D is not universal, and therefore no special structure is foreseen in which it would be explicitly represented: Morph-Ds are computed by syntactic rules of the language during the SSyntS ⇒ DMorphS transition and encoded in the DMorphS via corresponding grammemes.
7.
Current Fallacies Concerning Syntactic Dependency
One finds in the literature a number of criticisms leveled at the D-approach in syntax, which can be grouped under three rubrics: ‘double dependency’, ‘mutual dependency’, and ‘no dependency’. We will consider below an example of each in order to show that these criticisms are unjustified, since they stem from the confusion of different types of dependency.
216
III. Dependenz. Grundlagen und Grundfragen
7.1. ‘Double Dependency’ A typical case here is that of relative pronouns. Thus, in the man whom we saw/the car which we saw, some linguists ⫺ see, among many, Tesnie`re 1959, Nichols 1978, Hudson 1990, 117 ⫺ say that the relative pronoun syntactically depends both on the MV of the relative clause (here, saw) and on its own antecedent (here, man/car). Were it so, this would be a problem for the D-approach, since it would mean the violation of the uniqueness-of-Synt-governor principle; and this destroys, in turn, a clear understanding of the substantive nature of Synt-D. However, we see here again another case of confusion between different types of dependency. syntactically the relative pronoun depends only on the MV of the relative; it stands in an anaphoric relation to its antecedent and in many languages also has a Morph-D with it (agreement). In addition, there can be direct Sem-D between the relative pronoun and the MV of the matrix clause. All this masks the fact that the Synt-head of a relative clause is its finite MV, which licences the clause to be used as a relative and imposes the pronominalization of the relativized clause element. It is true that the relative pronoun has a double syntactic nature, being a Synt-dependent of the MV of the relative and, at the same time, playing the role of the marker of the relative. This leads some researchers to split the relative pronoun into two lexical elements, one of which represents the Synt-head of the relative clause (its MV depends on this element), while the other occupies its legitimate dependent Synt-position with respect to the MV of the relative. Thus, Engel 1977, 234⫺235 [1988, 292⫺293], represents the SSyntS of the German relative clause der Mann, der Birnen verkauft ‘the man that sells pears’ as follows (splitting the relative pronoun DER ‘that’ into the relative marker part D- and the pronominal anaphoric part ER ‘he’, obtaining something like the man that he [= der] sells pears): der Mann
dverkaufen er
Birnen
Relative clauses with a separate expression of the relative marker and the pronominal element exist, for instance, in Arabic. But this fact is exactly the proof that there is no need for such tours de force in Indo-European languages: here, the syntax of the relative clause is different. The double role of the relative pronoun in English, French, German, etc. is well reflected on the different levels of representation in terms of different types of dependency. As far as the Synt-D is concerned, some properties of the relative pronoun indicate its dependent Synt-role within the relative: ⫺ The relative pronoun can be omitted in many languages (as in the man I saw or the man I talk with), and its absence does not affect the properties of the relative clause. In some languages the relative pronoun does not appear at all. ⫺ Relativization is often restricted by the dependent Synt-role of the relative pronoun: for instance, relativization can be possible only if the would-be relative pronoun is the subject, or if it is the subject or the DirO, or if it is the subject, the DirO or the IndirO, etc. Thus, the type of Synt-D of the relative pronoun on the MV of the relative clause is crucial. ⫺ In some languages, the relative clause is marked by a special form of the MV of the relative, without any relative pronoun (Bantu). It is probably important to mention that in the D-descriptions of various languages (English, Danish, Esperanto, etc.) for a Machine Translation system (Maxwell/Schubert 1989), the relative pronoun is treated as a Synt-dependent of the MV of the relative clause. In a similar way, the phrase what Alan bought has the SSyntS AlanIboughtJwhat, with a finite verb as its top node. It is a particular case of a noun phrase, which can depend, e. g., on a preposition or a transitive verb: ¸
for AlanIboughtJwhat: For what Alan bought [I could pay him $ 15]; I like what Alan bought. But the phrase whatever apples (that) Alan bought (Van Langendonck 1994, 256), which is syntactically again equivalent to a noun phrase, has as its Synt-head the noun apples:
19. Levels of Dependency in Linguistic Description: Concepts and Problems
whateverIapplesJboughtJAlan, the subtree JboughtJAlan being an attributive modifier of apples. 7.2. ‘Mutual Dependency’ Fairly often, grammarians insist on mutual dependency between the MV of a clause and its Subject, saying that even if it is the MV that ‘represents’ the whole clause, the Subject controls the form of the verb (The cat is sleeping vs. The cats are sleeping). Moreover, the Subject and the MV constitute a communicative unit (theme/topic ⬃ rheme/comment). Again, such statements are due to confusion between different types of dependency: the fact that the Subject depends on the MV syntactically does not prevent the verb from depending on the Subject morphologically. In many languages the MV agrees not only with the Subject but with the Direct Object (and sometimes with the Indirect Object) as well; this, however, does not belie the universally accepted syntactic status of objects as dependents of the Main Verb. 7.3. ‘No Dependency’ It is frequently said that there is no Synt-D in conjoined, or coordinated, expressions: in Leo and Alan [came], as well as in Leo or Alan [will do it] nothing seems to be the head. Once again, Synt-D is being confused with subordination (which is simply a particular case of Synt-D). Leo and Alan is a phrase of English, and so is and Alain, while *Leo and is not; the phrase Leo and Alain has the passive valency of Leo, and not that of and Alan; the passive valency of the phrase and Alan is determined by and rather than by Alan; therefore, the Synt-Ds in Leo and Alain are as follows: LEO⫺coordinativeJAND⫺conjunctionalJALAN. The head of a conjoined phrase is then its first (⫽ leftmost) element. Note that in a number of languages, the first element in a coordination has some special properties. Thus, in Bantu languages, only the first verb in a coordinated string of verbs (stood up, took the book and left) has a complete morphological marking, including tense; all the following verbs are in a special ⫺ conjunctive ⫺ form, which precludes the expression of tense. In Nias (Indonesia), in a string of coordinated nouns, only the first noun is inflected according to the external context; all
217
the others remain in the unmarked nominative. (Cf., however, McGregor 1997, where ‘headless’, or mutual, Synt-D is recognized between the elements of a coordinated, or paratactic, construction.)
8.
Syntactic Dependency in Action: Six Illustrative Cases
8.1. Russian Numeral Phrases In Russian, a numeral phrase Num ⫹ N has a complex structure: in the nominative and the accusative case, if the numeral does not end in ‘one’, the noun is in the genitive, and its number depends on the numeral, such that ˇ ETYRE ‘4’ (or with DVA ‘2’, TRI ‘3’ and C any numeral that ends in these three ⫺ 23, 32, 44, …, 1452, etc.) it is in the singular, while with all other numerals it is in the plural; with a numeral that ends in ODIN ‘1’ (e. g., 1231) the number of the noun is singular; the case of the numeral (different from ODIN ‘1’) is the nominative or the accusative, and if it is (or ends in) DVA, it agrees with the noun in gender; etc. This complexity engendered hot debates concerning the direction of Synt-D in the phrase Num ⫹ N; all logically possible solutions have been actually proposed (NUMJN; NUMIN; NUMLN; in the nominative and the accusative it is NUMJN, in other cases NUMIN; etc.). In actual fact, the Synt-D in Russian numeral phrases is always NUMIN, since the passive valency of the phrase is obviously that of N, and not that of NUM. What obscures the picture is again confounding the Synt-D with variegated Morph-Ds (see Mel’cˇuk 1985; for the opposite view ⫺ NUMJN, i. e., the numeral is the head, ⫺ see Corbett 1993). 8.2. A Russian ‘Approximation’-Marking Preposition In the phrase okolo pjati kilogramm ‘about five kilos’ the preposition OKOLO (lit. ‘close’, here ‘approximately’), is the Synthead of the phrase: without it, the numeral phrase has the distribution of the noun, but with OKOLO the numeral phrase can only be used as the Subject or the DirO. Thus, the phrase with okolo cannot be the complement of a preposition (*dlja okolo pjati kilogramm ‘for about five kilos’) or an IndirO (raven *okolo pjati kilogrammam ‘equal to about five kilos’). Therefore, we obtain, on the SSynt-level, okoloJkilogrammJpjati. (In
218 English about ‘approximately’ does not have the same properties: it can follow a preposition, so that for about five kilos is perfectly grammatical; therefore, its SSynt-status is different: aboutIfiveIkilos.) This representation is buttressed by the complete identity of syntactic behavior of this okolo and all other ‘genuine’ Russian prepositions. Thus, all of them, together with the numeral, follow the quantified noun in the approximatequantitative construction: dlja pjati kilogramm ‘for five kilos’ ⬃ kilogramm dlja pjati ‘for approximately five kilos’ and okolo pjati kilogramm ‘about five kilos’ ⬃ kilogramm okolo pjati ‘approximately about five kilos’. A similar construction exists in Latin: (33) Lat. Circa quingentos Romanorum around 500-acc Roman-pl.gen cecid ⫹ erunt fall-perf 3pl ‘About 500 Romans fell’. The preposition CIRCA governs the case [= the accusative] of quingenti ‘500’, as all Latin prepositions do: it is the Synt-head of the phrase Circa quingentos Romanorum; however, it is omissible without any syntactic effect on the phrase. 8.3. Determiners as Heads Several linguists argue that in the DET ⫹ N phrase the determiner is the Synt-head: thus, in English we should have THE⫺syntJN, ANY⫺syntJN, etc. (Hudson 1984, 1990, 271 ff., Hewson 1991). I cannot analyze their argumentation in depth, but within the framework expounded above, such a description is impossible. The passive valency of the phrase the dog is that of the noun dog, not of the article the. If in some syntactic positions, DOG cannot appear without an article (or any other determiner), this happens because articles are exponents of grammemes of an inflectional category ⫺ namely, of the definiteness of the noun, and in these positions an English noun cannot be used without an article ⫺ very much like a Latin noun without a case-number ending. The expression *Dog is barking is ungrammatical, but not because of its ill-formed SSyntS: the problem here is the inflectional form of the lexeme DOG; this is similar to the bad expression *The dogs is barking, where the SSyntS is 100 % correct. Ergo, theIsynt⫺dog, any Isynt⫺dog, etc. Cf. also the phrases that (stupid) John, which has the distribution of
III. Dependenz. Grundlagen und Grundfragen
John and not that of the determiner that, or Dogs are faithful, where the noun dogs appears without any determiner. (In Van Langendonck 1994 the solution DETIsynt⫺N is successfully defended; for a different treatment of DET ⫹ N phrase in Salishan languages, see Beck 1997, 109⫺118.) Generally speaking, the analytical exponents of grammemes of a nominal lexeme syntactically depend on the lexeme that ‘launches’ them. For instance, in Tagalog the analytical markers of cases ⫺ ang[nom], ng[obl] and sa[dat] ⫺ syntactically depend on the noun, while prepositions govern it: PARA ‘for’JBATA ‘woman’JNG, which gives para ng bata. In languages where the plural of a noun is expressed by a separate word (Dryer 1989), this plural exponent equally depends on the noun: Yapese (Austronesian) ea piIkaarroo neey ‘the pl car this’ = ‘these cars’ or Mixe (Mexico) he pi’ miss˜ˇ J ?aHkss˜ˇ ‘the little boy pl’ = ‘the little boys’. Cf. also the Russian particle by that expresses the subjunctive of a verb on which it depends: Ja byIsynt⫺poexal ‘I would go’. 8.4. Romance Clitics Clitics in French (and in other Romance languages, where Clitic Climbing exists) pose a difficulty for a D-description: the clitic does not always syntactically depend on the same wordform on which its source depends. Thus, compare (34a) with (34b), where the clitic changes Synt-governor with respect to that of its source: (34) a. Elle a e´te´ fide`leJa` Pierre ‘She has been faithful to Peter’. b. Elle luiIa e´te´ fide`le, lit. ‘She to-him has been faithful’. On the Surface Synt-level, where clitics appear (on the Deep Synt-level, only nominal sources of future clitics are represented), a clitic depends syntactically on its host word, with which it forms a possible utterance (= a prosodic unit) and with respect to which it is linearly positioned. The ‘new’ Synt-governor of a clitic is computed by special rules of the DSyntS ⇒ SSyntS transition; it is the top node of a verbal chain on which the source of the clitic depends. 8.5. Russian ‘Exotic’ Coordination of Interrogative/Negative Pronouns In Russian, interrogative and negative pronouns which bear different Synt-relations to the governing verb are allowed to form a genuine coordinate string:
219
19. Levels of Dependency in Linguistic Description: Concepts and Problems
(35) a. Kto, komu i cˇem pomog?, lit. ‘Who, to-whom and with-what helped?’. b. Nikto, nikomu i nicˇem ne pomog, lit. ‘Nobody, to-nobody and withnothing not helped’. (On the DSynt-level, these pronouns depend ‘in parallel’ on the MV; they are turned into a coordinate phrase on the SSynt-level only.) To represent kto, komu i cˇem simply as all other coordinate constructions are represented, that is, as kto⫺coordJkomu⫺coordJi⫺conjunctJcˇem is insufficient. In a ‘regular’ coordinate construction any Synt-dependent element plays the same Synt-role as its Synt-governor with respect to the Synt-governor of the whole coordinate string. However, in this case, kto [nom] is the Subject, but komu [dat] is the IndirO and cˇem [instr] is an Oblique Object of the verb pomog ‘helped’; accordingly, all three pronouns are inflected differently. To account for this, it has been proposed (Sannikov 1989) to use double dependency, namely to add to the SyntS above the indication of the direct Synt-D of each pronoun on the verb pomog. But these added Synt-Ds do not have the same substantive nature as the SyntDs covering the coordination: the added links are needed only to compute the MorphDs (under synthesis) and the Sem-Ds (under analysis). However, as we have seen, MorphDs and Sem-Ds can link two wordforms that do not have a direct Synt-D between them. Therefore, it is preferable to introduce some special SSyntRels just for this very special construction: coord-subjectival, coord-dir-objectival, coord-indir-obj, etc. Such SSyntRels indicate, in a natural way, the exotic character of this coordinate phrase and encode the ‘actual’ SSynt-roles of its ‘displaced’ elements. A similar method is used in comparative constructions (Savvina 1976), where one has to distinguish in Russian Ja ljublju Masˇu bol’sˇe, cˇem⫺conjunctsubjJVan⫹ja ‘I like Masha more than Vanya does’. vs. Ja ljublju Masˇu bol’sˇe, cˇem⫺conjunct-dirobjJVan⫹ju ‘I like Masha more than I love Vanya’. Another possibility would be to consider the grammatical case of the Synt-dependent in such coordinate or comparative strings as se-
mantically meaningful and admit it into the SSyntS of these constructions; this is, however, too technical a point too be discussed here. 8.6. Elliptical Constructions How should one describe in D-terms common gappings of the type Alan went to Singapore and Leo to Paris? Since the expression and Leo to Paris is not a phrase of English, it cannot ⫺ such as it is ⫺ receive a wellformed SSyntS. It is a ‘mutilated’ phrase, which lost its top node, in this case a verb; but before the verb got deleted, it imposed on its dependents the appropriate lexical choices and, when needed, appropriate inflections. Therefore, to represent the SSyntS of the expression in question, one has to introduce a node that stands for the elided verb; this node is marked with a blank ⫺, linked by an anaphoric relation (shown by a dashed line) to its antecedent, in this case, the verb GO:
GO
coord
AND
conjunct
subjectival prepos-objectival
ALAN
subjectival prepos-objectival
TO
TO prepositional
LEO
SINGAPORE
prepositional
PARIS
It is in this way that the SSyntS of elliptical expressions can be represented in terms of Synt-D ; see also below, example (37) at the end of Section 9. Such ‘dynamic’ way of reflecting ellipses ⫺ which are, after all, operations ⫺ corresponds to Lobin’s (1993, 111 ff.) proposal to use a procedural description for all coordinate structures, not just only for ellipses.
9.
Advantages of Syntactic Dependency
Let me begin with two formal considerations. First, in a linguistic description that takes semantics into account seriously, D-approach in syntax imposes itself, since it ensures a much better fit with the semantic structure, where dependencies are universally recognized (most of the known versions of the predicate calculus language used in semantics are, in point of fact, D-based). Lack of inter-
220
III. Dependenz. Grundlagen und Grundfragen
est in semantics is one of the factors that has lead to the dominance of constituency [⫽ C-] representations in syntax. Second, a D-representation with labeled SyntRels is formally more powerful than a ‘pure’ C-representation. In a C-representation, as soon as one starts marking heads and indicating types of SyntRels between heads and satellites, the heavy machinery of constituency ⫺ particularly, non-terminal nodes ⫺ becomes useless. Because of this, most modern syntactic theories, e. g., Bresnan’s Lexical-Functional Grammar, are moving fast in the direction of the D-approach. To these, one can add a number of substantive considerations. Namely, there are at least five important linguistic phenomena for the description of which Synt-D is really crucial: valency, voice, restricted lexical cooccurrence, word order, and ellipses of all types.
posed (Mel’cˇuk 1974, 1996). The functional dependency between the base of the collocation and the collocate is supported by Synt-D. Thus, Magn(armed) = to the teeth, and armed⫺syntJto the teeth; similarly, Oper1(visit) = [to] pay, and pay⫺ syntJvisit. Outside of Synt-D, there is no way to describe the collocations properly. ⫺ Synt-D is especially convenient for the description of word order (see Art. 21). First, word-order rules can be easily formulated in terms of positioning the Synt-dependent with respect to the Synt-governor (before or after it). For some languages, this allows for very compact formulations: e. g., in Japanese all dependents precede their governors, while in Welsh almost all dependents (the only exception being the article y) follow their governors (Hudson 1990, 105). Here are the examples:
⫺ Valency (see Art. 29⫺39) ⫺ or, more precisely, active valency ⫺ is a property of lexemes: a lexeme opens ‘slots’ for other lexemes that it ‘attracts.’ Linguistic valency is obviously a metaphor based on valency in chemistry: atoms have valencies to link with other atoms and thus form molecules. In much the same way, a lexeme has semantic, syntactic and morphological valencies to link with other lexemes. Lexemes Li that ‘fill’ the valencies of the lexeme L depend on it, exactly in the sense in which dependency has been defined above. Actually, valency and dependency are related in a very direct way; cf. Baumgärtner 1970: 62 ff. and also Eichinger/Eroms (eds.) 1995. ⫺ The inflectional category of voice is crucial to the understanding of semantics, syntax and morphology, so its importance cannot be over-estimated. Voice is a category whose grammemes mark the change of the basic diathesis of the verb, i. e., the correspondence between its semantic and syntactic actants (Mel’cˇuk 1997), or, to put it differently, between its Sem- and Syntdependents. No wonder, then, that voice and voice-related categories are much better described in a D-framework; in particular, they have been the focus of research within the framework of Perlmutter’s Relational Grammar or Foley/Van Valin’s Function and Reference Grammar far more than in any C-based theory. ⫺ For a systematic description of restricted lexical cooccurrence, or collocations, the apparatus of Lexical Functions is pro-
(36) a. Japanese Itiban takai siraga⫹de⫹no very tall greyhaired sensei⫹wa kono omosirokunai professor this boring hon⫹o kai⫹ta book wrote lit. ‘Very tall greyhaired professor this boring book wrote’. b. Welsh Ysgrifennodd athro tal iawn wrote professor tall very a gwallt llwyd ganddo y llyfr and hair grey to-him the book undonnog hwm boring this lit. ‘Wrote professor tall very and hair grey to-him the book boring this’. But even in languages where the linear distribution of Synt-governors vs. Synt-dependents is not as clear-cut as in Japanese or Welsh, resorting to these notions helps to state the word-order rules. Thus, in Arabic the majority of Synt-dependents follow their governors, with the notable exception of the demonstratives and numerals; in Hungarian, the majority of Synt-dependents precede their governors, with the notable exception of relative and participial clauses; etc. Second, Synt-D has allowed for the discovery (Lecerf 1960, Hays 1960) of an important property of word order in all languages, called projectivity. If we supply an average sentence with its Synt(actic) S(tructure) written in terms of Synt-D, then:
19. Levels of Dependency in Linguistic Description: Concepts and Problems
1) the branches of the SyntS do not intersect; 2) no branch passes over the top node. Let us illustrate with sentence (1), associating with it its SSyntS:
221
(the culprits are two ‘displaced’ clitics: a dative pronoun mu and the auxiliary verb je). However, in an absolute majority of sentences in most languages projectivity is observed. Using it ensures a more elegant for-
For decades, cocoa farming has escaped such poblems by moving to new areas in the tropics
As one can easily see, the sentence appears as a ‘projection’ of the SSyntS, and the SSyntbranches cross neither each other nor the projection perpendiculars; hence the name of projectivity. Projectivity can be violated in some special cases:
the most interesting paper in the collection
(the culprit is the superlative form of the adjective, more precisely⫺its marker most);
Fr. la fille dont je connais le père,
lit. ‘the girl whose I know the father’ (the culprit is the extracted relative pronoun dont);
Serb. Verski mu je
ucitelj odvratio,
lit. ‘Of-faith to-him has [actually, ‘is’] [the] teacher answered’.
mulation of word-order rules and greatly facilitates the analysis and synthesis of texts. Third, another advantage of the D-approach over the C-approach is the lack of rigidity and the inherent ability to accomodate what is known as ‘non-configurationality’ and long-range dependencies. The perturbations introduced into the word order of a sentence by its Communicative Structure wreak havoc onto a C-structure, since even the closest-knit phrases can be torn apart and permuted; on the contrary, the D-structure, without linearity and contiguity, is insensitive to such permutations. (The reason is obvious: a strict separation of hierarchical and linear links in the D-approach.) ⫺ As Nichols 1993 has shown, ellipses, i. e., constituent-reducing discourse operations, can be conveniently characterized in terms of Synt-D. Thus, four languages studied by Nichols ⫺ Russian, Nunggubuyu (Australia), English, and Chechen-Ingush (North-Caucasian) ⫺ differ with respect of their preferences in the domain of constituent-reducing: Russian prefers to remove Synt-heads, Nunggubuyu does it more frequently with Synt-dependents, English removes both with equal ease, while Chechen-Ingush does neither (which means that it has few ellipses). Examples:
222 (37) a. Rus. A Masˇka emu po morde, lit. ‘And M. to-him on the-mug’ = ‘And M. gave him a blow in the face’, where the top node ⫺ a Synt-head, which is a verb meaning ‘hit’ = ‘give a blow’, ⫺ is elided. b. Nung. Ana¯gugu na¯? galimaM, na¯? galimaM, lit. ‘[He] water fetched-forhim, fetched-for-him’, where the top node ⫺ a verbal Synt-head meaning ‘fetch’ ⫺ is repeated, but with its dependent ‘water’ elided. c. Eng. Leo is from Chernigovsky, and Alan from Paris, where the top node ⫺ the Synt-head of the second conjunct clause (the verb BE) ⫺ is elided; or Susan is fond of, while Marga looks askance at, profanity, where the Syntdependent of fond of is elided (Russian does not admit this type of dependent removal). d. In Chechen-Ingush, the answer to the question ‘What did he give his son?’ must be Sowgat dennad, lit. ‘[He] gift gave’, rather than *Sowgat ‘Gift’, which is the norm in the other three languages, ⫺ Chechen-Ingush does not tolerate the removal of Synt-heads. Even sentences meaning ‘Good!’, ‘OK!’ contain the verbal Synt-head: Dika du!, lit. ‘Good is’.
10. Arguing for Syntactic Dependency As the reader could have seen, there is a lot of discussion concerning specific solutions adopted within the D-approach with respect to the description of most basic syntactic constructions (including such cases as “DETIN or DETJN?”) or, more generally, the legitimacy of the D-approach itself. The arguments in favor of a particular treatment can be of two kinds: linguistics-internal, i. e., appealing to better formulation of linguistic rules (more general, more compact, more elegant); or linguistics-external, in particular ⫺ psycholinguistic, i. e., experimental observation of speakers’ behavior and reactions. Let us take them in turn. Linguistic arguments will be considered for two particular cases ⫺ the direction of Synt-D in specific constructions, while psycholinguistic arguments concern the better plausibility of the D-approach in general.
III. Dependenz. Grundlagen und Grundfragen
10.1. Linguistic Arguments for Syntactic Dependency The direction of Synt-D in the Aux ⫹ V phrase in English and the NUM ⫹ N phrase in Russian still is a matter of disagreement between linguists. None of the arguments quoted in support of the two opposite viewpoints ⫺ namely, AuxJV or AuxIV? NUMIN or NUMJN? ⫺ seem to be decisive. Therefore, I will try to argue based exclusively on rules necessary to produce the construction in question from a Semantic Structure [⫽ SemS] within the framework of a stratificational multilevel semantics-oriented linguistic model (more specifically, the Meaning-Text Model). The English Aux ⫹ V Phrase Suppose we want to produce the sentence Alan has slept. From a SemS ‘Alan’ o I o ‘sleep’ (plus the indication of time), the semantic rules of Lexicalization and Arborization construct the DSyntS of the form ALANsg o I I⫺o SLEEPind, pres, perf The compound (= analytical) form of the verb is represented, at this level, as one node directly linked to the subject node by the Deep-SyntRel I; thus, all the problems of lexical selection (special links that may exist between the verb and its subject) can be easily accounted for. In the SSyntS, the DSyntnode o SLEEPind, pres, perf is expounded into HAVEind, pres o J o SLEEPpast.participle by the following Deep-Syntax rule: L(V)ind, pres, perf o ⇒ HAVE(V)ind, pres o J oL(V)past.participle In this rule, we can take HAVE as the SSynthead (which is done in our illustration) or as the SSynt-dependent: for the rule as such it makes no difference. But for the Surface-Syntax rules which have to compute the inflections on HAVE and position it in the sentence the difference is quite significant. If HAVE is the SSynt-head, all the SSynt-rules that apply to the pairs
223
19. Levels of Dependency in Linguistic Description: Concepts and Problems
reads; Have I? as Can I?; etc.). But if HAVE is not the SSynt-head, a bunch of additional rules have to be written to deal with a finite auxiliary verb which is not the SSynt-head of the clause. There is absolutely no justification for such useless multiplication of entites; therefore, the finite auxiliary has to be taken as the SSynt-governor of the lexical verb form. The Russian NUM ⫹ N Phrase To make my point clearer, I will describe in parallel the production of two phrases, one with a genuine numeral DVA ‘two’ and anˇA other one with a measure noun KUC ‘bunch, heap/a lot’: [procˇe¨l] dva romana ‘[he read] two novels’ and [procˇe¨l] kucˇu romanov ‘[he read] a-lot of-novels’. In the SemS, both have similar representation, where quantification appears as any modification would: ‘read’
‘quantity’
2
1
‘novels’
2
‘read’
‘quantity’
2
‘two’
1
‘novels’
2
‘a lot’
In the SemS ⇒ DSyntS transition, the direct ˇ ITAT’ and DSynt-link between L(‘read’) = C L(‘novels’) = ROMANY is not necessarily preserved. Namely, if the quantifying expression is a noun, it becomes the governor of ROMANY: CITAT’
CITAT’
II
II
KUCA
ROMANY ATTR
I
DVA
ROMANY
This is done because the DSyntS is essentially a syntactic structure, so that it is supposed to reflect, in the most faithful way possible, the syntactic organization of the sentence. And from the purely syntactic viewpoint, dva romana and kucˇa romanov are very different.
Under the DSyntS ⇒ SSyntS transition, the NUM DVA remains subordinated to the ˇ A requantified N, and the Nmeasure KUC mains the SSynt-governor of it: CITAT’ direct-objectival
ROMANY
CITAT’ direct-objectival
KUCA
quantitative
completive
DVA
ROMANY
Syntactically, cˇitat’ kucˇu ‘read a-lot’ behaves exactly as any other pair *V(transitive)⫺dirobjJN+: the N is inflected and positioned as a regular DirO should be. On the other hand, kucˇa romanov behaves as any other pair *N⫺ complJN+ does. Because of this, for cˇitat’ ˇ AJROkucˇu romanov the Synt-D KUC MANY is justified by a considerable economy of rules, which otherwise would have to be doubled: a special set of rules would be needed to describe the treatment of a quantifying modifier that behaves as a DirO (⫽ ˇ A) and another one for the treatment of KUC a DirO that behaves as an adnominal complement (⫽ ROMANY). But for cˇitat’ dva romana nothing justifies the Synt-D *DVA→ROMANY: the extremely complex rules that compute the inflection of the NUM, of the quantified N and eventually of some depending adjectives remain the same, whichever element is taken to be the Synthead in the Russian phrase NUM ⫹ N (see these rules in Mel’cˇuk 1985, 162⫺210). Therefore, the overall simplicity of DSyntrules requires to invert the Sem-D between NUM and N. Ergo, on both the DSynt- and SSynt-levels, we have NUMIN. 10.2. Psycholinguistic Arguments for Syntactic Dependency Hudson 1993 (who, as far as I know, was the first to introduce psycholinguistic argumentation into the discussion of the D-approach) points out two cases of sentence processing by hearers that clearly show the advantages of a D-representation. ⫺ The sentence (38) a. John found the box in which I put the tray on which Mary placed the dish. has the following (partial) representations in D-terms and in C-terms:
224
III. Dependenz. Grundlagen und Grundfragen
b.
the box in which I put the tray on which Mary placed the dish
c.
the box in which I put the tray on which Mary placed the dish [e] [e]
The C-structure (38c) of (38a) presupposes two empty nodes e [= ‘traces’] and two nestings, as seen in the diagram. A sentence with two nestings should be processed and understood by hearers with the same difficulty as, for instance, the sentence Who did the dog who the farmer owned chase? (which features two genuine nestings). This is, however, not the case ⫺ (38a) is processed without any special difficulty. The conclusion to be drawn is that the hearers build rather a D-structure than a C-structure. ⫺ The sentence (39) a. I saw her yesterday at UCL. is extremely easy to process if analyzed syntactically in D-terms:
b.
I saw her yesterday at UCL
The circumstantials yesterday and at UCL are simply added by the hearer ⫺ a soon as perceived ⫺ to the D-structure already built, without necessitating any modification. Quite to the contrary, the C-structure requires ⫺ for every new circumstantial perceived ⫺ a substantial overhaul of the part of the structure previously constructed; here are the Cstructures for the whole sentence of (39a) and for its initial parts (before and after hitting a circumstantial; the non-terminal nodes which change their position in the structure are boxed and shadowed):
S NP
VP PP
VP AdvP
VP V c.
I saw
P
NP
NP her yesterday at
UCL
S NP
d.
I
S VP
NP
V
NP
saw
her
VP VP
I
AdvP
V
NP
saw
her yesterday
11. Syntactic Dependency and Syntactic Constituency I am not offering here a substantial comparison in depth of D- and C-approaches in syntax (cf. Matthews 1981, 71⫺95; Mel’cˇuk 1988; Sgall/Panevova´ 1988⫺89); I will, however, briefly touch upon two topics relevant to such a comparison: D-approach vs. ‘pure’ C-approach in syntax and hybridization of D- and C-approaches. 11.1. Confronting Syntactic Dependency with Syntactic Constituency To compare the D-approach in syntax to the Constituency, or C-, approach (also known as the ‘Phrase-Structure’ approach), one needs first to make precise the concept of syntactic constituent. Let us first take the simplest, or ‘naive,’ interpretation of constituent as a string of actual wordforms that show a prosodic and semantic unity (i. e., roughly, a constituent = an actual phrase); constituency is thus based on contiguity. Then it becomes obvious that these constituents are not syntactic units ⫺ in the sense that Synt-structure of a sentence cannot be described in terms of constituents. Constituents are linear, prosodic and morphological implementations of (fragments of) the SSyntS, rather than part of it. The legitimate place of Syntconstituents is in the Deep-Morphological structure of the sentence. (Cf. Langacker 1997 for a convincing discussion of the role constituency plays in language on the semantic and phonological levels, but by no means on the syntactic one. Syntactic structure en-
19. Levels of Dependency in Linguistic Description: Concepts and Problems
sures the correspondence between semantic and phonological constituents, especially in cases of unavoidable numerous and variegated mismatches, due to the strictly linear character of human speech, which has to convey utterly ‘unlinear’ meaning.) If, on the contrary, we consider the ‘sophisticated’ concept of constituent as a set of lexemes that ‘go together,’ this set taken before linearization, prosodization and morphologization, then, in order for constituents to be able to carry relevant information about word order and inflection, each constituent has to have both its head and its constituent type specified; this means, more or less, indicating the type of the syntactic relation between the constituent’s elements. But no sooner is this done than we have a D-representation! Specifying the Synt-heads and the type of SyntRel makes all other attributes of the C-approach superfluous ⫺ in the first place, the non-terminal nodes and the categorization of constituents in the SyntS. Syntactic class and other syntactic features of lexemes should not be part of the SyntS: this is lexicographic information, and as such it should remain ‘behind the scenes,’ in the lexicon’s entries for the lexemes involved. And if one observes this requirement and keeps lexicographic information in the lexicon, rather than in the SyntS, then nothing remains of the ‘classical’ C-approach in syntax. Even the Government and Binding theory is a disguised D-model: ccommand and government cannot be defined without the notion of Synt-head. To sum up: the C-approach in syntax is nothing but a Dapproach heavily camouflaged with useless paraphernalia of non-terminal nodes and Synt-category assignments. To avoid misunderstandings, it is worthwhile to formulate the following two provisos concerning the problem of constituency in the D-approach. 1. The D-approach does not negate the existence of constituents ⫺ they do of course exist and have the primary importance for any complete linguistic description. However, their place is not in the SyntS, but, as pointed out above, in the DMorphS: linearization and prosodization are carried out on constituents that have to be previously computed from the SSyntS. 2. The D-approach extensively uses standard subtrees, i. e., so to speak, non-linearized and non-morphologized ‘constituents’ (such as, for instance, DNUMP = the
225
source of the numeral phrase: see Mel’cˇuk/ Pertsov 1987; or DV = the verbal nucleus, which is a special chain of verbs allowing for particular operations in which it participates as a whole: see Kahane/Mel’cˇuk 1997). However, again, the place of standard subtrees is not in the SyntS, but in the rules of the linguistic model, which identifies them in the SyntSs and processes them as specified. 11.2. Crossing Syntactic Dependency with Syntactic Constituency For many years, linguists have been talking about the integration of both approaches, that is, they have been looking for a hybrid between D- and C-representations to be used in syntax (e. g., Baumgärtner 1970). The incentive for such an integration comes primarily from the problems related to representing coordination in the D-approach (cf. Section 12), as well as to some other linguistic phenomena such as extraction (I know which girl you told my wife that Alan was going out with, the extracted component being boldfaced; extraction happens under focusing, relativization, or interrogation), analytical forms (verbal and nominal, i. e. AUXJV and DETIN: has been detected; the book), idioms, collocations (among others, with what is known as light verbs: make headway, pay a visit, Germ. zur Aufführung bringen, lit. ‘to carrying-out bring’ = ‘[to] carry out’), and the like. The main idea is to introduce for any of these syntactic constructions a special type of subtree that is allowed ⫺ as a whole ⫺ to occupy one node of a dependency tree. In this way, the linguist tries to capture the intuition that such a set of wordforms depends on or governs other wordforms as a unit. The first full-fledged specific proposal for a ‘mixed’ D-/C-representation of this type ⫺ by means of so-called syntactic groups ⫺ was advanced in Gladkij 1966 and 1968. Quite a similar device is put forward in Lobin 1993, 42 ff. and 1995 (under the name of complex elements). The most recent move in this direction is probably Kahane 1997, which introduces the concept of bubble: a subset of nodes of a D-tree which is allowed to be treated as a node, while having inside a completely specified D-structure of its own, including other bubbles. The need for some formation of this type is more or less obvious (cf. section 12); but to what extent the ‘hybridization’ is welcome in the D-approach remains to be seen.
226
III. Dependenz. Grundlagen und Grundfragen
In particular, using multistructural and multilevel representations (cf. section 3) allows for easy and elegant solutions of many problems that otherwise have to be treated via bubble-like entities. Thus, the difficulties of representation related to various extractions can be overcome in a natural way by recourse to the (separate) Communicative Structure (Kahane/Mel’cˇuk 1997 and 1999). Similarly, the special character of AUX ⫹ V or DET ⫹ N phrases, as well as of idiomatic phrases (= full phrasemes) such as with respect to or the same, is reflected by the fact that in the DSyntS all these phrases are represented each by one single node. Collocations are described in terms of Lexical Functions, which make explicit their specific character. For instance, in the DSyntS, the phrases pay a visit and pay attention are representend as Oper1o⫺II J o VISIT and Oper1o⫺II J o ATTENTION Here, Oper1 is the symbol of a Lexical Function which specifies for a deverbal noun its subject-joining verb. Oper1’s values, as those of the other LFs, are given in the lexical entries for nouns: Oper1(VISIT) = pay ART ⬃ Oper1(ATTENTION) = pay ⬃ To sum up: for the time being, I believe that more progress is needed in the domain of the D-approach to syntax before we can determine where and how to use this or that element of the C-approach within the D-framework.
phrase (the ‘pure’ D-language does not allow to express the idea of dependency on a phrase). Consequently, the same SSyntS written in terms of Synt-D corresponds in such cases to two different meanings, which is not admissible: (40) a. The SyntS oldImen and women represents either ‘{old men} ⫹ women [not necessarily old]’ or ‘{old men} ⫹ {old women}’ = ‘old {men ⫹ women}’. b. The SyntS He is notItall and fat represents either ‘he is {not tall} and {fat}’ or ‘he is not {tall and fat}’. In all such cases, different surface implementations that distinguish intended meaning are in principle available (depending on the language and particular lexical means used): in (40a), women and old men vs. old men and old women; in (40b), He is not tall 储 and fat vs. He is not 储 tall and fat (with 储 standing for a pause). The semantic contrast accompanied by a formal contrast requires that the semantic distinction be maintained in the SSyntS (cf. Criterion C1). The only way to do so ⫺ sticking to ‘pure’ Synt-D, that is, without admitting multiple Synt-dependencies ⫺ is to label differently the SSynt-Rels involved, i. e., to have in (40a) something like oldImodif⫺menJandJwomen for the first (‘local’) reading, and
12. Insufficiency of Syntactic Dependency: Coordination A pure D-representation in syntax is not sufficient for one type of construction only, and that is in the domain of coordination (cf. Hudson 1990, 97 ff., and Lobin 1993, on a special place coordination occupies with respect to Synt-D). The problem arises because the following situation is possible in languages: a wordform w ‘relates’ either to a whole conjoined phrase or just to its Synthead alone, such that the two constructions are distinct and have different meanings; however, within the strict D-approach, both types of structure can be shown only by the direct Synt-D of w on the Synt-head of the
oldIdistr⫺modif⫺menJandJwomen for the second (‘distributed’) reading. However, this solution, although formally impeccable, does not seem natural enough linguistically. As a result, the D-approach has to be complemented with groupings ⫺ specification of the D-subtrees relevant in such cases. For instance, we write oldImodif⫺menJandJwomen for the ‘local’ reading (only men are old) and oldImodif⫺ [ menJandJwomen] for the ‘distributed’ reading (‘old’ bears on both men and women), the grouping being indicated by square brackets. Note that a
19. Levels of Dependency in Linguistic Description: Concepts and Problems
227
grouping is not a constituent in the strict sense: its elements are not ordered and there is no higher node to represent it as a whole; it does not participate in D-links as such, because in a consistent D-approach, only single nodes do. As we see in the example above, the branch pointing to old starts from the node men within the grouping, but not from the grouping as such. (For more on the use of groupings within the D-approach, see Mel’cˇuk 1988, 28⫺33.) An overall theory of coordination within the D-approach is put forth in Lobin 1993. The main idea is to consider syntactic coordination as a dynamic phenomenon and to describe it ⫺ remaining within the D-syntax ⫺ essentially based on operations of structure reduction and linearization (rather than on static SyntS representations); the book also offers a thorough review of coordinate constructions of German. Another phenomenon where groupings in the SSyntS may be required as well is ‘layered’ modification of the type expensive {Japanese cars} vs. Japanese {expensive cars}; the linear order of adjectives can reflect the successive, or stepwise, inclusion of sets of the objects on which bear the modifiers. (The problem is again created by ‘quasicoordination,’ i. e., by co-subordination.) It is not, however, clear to me whether these differences should be accounted for in the SSyntS ⫺ and then groupings are needed ⫺ or in the Syntactic-Communicative Structure, which avoids the use of groupings.
C CONJ D DDET DirO g IndirO L L(w)
: : : : : : : : : :
L MorphMV N NUM r
: : : : : :
PREP Rel SSemSyntS w
: : : : : : :
13. Acknowledgments
Ders., (1992): Lingvisiticˇeskij processor dlja slozˇnyx informacionnyx sistem. Moscow. ´ rnason, Kristja´n (1989): Dependency Phonology. A In: Linguistics 27, 319⫺339.
This article was written in May⫺July 1998 during my stay in Germany under a Humboldt Foundation scholarship. The text has been read and commented upon by D. Beck, P. Hellwig, R. Hudson, L. Iomdin, L. Iordanskaja, S. Kahane, H. Lobin, N. Pertsov, E. Savvina, L. Wanner and D. Weiss. I did my best to take into account their remarks and suggestions, and I am happy to extend my heartfelt gratitude to all of them, as well as to the Humboldt Foundation.
Abbrevations ADJ ADV AUX C
: : : :
adjective adverb auxiliary verb (inflectional) category
constituency conjunction dependency deep determiner Direct Object grammeme Indirect Object lexeme lexeme to which the wordform w belongs a particular language morphological Main Verb noun numeral a particular Surface-Syntactic Relation preposition relation surface semantic syntactic syntactics (of a linguistic sign) wordform
14. Select Bibliography Anderson, John (1977): On Case Grammar. Prolegomena to a Theory of Grammatical Relations. London. Anderson, John/Ewen, Colin (1987): Principles of Dependency Phonology. Cambridge. Apresjan, Jurij/Boguslavskij, Igor’/Iomdin, Leonid et al. (1989): Lingvisticˇeskoe obespecˇenie sistemy E`TAP-2. Moscow.
Baumgärtner, Karl (1965): Spracherklärung mit den Mitteln der Abhängigkeitsstruktur. In: Beiträge zur Sprachkunde und Informationsverarbeitung 5, 31⫺53. Ders., (1970): Konstituenz und Dependenz. Zur Integration der beiden grammatischen Prinzipien. In: H. Steger (Hg.): Vorschläge zu einer strukturellen Grammatik des Deutschen. Darmstadt, 57⫺77. Beck, David (1997): Theme, Rheme, and Communicative Structure in Lushootseed and Bella Coola. In: L. Wanner (ed.): Recent Trends in Meaning-Text Theory. Amsterdam/Philadelphia, 93⫺ 135. Ders., (2002): The Typology of Parts of Speech Systems: The Markedness of Adjectives. New York/ London.
228 Boguslavskij, Igor’ (1996): Sfera dejstvija leksicˇeskix edinic. Moskva. Bresnan, Joan (ed.) (1982): The Mental Representation of Grammatical Relations. Cambridge, MALondon. Corbett, Greville (1993): The Head of Russian Numeral Expressions. In: Corbett et al. (eds.) (1993), 11⫺35. Corbett, Greville/Fraser, Norman/McGlashan, Scott (eds.) (1993): Heads in Grammatical Theory. Cambridge. Dryer, Matthew (1989): Plural Words. In: Linguistics 27, 865⫺895. Eichinger, Ludwig/Eroms, Hans-Werner (eds.) (1995): Dependenz und Valenz. Hamburg. Engel, Ulrich (1977): Syntax der deutschen Gegenwartssprache. Berlin (2nd rev. ed.: 1988.) Ders., (1988): Deutsche Grammatik. Heidelberg/ Tokyo. Evans, Nicholas (1988): Odd Topic Marking in Kayardild. In: P. Austin (ed.): Complex Sentence Construction in Australian Languages. Amsterdam/ Philadelphia, 219⫺266. Fillmore, Charles (1968): The Case for Case. In: E. Bach/R. Harms (eds.): Universals in Linguistic Theory, New York, 1⫺88. Fitialov, Sergej (1962): O modelirovanii sintaksisa v strukturnoj lingvistike. In: S. Sˇaumjan (ed.): Problemy strukturnoj lingvistiki. Moskva, 100⫺114. Ders., (1968): Ob e`kvivalentnosti grammatik NS i grammatik zavisimostej. In: S. Sˇaumjan (ed.): Problemy strukturnoj lingvistiki-1967. Moskva, 71⫺102. Gladkij, Aleksej (1966): Lekcii po matematicˇeskoj lingvistike dlja studentov NGU. Novosibirsk. [French translation: Lec¸ons de linguistique mathe´matique, fasc. 1, 1970, Paris.] Ders., (1968): Ob opisanii sintaksicˇeskoj struktury predlozˇenija. In: Computational Linguistics 7, Budapest, 21⫺44. Hays, David (1960): Basic Principles and Technical Variations in Sentence Structure Determination. Santa Monica, CA. [Reprinted in: C. Cherry (ed.), Information Theory, 1961, Washington, 367⫺374.] Ders., (1964a): Connectability Calculations, Syntactic Functions and Russian Syntax. In: Mechanical Translation 8, 32⫺51. [Reprinted in: D. Hays (ed.), Readings in Automatic Language Processing, 1966, New York, 107⫺125.] Ders., (1964b): Dependency Theory: A Formalism and some Observations. In: Language 40:4, 511⫺ 525. Helbig, Gerhard (1992): Probleme der Valenz- und Kasustheorie. Tübingen. Heringer, Hans Jürgen (1970): Einige Ergebnisse und Probleme der Dependenzgrammatik. In: Der Deutschunterricht 4, 42⫺98.
III. Dependenz. Grundlagen und Grundfragen Hewson, John (1991): Determiners as Heads. In: Cognitive Linguistics 2:4, 317⫺337. Hudson, Richard (1984): Word Grammar. Oxford. Ders., (1987): Zwicky on Heads. In: Journal of Linguistics 23, 109⫺132. Ders., (1990): English Word Grammar. Oxford. Ders., (1993): Do We Have Heads in Our Minds? In: Corbett et al. (eds.) (1993), 266⫺291. Iordanskaja, Lidija (1963): O nekotoryx svojstvax pravil’noj sintaksicˇeskoj struktury (na materiale russkogo jazyka). In: Voprosy Jazykoznanija, n⬚ 4, 102⫺112. Iordanskaja, Lidija/Igor Mel’cˇuk (2000): The Notion of Surface-Syntactic Relation Revisited (Valence-Controlled Surface-Syntactic Relations in French). In: L. Iomdin/L. Krysin (eds.): Slovo v tekste i v slovare. Sbornik statej k semidesjatiletiju akademika Ju. D. Apresjana, Moskva, 391⫺433. Kahane, Sylvain (1997): Bubble Trees and Syntactic Representations. In: T. Becker/H.-U. Krieger (eds.): Proceedings of the 5th Meeting of Mathematics of Language (MOL 5). Saarbrücken, 70⫺76. Kahane, Sylvain/Mel’cˇuk Igor (1997): Synthe`se des phrases a` extraction en franc¸ais contemporain. Proble`mes de correspondance entre leur repre´sentation se´mantique et leur repre´sentation syntaxique. In: Colloque de Syntaxe et Semantique Paris, Paris. Ders., (1999): Synthe`se des phrases a` extraction en franc¸ais contemporain. In: t. a. l. 40: 2, 25⫺85. Keenan, Edward (1974): The Functional Principle: Generalizing the Notion of ‘Subject-of’. In: Chicago Linguistic Society 10, 298⫺310. Ders., (1978): Logical Semantics and Universal Grammar. In: Theoretical Linguistics 5, 83⫺107. Koch, Peter/Krefeld, Thomas (eds.) (1991): Connexiones Romanicae. Dependenz und Valenz in romanischen Sprachen. Tübingen. Korhonen, Jarmo A. (1977): Studien zu Dependenz, Valenz und Satzmodell. Teil I. Theorie und Praxis der Beschreibung der deutschen Gegenwartssprache. Frankfurt am Main. Kunze, Jürgen (1972): Die Komponenten der Darstellung syntaktischer Strukturen in einer Abhängigkeitsgrammatik. In: Prague Bulletin of Mathematical Linguistics 18, 15⫺27. Ders., (1975): Abhängigkeitsgrammatik. Berlin. Langacker, Ronald (1987): Foundations of Cognitive Grammar, vol. 1. Theoretical Prerequisites. Stanford. Ders., (1991): Foundations of Cognitive Grammar, vol. 2. Descriptive Application. Stanford. Ders., (1997): Constituency, Dependency, and Conceptual Grouping. In: Cognitive Linguistics 8:1, 1⫺32. Lecerf, Yves (1960): Programme des conflits, mode`le des conflits. In: Traduction automatique 1:4, 11⫺18; 1:5, 17⫺36.
19. Levels of Dependency in Linguistic Description: Concepts and Problems Lehmann, Christian (1985): On Grammatical Relationality. In: Folia Linguistica 19, 67⫺109. Lobin, Henning (1993): Koordinationssyntax als prozedurales Phänomenon. Tübingen. Ders., (1995): Komplexe Elemente ⫺ Indizien aus Nominalphrase und Verbalkomplex. In: Eichinger/ Eroms (eds.) (1995), 117⫺133. Marcus, Solomon (1965a): Sur la notion de projectivite´. In: Zeitschrift für mathematische Logik und Grundlagen der Mathematik 11, 181⫺192. Ders., (1965b): Sur une description axiomatique des liens syntaxiques. In: Zeitschrift für mathematische Logik und Grundlagen der Mathematik 11, 291⫺296. Matthews, Peter (1981): Syntax. Cambridge etc. Maxwell, Dan/Schubert, Klaus (eds.) (1989): Metataxis in Practice. Dependency Syntax for Multilingual Machine Translation. Dordrecht/Providence. McGregor, William (1997): Semiotic Grammar. Oxford. Mel’cˇuk, Igor (1964): Tipy svjazej mezˇdu e`lementami teksta i tipologija jazykov. In: L.I. Rojzenzon (red.): Materialy konferencii «Aktual’nye voprosy sovremennogo jazykoznanija i lingvisticˇeskoe nasledie E.D. Polivanova», tom I, Samarkand, 57⫺59. Ders., (1974): Opyt teorii lingvisticˇeskix modelej «Smysl⇔Tekst». Moskva. [Reprinted: 1999, Moskva.] Ders., (1981): Types de de´pendance syntagmatique entre les mots-formes d’une phrase. In: Bulletin de la Socie´te´ de linguistique de Paris 76:1, 1⫺59. Ders., (1985): Poverxnostnyj sintaksis russkix cˇislovyx vyrazˇenij. Wien. Ders., (1988): Dependency Syntax. Albany, NY. Ders., (1993): Agreement, Government, Congruence. In: Lingvisticæ Investigationes 17, 307⫺373. Ders., (1995): The Russian Language in the Meaning-Text Perspective. Moscow/Vienna. Ders., (1996): Lexical Functions: A Tool for the Description of Lexical Relations in the Lexicon. In: Leo Wanner (ed.): Lexical Functions in Lexicography and Natural Language Processing. Amsterdam/ Philadelphia, 37⫺102. Ders., (1997): Cas grammaticaux, construction verbale de base et voix en massaı¨: vers une meilleure analyse de concepts. Bulletin de la Socie´te´ de linguistique de Paris 92:1, 49⫺113. Mel’cˇuk, Igor/Pertsov, Nikolaj (1987): Surface Syntax of English. A Formal Model within the MeaningText Framework. Amsterdam. Nichols, Johanna (1978): Double Dependency? In: Chicago Linguistic Society 14, 326⫺339. Ders., (1986): Head-marking and Dependentmarking Grammar. In: Language 62:1, 56⫺119.
229
Ders., (1993): Heads in Discourse: Structural Versus Functional Centricity. In: Corbett et al. (eds.) (1993), 164⫺185. Owens, Jonathan (1988): The Foundations of Grammar: An Introduction to Mediaeval Arabic Grammatical Theory. Amsterdam. Paducˇeva, Elena (1964): O sposobax predstavlenija sintaksicˇeskoj struktury predlozˇenija. In: Voprosy Jazykoznanija 2, 99⫺113. Perlmutter, David (ed.) (1983): Studies in Relational Grammar I. Chicago. Robinson, Jane (1970a): A Dependency-based Transformational Grammar. In: Actes du X-e`me Congre`s international des linguistes (Bucarest, 1967) 2, 807⫺813. Ders., (1970b): Dependency Structures and Transformational Rules. In: Language 46:2, 259⫺285. Sannikov, Vladimir (1989): Russkie socˇinitel’nye konstrukcii: semantika, pragmatika, sintaksis. Moskva. Savvina, Elena (1976): Fragment modeli russkogo poverxnostnogo sintaksisa. III. Sravnitel’nye konstrukcii (sravnitel’nye i sojuznye sintagmy). In: Naucˇno-texnicˇeskaja informacija, serija 2, n⬚ 1, 38⫺43. Schubert, Klaus (1987): Metataxis. Contrastive Dependency Syntax for Machine Translation. Dordrecht/Providence. [Rev.: B. Sigurd, Studia Linguistica 42:2, 181⫺184.] Sgall, Petr/Hajicˇova´, Eva/Panevova´, Jarmila (1986): The Meaning of the Sentence in its Semantic and Pragmatic Aspects. Prague. Sgall, Petr/Panevova´, Jarmila (1988⫺89): Dependency Syntax ⫺ A Challenge. In: Theoretical Linguistics 15, 73⫺86. Somers, Harold (1987): Valency and Case in Computational Linguistics. Edinburgh. Starosta, Stanley (1988): The Case for Lexicase. London. Tarvainen, Kalevi (1981): Einführung in die Dependenzgrammatik. Tübingen. Tesnie`re, Lucien (1934): Comment construire une syntaxe. In: Bulletin de la Faculte´ des lettres, Universite´ de Strassbourg 7, 219⫺229. Ders., (1959): E´le´ments de syntaxe structurale. Paris. Van Langendonck, Willy (1994): Determiners as Heads? In: Cognitive Linguistics 5:3, 243⫺259. Weber, Heinz (1992): Dependenzgrammatik. Ein Arbeitsbuch. Tübingen. Zwicky, Arnold (1985): Heads. In: Journal of Linguistics 21:1, 1⫺30. Ders., (1993): Heads, Bases and Functors. In: Corbett et al. (eds.) (1993), 292⫺315.
Igor Mel’cˇuk, Montre´al (Canada)
230
III. Dependenz. Grundlagen und Grundfragen
20. Dependenzstruktur und Konstituenzstruktur 1. 2. 3.
6.
Dependenzstruktur Konstituenzstruktur Unterschiede zwischen Dependenzstruktur und Konstituenzstruktur Konvergenzerscheinungen Zur Kompatibilität und Konvertierbarkeit der beiden Strukturprinzipien Literatur in Auswahl
1.
Dependenzstruktur
4. 5.
1.1. Dependenzbegriffe Als Begründer der Dependenzgrammatik wird in der Fachliteratur zumeist L. Tesnie`re erwähnt, auch wenn ähnliche Gedanken hin und wieder schon früher aufgetaucht sind (vgl. dazu Baum 1976, 36; Vennemann 1977, 262 ff.; Weber 1992, 13). Auf jeden Fall hat er als Erster die auf der Valenztheorie basierende Dependenzgrammatik systematisch thematisiert, indem er den Formalismus und die Terminologie erarbeitet hat, welche seither von den meisten Dependenzgrammatikern mit mehr oder weniger Modifizierung angewandt werden, oder man beruft sich zumindest darauf (Tesnie`re 1959). Tesnie`re hält sich selbst für einen Vertreter des europäischen Strukturalismus, was ja schon die Formulierung „syntaxe structurale“ im Titel seines Hauptwerkes zeigt. Die großen strukturalistischen Schulen verhalten sich jedoch ihm gegenüber eher zurückhaltend, da weder die strengen formal-syntaktischen Analysemethoden noch die von den Prager Strukturalisten in den Vordergrund gestellten funktionalen Aspekte bei ihm genügend zur Geltung zu kommen scheinen. Das Schlüsselwort der größtenteils von Tesnie`re erarbeiteten dependenziellen Terminologie, „abhängen von etwas“, ist nicht nur in der Alltagssprache, sondern auch in der Sprachwissenschaft polysem. Versucht man es als eindeutigen Terminus zu definieren, werden sogleich gewisse herkömmliche Dependenzbegriffe ausgeklammert oder als Begriffe mit gegensätzlicher Dependenzrichtung dargestellt. Tesnie`res Terminus Regens hat den Begriff der Rektion von der Ebene des traditionellen Kasusrektion-Begriffes auf die Abstraktionsebene einer generellen Abhängigkeit gehoben. Dieser Regensbegriff ist koreferent mit dem Begriff der Abhängigkeit, nur der Blick-
winkel ist anders; also soll die Definition des einen die Referenz von beiden bestimmen. Das Fachwort Rektion ist in diversen Grammatiken präsent, und zwar in ziemlich verschiedenen Bedeutungen. Es ist interessanterweise kein Dependenz-, sondern ein Konstituenzgrammatiker, nämlich P. Eisenberg, bei dem man eine Rektionsdefinition finden kann, die die formal (oder „formalsyntaktisch“, vgl. Welke 1995, 165) kontrollierbaren Abhängigkeitsrelationen am günstigsten unter einem Begriff subsumiert (Eisenberg 1994, 52 f.). In diesen Rektionsbegriff sind die Fälle der Valenzbindungen nicht einbezogen, in denen die morphosyntaktischen Merkmale des Aktanten nicht direkt vom Valenzträger bestimmt werden (Adverbialien). Dafür werden die Fälle einbezogen, die gemeinhin zur Kongruenz gerechnet werden, jedoch als asymmetrische Relationen gelten, weil sich eines der kongruierenden Glieder bestimmend verhält (somit ist dies eine „gerichtete Kongruenz“). Die „Richtung“ der Kongruenz liegt auf der Hand, wenn die betreffende morphologische Kategorie (bei Eisenberg 1994, 38 „Kategorisierung“) für das eine Kongruenzglied eine konstante, für das andere eine variable Kategorie ist, wie z. B. das Genus für das Substantiv bzw. für das Adjektiv. Falls „Regieren“ hierbei zugleich einen Regens-Status in der Dependenzstruktur bedeutet, erscheint die Version von Engel (1994, 90) als gerechtfertigt. Er stellt nämlich das attributive Adjektiv deshalb unter dem Determinans dar, weil dieses die Determiniertheit als konstante Kategorie in sich hat, während das Adjektiv die vom Determinans bestimmten schwachen oder starken Deklinationsendungen bekommt. Welke (1995, 164) hält von den bei ihm angeführten drei Dependenzbegriffen ebenfalls nur den auf diese Weise erweiterten Rektionsbegriff für „äußerlich beobachtbar“. Dieser spielt mit den beiden anderen (i. e. Endozentrik und Subklassenspezifik) auch in der Bestimmung der Valenzgebundenheit eine wichtige Rolle. Die von vielen als zentraler Dependenzbegriff angesehene Valenzbedingtheit vermischt somit mindestens drei verschiedene Begriffe, die bei den einzelnen konkreten Konnexionen kontroverse Einstufungen zur Folge haben können (vgl. Welke 1995, 164). Besonders problematisch erscheint die Endozentrik, die sowohl bei der Dependenz als
20. Dependenzstruktur und Konstituenzstruktur
auch bei der Valenz sehr oft eben nur die Frage offen lässt, welcher der Konnexionspartner vom anderen abhängt, bzw. welcher als Ergänzung des anderen gilt. Endozentrik bedeutet nämlich in diesem Zusammenhang nur soviel, dass das Vorkommen von a das Vorkommen von b voraussetzt. Und es bedarf tatsächlich noch einer zusätzlichen Entscheidung (auf welcher Grundlage auch immer), wenn man z. B. in den Paaren „transitives Verb : Akkusativobjekt“ immer das Verb als bestimmendes Glied behandeln will, aus dessen Vorkommen das Vorkommen des Objektes folgt. Das Gegenteil ist nämlich ebenfalls nachweisbar: Wenn es im Satz ein Akkusativobjekt gibt, folgt daraus immer, dass in dem selben (nicht elliptischen) Satz auch ein transitives Verb vorliegt. Allerdings kann die Endozentrik als Berührungspunkt zwischen Dependenzgrammatiken und Konstituenzgrammatiken dienen. In Letzteren gilt nämlich diejenige Konstituente als Kopf der Phrase, deren Vorkommen in der gegebenen Phrase obligatorisch ist, d. h. ohne welche die andere(n) Konstituente(n) in derselben Phrase nicht auftreten könnte(n) (wenn wir allerdings von „Phrasen“ und „Köpfen“ sprechen, ist es nicht mehr „Konstituenz pur“, sondern eine Phrasenstruktur). Diese Auffassung der Endozentrik ist übrigens bereits den Ausführungen von Bloomfield (1933, 194 ff.) zu entnehmen, in denen er laut Vennemann (1977, 264) „einen Teilaspekt der grammatischen Dependenz beschrieben und (in diesem Teilbereich über den späteren L. Tesnie`re hinausgehend) operationell definiert hat“. Da unter Endozentrik in Dependenzgrammatiken und Konstituenzgrammatiken etwa dasselbe verstanden wird, kann man auch in der Konstituenzgrammatik auf kurzem Wege zum besagten Dilemma gelangen, das jedoch in dieser Terminologie anders formuliert wird: Soll eine Phrase, die aus einem V(erb) und einem N(omen) besteht, Verbalphrase (VP) oder Nominalphrase (NP) heißen? Das Dilemma wird zum Teil aufgehoben, wenn man die vereinfachte Definition „das Vorkommen von a setzt das Vorkommen von b voraus“ durch den operationalisierbaren Endozentrikbegriff ersetzt, nach dem die Konstituente der Kopf ist, die man ohne die andere(n) nicht eliminieren kann. Die Operationalisierung (z. B. Eliminierungstest) liefert hierbei allerdings nur dann ein brauchbares Ergebnis, wenn die Verbkomplemente keine obligatorischen Ergänzungen sind. Ein anderes
231 Problem ist, dass es nicht unbedingt trivial ist, welche Konstituente unabhängig von den anderen eliminierbar ist. Davon zeugt u. a. die in der generativen Linguistik unlängst erfolgte Wende in Bezug auf die Beurteilung von Phrasen, die aus Determinans und Nomen bestehen: Das Determinans hat die Kopfrolle vom Substantiv übernommen, also ist aus der NP eine DP geworden (vgl. Abney 1987; Haider 1988; Olsen 1989 usw.). Der Begriff Subklassenspezifik lässt in der Dependenzgrammatik weniger Fragen offen als die Endozentrik, zumindest wenn eindeutig definiert wird, was man unter Subklassenspezifik verstehen soll. In der Valenztheorie dagegen sind mehr Probleme mit der Subklassenspezifik verknüpft, vor allem hinsichtlich der operationalisierbaren Abgrenzung der „ganzen Klasse“ gegen die „Subklassen“, was hierbei der Abgrenzung „Angabe vs. Ergänzung“ entspricht (zu Lösungsvorschlägen vgl. Engel 1994, 100 f.). Wenn man unter Subklassenspezifik versteht, dass ein Konnexionsglied als Wortform (!) nicht mit allen Elementen der Wortklasse (!) des anderen Konnexionsgliedes eine grammatische (!) Kette bilden kann, dann kommt man diesbezüglich zum Schluss, dass die meisten Verbalphrasen nur eine Richtung der Subklassifizierung aufweisen: Verben sind durch nominale Formen subklassifiziert, nicht umgekehrt. Im obigen Satz stehen allerdings eingeklammerte Ausrufezeichen, die auf die Notwendigkeit von weiteren Erläuterungen aufmerksam machen sollen. So meinen wir mit „Wortform“ keine konkreten Formen, sondern morpho-semantische Klassen, die den Satzgliedern im Sinne der klassischen Satzgliedlehre nahe stehen. So wird z. B. die Subklasse der transitiven Verben nicht durch konkrete Formen wie „den Tisch“ oder „meinen Freund“ auf eine direkte Weise bestimmt, sondern durch den Begriff des Akkusativobjekts (oder der „Akkusativergänzung“). Dies kann als grammatische Form als eine Nominalphrase im Kasus Akkusativ, aber auch als ein durch akkusativische Anaphern ersetzbarer Nebensatz erscheinen. Ebenfalls wichtig ist eine derartige Generalisierung im Falle der freien Angaben, die als solche nicht subklassenspezifisch sind. Konkrete Ausdrücke sind nämlich fast immer subklassenspezifisch, und deshalb ist es erforderlich, nicht konkrete Formen wie „im Haus“ oder „unter der Brücke“, sondern Klassen wie „Lokalbestimmungen im Allgemeinen“ auf Subklassenspezifik zu prüfen (siehe Engel 1994, 100). Ein anderes Ausrufe-
232 zeichen steht nach dem Wort „Wortklasse“, weil diese Klassen großteils linguistische Konstrukte sind, weshalb die verschiedenen Einteilungsversionen der Lexeme in den Grammatiken ein ziemlich buntes Bild ergeben (vgl. dazu auch Uzonyi 1997). Ein weiteres Ausrufezeichen steht nach dem Wort „grammatisch“. Über die Grenzen der Grammatikalität wurde schon viel diskutiert, und mit den neueren Meinungen könnte man gewiss jederzeit einen Band füllen. An dieser Stelle dürfte die Anmerkung genügen, dass semantisch unverträgliche Gefüge wie „den Kühlschrank anrufen“ ebenfalls als grammatisch gelten können, die abweichenden Kombinationen werden ja durch semantische Verträglichkeitsregeln ausgefiltert. Semantisch unverträglich sind konkrete Ausdrücke (die sich unter Umständen natürlich gruppieren lassen), jedoch nicht die oben genannten morpho-semantischen Klassen wie Akkusativobjekte oder Lokalbestimmungen im Allgemeinen (zur semantischen Verträglichkeit in Bezug auf die Valenz vgl. Helbig/Schenkel 1980, 40). Rektion und Subklassenspezifik haben verschiedene Extensionen, aber Letztere enthält im Ganzen den Bezugsbereich des Begriffs Rektion. Rektion setzt nämlich Subklassenspezifik voraus, denn die gemeinsame Kategorie der Konnexionsglieder ist bei einem der Glieder eine konstante, d. h. „klassifizierende“ Kategorie (wegen der Pluraliatantum kann man sogar den Numerus als klassifizierende Kategorie des Substantivs betrachten). Eine attributive adjektivische Form kann demnach nicht vor allen Substantiven stehen, sondern nur vor solchen (d. h. vor Vertretern einer Subklasse), mit denen sein Genus (und Numerus) übereinstimmt. Subklassenspezifik bedeutet jedoch mehr als Rektion (auch im Sinne des erweiterten Rektionsbegriffs), da auch die Formen Subklassen bestimmen können, deren morphologische Beschaffenheit nicht von diesen Subklassen abhängt. Derartige Formen werden herkömmlich Adverbialbestimmungen (Adverbialien) genannt. Man kann auf den Tisch legen/stellen/werfen/ schauen usw., jedoch ist *auf den Tisch zweifeln nicht nur semantisch, sondern auch grammatisch abweichend. Dabei kann man legen/stellen/werfen/schauen nicht nur auf den Tisch, sondern auch unter/hinter den Tisch, dorthin usw. Dies bezieht sich sowohl auf die fakultativen als auch auf die obligatorischen adverbialen Ergänzungen.
III. Dependenz. Grundlagen und Grundfragen
Der Begriff der Subklassenspezifik ist mit der „naiven“ Deutung der Abhängigkeit im Einklang, nach der ein Wort die Form von anderen Wörtern bestimmt. Bei der Rektion ist es offensichtlich, und bei subklassenspezifischen Adverbialbestimmungen wird mittels eines semantischen Merkmals (z. B. ‘Richtung’) ebenfalls eine begrenzte Gruppe von formalen Ausdrucksmitteln durch das Regens selegiert (z. B. bei ‘Richtung’ in ⫹ Akk, zu ⫹ Dat, aber nicht in ⫹ Dat oder wegen ⫹ Gen). Den begrenzten Gruppen von Ausdrucksmitteln stehen auf der anderen Seite Subklassen von Lexemen gegenüber. Die Subklassenspezifik ist allein nicht imstande, allen Konnexionstypen Dependenzrelationen zuzuweisen, denn einerseits liegt nicht in allen Konnexionen das Verhältnis einer Subklassenspezifik vor, andererseits lassen die morphologischen Wortklassenkategorien, die als Rektionskategorien (im weiteren Sinne) dienen, mitunter zwei entgegengesetzte Dependenzrichtungen zu. Das vielleicht bekannteste Beispiel dafür ist das des Subjektes und des Prädikatsverbs: Die konstante Kategorie des Subjektnomens ist die Person, die konstante Kategorie des Verbs ist der Kasus, den es den Nomina zuweist. Beim Subjekt ist dieser Kasus der Nominativ, was in der Rektions- und Bindungstheorie durch die Einführung der funktionalen Kategorie I(nflexion) modifiziert wird, weil der Nominativ demnach nicht vom Verblexem, sondern von seinen Finitheitsmerkmalen zugewiesen wird (vgl. Dürscheid 1991, 69). Das Verb passt sich in Person (und Numerus, vgl. Pluraliatantum) dem Nomen (Substantiv oder Pronomen) an, und das Nomen bekommt vom Verb in der gegensätzlichen Richtung den Oberflächenkasus, der seiner Argumentrolle entspricht. Diese wechselseitige Abhängigkeit wird zwar von der Dependenzgrammatik nicht ignoriert, aber im Allgemeinen wird nur eine der beiden Richtungen als echte Dependenz anerkannt, und zwar die Abhängigkeit vom Verb. Dies folgt logisch aus dem deklarierten, jedoch bis heute nicht genügend begründeten Grundprinzip, dass das höchste Regens des Satzes das Verb ist. Eroms (1991, 221) hat es dadurch modifiziert, dass er den Skopus als neuen Dependenzbegriff eingeführt hat, demzufolge gerieten Modalwörter mit Satzbezug (z. B. glücklicherweise) bzw. die Satzzeichen als Symbole der Illokution in eine Position oberhalb des Verbs. Über dem Verb werden
20. Dependenzstruktur und Konstituenzstruktur
auch die Einleitungswörter von Nebensätzen platziert (vgl. Engel 1994, 211 ff.). Von Endozentrik können wir nur dann sprechen, wenn das dependenzielle Verhältnis wirklich nicht umkehrbar ist. Nicht endozentrisch ist daher das Verhältnis zwischen dem Valenzträger und seinem obligatorischen Aktanten, weil beide das Vorhandensein des anderen voraussetzen bzw. keines ohne das andere eliminierbar ist. Anders ist es aber mit den (freien) Angaben der Satzebene, denn das Auftreten einer Angabe setzt die Präsenz eines Verbs voraus, während das Prädikatsverb durchaus ohne Angaben stehen kann. In dieser Verbindung ist also nur das Verb obligatorisch, was dem Kriterium der Endozentrik gerecht wird (hierbei bleibt die Frage allerdings offen, ob diese Verbindung wirklich eine unmittelbare Verbindung von Prädikat und Angabe ist). Wenn man keine weiteren Gesichtspunkte einbeziehen möchte, gilt dasselbe für die Modalwörter, die bei Eroms (1991) jedoch dem Verb übergeordnet werden. Ein weiterer Gesichtspunkt kann beispielsweise sein, dass Modalwörter als Matrixsätze paraphrasierbar sind, wobei der Satzrest zu einem Nebensatz im Ergänzungsstatus wird (z. B. Wahrscheinlich hat er Recht ⫺ Es ist wahrscheinlich, dass er Recht hat). Wenn das Modalwort dementsprechend als Transform einer zugrunde liegenden Verbalphrase behandelt wird, deren Ergänzung der Satzrest ist, dann entfällt die Notwendigkeit des Dependenzbegriffs „Skopus“; zwischen Matrixsatz und Ergänzungssatz kann man ja immer das Verhältnis der Subklassenspezifik und/oder der Endozentrik feststellen. Zusammenfassend lässt sich festhalten, dass die Vereinigung der Extensionen von Subklassenspezifik bzw. Endozentrik alle seit Tesnie`re tradierten Dependenzverhältnisse abdeckt. Wir sprechen von einer Vereinigung (Union), weil sich die Extensionen der beiden Begriffe überschneiden, wobei z. B. die weglassbaren Objekte oder die attributiven Adjektive im Überlappungsbereich liegen. 1.2. Das Verhältnis der Valenz zu den Dependenzbegriffen Für Tesnie`re und seine Anhänger zählt die Valenz als primärer Dependenzbegriff. Trotzdem wird der Unterschied zwischen „actants“ und „circonstants“ in ihren Stemmata so gut wie überhaupt nicht angezeigt, nur einige der späteren Nachfolger halten die Darstellung der Valenzbeziehungen im Depen-
233 denzstemma für wichtig (vgl. Tarvainen 1981, Engel 1994). Das in der Valenzgrammatik mit der Zeit zum neuralgischen Punkt gewordene Abgrenzungsproblem zwischen Ergänzungen und Angaben hätte gerade wegen der o. g. getrennten Behandlung keinen prompten Einfluss auf die Beurteilung der Dependenzgrammatik haben müssen; trotzdem sprach man nicht nur von einer Valenzkrise oder Valenzmisere (Jacobs 1986), sondern auch vom Ende der Dependenzgrammatik (zu dieser ´ gel 1993). Es herrscht seit langem Frage vgl. A Konsens darüber, dass Dependenz und Valenz voneinander trennbar sind; der Grund für eine „Ansteckung“ seitens der angeblich vorübergehend kränkelnden Valenztheorie war also nicht etwa ein Systemzwang, sondern eher die wissenschaftshistorische Verflechtung dieser Bereiche. Es ist dabei durchaus nachvollziehbar, dass die Abgrenzungsfrage in der Valenztheorie im Mittelpunkt steht. Seit den ersten Wallungen der diesbezüglichen Diskussionen wollen immer weniger Valenztheoretiker die Existenz einer scharfen Grenze nachweisen, vielmehr verbreitet sich die Auffassung eines graduellen Übergangs (vgl. z. B. Heringer 1986, Somers ´ gel 1995). 1987, Adamzik 1992, A Eine terminologische Unterscheidung hat allerdings in der Grammatik nur dann einen Sinn, wenn sich die abgegrenzten Teilmengen formal-syntaktisch unterschiedlich verhalten. Die Linguistik sucht die Relevanz von theoretischen Distinktionen deshalb mittels Operationalisierung zu rechtfertigen. Eines der Probleme, die im Zusammenhang mit der Valenz oft diskutiert werden, ist der Mangel an zuverlässigen Operationalisierungsverfahren. Man hat bereits eine Reihe verschiedener Tests erarbeitet, die aber jeweils andere Grenzlinien zwischen Ergänzungen und Angaben abstecken (vgl. Storrer 1992, 76 f.). Die Beurteilung der Wohlgeformtheit des Outputs kann sogar bei ein und demselben Test zu Schwankungen führen (zum GeschehenTest siehe Eroms 1981, 44). Die Definition des Unterschiedes zwischen Ergänzungen und Angaben müsste nicht nur denen wichtig sein, die die Valenzstruktur im Rahmen einer Dependenzgrammatik präsentieren wollen (z. B. Engel 1992 oder 1994), sondern auch denjenigen, die im Rahmen einer Konstituentengrammatik die Pendants von Ergänzungen und Angaben, nämlich Komplemente und Adjunkte als verschiedene Größen behandeln. Dass es in der generati-
234 ven Linguistik bislang nicht zu einer ähnlichen „Misere“ gekommen ist wie in der Valenzgrammatik, mag daran liegen, dass sich Generativisten in geringerem Maße genötigt sehen, die Sprachtheorie mit einer operationalisierbaren Verifizierung der Hypothese der Komplement-Adjunkt-Dichotomie zu untermauern. Der Verzicht auf die Suche nach der empirischen Evidenz folgt freilich nicht aus dem Wesen der Konstituenz, sondern vielmehr aus dem Bestreben, ein streng formalisiertes System der Grammatik zu entwickeln. Hays (1964), der neben Tesnie`re als einer der bekanntesten Vertreter der Dependenzgrammatik gilt, stellt seine Grammatik ⫺ anders als Tesnie`re ⫺ ebenfalls als formalisiertes System dar, das an den strengen, abstrakten Formalismus der generativen Grammatiken erinnert. Hays stellt die Valenz in den Mittelpunkt seiner Theorie, ohne die Differenz zwischen Valenz und Nicht-Valenz zu problematisieren, vor allem was ihre oberflächensyntaktischen Reflexe anbelangt. Bei computerlinguistischen Implementationen oder bei der Zusammenstellung von Valenzlexika muss man auch dann Entscheidungen treffen, wenn die solide theoretische Fundierung im Augenblick noch fehlt. Die angewandte Linguistik kann sich hierbei mit ad hoc gesetzten Schwellenwerten der Vorkommenshäufigkeit oder des Assoziiertheitsgrades behelfen, wozu auch von Valenztheoretikern geraten wird ´ gel 1995, (vgl. dazu Storrer 1992, 93, bzw. A 25). Wenn die Dependenzgrammatik wirklich nur an Dependenzbeziehungen interessiert ist, bleibt sie immun gegen valenzielle Abgrenzungsprobleme. Die Vereinigungsmenge der Endozentrik und Subklassenspezifik deckt nämlich alle konkreten Fälle ab, und die Grenzen innerhalb der Vereinigung sind irrelevant. Die Extension der Valenzgebundenheit wird nach einigen Meinungen allein von der Subklassenspezifik bestimmt (z. B. Engel 1994, 98 f.; Lobin 1989, 19), aber dies kann ⫺ zumindest ohne Einschränkungen wie die von Engel (1994, 100) ⫺ die Differenzierung ad absurdum führen, i. e. zu dem Ergebnis, dass die Dependentien eines Verbs praktisch immer Ergänzungen sind. Es heißt z. B., Lokalbestimmungen sind Angaben, bis auf einige Verben, die eine obligatorische lokale Ergänzung fordern (wohnen, sich befinden usw.). Dies gilt jedoch nicht für alle konkreten Lokalbestimmungen in Verbindung mit konkreten Verben, beispielsweise kann etwas irgendwo hängen, aber nicht etwa auf
III. Dependenz. Grundlagen und Grundfragen
dem Tisch. Ein Dependens ist subklassenspezifisch oder endozentrisch oder aber beides, aber es kann nicht sein, dass ein Dependens weder subklassenspezifisch noch endozentrisch ist. Für das Problem der gegenseitigen Dependenz auf Grund von verschiedenen Rektionskategorien (z. B. Subjekt und Prädikat) scheint die Valenz eine Lösung zu bieten, auch wenn es nach Meinung vieler eher eine Quasilösung ist. Die Valenztheorie betrachtet nämlich die Subklassifizierung der Nomina durch das finite Prädikatsverb nicht als eine Valenzpotenz des Nomens (die Subklassen sind: Nomina der 1. Person, der 2. Person, der 3. Person, die Pluraliatantum und Singulariatantum). Dabei lässt sich auf der betreffenden Abstraktionsebene kaum ein Unterschied dazwischen entdecken, ob ein Nomen als akkusativische Wortform aus der Wortklasse Verb nur bestimmte Verben (nämlich die transitiven) selegiert, oder ob ein Verb als Wortform mit der Konjugationsendung der 2. Person aus der Wortklasse Nomen nur bestimmte Nomina selegiert (in diesem Fall genau eins, nämlich das Pronomen du). In der Phrase du lügst folgt aus der bidirektionalen Subklassenspezifik nicht nur eine wechselseitige Dependenz, sondern ⫺ zumindest wenn als einziger Valenzbegriff dieser generalisierte Subklassenspezifikbegriff berücksichtigt wird ⫺ auch die Tatsache, dass die zwei Konnexionspartner jeweils die Valenzleerstelle des anderen ausfüllen. In die von lügen eröffnete obligatorische Leerstelle muss ein Nomen im Nominativ, in die von du eröffnete obligatorische Leerstelle muss ein Verb mit der Endung der 2. Person eingesetzt werden; das Verb ist ebenso eine Wortklasse wie das Nomen, und Person ist ebenso eine morphologische Kategorie wie Kasus. Die verborientierten Operationalisierungstests (z. B. Geschehen-Test) können selbstverständlich nur in einer Richtung funktionieren. Der an die Subklassenspezifik anknüpfende Substitutionstest lässt dagegen eine Generalisierung zu, so dass er leichthin auf verschiedene Wortklassen adaptiert werden kann. Wenn wir das Verb als Valenzpartner des Valenzträgers Nomen bezeichnen, meinen wir nicht das, was von Storrer (1992, 257 ff.) Situationsvalenz genannt wird. Die Situationsvalenz projiziert den dynamischen Regelbegriff „Leerstellen eröffnen/ausfüllen“ auf die Ebene der Performanz, wo eine umgekehrte Strategie der Satzbildung durchaus denkbar scheint, wobei der Sprecher für eine Gruppe
20. Dependenzstruktur und Konstituenzstruktur
von Aktanten ein passendes Verb sucht. Es liegt die Analogie mit der Situation nahe, als die generative Semantik (Lakoff 1971, McCawley 1971) die dynamischen Regeln der generativen Transformationsgrammatik als Teilregeln der Redeproduktion verwendete. Die meisten Versionen des Valenzbegriffs beschränken die für die Valenz relevanten Subklassifizierungen auf bestimmte Wortklassen, und bei Wortklassenpaaren auf jeweils eine Richtung. Dazu muss man allerdings den Valenzbegriff ‘Subklassenspezifik’ durch Postulate ergänzen, vor allem muss man die Überlegenheit des Verbs postulieren. So können Satzelemente nicht Ergänzungen voneinander sein. Die auf diese Weise hierarchisierte Valenz ist somit imstande, als Dependenzbegriff die auf Grund der reinen Subklassenspezifik bidirektionalen Abhängigkeiten als einseitige Beziehungen darzustellen.
2.
Konstituenzstruktur
2.1. Unmittelbare Konstituenten Wells (1947) und später Harris (1951) wollten die Struktur des Satzes dadurch ermitteln, dass sie untersuchten, welche Paare von benachbarten Wörtern durch Einzelwörter ersetzbar sind. Mit dieser Methode gelangten sie dann schrittweise bei jedem Satz zu einem Wortpaar, das aus einem Nomen und einem Verb bestand. Das Verfahren funktioniert auch in der entgegengesetzten Richtung, d. h. man kann auch vom Ganzsatz ausgehen und diesen in zwei Segmente teilen, die durch je ein Einzelwort ersetzbar sind; dann werden diese Segmente in weitere, kleinere Segmente gegliedert, bis man zu Segmenten kommt, die mit dieser Methode nicht weiter teilbar sind. An Stelle des ersetzenden Einzelwortes wurde bald seine Kategorie (sprich: Wortklasse) angegeben, und dies ist schon beinahe die gleiche Darstellungsweise, die bei Chomsky (1957) wieder auftaucht, um ihre wahrhafte Karriere anzutreten. Die Topologie, die bereits für die strukturalistische Analyse nach unmittelbaren Konstituenten sehr wichtig war, bleibt auch in der generativen Linguistik im Vordergrund. Nicht nur die dependenzielle, sondern auch die konstituenzielle Analyse hat ihre Dilemmas. Die Grundsituation, in der eine Entscheidung getroffen werden soll, ist die folgende: Wenn a, b und c nebeneinander stehen, ist a ⫹ bc oder ab ⫹ c die richtige Gruppierung? Dazu musste man eine Hierarchie
235 der Verbindungen ausarbeiten, die in der Form einer Reihe von Phrasenstrukturregeln (Ersetzungsregeln, rewriting rules) beschrieben wird. Jedenfalls führt bei einem binären Analysealgorithmus schon ein Substantiv mit Links- und Rechtserweiterung zum besagten Dilemma, zumindest dann, wenn die Phrasenstrukturregeln beide Varianten rechtfertigen. Wenn z. B. die Regeln eine NP sowohl durch N ⫹ NP als auch durch NP ⫹ PP ersetzen, zeigt eine Phrase wie Peters Freunde aus Dortmund in einem binären System eine scheinbare Ambiguität. Diese Probleme sind zum Teil dadurch aufgehoben worden, dass man auf die Binarität verzichtet hat. Danach musste man auch die sonst gleichrangigen Komplemente des Verbs nicht mehr verschiedenen Ebenen zuordnen. Ein anderes Problem ergab sich später dadurch, dass die komplexen Segmente, d. h. die Phrasen irgendwie benannt werden mussten, und zwar nach dem obligatorischen Element der Phrase, das Kopf (oder Haupt, head) genannt wird. Es kann als eine Art Inkonsequenz angesehen werden, dass dem Satz ein Merkmal der Phrase weggenommen wurde, indem man ihn mit dem Symbol S nicht nach einem Kopf benannte. Somit wurde ausgedrückt, dass der Satz keinen Kopf habe, also nicht endozentrisch (sondern exozentrisch) sei. Dieses Herangehen wurde später durch die X-bar-Theorie bzw. Rektions- und Bindungstheorie verändert. Außerdem wurde in Bezug auf die Nominalphrase unlängst festgestellt, dass ihre obligatorische Konstituente nicht das Substantiv, sondern das Determinans ist, weshalb ihr Name nicht NP, sondern DP heißen soll (vgl. Abney 1987). 2.2. Das Weiterleben des Konstituentenkonzeptes in der generativen Linguistik Die erste tief greifende Veränderung in der Betrachtung der Konstituenz bzw. der Phrasenstruktur war die X-bar-Theorie (Jackendoff 1977). Die Veränderung betraf auch die Namen der Phrasen, insoweit als statt der Symbole NP, VP, PP usw. nunmehr jeweils der Kopf der Phrase explizit angegeben wurde. Somit konnte der Kopf auf mehreren Ebenen erscheinen, auf der eigenen Ebene mit einer Null, auf höheren anfangs mit „bars“ (Querbalken), später mit Strichen indiziert. Diese Notation ermöglicht einen direkten Vergleich mit der Dependenzstruktur (auch wenn das X-bar-Schema offenbar nicht mit dieser Zielsetzung konzipiert wurde).
236
III. Dependenz. Grundlagen und Grundfragen
Diesen Formalismus gebraucht auch Chomsky (1981) bei der Grundlegung für eine Rektions- und Bindungstheorie. Die durch diese Theorie eingeführten Begriffe ‘complementizer’, ‘specifyer’, ‘Infl’ sowie die „Spuren“ (traces) haben die generative Linguistik, die dank der X-bar-Theorie der Dependenzlinguistik etwas näher gekommen war, von dieser wieder ein wenig entfernt. Bei Fanselow/Felix (1993, 54) zweigt das Adjunkt im Phrasenschema der Rektionsund Bindungstheorie auf einer höheren Ebene vom Verb ab als das Komplement des Verbs, was als eine Darstellung der Valenzrollen in der generativen Notation angesehen werden kann (vgl. auch Welke 1995, 174). Dies nähert die Konstituentendarstellung den dependenziellen Versionen an, welche auch die Valenzbindungen darstellen wollen.
3.
Unterschiede zwischen Dependenzstruktur und Konstituenzstruktur
Dependenz und Konstituenz als zwei mögliche Aspekte der syntaktischen Struktur wurden bereits von einigen verglichen (z. B. Hays 1960; Gaifman 1961; Baumgärtner 1970; Heringer 1970; Vennemann 1977; Wegener 1990; ´ gel 1993; Uzonyi 1996a Schmidt 1991; A usw.), aber die Ergebnisse sind nicht einheitlich. Dies mag daran liegen, dass sich diese beiden Aspekte in diversen konkreten Versionen verkörpern, die über reine Dependenzbeziehungen und Konstituenzbeziehungen hinaus verschiedene andere Informationen verarbeiten. Außerdem gibt es nicht nur verschiedene Dependenzbegriffe, sondern auch verschiedene Konstituenzbegriffe. Die ersten, z. T. mit mathematischen Methoden durchgeführten, vergleichenden Analysen stammen von Hays (1960 und 1964) und Gaifman (1961), die aber nicht Konstituenz im Allgemeinen, sondern die Phrasenstrukturgrammatik der generativen Transformationsgrammatik mit der Dependenz vergleichen. Es wurde festgestellt, dass die Dependenzgrammatik mit der Phrasenstrukturgrammatik schwach äquivalent ist, d. h. mit Hilfe der Dependenzgrammatik weniger strukturelle Eigenschaften beschrieben werden können. Nach dieser Feststellung versuchte Hays (1964) nachzuweisen, dass Dependenzgraphen mit Transformationen ergänzt werden können, bzw. als Komponenten einer Stratifikationsgrammatik eine vollständige
Beschreibung ermöglichen. Diese Beschreibung soll sowohl semantisch als auch psycholinguistisch sogar besser sein als eine Beschreibung auf der Grundlage der konstitutionellen Phrasenstrukturgrammatik. Baumgärtner (1970, 59) ⫺ im Anschluss an Gaifman (1961, 325 ff.) ⫺ formuliert das Wesen der schwachen Äquivalenz folgendermaßen: „Nur zu jeder beliebigen gegebenen Dependenzgrammatik lässt sich eine kategorial wirklich äquivalente Phrasenstrukturgrammatik effektiv konstruieren. Die umgekehrte Konstruktion setzt eine außerordentlich beschränkte Phrasenstrukturgrammatik voraus“. Sehr wichtig ist hierbei, dass der Dependenzbegriff in diesen Vergleichen auf die Endozentrik beschränkt wird (vgl. Baumgärtner 1970, 54). Der „sterile“ Begriff der Konstituenz, wie sie in der Gegenüberstellung von Baumgärtner verstanden wird, setzt eine Kontaktstellung der Konstituenten voraus, wobei der endozentrische Phrasenbegriff ausgeklammert wird. Unter diesen Bedingungen scheint die Behauptung von Baumgärtner (1970, 52) oder Heringer (1970, 107) gerechtfertigt, Konstituenz und Dependenz seien komplementär. Allerdings sollte man sich darüber im Klaren sein, dass die beiden dermaßen „destillierten“ Grundprinzipien ⫺ zumindest in Ansätzen ⫺ sogar in der einfachsten Phrasenstrukturgrammatik gleichzeitig präsent sind, durch die angegeben wird, welche Konstituente der Kopf ist. Auch Erben (1980, 320) schneidet das Thema der Gegenüberstellung von Konstituenz und Dependenz an und hält ⫺ ebenso wie Baumgärtner oder Heringer ⫺ zu einer vollständigen syntaktischen Beschreibung beides für notwendig, womit er implizit ebenfalls die Komplementarität der beiden Strukturprinzipien behauptet. Engel (1974, 58) erwähnt die Dependenzgrammatik demgegenüber als eine Alternative zur Konstituentengrammatik. Von Alternativen sprechen außerdem Schmidt (1991, 216) und Vater (1994, 119). Es ist bei weitem nicht gleichgültig, welche von den vielen diversen Konstituentengrammatiken und Dependenzgrammatiken verglichen werden. Wenn zwei frühe Versionen aus den 50er Jahren genommen werden, z. B. die Konstituentenstruktur der generativen Transformationsgrammatik von Chomsky (1957) und das Dependenzstemma von Tesnie`re (1959), kann tatsächlich eine Art Komplementarität festgestellt werden (allerdings
237
20. Dependenzstruktur und Konstituenzstruktur
mit Überlappungen). Nur die Konstituentenstruktur der generativen Grammatik zeigt genau die Wortfolge (auch wenn hierzu mitunter Transformationsregeln nötig sind), außerdem die Hierarchie der Kohäsion benachbarter Wörter, die Kategorien der Satzelemente und die Gruppierung der Elemente in Phrasen auf verschiedenen Ebenen (es muss dabei wieder einmal betont werden, dass Phrasenstrukturgrammatiken nicht mit der Konstituentengrammatik im Allgemeinen gleichgesetzt werden sollen). Nur die Dependenzgrammatik zeigt aber in allen Fällen die Richtung der Abhängigkeit zwischen Satzelementen.
Darstellung zwischen „actants“ und „circonstants“ nicht differenziert.
(a)
Die Darstellungstechnik von Engel reflektiert eindeutig die Valenzstruktur, was bei diesem Beispiel ausreicht, um den beiden Bedeutungen zwei verschiedene Strukturbeschreibungen zuzuordnen.
NP N
NP N Herrn
N Müllers Freundin
arbeitet
Tischler
an
seit
der
Schreibtisch
Jahren
diesem
zwei
Abb. 20.2: Der Tischler arbeitet an diesem Schreibtisch seit zwei Jahren
(a) (b)
arbeitet
Freundin
Tischler
an
seit
Müllers
der
Schreibtisch
Jahren
Herrn
diesem
Abb. 20.1: Herrn Müllers Freundin
Die „Hierarchie der Kohäsion benachbarter Wörter“ kann dadurch ausgedrückt werden, dass (20.1.a) das Syntagma Herrn Müllers Freundin als eine Verbindung einer Phrase mit einem Einzelwort darstellt, während dasselbe Syntagma in (1b) als Verbindung dreier Einzelwörter dargestellt wird. Die „Richtung der Abhängigkeit“ bedeutet demgemäß, dass das Wortpaar Herrn Müllers durch (20.1.a) als eine symmetrische Struktur angezeigt wird, ohne jede Spur der Endozentrik, während (20.1.b) als Dependenzstruktur die „Machtverhältnisse“ unbedingt explizieren muss, wenn es sich nicht um eine Koordination handelt. Es ist ebenfalls ein Beweis für die Komplementarität, wenn gewisse Ambiguitätsfälle nur durch das eine Strukturprinzip als strukturelle Ambiguitäten darstellbar sind (beim anderen Prinzip bleibt es dann eine lexikalische Ambiguität). Die Mehrdeutigkeit von (20.2.) kann durch das Tesnie`resche Stemma nicht wiedergegeben werden, da es in der
zwei
arbeitet
(b) Tischler
der
an
Schreibtisch
diesem
seit
Jahren
zwei
Abb. 20.3.
(20.3.a) entspricht der Lesart, nach der die Präpositionalphrase an diesem Schreibtisch ein Valenzpartner von arbeitet ist, während bei (20.3.b) dieselbe Präpositionalphrase eine Angabe ist (Engel 1994, 98 schlägt zur Bezeichnung des Angabenstatus die gestrichelte Linie vor). Die Ambiguität von 20.2 kann auch die Konstituentennotation nur dann zum Ausdruck bringen, wenn die Darstellung von Komplementen und Adjunkten geregelt ist,
238
III. Dependenz. Grundlagen und Grundfragen
wie es etwa dem o. g. Schema von Fanselow/ Felix (1993, 54) zu entnehmen ist. Man kann auch nach weiteren Merkmalen suchen, die die Kohäsionsstärke zumindest relativ „messbar“ machen und möglicherweise mehr als zwei Ebenen bestimmen, z. B. „kasusregiert“ vs. „nicht kasusregiert“ bei den Komplementen (siehe den „engen“ und den „erweiterten“ Ergänzungsbegriff von Adamzik 1992, 305). Es ist hierbei wichtig, dass man diese Größen explizit auseinander halten muss, wenn bestimmte Ambiguitätstypen als strukturelle Angelegenheiten behandelt werden sollen. (a)
zu. Die Rektionstheorie als Teiltheorie (oder „Prinzip“) der Rektions- und Bindungstheorie macht dies sogar terminologisch klar, der Kopf regiert ja seine Schwesterknoten. Die Einteilung der Grammatik in eine Basiskomponente und eine Transformationskomponente führt in der generativen Linguistik dazu, dass die Reihenfolge der Konstituenten in den basisgenerierten Tiefenstrukturen durch die Phrasenstrukturregeln fixiert wird und die verschiedenen validen Oberflächenpermutationen durch Transformationen erzeugt werden. Die Transformationen wer-
S
VP
NP
D
N
PP
VP PP
V
Der Tischler arbeitet an diesem Schreibtisch seit zwei Jahren
(b)
S
VP
NP D
N
V
PP
PP
Der Tischler arbeitet an diesem Schreibtisch seit zwei Jahren
Abb. 20.4.
4.
Konvergenzerscheinungen
Dank der Konvergenz der Forschungsrichtungen, die auf Konstituenz bzw. Dependenz basieren, kann man das Verhältnis immer weniger als komplementär bezeichnen (vgl. Schmidt 1991). Je spätere Versionen verglichen werden, desto weniger Unterschiede können in den durch die Grammatiken vermittelten expliziten und impliziten Informationen gefunden werden, d. h. desto eher können sie als Alternativen betrachtet werden. Durch die explizite Nennung des Kopfes auf allen Ebenen weist die X-bar-Syntax den betreffenden Konstituenten Regens-Rollen
den in der Rektions- und Bindungstheorie auf die Regel „move a“ reduziert, die natürlich ohne die sog. Prinzipien ⫺ vor allem ohne die Grenzknotentheorie ⫺ nicht richtig funktionieren kann. Die Tesnie`resche Anordnung derjenigen Dependentien, die einem gemeinsamen Regens untergeordnet sind, folgt der Wortstellung der Oberflächenstruktur, aber es wird nicht exakt kodiert, wo das Regens in der linearen Anordnung steht. Tesnie`re führt nur tendenzartige Regeln an, die sprachtypologisch variieren. Vennemann (1977, 276 f.) kritisiert eine derartige Vermischung von strukturaler und linearer Anordnung, und in seiner kategorialgrammatischen Bestimmung
20. Dependenzstruktur und Konstituenzstruktur
des Dependenzbegriffes will er die Abhängigkeit gegen die Serialität klar abgrenzen (Vennemann 1977, 286 ff.). Da die meisten Dependenzgrammatiken keine generativen Transformationsgrammatiken sind in dem Sinne, dass sie aus den Dependenzstrukturen keine Oberflächenstrukturen herstellen wollen, haben sie auch keine entsprechenden Bewegungstransformationen in ihrem Instrumentarium. In den dependenziellen deskriptiven Grammatiken wird den Wortfolgeregeln meistens ein spezielles Kapitel gewidmet, das eher statische als dynamische Modelle anführt (vgl. Engel 1992, 303 ff. oder Helbig/Buscha 1991, 564 ff.). Transformationen als solche sind dabei auch Dependenzgrammatiken nicht ganz fremd. Diese Transformationen sind allerdings zumeist Umformungen von Oberflächenstrukturen zu verschiedenen Zwecken (z. B. Operationalisierungstests zur Unterscheidung zwischen Ergänzungen und Angaben, Verschiebeprobe zur Feststellung von Satzgliedgrenzen usw.). Begriffe wie „Erststellenfähigkeit“ oder „Ausrahmung“, die in den verschiedensten Grammatiken vorkommen, implizieren ebenfalls Bewegungstransformationen, auch wenn diese nicht unbedingt als exakte Transformationsregeln formuliert werden. Die Konstituenzdiagramme können sich direkt an die Oberflächenwortfolge anpassen (vor allem in den früheren, strukturalistischen Versionen), oder es wird eine Transformationskomponente beigefügt, welche die lineare Anordnung der Oberfläche produziert. In der Rektions- und Bindungstheorie wird dank den „traces“ sogar eine „Rücktransformation“ ermöglicht, d. h. aus der Oberflächenstruktur (genauer: s-structure) ist jederzeit die Tiefenstruktur (genauer: d-structure) rekonstruierbar. Einige Versionen der Dependenzgrammatik geben in ähnlicher Weise eine Art Oberflächenstruktur mit an, indem sie die Wörter des Satzes entsprechend der Oberfläche aneinander reihen und die Knoten des Abhängigkeitsdiagramms über diesen Wörtern platzieren (z. B. Kunze 1975; Tarvainen 1981, 12; Eroms 1991, 228 f.; Weber 1992). Dies ist auf jeden Fall eine bessere Kombination von strukturaler und linearer Anordnung als die o. a. Lösung von Tesnie`re. In dem generalisierten X-bar-Modell, das von Fanselow/Felix (1993, 54) angegeben wird, kann das Verb (oder irgendeine andere Kategorie) auf drei Ebenen als Kopf auftreten: (a) ganz unten, wo die eigenen Schwes-
239 tern seine Komplemente sind; (b) eine Ebene höher, wo die Adjunkte (valenzgrammatisch: Angaben) an die Phrase, die aus dem Kopf und seinen Komplementen besteht, anknüpfen; (c) auf der dritten, höchsten Ebene, wo noch ein „Spezifizierer“ (im Satz: Subjekt) hinzukommt. Nicht einmal im Phrasentyp „Satz“ ist er aber ein gleichrangiger Partner, denn auch hier ist das Verb der Kopf, wodurch der ganze Satz zu einer VP wird. Durch die Einführung der funktionalen Kategorie INFL wird der Satz allerdings nicht mehr VP, sondern IP, aber auch INFL gehört zum Verb als seine Funktion, welcher der Subjektknoten gegenübersteht. Die Auffassung des Satzes als VP/IP sowie die Unterscheidung zwischen den Ebenen der Komplemente und der Adjunkte nähern die auf Konstituenz basierende generative Grammatik der valenzorientierten Dependenzgrammatik an. Wenn aber eine Dependenzgrammatik wirklich valenzorientiert ist, ist es angebracht, zwischen Ergänzungen und Angaben auch bei der Darstellung zu differenzieren, was z. B. für die grafische Notation bei Tarvainen (1981) oder Engel (1994) charakteristisch ist. Eine spezielle Behandlung des Subjektes unter den Verbdependentien ist bereits bei Tesnie`re zu entdecken (vgl. den Namen „Erstaktant“). Es kann letzten Endes als eine terminologische Abweichung gesehen werden, dass das Subjekt in der Valenztheorie eine spezielle Ergänzung ist, während in der X-bar-Syntax überhaupt nicht in Frage kommt, dass das Subjekt ein „spezielles Komplement“ wäre. Falls die Ergänzung-Angabe-Dichotomie (etwa ⫽ complement/adjunct dichotomy) in der Theorie durch ein mehrstufiges, skalares System ersetzt wird (z. B. durch Abstufungen der Ergänzungen bei Adamzik 1992 oder ´ gel 1995), hat das im Konstituenzdiagramm A möglicherweise mehr Ebenen der Abzweigungen und im Dependenzdiagramm mehr Arten von Linien zur Folge (oder zusätzliche Indizes usw.). Wenn eine Dependenzgrammatik auf einer exklusiven Behandlung des Erstaktanten besteht, muss sie nicht nur den Unterschied zwischen Ergänzungen und Angaben, sondern auch den Unterschied zwischen Subjekt und sonstigen Ergänzungen symbolisieren. Eine mögliche Lösung ist es, wenn der Erstaktant im Diagramm auch topologisch als erster, d. h. linksperipherer Aktant dargestellt wird. Wenn jedoch in der Darstellung die li-
240
III. Dependenz. Grundlagen und Grundfragen
neare Anordnung der Oberfläche berücksichtigt wird, kann das Subjekt nicht nur in einer linksperipheren Position (i. e. im Vorfeld), sondern auch an anderen Stellen stehen. In diesem Fall muss man nach anderen technischen Lösungen suchen. So eine Lösung kann ein Symbol „sub“ im Index sein (vgl. Engel 1994, 46), oder eine Doppellinie, die symbolisch u. a. auf die bidirektionale Rektion hinweisen kann (vgl. Schmidt 1986, Uzonyi 1996 b, 709). Ein Teil der Stemmata von Engel (1994, 90 ff.) führt auch Kategoriensymbole an (z. B. V, Det, Nom, Adj, Prp), außerdem werden Phrasen thematisiert (Engel 1994, 104 ff.), was eine Annäherung an die Notation und Terminologie der Phrasenstrukturgrammatiken bedeutet. Die Behandlung von morphologischen Kategorien als syntaktische Elemente erscheint im Skopus beider Strukturprinzipien. Der Begriff der Mikrovalenz (vgl. Pasierbsky ´ gel 1995) ist in Ansätzen 1981; La´szlo´ 1988; A eigentlich bereits bei Tesnie`re entdeckbar, wo er die Ausdrucksmöglichkeiten des Subjektes erörtert, und Eroms (1988, 292 ff.) setzt das Formativ des finiten Verbs an die höchste Stelle, wo der Tradition nach das Verblexem stehen müsste. Ebenda erwähnt er als Positivum den Parallelismus mit dem SatzkopfStatus des INFL-Knotens in der Rektionsund Bindungstheorie. INFL (I0) als „funktionale Kategorie“ ist allerdings nur in der Tiefenstruktur ein souveränes Element, denn um auch in der Oberflächenstruktur erscheinen zu können, muss es erst mit dem Verblexem vereinigt werden (vgl. Dürscheid 1991, 56).
5.
Zur Kompatibilität und Konvertierbarkeit der beiden Strukturprinzipien
Zur Kompatibilität von Dependenz und Konstituenz ist es nötig, dass der Transfer zwischen den beiden Terminologien durch eine exakte Äquivalenzliste (d. h. ein „zweisprachiges Wörterbuch“ in beiden Richtungen) gewährleistet wird. Zur Konvertierbarkeit ist darüber hinaus nötig, dass die Strukturbeschreibungen Alternativen sind, d. h. sie mit verschiedenen Notationen dieselben strukturellen Informationen vermitteln. Die Unterschiede zwischen den Alternativen können von der Reihenfolge der Wichtigkeit von Strukturmerkmalen herrühren, aber die Stellenwerte der interpretativen Komponenten
(Semantik, Phonologie) können ebenfalls unterschiedlich sein. Wenn die Kompatibilität mit Hilfe eines terminologischen Zuordnungssystems gesichert wird (beispielsweise mit „Lexikoneinträgen“ wie Kopf ⫽ Regens/Nukleus), dann lässt sich die Frage nach dem „stärksten Element“ der Kette der neue Schreibtisch so formulieren, dass sie sowohl von Dependenzgrammatikern als auch von Konstituenzgrammatikern auf die gleiche Weise verstanden wird. Es können verschiedene Antworten gegeben werden, aber die Verteilung der auseinandergehenden Antworten ist nicht unbedingt isomorph mit der Verteilung der Grundhaltungen der Antwortgeber in Bezug auf Konstituenz und Dependenz. Welches sind die Informationen, die zur Konvertierbarkeit der moderneren Versionen der beiden Strukturbeschreibungen nötig sind? (a) Bezeichnung von Kopf/Nukleus bei zusammengehörigen Elementen; (b) Bezeichnung von topologischen Relationen (Wortfolge); (c) Bezeichnung der Kategorien der Elemente; (d) Bezeichnung der Art der Verbindung zwischen Element und Kopf/Nukleus: Subjekt (specifyer), andere Ergänzungen (complement), Angabe (adjunct) ⫺ oder eventuell feinere Einteilungen; (e) Differenzierung zwischen den Konnexionstypen (Phrasentypen) „Element ⫹ Element“, „Element ⫹ Phrase“ und „Phrase ⫹ Phrase“. Wenn verschiedene Strukturbeschreibungen diese Informationen enthalten, dann sind sie ineinander konvertierbar. In der Praxis kann dies folgendermaßen vor sich gehen: (i) Konstituenzstruktur J Dependenzstruktur Wenn die Bedingung erfüllt wird, dass auf jeder Ebene eine Konstituente als Kopf markiert wird, kann die Konversion problemlos durchgeführt werden. Bei (20.5.) stellt sich nicht eindeutig heraus, welches der beiden N der Kopf ist. Auf Grund der Untersuchung von analogen Strukturen kann man herausfinden, dass normalerweise nur das zweite N flektiert wird (die Kongruenz von Herr ist eine Ausnahme). Dieses ist durch das Prinzip der Kasuszuweisung betroffen, also muss das rechts stehende N der Kopf sein (vgl. Bürgermeister Müllers
241
20. Dependenzstruktur und Konstituenzstruktur S
eine endozentrische Darstellung der Appositionskonstruktion.
NP
VP
DP
N
NP
V
N
NP
N
D
N
QP/DegP
D QP/DegP
DP
N
Herrn Müllers Freundin schreibt keine Postkarten
Peter
Abb. 20.5.
Ingenieur bei Siemens
Abb. 20.8.
Freundin). Für eine endozentrische Struktur spricht außerdem das Ergebnis der Weglassprobe: Müllers Freundin ist richtig, *Bürgermeister Freundin ist falsch. Nach dem DP-Ansatz soll der Kopf der Phrase Müllers Freundin das genitivische Formativ sein (vgl. Olsen 1991, 48). DP
D D||
D
DP Müller
Vater (1991, 21) verwirft diese Lösung, da sie für pronominale Bezugswörter nicht zu gelten scheint, und stellt ihr eine ungewöhnliche, symmetrische X-bar-Struktur gegenüber, die als solche keine Endozentrik aufweist. ||
D|
|
D|
0
D
NP
-s
N
D0 er
Freundin
mein bester Freund
Abb. 20.9.
Abb. 20.6.
Die endozentrische Verbindung gleicher Kategorien (so z. B. die obige Appositionskonstruktion) kann man mit der Verwendung von eingliedrigen Phrasen als asymmetrisch darstellen. DP D|
DP 0
D| 0
NP
D
NP
0
N
N Bürgermeister
Müller
Abb. 20.7.
Bhatt (1989, 152) erreicht durch die Einführung der Quantifyer-Phrase und der DegreePhrase nicht nur die Aufhebung der Kasuszuweisung bei der Apposition (sie müsste sonst vom direkt vor ihm stehenden Nomen den Genitiv zugewiesen bekommen), sondern auch
Wegen der Kasuskongruenz steht die lockere Apposition einer Koordination sehr nahe (Grammatiken rechnen sie jedenfalls im Allgemeinen zu den Attributen), aber die enge Apposition zeigt auch hinsichtlich der Kasusmarkierung eine Asymmetrie (vgl. Bürgermeister Müllers Freunde vs. Freunde des Bürgermeisters Müller). Die Symbolisierung des Kopf-Status ist in früheren Konstituentendiagrammen nicht explizit genug. Das Symbol der Phrase enthält zwar das Symbol der jeweiligen Kopfkategorie (z. B. enthält das Symbol NP den Buchstaben N, der das Symbol des Kopfes ist), aber es kommt oft vor, dass die Töchter des Phrasenknotens ebenfalls Phrasen sind, und zwar gleiche Phrasen. Wenn derartige Strukturbeschreibungen in Dependenzstemmata konvertiert werden sollen, taucht das Problem auf, dass nicht auf allen Ebenen ein Kopf gefunden werden kann, der in der Dependenzstruktur als Regens fungieren würde. Dieses Problem kann beim Knoten S sogar zu Überlegungen in Bezug auf die theoretischen Grundlagen führen; das Symbol S ent-
242
III. Dependenz. Grundlagen und Grundfragen
hält nämlich weder V noch N, d. h. es lässt sich nicht entschlüsseln, welches der Kopf ist, wenn hier die Existenz eines Kopfes überhaupt in Frage kommt (d. h. wenn man auf Endozentrik, und nicht auf Exozentrik besteht). Indessen ist die „Phrase S“, d. h. der Satz, in der Dependenzgrammatik eindeutig eine Phrase mit Kopf, der hier allerdings Nukleus heißt (vgl. Engel 1994, 104 f.). Wenn der Kopf in allen Phrasen einer Konstituentenstruktur identifizierbar ist, spielt sich die Konversion nach einem verhältnismäßig einfachen Algorithmus ab. Grafisch könnte man es sich beispielsweise folgendermaßen vorstellen: Kopfkategorien wandern samt ihrer lexikalischen Ausfüllung an die Stelle des Mutterknotens (hierbei löschen sie die Kante, die sie entlanggehen); falls die Mutter Schwestern hat, bewegt sich die Kopfkategorie der betroffenen Ebene weiter nach oben. Nach diesbezüglichen theoretischen Erwägungen kann eine spezielle Teilregel der Konversion eingeführt werden, nach der die Position des Mutterknotens S durch die Kategorie V besetzt werden soll (die Erwägungen können natürlich auch zu einem anderen Schluss führen). Wenn nach der Konversion die Kategoriensymbole gestrichen werden, wodurch nur die lexikalischen Elemente in den Knoten bleiben, bekommen wir ein Stemma etwa a` la Tesnie`re. S
VP
NP D
N
V
NP
schreibt
Freundin
Postkarten
seine
keine
Abb. 20.11.
Die X-bar-Syntax liefert ohne zusätzliche Symbole die nötigen Informationen über die Köpfe aller Phrasen, die Kopfkategorie wird nämlich auf jeder Ebene in einer expliziten Weise angegeben. Die Varianten von X0 bis hin zum Xıı bestimmen ziemlich klar die Route für das Kopfelement bei einer Konversion zur Dependenzstruktur. Wenn in der Konstituenzstruktur statt NP die DP erscheint, dann wird das Substantiv in der konvertierten Dependenzstruktur dem Determinans untergeordnet. In der Dependenzgrammatik ist diese Version schon früher, offenbar unabhängig vom DP-Ansatz der Phrasenstrukturgrammatik aufgetaucht, z. B. bei Erben (1980, 318 f.) oder Vennemann (1977, 269 f.). Ein Abhängigkeitsdiagramm mit linearer Anordnung lässt sich mit einem ebenfalls einfachen Algorithmus aus dem Konstituentendiagramm konvertieren. Hierbei werden die lexikalischen Ausfüllungen von den Kategoriensymbolen nicht mitgeschleppt und diese Symbole werden nicht gelöscht. Kategoriensymbole bewegen sich nicht entlang den Knoten, sondern vertikal, um über den eigenen lexikalischen Ausfüllungen zu bleiben. V
D N Seine Freundin schreibt keine Postkarten N
Abb. 20.10.
N
D D Seine Freundin schreibt keine Postkarten.
Bei der Konversion von 20.10. wandert N/ Freundin an die Stelle der dominierenden NP, V kommt über VP an die Stelle von S, und N/Postkarte kommt in die Position des Mutterknotens NP, woraus am Ende 20.11. resultiert. In denjenigen Phrasenstrukturdiagrammen, in denen nicht jeder Kopf auf Grund der Phrasennamen identifizierbar ist, muss man zusätzliche Symbole verwenden, um eine Konversion realisierbar zu machen (vgl. Uzonyi 1996 a, 126).
Abb. 20.12.
Mit diesem Verfahren kann man sogar die universale Satzstruktur der Rektions- und Bindungstheorie in ein „universales Dependenzstemma“ konvertieren (auch wenn mentalistische, eine angeborene und universale Kernkompetenz anvisierende Theorien eher nur in der generativen Linguistik im Vordergrund stehen). Die funktionale Kategorie I0 muss dabei auch übernommen werden, was
243
20. Dependenzstruktur und Konstituenzstruktur
aber in der Dependenzgrammatik wiederum nicht unbedingt als Novum gilt; bei Eroms (1988, 292 ff.) erscheinen nämlich gebundene Morpheme als selbstständige Elemente im Stemma. Was jedoch in der Dependenzgrammatik kein Präzedens zu haben scheint, das sind die Positionen TOP und C0, die in der Tiefenstruktur leer bleiben, sowie die Transformation „move a“ und die Spuren. Ohne diese ist ein Pendant in dependenzieller Darstellung kaum realisierbar. C
||
C
|
I C
TOP
erste der o. a. fünf Informationen (a)⫺(e) beinhaltet. In der Literatur der Dependenzgrammatik kann man kaum eine Version finden, die gleichzeitig alle fünf besagten Informationstypen enthält. Aus dem Wesen der Dependenzgrammatik folgt, dass sie ein Element immer als Kopf ausweist, indem sie die Elemente vertikal ordnet. Die Topologie (Information (b)) lässt bereits Tesnie`re nicht außer Acht, aber er wählt eine Zwischenlösung, die ohne einen entsprechenden Trans-
||
0
SPEC
I| V
N N
||
||
V
Adv 0
N
||
N
später i
kauf j te k
Irene
|
0
I
0
0
eine Postkarte
Ti
V
Tj
Tk
Abb. 20.13.
Nur innerhalb von Iıı ist es sinnvoll, die Abhängigkeitsrelationen anzuzeigen, bis auf den Fall, wenn C0 durch einen Subjunktor ausgefüllt wird, der dem Satz (sprich: Iıı) übergeordnet ist. Für die indizierten Elemente unter TOP und C0 gelten die Dependenzrelationen, durch welche ihre koindizierten Spuren charakterisiert werden können. I
0
V SPEC Adv TOP
N
0
C
später i kauf j te k Irene T i eine Postkarte T j
Tk
Abb. 20.14.
(ii) Dependenzstruktur J Konstituenzstruktur Eine Konversion des Stemmas von Tesnie`re wird zwangsläufig fehlschlagen, da es nur die
formationsmechanismus nicht imstande ist, die lineare Anordnung der Oberflächenstruktur zu rekonstruieren. Die vielleicht einfachste und zugleich transparenteste Lösung bieten die projektiven Darstellungen wie z. B. in (12), die einem auch in der Fachliteratur relativ oft begegnen (z. B. Kunze 1975; Eroms 1991; Weber 1992). Dazu tritt in der Regel ⫺ jedoch nicht zwangsläufig ⫺ die Information (c), d. h. die Bezeichnung der Kategorien der Elemente. Die Information (d), die Art der Verbindung zwischen Regens und Dependens, wird in den Dependenzstemmata merkwürdigerweise nur selten angegeben, obwohl die meisten Varianten der Dependenzgrammatik auf dem Boden der Valenztheorie aufbauen. Nur wenige unterscheiden auch mit grafischen Mitteln zwischen Ergänzungen und Angaben, so z. B. Tarvainen (1981, 61) oder Engel (1992 und 1994). Zur Bezeichnung des Subjektes gebraucht Engel (1994) das Indexmerkmal sub, Weber (1992) bezeichnet es mit der Nummerierung durch eine 1, Schmidt (1986) verwendet eine Doppellinie, was auch von Uzonyi (1996b) übernom-
244 men wird. Zur Bezeichnung der Information (e) kann man Kästchen zeichnen (Erben 1980, 318 f.), oder Blasen (Vennemann 1977, 271), Trennlinien (Van der Elst 1994, 39 ff.) usw. Die Konversion von Sätzen wie (20.15.a) kann etwa folgendermaßen ablaufen: Die Kategorien der zweiten Ebene von unten „rutschen“ auf die unterste Ebene ab, an ihrer Stelle (auf der zweiten Ebene) bleibt ein Phrasensymbol als Mutterknoten (Kategorienname mit einem Strich (X-bar-Variante) oder Kategorienname ⫹ P). Die „abrutschenden“ Symbole zeichnen eine Linie hinter sich, die zu einer Kante des Baumdiagramms in (20.15.b) wird. Das Verb bildet zunächst mit demjenigen Dependens eine Phrase, mit dem es durch die Doppellinie verbunden ist (⫽ Subjekt), wobei es seine anderen Dependentien mit nach unten nimmt. An der Spitze des Baumdiagramms entsteht somit ein Phrasensymbol mit V. Dies kann u. U. ⫺ z. B. in einer X-bar-Variante ⫺ erhalten bleiben, sonst muss man es mittels einer Sonderregel durch S ersetzen. Das V, das von der Spitze eine Stufe tiefer gekommen ist, bildet dann mit den Dependentien eine Verbalphrase, die mit ihm als Angaben durch durchgekreuzte (oder gestrichelte usw.) Linien verbunden sind. Das Verb nimmt bei dieser Bewegung seine Ergänzungen mit. An der nun freien Stelle entsteht ein Knoten mit dem Namen VP, was der Notation der Phrasenstrukturgrammatik völlig gerecht wird. In der letzten Phase der Konversion bildet das Verb mit seinen Ergänzungen (Komplementen) eine Phrase. Bei mehreren Adjunkten werden diese von ein und derselben VP dominiert, und dasselbe gilt auch für die Komplemente, was dem 3-Ebenen-Phrasenmodell von Fanselow/Felix (1993, 54) entspricht. Die Verwendung von speziellen grafischen Bezeichnungen für das Subjekt und für die Angaben im Dependenzstemma vermittelt zum Teil auch die Information (e), d. h. das jeweilige Element-Phrasen-Verhältnis. Diesen Symbolen ist nämlich zu entnehmen, dass das Subjekt als Element (und zugleich als Kopf einer NP) mit einer VP verbunden ist, die aus dem Verb, den Adjunkten und den Komplementen besteht, und dass die Adjunkte an eine VP anknüpfen, die das Verb und seine Komplemente enthält. Die Struktur der NP kann auch so beschaffen sein, dass die Information (e) in der Dependenzstruktur mitkodiert sein muss, wenn durch die Konversion die richtige Kons-
III. Dependenz. Grundlagen und Grundfragen
(a)
V N P
N
N D D Der Alte kauft das Buch in Frankfurt.
(b)
S VP
NP D
N
PP
VP V
NP
P
N
D N Der Alte kauft das Buch in Frankfurt.
Abb. 20.15.
tituentenstruktur entstehen soll (es ist freilich auch ohne Konversionsabsicht angebracht, strukturelle Unterschiede in einer Strukturbeschreibung zu signalisieren). Die Phrasen unglaublich langweilige Vorlesungen und deutsche bildende Kunst ergeben das gleiche Dependenzdiagramm, wenn die Abstufungen der Bindungskohäsion nicht angezeigt werden. Im Hinblick auf die Konvertierbarkeit ist vor allem die Darstellung des Phrasentyps deutsche bildende Kunst interessant. Unser Konversionsalgorithmus ergibt bei 20.16.a auch dann die richtige AP, wenn die engere Verbindung von A(dv) und A nicht extra signalisiert wird. Bei (20.16.b) muss man demgegenüber zunächst die Phrase der eingekreisten Elemente produzieren, d. h. nicht die der beiden untersten. Sowohl von 20.16.a als auch von 20.16.b unterscheiden sich natürlich Parataxen wie sonniges, warmes Wetter. Die Strukturen D ⫹ A ⫹ N kann man mit diesem Algorithmus nicht zu einer richtigen Konstituentenstruktur konvertieren, wenn N der Nukleus ist. Eine Konversion mit einem richtigen Ergebnis ist nur dann möglich, wenn der Kern der Phrase D ist, was dem DP-Ansatz entspricht. Vennemann (1977) und Erben (1980) setzten das Determinans bereits lange vor Abney (1987) über das Substantiv. Falls oben N, darunter D, und unter diesem A steht, wie es z. B. von Engel (1992) vorgeschlagen wird, ergibt die Konversion eine eigenartige „DP“, in der das Komple-
245
20. Dependenzstruktur und Konstituenzstruktur
(a)
N
NP
A
AP
A A(dv) unglaublich langweilige Vorlesungen
A(dv) unglaublich langweilige Vorlesungen
(b)
N
N
NP
A
NP
A
A N deutsche bildende Kunst
A deutsche bildende Kunst
Abb. 20.16.
ment von D ein A ist, was kaum die richtige Phrasenstruktur wiedergibt. NP
N DP
D A der junge Architekt
(?) N
D A der junge Architekt
Abb. 20.17.
Wenn jedoch das höchste Regens ein D ist, kommt problemlos eine richtige DP zustande.
6.
DP
D N A der junge Architekt
D
das Determinans der Kopf (vgl. Olsen 1991, 36). Unter dem Blickwinkel der Konvertierbarkeit scheint in diesem Konflikt die Endozentrik zu gewinnen. Dies gefährdet natürlich nicht, dass die Valenz als favorisierte Erscheinungsform der Subklassenspezifik in der Dependenzgrammatik ihren hohen Stellenwert behält. Valenz leistet nämlich entweder dasselbe wie die Endozentrik (nämlich bei den fakultativen Ergänzungen) oder hilft gerade in den Fällen die Dependenzrichtung zu bestimmen, in denen die Endozentrik nicht in Frage kommt (nämlich bei den obligatorischen Ergänzungen).
NP
N A der junge Architekt
Abb. 20.18.
Wenn allerdings der DP-Ansatz in der Dependenzdarstellung auf diese Weise zur Geltung kommt, geraten zwei Dependenzbegriffe in Konflikt, nämlich Endozentrik und Subklassenspezifik. Einerseits bekommt das Determinans das Genus vom Substantiv, ist ihm also auf Grund der Subklassenspezifik untergeordnet; andererseits kann das Determinans in seiner „intransitiven“ Form (i. e. als substantivisches Pronomen) auch ohne NP bleiben, während eine NP nicht ohne Determinans bleiben kann (zumindest dann, wenn z. B. der Begriff des Nullartikels eingeführt wird). Auf Grund der Endozentrik ist also
Literatur in Auswahl
Abney, Steven (1987): The English Noun Phrase in its Sentential Aspect. Cambridge (Mass.): MIT (Ph. D. Diss.) Adamzik, Kirsten (1992): Ergänzungen zu Ergänzungen und Angaben. In: Deutsche Sprache 20, 289⫺313. ´ gel, Vilmos (1993): Ist die Dependenzgrammatik A wirklich am Ende? Valenzrealisierungsebenen, Kongruenz, Subjekt und die Grenzen des syntaktischen Valenzmodells. In: Zeitschrift für germanistische Linguistik 21, 20⫺70. ´ gel, Vilmos (1995): Valenzrealisierung, GrammaA tik und Valenz. In: Zeitschrift für germanistische Linguistik 23, 2⫺32. Baum, Richard (1976): Dependenzgrammatik. Tesnie`res Modell der Sprachbeschreibung in wissenschaftsgeschichtlicher und kritischer Sicht (⫽ Beihefte zur Zeitschrift für romanische Philologie). Tübingen. Baumgärtner, Klaus (1970): Konstituenz und Dependenz. Zur Integration der beiden grammatischen Prinzipien. In: Steger, Hugo (Hg.) (1970):
246 Vorschläge für eine strukturale Grammatik des Deutschen (⫽ Wege der Forschung 146). Darmstadt, 52⫺77. Bhatt, Christa (1989): Die syntaktische Struktur der Nominalphrase im Deutschen (⫽ Studien zur deutschen Grammatik 38). Tübingen. Bloomfield, Leonard (1933): Language. New York. Chomsky, Noam (1957): Syntactic Structures. The Hague. Chomsky, Noam (1981): Lectures on Government and Binding. Dordrecht. Dürscheid, Christa (1991): Modelle der Satzanalyse (⫽ KLAGE 26). Hürth. Eisenberg, Peter (1994): Grundriß der deutschen Grammatik. Stuttgart (3. Aufl.). Engel, Ulrich (1974): Zur dependentiellen Beschreibung von Nominalphrasen. In: Engel, Ulrich/ Grebe, Paul (Hgg.) (1974): Sprachsystem und Sprachgebrauch. Düsseldorf, 58⫺89. Engel, Ulrich (1992): Deutsche Grammatik. Budapest (2. Aufl.). Engel, Ulrich (1994): Syntax der deutschen Gegenwartssprache. Berlin (3. Aufl.). Erben, Johannes (1980): Deutsche Grammatik. Ein Abriß. München (12. Aufl.). Eroms, Hans-Werner (1981): Valenz, Kasus und Präpositionen. Untersuchungen zur Syntax und Semantik präpositionaler Konstruktionen in der deutschen Gegenwartssprache. Heidelberg. Eroms, Hans-Werner (1988): Der Artikel im Deutschen und seine dependenzgrammatische Darstellung. In: Sprachwissenschaft 13, 257⫺308. Eroms, Hans-Werner (1991): Valenzbindung und Valenzschichtung im Satz. In: Feldbusch et al. (Hgg.) (1991), 219⫺231. Fanselow, Gisbert/Felix, Sascha (1993): Sprachtheorie. Eine Einführung in die Generative Grammatik (Bd. 2). Tübingen (3. Aufl.). Feldbusch, Elisabeth et al. (Hgg.) (1991): Neue Fragen der Linguistik, Akten des 25. Linguistischen Kolloquiums, Paderborn 1990. Bd. 1: Bestand und Entwicklung (⫽ Linguistische Arbeiten 270). Tübingen. Gaifman, Haim (1961): Dependency Systems and Phrase-Structure-Systems. The RAND Corporation Res. Mon. Haider, Hubert (1988): Die Struktur der deutschen Nominalphrase. In: Zeitschrift für Sprachwissenschaft 7, 32⫺59. Harris, Zellig S.(1951): Methods of Structural Linguistics. Chicago. Hays, David G. (1960): Grouping and Dependency Theories. The RAND Corporation Res. Mon. Hays, David G. (1964): Dependency theory: a formalism and some observations. In: Language 40, 511⫺525.
III. Dependenz. Grundlagen und Grundfragen Helbig, Gerhard/Schenkel, Wolfgang (1980): Wörterbuch zur Valenz und Distribution deutscher Verben. Leipzig (6. Aufl.). Heringer, Hans Jürgen (1970): Theorie der deutschen Syntax. München. Heringer, Hans Jürgen (1986): The Verb and its Semantic Power: Association as a Basis for Valency Theory. In: Journal of Semantics 4, 79⫺99. Jackendoff, Ray S. (1977): X’-Syntax: A Study of Phrase Structure. Cambridge (Mass.). Jacobs, Joachim (1986): Kontra Valenz (Typoscript). München. Kunze, Jürgen (1975): Abhängigkeitsgrammatik. Berlin. Lakoff, George (1971): On generative semantics. In: Steinberg, Danny D./Jakobovits, Leon A. (eds.): Semantics: An Interdisciplinary Reader in Philosophy, Linguistics and Psychology. Cambridge, 232⫺296. La´szlo´, Sarolta (1988): Mikroebene. In: Mrazovic´, Pavica/Teubert, Wolfgang (Hgg.) (1988): Valenzen im Kontrast. Ulrich Engel zum 60. Geburtstag. Heidelberg, 218⫺233. Lobin, Henning (1989): A dependency syntax of German. In: Maxwell, Dan/Schubert, Klaus (Hgg.) (1989): Metataxis in practice. Dependency syntax for multilingual machine translation (⫽ Distributed Language Translation 6). Dordrecht, 17⫺38. McCawley, James D. (1971): Interpretive Semantics Meets Frankenstein. In: Foundations of Language 7, 285⫺295. Olsen, Susan (1989): Das Possessivum: Pronomen, Determinans oder Adjektiv? In: Linguistische Berichte 120, 133⫺153. Olsen, Susan (1991): Die deutsche Nominalphrase als „Determinansphrase”. In: Olsen, Susan/Fanselow, Gisbert (Hgg.) (1991): „DET, COMP und INFL“. Zur Syntax funktionaler Kategorien und grammatischer Funktionen (⫽ Linguistische Arbeiten 263). Tübingen, 35⫺56. Pasierbsky, Fritz (1981): Sprachtypologische Aspekte der Valenztheorie unter besonderer Berücksichtigung des Deutschen. In: Zeitschrift für Phonetik, Sprachwissenschaft und Kommunikationsforschung 34 (2), 160⫺177. Schmidt, Jürgen Erich: Konvergenzen zwischen neueren Grammatiktheorien und Deskriptionsgrammatiken? Zum Verhältnis von Konstituenz, Rektion (Government), Valenz und Dependenz. In: Feldbusch et al. (Hgg.) (1991), 211⫺218. Schmidt, Reiner/Neuner, Gerd/Scherling, Theo/ Wilms, Heinz (1986): Deutsch aktiv Neu. Berlin/ München/Wien/Zürich/New York. Somers, Harold L. (1987): Valency and case in computational linguistics (⫽ Edinburgh information technology series 3). Edinburgh. Storrer, Angelika (1992): Verbvalenz. Theoretische und methodische Grundlagen ihrer Beschreibung in
247
21. Dependenz und lineare Ordnung Grammatikographie und Lexikographie (⫽ Reihe Germanistische Linguistik 126). Tübingen. Tarvainen, Kalevi (1981): Einführung in die Dependenzgrammatik. Tübingen. Tesnie`re, Lucien (1959): Ele´ments de syntaxe structurale. Paris. Uzonyi, Pa´l (1996a): Wieder einmal zur Kompatibilität von Dependenz und Konstituenz. In: Ma´dl, Antal/Schmitt, Wolfgang (Hgg.): Jahrbuch der ungarischen Germanistik 1996. Budapest/Bonn, 119⫺138. Uzonyi, Pa´l (1996b): Rendszeres ne´met nyelvtan. Budapest. Uzonyi, Pa´l (1997): Deutsche Grammatik in ungarischer Sprache. In: Henrici, Gert/Kohn, Ja´nos (Hgg.): DaF-Unterricht im Spannungsfeld zwischen Forschung und Praxis. Szombathely. Van der Elst, Gaston (1994): Syntaktische Analyse. Erlangen/Jena (5. Aufl.). Vater, Heinz (1991): Determinantien in der DP. In: Olsen, Susan/Fanselow, Gisbert (Hgg.) (1991): „DET, COMP und INFL“. Zur Syntax funktionaler Kategorien und grammatischer Funktionen (⫽ Linguistische Arbeiten 263). Tübingen, 15⫺34.
Vater, Heinz (1994): Einführung in die Sprachwissenschaft. München. Vennemann, Theo (1977): Konstituenz und Dependenz in einigen neueren Grammatikmodellen. In: Sprachwissenschaft 2, 259⫺301. Weber, Heinz J. (1992): Dependenzgrammatik. Ein Arbeitsbuch. Tübingen. Wegener, Heide (1990): Komplemente in der Dependenzgrammatik und in der Rektions- und Bindungstheorie. Die Verwendung der Kasus im Deutschen. In: Zeitschrift für Germanistische Linguistik 18, 150⫺184. Welke, Klaus (1994): Valenz und Satzmodelle. In: Thielemann, Werner/Welke, Klaus (Hgg.): Valenztheorie ⫺ Werden und Wirkung. Wilhelm Bondzio zum 65. Geburtstag. Münster, 227⫺244. Welke, Klaus (1995): Dependenz, Valenz und Konstituenz. In: Eichinger, Ludwig M./Eroms, HansWerner (Hgg.): Dependenz und Valenz. Hamburg, 163⫺175. Wells, Rulon S. (1947): Immediate Constituents. In: Language 23, S. 81⫺117.
Pa´l Uzonyi, Budapest (Ungarn)
21. Dependenz und lineare Ordnung 1. 2. 3. 4. 5.
Hierarchie und Projektion Basisregeln für das Deutsche Kommunikative Regeln Weitere Regularitäten Literatur in Auswahl
1.
Hierarchie und Projektion
1.1. Problemstellung und Lösungsweg Sätze sind overte Ketten von Phonemen oder Wörtern. Dies ist eine grundlegende Eigenschaft natürlicher Sprachen, die de Saussure den ordre line´aire nannte. Also sind lineare Wortstrings die manifeste Erscheinungsform der Sprache und die Datenbasis der Syntax. Dependenz unterlegt den Ketten eine zweidimensionale Struktur. Wichtige Fragen für eine Dependenzgrammatik sind darum: ⫺ Wie hängen die Ketten und ihre zweidimensionale Struktur zusammen? ⫺ Wie gelangt man von den Ketten in die zweidimensionale Struktur und umgekehrt? ⫺ Wie hängen derartige grammatische Regularitäten mit pragmatisch-kommunikativen zusammen?
Das pauschale Kontiguitäts-Prinzip wird in der dependenziellen Syntax ausbuchstabiert durch die Darstellung des Zusammenhangs der Dependenz-Struktur und der Abfolge in Strings. Dafür verwendet man die sogenannte Projektion, in der die Baumstruktur senkrecht nach unten projiziert wird auf eine lineare Basis, den jeweiligen Satz in Stringform (vgl. Heringer/Strecker/Wimmer 1980, 182⫺192): V_nom_dat_akk
N*
N*
N*
P
Sie liefern uns das Bier an
Stemma (1)
(Hier und im Folgenden wird die Notation aus Heringer 1996 verwendet.) Die allgemeine Form der Projektion sieht so aus, wie in Stemma (2) dargestellt. Hier
248
III. Dependenz. Grundlagen und Grundfragen
bezeichnen die Superskriptzahlen die Ebene in der Dependenzstruktur, die Subskripte bezeichnen die lineare Ordnung auf der jeweiligen Ebene: X10
X12 X13
X23
'X13
'X23
X32
X22 X33
'X12
'X22
'X33
'X10
'X32
P
Stemma (2)
Die Knoten des Dependenzgraphen werden so angeordnet, dass durch eine Projektion auf die horizontale Projektionslinie P unterhalb des Graphen genau die lineare Ordnung, der String oder die Kette also, entsteht. Die Projektion geschieht in der Senkrechten und wird dargestellt durch die gestrichelten Projektionslinien. Hierbei ist die Interaktion zwischen dependenzieller Struktur oder Kategorisierung und der linearen Ordnung zu beachten: Nur eine Dependenz-Struktur, die einem wohlgeformten String entspricht, kann eine korrekte Struktur dieses Strings sein. Im Zusammenhang dieser Problemstellung spricht man auch von Serialisierung. Der Terminus „Serialisierung“ vermittelt das Problem, dass gemeinhin in syntaktischen Theorien angenommen wird, dass die Struktur eines Satzes zweidimensional sei, dass aber in der lautlichen oder graphischen Repräsentation eine lineare Kette vorliegt. Zugleich suggeriert der Terminus aber auch eine theoretische Lösung des Problems, indem er andeutet, dass aus der zweidimensionalen Struktur serialisiert werden müsse. Die Vorstellung scheint etwa, dass ein syntaktisches Modul die tiefere Struktur erzeugt und ein weiteres Modul daraus die lineare Ordnung. Dies wäre aber nicht die Lösung für die Problemstellung. Tatsächlich gibt es in der DG drei unterschiedliche Lösungen: 1. Die lineare Ordnung wird mit den dependenziellen Basisstrukturen generiert (so insbesondere bei Hays 1964 und Gaifman 1965).
2. Es wird ein so genanntes Mengenmodell erzeugt, in dem die Reihenfolge erst einmal unerheblich ist. Hierauf arbeitet ein zweites Modul, das die jeweiligen Ketten herstellt. 3. Ein Gemisch aus 1. und 2. Hier wird eine Basisfolge im Grundmodul mit erzeugt, auf dem weitere Serialisierungsregeln Varianten herstellen. 1.2. Formen der Verzweigung und Unterordnung Aus der Projektion der Dependenz-Struktur auf lineare Strings ergeben sich verschiedene Strukturbilder, die verschiedene Formen der Unterordnung veranschaulichen. Eine grundlegende Unterscheidung ist die in Rechtsverzweigung (Stemma 3) und Linksverzweigung (Stemma 4).
X10 X12 X13 'X10
'X13
'X12
P
Stemma (3) X10 X12 X31 'X31
'X21
'X 01
P
Stemma (4)
Tesnie`re hat schon bemerkt, dass verschiedene Sprachtypen sich hier unterschiedlich verhalten. Er unterscheidet entsprechend zentrifugale und zentripetale Sprachen. Zentrifugal, also überwiegend rechtsverzweigend, sind z. B. die semitischen Sprachen, ferner Baskisch und die meisten romanischen Sprachen, eher zentripetal sind alle germanischen und slawischen Sprachen (vgl. Tesnie`re 1976, 33). In der Regel sind Sprachen in dieser Hinsicht nicht rein, sondern folgen einer Tendenz. So ist das Deutsche eine stark linksver-
249
21. Dependenz und lineare Ordnung
zweigende Sprache, im Gegensatz etwa zu den romanischen Sprachen, die eher rechts verzweigen. Es ergeben sich so für das Deutsche mehrere typische Strukturbilder. Wir zeigen sie hier nicht in Stemmaform, sondern im Format von Strings mit Pfeilnotation. Sie sind äquivalent in Stemmas zu übertragen.
Umspringende Unterordnung
[Darauf] [will] ich [zu antworten] [versuchen] Abstrakt: [...]
[...]
[...]
[...]
Serielle Unterordnung Parallele Unterordnung der Verlauf
[nach Wunsch]
[von G.]
Ich [will]
Abstrakt:
[versuchen] [darauf] [zu antworten]
Abstrakt: [...]
[...]
[...]
[...]
[...]
[...]
[...]
Verzweigende Unterordnung Kreuzende Unterordnung der Auszug
[der Arbeiter]
[aus der Fabrik] [Darauf] [will] ich [zu antworten]
Abstrakt:
[versuchen]
Abstrakt:
[...]
[...]
[...] [...]
[...]
[...]
[...]
Rechtsorientierte Unterordnung der Verlauf
[nach Wunsch]
[von G.]
Abstrakt: [...]
[...]
[...]
Linksorientierte Unterordnung die [von G.]
[gewünschten]
Mittel
Abstrakt: [...]
[...]
[...]
Monotone Unterordnung die [von G.]
[gewünschten]
Mittel
Abstrakt:
[...]
[...]
[...]
Diese Bilder geben elementare Strukturen, die in Kombination vorkommen können. Die serielle Unterordnung geht stufenweise tiefer; monoton serielle Unterordnung ergibt Perlenketten. Perlenketten können nach rechts orientiert sein. Dies sind wohl die kognitiv am besten zu verarbeitenden Strukturen. Nach links orientierte Perlenketten machen in der Verarbeitung größere Schwierigkeiten, weil der Rezipient im Kopf auf den String warten muss. Darum gehen sie in der Regel nicht so tief. Dies gilt generell für die deutsche Nebensatzstruktur, bei der das finite Verb als Kopf der verbalen Verkettungen am Ende steht. Durch die Klammerstrukturen, bei denen im Hauptsatz der Kopf nach links bewegt wird, die übrigen Elemente aber in situ verbleiben (vgl. unten 3.4), tritt eine kognitive Komplikation ein, die aus der Sicht anderer Sprachen häufig als besondere Schwierigkeit oder Perversion des Deutschen kritisiert wird. Doch lässt sich das Klammerprinzip auch positiv deuten: Es führe zwangsläufig beim Hörer zu erhöhter Aufmerksamkeit (vgl. Thurmair 1991). Früher wurde es gar als Zeichen deutscher Geisteskraft gewertet. Lingualer Masochismus? ⫺ In umspringenden
250
III. Dependenz. Grundlagen und Grundfragen
Unterordnungen wechselt die Richtung. Verzweigungen gehen auf einer Stufe entweder ganz in eine Richtung oder aber auch in beide Richtungen. Als Problemfälle werden im Allgemeinen die Kreuzungen angesehen. Sie beschäftigen die syntaktische Theorie am stärksten. 1.3. Projektivität Menschliche Sprachen lassen im Unterschied etwa zu den arabischen Zahlen bei weitem nicht alle kombinatorischen Abfolgen in Strings zu. Für das Verhältnis von Struktur und Abfolge gibt es eine starke These, die eine wichtige universale Eigenschaft menschlicher Sprachen postuliert. Es ist die Forderung der Projektivität, die Kreuzungen vermeiden soll. Die Projektivitätsforderung besagt, dass bei der Projektion der DependenzStruktur auf den wohlgeformten String die senkrechten Projektionslinien keine Dependenzkanten schneiden dürfen. Projektiv wäre also der Satz aus Stemma (1) mit der angesetzten Struktur. Nicht projektiv wäre das folgende Stemma für den Satz mit permutierter N* dat:
Kombinationen ausschließen (vgl. Marcus 1965). Trivial eingelöst wäre die These dann, wenn alle Stemmas projektiv zu arrangieren wären. So ist etwa das Stemma (6) nur schlecht arrangiert und ohne weiteres auch projektiv zu zeichnen:
X3 X2
X4 X1
'X1
X5 'X3
'X2
'X 4
'X5
P
Stemma (6)
Dass die Projektivitätsbedingung nicht trivial ist, zeigt allerdings das folgende Stemma, das nicht projektiv zu arrangieren ist: X4 X2
V_aux
X3
N*
P*
V_nom_dat_akk
X1 'X1
N*
N*
Ihm haben sie in der Wohnung das Bier angeliefert
Stemma (5)
Da solche Sätze durchaus vorkommen, lässt sich von der Projektivitätsforderung kein allgemeines grammatisches Prinzip für sprachliche Ketten herleiten, wohl aber eines, das projektive Strukturen besonders auszeichnet. Die Projektivitätsthese ist deshalb so attraktiv, weil sie die rein algebraische Kombinatorik von Lexemen spektakulär einschränkt und damit fundamentale Eigenschaften der Sprache schon durch die Form der Beschreibungssprache erfasst. Mit einem Schlag würde sie etwa 95% aller möglichen
X5
'X2
'X3
'X4
'X5
P
Stemma (7)
So bleibt die Frage, ob für alle Stemmas ein projektives Arrangement möglich ist und unter welchen Dependenzsetzungen und Kategorisierungen, eine empirische Frage. Sehr viele Strings sind nach der üblicherweise postulierten Struktur tatsächlich projektiv. Schwierige Kandidaten sind aber Permutationen und Extraktionen, die zu diskontinuierlichen Phrasen führen. Auch eine Reihe anderer Konstruktionen des Deutschen sind notorisch problematisch. So sind ausgeklammerte Klauseln (untergeordnete satzförmige Verbalphrasen, ohne vollen Satzstatus, vgl. Heringer 1996, 210) mit einem Korrelat im Mittelfeld oder fernstehende Relativanschlüsse nach der klassischen Analyse, die sie als Attribute behandelt, schwerlich projektiv darzustellen:
251
21. Dependenz und lineare Ordnung
(1) Wir haben darauf verwiesen, dass wir den Mahnbrief längst beantwortet haben. (2) Wir haben die Bücher doch schon längst zurückgegeben, die die UB angemahnt hat. Formaliter kann man die Projektivitätsthese in Form einer einfachen lokalen Bedingung formulieren. Sei … x1 x2 x3 … ein Segment aus einem String und x1 sei x3 untergeordnet oder umgekehrt, dann ist der String nur projektiv, wenn x2 entweder x1 oder x3 untergeordnet ist. Oder anders gesagt: Was zwischen zwei direkt oder indirekt dependenten Knoten steht, muss von einem der beiden Knoten direkt oder indirekt dependent sein. (Die Unterscheidung verschiedener Projektivitätsbegriffe bleibe hier außer Betracht.) Das Verhältnis von Abfolge und Struktur ist nicht so, dass die Struktur primär sei. Die linearen Strings als primäre Manifestation enthalten alle Daten on line, eben in linearer Form. In der Deutung werden sie off line strukturiert. Die Struktur wird sozusagen dem String mental unterlegt. In allen Fällen der Nicht-Projektivität steht wieder der Zusammenhang zwischen serieller Ordnung und postulierter Struktur zur Debatte. Im Verfolg der Projektivitätsthese müsste man unter Umständen Dependenzen anders ansetzen, wenn es gelänge, die entsprechenden Stemmas projektiv zu halten. Im Fall der Parenthesen und Appositionen spricht die Nicht-Projektivität für ihren syntaktischen Sonderstatus. 1.4. Universale Stellungsregeln? Häufig wird ein besonderes Modul der Syntax angesetzt, in dem die serielle Ordnung beschrieben wird. Dieses Modul ist die Topologie oder Wortstellung. In der Topologie wird beschrieben, welche Abfolgen von Lexemen möglich und welche Strukturen von Strings wohlgeformt sind. Aus der Idee Tesnie`res, dass Sprachen mehr oder weniger zentripetal oder zentrifugal organisiert seien, könnte man weiter folgern, dass Stellungsregeln aus dem Sprachty-
ARTIKEL
Artikelklassifikatoren Quantificativa
Situativa
pus ableitbar seien. Dies geht aber nur zu einem geringen Grad. Eine grobe Betrachtungsweise der Stellungsregularitäten konzentriert sich auf das Subjekt, ein Objekt und das finite Verb oder die V*. Sie deklariert das Deutsche als eine SOV-Sprache. Das ist natürlich nicht alles. Für das Deutsche kann man allerdings feststellen, dass die Abfolge innerhalb der Phrasen verhältnismäßig fix ist und dass Bewegungen aus Phrasen heraus nur selten möglich sind. Darum kann man einige Grundregeln für Phrasen formulieren: Das Deutsche präferiert rechtsperiphere Köpfe, also die Linksorientierung, wie es in Bezug auf die verbalen Teile und ihre Dependentien die Nebensatzstruktur zeigt, wenngleich es auch Rechtsorientierung gibt, etwa bei den P*. Die Fixpunkte der nicht voll ausgebauten N* bilden eine umspringende Ordnung:
D
N
N*_ gen
die automatische Öffnung der Tür die ohne Probleme funktionierende Öffnung der Tür zur Garage Determinierer eröffnen die N*. Die Abfolge linksorientierter rekursiver A ist weitgehend semantisch geregelt. So lassen sich nach Eichinger (1991) in der sogenannten Nominalklammer drei semantisch motivierte Adjektivklassen unterscheiden, die jeweils wieder in Unterklassen zerfallen (s. unten und S. 252). Bei den Rechtserweiterungen in der N* besteht größere topologische Freiheit. Lediglich die N*_gen bleibt bis auf einige Ausnahmen (Onkelchens altes Auto, des Kanzlers Dienstwagen) adjazent rechts beim Kopf. Die übrigen Attribute sind weitaus beweglicher (Schmidt 1993, 91⫺136). Modifizierende Lexeme stehen in der Regel links von ihrem Kopf.
Qualificativa Existimativa
A*
Qualitativa
Nominalklassifikatoren Descriptiva
Classificativa
SUBSTANTIV
252
III. Dependenz. Grundlagen und Grundfragen
SITUATIVA
Quant
ART zahl die
zwei
indef
temp
loc
verschiedenen
damaligen
mod
dortigen möglichen/langjährigen
QUAL
ein
adsituativ
adnominal
gefälliges
neues
Lied
quadratische graue metallene skandinavische Tische
CLASSIFICATIVA
DESCRIPTIVA
Viel mehr Formulierungsbedarf und Schwierigkeiten gibt es für die Stellung der Phrasen oder Satzglieder.
2.
Basisregeln für das Deutsche
2.1. Grundannahmen Das Deutsche zeigt ein Gemisch aus freier und fester Wortstellung. Feste Wortstellung besagt dabei, dass für Lexeme ohne kategoriale oder funktionale Veränderung keine topologische Variation möglich ist. Als feste Wortstellung gelten darum auch V-Erst, VZweit und V-Letzt, da sie weitestgehend
grammatisch funktionalisiert sind. Freie Wortstellung heißt hingegen, dass topologische Abfolgen pragmatisch und stilistisch genutzt werden. Die Grenze zwischen beiden ist natürlich so weit fließend, wie es gelingt, funktionale Wortstellung pragmatisch zu erklären. Hierin liegt das Hauptproblem der Topologie: Sie nimmt einerseits Bezug auf syntaktische Kategorisierung, Merkmale und Strukturierung, andererseits aber auch auf die pragmatische, semantische, perzeptive und textuelle Struktur. Diese Mischung ist heikel. Schon die nötigen Termini wären nur in einer umfassenden linguistischen Theorie zu fundieren. Außerdem sind die pragmati-
253
21. Dependenz und lineare Ordnung
schen und textuellen Phänomene oft graduell und schwer kategorial festzumachen, weniger untersucht und weniger gut beschrieben, so dass das Gemisch der beiden Aspekte problematisch bleibt. Das Zusammenwirken der Aspekte ist so komplex, dass wir uns hier mit Grundzügen begnügen und weitgehend beim syntaktischen Aspekt bleiben. Die topologischen Regeln für Phrasen sind verhältnismäßig starr, ihre Abfolgemuster weitgehend festgelegt. Ganze Phrasen hingegen sind beweglich. Ihre Abfolge kann kommunikativ genutzt werden. Man kann hier unterscheiden zwischen einer unmarkierten Basisfolge als Default, die kommunikativ eher neutral und normal ist, und Bewegungen aus dieser Basisfolge heraus, die kommunikative Wirkungen haben, insbesondere Fokussierung bewirken können. Als neutrale Basisfolge setzt man jene an, die am wenigsten kontextgebunden ist. Je spezifischer die kontextuellen Bedingungen einer Abfolge sind, umso weniger kann sie Basisfolge sein. 2.2. Regeln für die verbalen Verkettungen Komplexe V* bilden in ihrer Grundfolge eine linksorientierte, monotone Perlenkette:
V
V
V_fin
Dies wird meistens als die Basisfolge angesehen, die etwa im Nebensatz realisiert ist. Im einfachen Satz wird der V-Kopf aus seiner Endposition herausbewegt. Da der Rest in Endstellung bleibt, entsteht die so genannte Satzklammer aus finiten und infiniten Teilen von Verbalkomplexen. Die Klammerstrukturen, die sich beim deutschen Satz, insbesondere beim Aussagesatz beobachten lassen, haben bereits in den Arbeiten der grammatischen Tradition starke Beachtung gefunden (vgl. etwa Drach 1940, Boost 1955, Glinz 1952). Die verketteten verbalen Elemente sind in ihrer Abfolge strikt geregelt; sie lassen nur in geringem Maße Variabilität zu; nur bei Modalverben sind im Gegenwartsdeutsch einige Abweichungen von der Grundreihenfolge zu beobachten. dass er die Sache nicht hat regeln können. Hier tritt zusätzlich das lexikalische Vollverb im sogenannten Ersatzinfinitiv auf. Die Serialisierungsregeln sind in jüngster Zeit mehrfach beschrieben worden. Weinrich (1993) unterscheidet in seiner ‘Textgrammatik der deutschen Sprache’ für mehrteilige
Verbformen im Aussagesatz folgende Klammertypen: „Diejenigen Klammern, die ein Lexem als Vorverb haben, heißen Lexikalklammern. Klammern, die mit einem Hilfsverb oder Modalverb als Vorverb gebildet sind, heißen Grammatikalklammern, wobei je nach der Art des Vorverbs und des Nachverbs zwischen Tempusklammern, Passivklammern und Modalklammern zu unterscheiden ist. Den dritten dieser Klammertypen bilden die Kopulaklammern, die aus einem Kopulaverb als Vorverb und einem Prädikament als Nachverb bestehen.“ (Weinrich 1993, 41). Mit „Vorverb“ wird das Finitum, mit „Nachverb“ werden die übrigen verbalen Klammerteile bezeichnet. Für die Abfolge der Teile ergibt sich eine feste Reihenfolge, die so dargestellt ist (Weinrich 1993, 52): Futurklammer
Perfektklammer
Modalklammer
Modalklammer
Perfektklammer
Kopulaklammer Passivklammer
Lexikalklammer
Einzelheiten der Abfolge können hier außer Betracht bleiben. Eine Beispielreihe soll veranschaulichen, dass bei Kombinationen im Bereich des Nachverbs eine Inversion auftritt und in welcher Weise die Alternativwege zu durchlaufen sind. (3) Er schreibt die Urkunde ab. (4) Die Urkunde wird abgeschrieben. (5) Die Urkunde hat abgeschrieben werden müssen. (6) Die Urkunde wird abgeschrieben worden sein.
254 Diese Regeln umfassen die häufigsten und wichtigsten verbalen Formen des Deutschen. Auch die Randformen und weitere Kombinationstypen werden in der Klammerformel von Eroms (1999, 203) aufgenommen. Sie geht von den Anordnungsverhältnissen im Nebensatz aus. Das Finitum steht rechtsperipher. Alle anderen Elemente der Verbgruppe werden sukzessive links angeschlossen. Dabei wird eine strikte Reihenfolge eingehalten: Im Aussagehauptsatz wird das rechtsperiphere Element in die Zweitposition des Satzes gebracht und eröffnet das Mittelfeld: Abfolge der verbalen Elemente im Deutschen V_mod_epist/V_werd/V_tun vor V_aux_perf/V_aux_pluperf vor V_perf_exp/V_pluperf_exp vor V_mod (vor V_mod) vor V_pass/V_intr/V_sens vor V_kaus vor V/V_fkt vor PRT vor ADV_neg (V_mod_epist: epistemisches Modalverb; V_werd: Futurverb werden; V_tun: Periphraseverb tun; V_aux_perf: Perfektauxiliar; V_aux_pluperf: Plusquamperfektauxiliar; V_aux_perf_exp: gestrecktes Perfektauxiliar; V_aux_pluperf_exp: gestrecktes Plusquamperfektauxiliar; V_mod: deontisches Modalverb: V_pass: Passivauxiliar; V_intr: Intransformativauxiliar bleiben; V_sens: Wahrnehmungsverb sehen, hören …; V_kaus: Kausativauxiliar lassen, machen; V: Vollverb; V_fkt: Funktionsverbgefüge; PRT: trennbare Verbpartikel ab, durch, hinüber; ADV_neg: Negationsadverb nicht, nie, nirgends.) Einige Beispiele für komplexe Verkettungen:
III. Dependenz. Grundlagen und Grundfragen
(10) dass er das Auto stehenV gelassenV_kaus hatV_aux_perf (11) dass er nichtADV_neg an den CIA denkenV müssenV_mod willV_mod (12) Sie hatV_aux_perf diesen Mann längst wegen erwiesener Untreue zur Monogamie zum Tode verurteiltV gehabtV_aux_perf_exp. (Martin Walser) (13) dass er nichtAdv_neg verurteiltV gewesenV_ pass seinV_aux_perf dürfteV_mod_epist Tun-Periphrasen erscheinen nur dialektal oder regionalsprachlich: (14) dass ihn das nichtADV_neg interessierenV täteV_tun 2.3. Die Anordnung der Komplemente Für die Komplemente beruht die Basisfolge auf einer Bindungshierarchie, die regelt, wie eng sie an die jeweiligen V gebunden sind. Am nächsten stehen dem V-Kopf die P*, besonders direktionale. Sie haben auch die engste Bindung an die V*. Es folgen von rechts nach links die N*_akk und die N*_dat. Das Subjekt bleibt hier außen vor, es hat die geringste Bindung ans V. Die Bindung wird deutlich in den Zitatformen entsprechender V*. Auch sie belegen, dass das Subjekt in dieser Hierarchie an letzter Stelle steht; seine Verbferne äußert sich darin, dass in Zitatformen Subjekte blockiert sind: (15) den Tisch decken, *jemand den Tisch decken; jemandem etwas schenken, *jemand jemandem etwas schenken; über Probleme nachdenken, *jemand über Probleme nachdenken Die Bindungshierarchie ist für die Abfolge N*_akk vor N*_dat bei einigen Verben schwierig zu beurteilen. (16) Es wird gesagt, dass alte Knaben RotweinN_akk WeißweinN_dat vorziehen.
(8) Er reistV abPRT .
Die N*_dat füllt die Kasusrolle stimulus/ thema. Offenbar überlagert die KasusrollenKonstellation agens objekt thema die normalerweise gültige agens experiencer (‘Betroffener’) object. Der Satz kann bei entsprechender Betonung auch so verstanden werden, dass Weißwein das bevorzugte Getränk ist. Ähnliche Verhältnisse gelten bei Verben des Vergleichs, die eine mit-Phrase erfordern:
(9) dass er nichtAdv_neg hinüberPRT gerudertV wordenV_pass istV_aux_perf .
(17) Man weiß, dass man Äpfel nicht mit Birnen vergleichen sollte.
(7) dass er abPRT reistV
255
21. Dependenz und lineare Ordnung
Auch das Subjekt verhält sich bei einigen Verben anders. In der Kasusrollenkonstellation stimulus/thema ⫺ benefaktiv und object ⫺ benefaktiv, die mit N*_dat, N*_sub oder N*_akk, N*_sub realisiert werden, muss das Subjekt als verbnächstes Komplement gewertet werden. (18) Es war klar, dass ihm diese Geschichte nicht gefallen konnte. (19) Es erstaunt, dass ihn auch keine andere Erzählung interessierte. 2.4. Die Anordnung der Adverbiale Während die Basis-Abfolge der Komplemente syntaktisch erklärt werden kann, lassen sich für die Angaben ⫺ isoliert betrachtet ⫺ nur Tendenzen angeben, mit denen ihre Anordnung semantisch gedeutet werden kann. Die wichtigste Rolle hierbei spielen Skopusgesichtspunkte. Der Skopus gibt den semantischen Geltungsbereich eines Ausdrucks an. Adverbiale mit weiterem Skopus stehen links vor solchen mit engerem. Damit lässt sich z. B. erklären, dass bei gleicher Kontexteinbindung AD_temp vor AD_lok zu stehen kommen: (20) Der 1. F.C. hat gestern in Hamburg hervorragend gespielt. Sowie ein Element stärker kontextgebunden ist, d. h. es aus dem Vortext abgeleitet werden kann, weist es wie Komplemente Linkstendenz auf (vgl. oben, 2.3). Finite und infinite Klauseln bilden im Normalfall eigene kohärente Felder mit satzanaloger innerer Struktur. 2.5. Die Dreifelderlehre Differenzierter für die Abfolge der obersten Phrasen im Satz ist die Dreifelderlehre. Sie gibt dem finiten V im Aussagesatz eine sogenannte Achsenstellung; zusammen mit dependenten V oder trennbaren Präfixen etc. umklammert es das sogenannte Mittelfeld. Nach der Satzklammer folgt das Nachfeld, vor der Satzklammer liegt das Vorfeld:
Unter dieser Gliederung liegt eine textuelle Info-Struktur, die gewöhnlich als ThemaRhema-Gliederung bezeichnet wird. Das Thema oder Topik ist das bereits im Vortext Eingeführte, oft wird es referenziell aufgenommen. Das Rhema ist das, was in diesem Satz Neues zum Thema gesagt wird, oft wird das Rhema prädiziert. Die kategoriale Ausbuchstabierung von Thema und Rhema ist nicht möglich, weil satzexterne, textuelle Kriterien eine Rolle spielen. Satzintern nimmt man gewöhnlich einen Info-Verlauf an derart, dass thematische Teile den rhematischen vorangehen. Die thematischen Teile sind oft auch anaphorisch, stehen entsprechend oft linksperipher, besonders im Vorfeld. Öfter werden sie sogar extraponiert und aus dem Satzverband gelöst. Im Vorfeld stehen unmarkiert Subjekt, lokale und temporale Adverbiale und Satzadverbien. Das Vorfeld (und das Nachfeld) sind in der Regel nur einfach besetzt. Aber es gibt Übergänge zu Mehrfachbesetzungen: (21) Über das Problem nachgedacht haben längst nicht alle. (22) Gut geschlafen haben wir schon lange nicht mehr. Extrapositionen oder Parenthesen, die nicht im Satzverband integriert sind, zählen natürlich nicht als Vorfeldbesetzungen. (23) Die neuesten Filme ⫺ die haben wir gleich angeschaut. (24) Wie schon bemerkt, das zählt hier nicht. Konjunktionen, Partikeln und Subjunktionen stehen vor dem Vorfeld. Man könnte für sie ein Vorvorfeld postulieren oder aber davon ausgehen, dass sie sich der Feldgliederung entziehen. (25) Aber das kann doch nicht wahr sein. (26) Doch die kann er nicht gemeint haben. (27) Dass er das immer noch nicht wahr haben wollte.
Der gestandene B. hat lange nach einem starken Partner gesucht so gut wie überall Vorfeld
Mittelfeld
Die Dreifelderlehre geht im Wesentlichen auf Drach (1940) zurück. Bech (1955/1957) und Askedal (1998) haben zudem die Gliederungsmöglichkeiten komplexer verbaler Teile ausgearbeitet.
Nachfeld
In der deutschen Gegenwartssprache finden sich zunehmend „syntaktisch hervorgehobene Konnektoren“ (Ortner 1983), die aus unterschiedlichen Wortklassen in die Position der Konjunktionen wandern:
256 (28) Tatsächlich/freilich/zweifellos, die Sache ist endgültig vom Tisch. Die Besetzung des Vorfelds interagiert mit dem Mittelfeld. Bei der sog. Inversion dreht sich je ein vorderes Element aus dem Mittelfeld mit dem Subjekt um das V_fin: (29) Der Winter hat im letzten Jahr in Europa sehr früh begonnen. (30) Im letzten Jahr hat der Winter in Europa sehr früh begonnen. (31) In Europa hat der Winter im letzten Jahr sehr früh begonnen. Im Nachfeld stehen gewöhnlich Syntagmen mit Einleitern (Präpositionen, Äquationen und Subjunktionen); kasuelle N* sind hier kaum möglich, bis auf das Subjekt, das ja in der Verb-Bindungshierarchie am freiesten ist. In den meisten Fällen verliert sich im Nachfeld die syntaktische Organisation. Es kommen auch Nachträge und Extrapositionen vor, die nicht in die Satzstruktur integriert sind. (32) Wir haben lange nachgedacht über diese Probleme. (33) Er konnte hier nicht weiterbeschäftigt werden als Betriebsschlosser. (34) Sie konnte sich nicht erinnern, dass sie das gesagt haben sollte. (35) Dann ist doch noch eingetreten der befürchtete Fall. (36) Er konnte nicht weiterbeschäftigt werden, damals, als Betriebsschlosser, im Betrieb. Sprechsprachlich können auch andere kasuelle Komplemente ausgeklammert werden:
III. Dependenz. Grundlagen und Grundfragen
Die Besetzung des Nachfelds interagiert mit dem Mittelfeld im Fall der Ausklammerung. Wesentlich ist die Abfolge der Komplemente und Adverbiale im Mittelfeld. Die Möglichkeiten sind auf den ersten Blick vielfältig. Als Grund dafür kann man ansehen, dass unterschiedlich motivierte Regeln sich überlagern. Es gibt Petrifizierungen und Routinisierungen, die funktional nicht mehr wirken, und es gibt semantische und kommunikative Regularitäten, die sich aufpfropfen. Darum ist es üblich, auch hier eine DefaultFolge (Lenerz 1977) anzunehmen, die überlagert wird durch weniger weitreichende semantische Regeln und solche mit erheblichen kommunikativen Effekten (Lötscher 1987, Hoberg 1997, 1505⫺1576). 2.6. Die Gesamtabfolge von Komplementen und Adverbialen Die Basisfolge im Mittelfeld ist ein Konstrukt aus möglichen Abfolgen, ohne dass etwa alle ihre Positionen je realisiert würden. Es werden sogar selten mehr als zwei Positionen realisiert. Die Basisfolge muss in funktionalen Termen und mit semantischen Merkmalen formuliert werden, sie lautet etwa so: KO_nom AD_tmp AD_lok KO_dat AD_ mod KO_akk KO_gen KO_äqu KO_prä Einige (konstruierte) Beispiele, die alle diese Positionen umfassen, sollen die Regularitäten veranschaulichen: (40) Das Kabinett legte gestern in Berlin dem Parlament unverzüglich die Gesetzesvorlage vor.
(37) Auf den Tisch haben wir dann abgelegt unsere sämtlichen Einkäufe.
(41) Der Kanzler hatte vorher in seinem Arbeitszimmer intensiv über die Folgen nachgedacht.
Bei Koordinationen wirken Ausklammerungen kasueller Komplemente organischer.
(42) Seine Berater versicherten vorgestern dort überzeugend ihre Loyalität.
(38) Auf den Tisch haben wir abgelegt unsere sämtlichen Einkäufe, die Zeitungen sowie sämtliche eingegangene Post.
(43) Sie handeln stets in Bonn wie in Berlin als aufrechte Demokraten.
Infinite Konstruktionen eignen sich ebenfalls gut für die Ausklammerung, besonders wenn sie von Korrelaten vorweggenommen sind. (39) Ich habe einfach nicht daran gedacht, den Wasserhahn abzustellen. Hier ließe sich dafür plädieren, die Ausklammerung als grammatikalisierte Konstruktion und damit als Normalfall anzusehen.
A_instr stehen in unmarkierter Verwendung in Verbnähe. Andere Adverbiale, insbesondere kausale, konzessive und konditionale, vor allem wenn sie satzförmig sind, unterliegen stärker kontextuellen Regularitäten. So stehen thematische weil-Sätze gewöhnlich voran, rhematische nach: (44) Weil es nach Regen aussieht, nehmen wir einen Schirm mit.
257
21. Dependenz und lineare Ordnung
(45) Wir mussten die Wanderung abbrechen, weil es plötzlich zu regnen begann. Das Element, das jeweils aus der Basisfolge ins Vorfeld bewegt wurde, erscheint natürlich im Mittelfeld nicht mehr. Meistens ist dies das KO_nom oder ein AD_lok oder AD_tmp. (46) Gestern legte das Kabinett in Berlin dem Parlament unverzüglich die Gesetzesvorlage vor. (47) In Berlin legte gestern das Kabinett dem Parlament unverzüglich die Gesetzesvorlage vor. (48) Unverzüglich legte gestern in Berlin das Kabinett dem Parlament die Gesetzesvorlage vor. Dies gilt allerdings nur in kontextarmen Verwendungen. Bei entsprechendem Kontext kann eine andere Struktur unterlegt werden. Allgemein kann man sagen, dass die topologische Freiheit umso größer ist, je besser ein Syntagma morphologisch markiert ist. Oder: Je weniger morphologische Markierung, umso belasteter die Stellung. Die Adverbiale sind darum freier als die Komplemente, und ihre Basisfolge auch nur tendenziell zu deuten. Eigentlich gibt es keine festen kategorial fundierten Regeln (Renz 1993).
3.
Kommunikative Regeln
Die Basisfolge ist ein theoretisches Konstrukt, das sich bewähren muss im Zusammenhang mit weiteren Regeln, etwa den Bewegungsregeln, die andere Abfolgen erklären. Die jetzt zu erörternden Bewegungsregeln folgen kommunikativen Prinzipien und haben kommunikative Wirkungen. Etablierte Bewegungsregeln für das Deutsche sind jene, die das V_fin betreffen und als Kennzeichen verschiedener Satzarten gelten (vgl. unten, 3.4). Diese Stellungsvarianten könnte man als äußerlich und petrifiziert hinnehmen, sie haben aber mit dem Sinn einiges zu tun. So ist die V-Erststellung im Fragesatz ohne Zweifel eine Art Fokussierung des V_ fin, die ausdrückt, dass seine Leistung, insbesondere die illokutionäre Kraft und die Wahrheitsfrage, thematisiert ist. 3.1. Fokussierung Die kommunikative Funktion der Bewegung ist die Fokussierung der bewegten Teile. Fokussieren heißt dabei, dass das aus der Basis-
folge bewegte Element mit besonderer Aufmerksamkeit belegt oder als relevant hervorgehoben werden soll. Fokussieren ist ein kommunikativer Akt des Sprechers, mit dem er hervorheben will, dass es ihm hierauf ankommt oder dass der Hörer hier eine besondere Deutungsarbeit zu leisten hat. Der Fokus ist der Teilstring des informativen Kontrasts. Die übrigen Teile bilden den Hintergrund. Sie werden charakteristischerweise in Antworten oft weggelassen. Kennzeichen eines Fokus ist Intonation oder Akzent, topologische Stellung und natürlich ein Sinnkriterium. Man nimmt an, dass jeder Satz einen Fokus hat, manche Sätze auch mehrere. Für die Länge des einzelnen Fokus gibt es keine allgemeine Regel. Öfter wird wohl eine Phrase angesetzt oder wenigstens ein Segment. Die Bewegung fokussierter Elemente endet besonders im Vorfeld oder ganz hinten im Mittelfeld, den klassischen „Eindrucksstellen“ (Drach 1940, 18 vgl. Erben 1980, 145). Dies entspricht einem Behaghelschen Prinzip: das Wichtigere nach dem Unwichtigen (vgl. Behaghel 1932, 4). Die Spitzenstellung entsprechender Phrasen in w-Fragen lässt sich als Fokussierung deuten: (49) (Dich habe ich schon lange nicht mehr gesehen.) Wann haben wir uns das letzte Mal getroffen? Bemerkenswert ist, dass bei Nachfragen die w-Phrase in situ verbleibt. Sie wird allerdings intonatorisch hervorgehoben: (50) (Wir haben uns doch in der letzten Woche getroffen.) ⫺ Wir haben uns wann getroffen? Eine Form der Linksversetzung ist die Bewegung aus dem Mittelfeld ins Vorfeld. Die Linksversetzung kann im Extremfall auch Teile von Phrasen erfassen oder mehrere Phrasen: (51) Gesehen worden ist er selten. (52) Den Antrag erledigt hat er leider nicht. So erhalten herausbewegte P*-Attribute soviel Eigengewicht, dass sie aufzusteigen scheinen zu Komplementen oder Adverbialen. (53) Über Reptilien und Vögel gibt es unzählige Bücher. (54) Martin schreibt regelmäßig Briefe an die Großeltern.
258
III. Dependenz. Grundlagen und Grundfragen
(55) An die Großeltern Briefe schreibt Martin regelmäßig.
Solch lange Extraktionen sind bei finiten Klauseln viel seltener:
(56) An die Großeltern schreibt Martin regelmäßig Briefe.
(65) Wer meinst du hat den Täter gesehen?
Amalgamierung und starke semantische Integration einer Phrase schränken ihre Beweglichkeit ein. Insbesondere sind amalgamierte N* wie in kopfstehen oder N* und P* in Funktionsverbgefügen nicht mehr so frei bewegbar: (57) ?Ich stehe mal wieder Kopf, wenn ich das höre. (58) *Kopf stehe ich mal wieder, wenn ich das höre. (59) In Bewegung setzt sich das Rad nicht von alleine. Die Fernstellung und die Fokussierung lösen die semantische Einheit auf. Extreme Herausstellungen lösen auch die syntaktische Struktur auf. Extrapositionen nach links dienen der Themasetzung; Extrapositionen nach rechts wirken wie Nachträge.
(66) ?Wen glaubst du, dass Ralf gesehen hat? Sie beschränken sich einerseits auf dassKlauseln und andererseits auf bestimmte Kopfverben (glauben, meinen, denken, sich vorstellen u. a.). Meistens werden w-Lexeme extrahiert, die in der Klausel auf der obersten Stufe stehen und Komplemente sind. Diese Extraktionen sind eher peripher, varietätenund regionenspezifisch. Die Matrix-Sätze kommen außerdem Parenthesen nahe. (67) Ralf, glaube ich, hat den Täter gesehen. 3.3. Floating Im Fall der Verschränkung hatten wir es mit Bewegungen aus Klauseln heraus zu tun. Eine Bewegung aus Phrasen ist das sog. Floating. Als wichtigster Fall des Floating gilt die Extraktion eines D_qnt nach rechts: (68) Vorschläge sind mehrere unterbreitet worden.
3.2. Verschränkung Die Bewegungsmöglichkeiten werden umso geringer, je tiefer die dominierten V* im Stemma stehen. In den finiten, infiniten und partizipialen Konstruktionen steht der verbale Kopf peripher, für Komplemente und Adverbiale ist weitgehend die Basisfolge eingehalten. Abweichungen hiervon wirken sprechsprachlich.
(69) Störche haben wir hier keine gesehen.
(60) Wir gehen davon aus, dass wir stets den Vertrag einhalten können.
(71) Bücher liest er grundsätzlich nur dicke.
(61) Wir gehen davon aus, stets den Vertrag einhalten zu können.
Diese Beispiele legen nahe, dass eigentlich beim Floating jeweils der N-Kopf bewegt wird; denn der N-Kopf wird fokussiert. Der Rest der N* und die PRT_fok, besonders auch das P-Attribut in Beispiel 70 bleiben in der Basisstellung. Floaten können im Wesentlichen N aus N* der obersten Stufe, insbesondere aus N*_nom und N*_akk heraus. Aus P* und aus Klauseln heraus scheint Floating nicht möglich. Außerdem spielt die topologische Position der N* eine Rolle; von ganz rechts her wird Floating schwierig. (Zu den Problemen bei diesen Konstruktionen vgl. Van de Velde 1980.)
(62) Wir nehmen an, stets den Vertrag eingehalten zu haben. (63) Wir nehmen an, den Vertrag eingehalten zu haben, stets. Ein Sonderproblem sind die infiniten Konstruktionen, die eigene Kohärenzfelder bilden, aber in der sogenannten Verschränkung durch Extraktionen auseinander gerissen werden. (64) Weiterzumachen möchte ich euch dringend anraten. Hier werden fokussierte Elemente aus der infiniten Klausel heraus ins Vorfeld bewegt. Klausel und Hauptsatz werden wie eine Einheit behandelt.
Das Floating ist nicht für alle D möglich. Da es mit starker Fokussierung verbunden ist, betrifft es vor allem informative D_qnt wie kein, beid, all, manch, viel; welch. Floaten können aber auch andere Quantifizierungen, A und quantifizierende enge Appositionen: (70) Bücher gibt es nur wenige über Störche. (72) Kartoffeln wurden drei Säcke geliefert.
3.4. Verbversetzungen Als eine andere Bewegung aus einer Phrase heraus lässt sich auch die Satzklammer auffassen (vgl. oben, 1.2).
259
21. Dependenz und lineare Ordnung
Die Satzklammer resultiert daraus, dass komplexe V* in der unmarkierten Basisstellung den Kopf rechtsperipher haben, die dependenten Teile bilden die linksorientierte Perlenkette. Das finite V, also der Kopf, wird ⫺ mit entsprechenden semantischen Wirkungen ⫺ nach vorn bewegt: In die Erstposition bei Frage- und Aufforderungssätzen mit starker Fokussierung des V und VM; in die Zweitposition bei Aussagesätzen: (73) dass die Reform nun endlich verwirklicht wird
V_pro_nom
N_pro
N
P
N – KON – N Über Reptilien und
A
Vögel gibt es unzählige Bücher
Stemma (8)
(74) Wird die Reform nun endlich verwirklicht? (75) Verwirklicht nun endlich die Reform!
V_nom_akk
(76) Die Reform wird nun endlich verwirklicht. Die Frage- und Aufforderungssätze sowie die ⫺ wesentlich selteneren ⫺ Wunsch- und Ausrufesätze lassen sich genau wie die Aussagesätze, die statistisch gesehen den weitaus häufigsten Fall der Satztypen ausmachen, in ihrer Anordnung aus der Basisstruktur hergeleitet denken. In der Basisstruktur sind die verbalen Teile in Kontaktstellung angeordnet. Die Bewegung des Finitums aus ihr heraus ist an feste intonatorische Konturaufprägungen gekoppelt. So weist der Aussagesatz ein neutrales Intonationsmuster mit fallendem Offset auf, der Entscheidungsfragesatz steigenden, der Aufforderungssatz abrupt fallenden Offset. Die Regelung für die Satztypen erfolgt für die einzelnen Parameter nicht sukzessive, sondern in einem Zug: Sätze treten stets in einem bestimmten Satztyp auf. Ihre Erzeugung ist typgebunden in Regelkomplexen gespeichert, die in der Art von „Makros“ ablaufen: An die kommunikative Entscheidung für einen bestimmten Satztyp ist auch die Bewegung des Finitums gebunden. 3.5. Projektivitätsverletzungen Die Basisfolgen kann man im Allgemeinen projektiv konzipieren. Bewegungen bewahren allerdings die Projektivität nicht immer. Das gilt besonders für mögliche Extraktionen aus Phrasen und aus Klauseln. Bei der N* sind weder linksversetzte P-Attribute noch gefloatete Köpfe projektiv darstellbar. Bei den infiniten Klauseln sind viele Verschränkungen nicht projektiv analysierbar. Ähnliches kommt bei finiten Klauseln selten und nur peripher vor:
N A_lok
V
N Q Störche haben wir hier keine
gesehen
Stemma (9)
V_mod
N_pro
V
Weiterzumachen
V_nom_dat_Vinf
N_pro A_mod
möchte
ich
euch dringend anraten
Stemma (10)
In allen diesen Fällen ist die Nichtprojektivität ein Signal für die Markiertheit dieser Typen. Die Interaktion zwischen Struktur und Projektivität steht auch bei den Verbalkomplexen im Mittelpunkt.
260
III. Dependenz. Grundlagen und Grundfragen V SUB N_pro V V N
N_pro
Wen glaubst du dass Ralf gesehen hat
Stemma (11)
V_mod
N_pro
P_pro
V_akk_prä
N_pro PTL
Er will ihn dafür doch belohnen
Stemma (12)
V_mod
P_pro N_pro N_pro PTL V_akk_prä
Er will ihn dafür doch belohnen
Stemma (13)
Demgegenüber wäre natürlich Stemma 13 als superflache Alternative für Verbalkomplexe jeder Bewegung gewachsen. Aber damit würden wir die Zuordnung der Komplemente durch den Valenz-Frame aufgeben, und wir bekämen das Problem wieder in der weiteren V-Rekursion.
Wir müssen anerkennen, dass die Projektivitätsthese in ihrer allgemeinen Form nicht haltbar ist. Sie kann aber für die Basisfolge und als Hilfsargument bei Strukturentscheidungen gelten, wenn man möglichst projektive Strukturen vorzieht. Eine radikale Lösung böte vielleicht folgende Idee: Bewegte Phrasen lösen sich aus der Struktur, wenn sie durch die Bewegung ihren Kopf verlieren. Sie werden dann dem obersten Knoten adjungiert. Topologische Regeln sind so kompliziert, weil sich verschiedene Regeltypen überlagern. Es wirken bei den Bewegungen nicht nur spektakuläre pragmatische Fokussierungen, sondern auch sanftere Phänomene wie die lexikalische Realisierung der jeweiligen Syntagmen. So macht es einen wichtigen Unterschied für die Basisfolge, ob eine N* voll und substantivisch realisiert ist oder pronominal. Und bei den pronominalen Realisierungen wirkt sich zusätzlich die Kategorie des Pronomens aus. Würde man diese Regeln auf der Basis aller kombinatorischen Möglichkeiten der Subkategorien formulieren, würden sie hoffnungslos komplex (Hofmann 1994). Es steht zu vermuten, dass wir es öfter mit semantischen Regularitäten zu tun haben. 3.6. Die Thema-Rhema-Gliederung Es gibt eine Tradition, die Teile eines Satzes nach ihrem Informationswert zu beurteilen. Die Thema-Rhema-Gliederung (TRG) lässt sich der grammatischen Gliederung des Satzes aufgeprägt denken. Thematisch sind Teile, von denen der Sprecher/Schreiber annimmt, dass sie dem Hörer/ Leser bekannt sind. Vielleicht weil sie vorerwähnt, kontextuell verhandelt oder allgemein bekannt sind. Rhematisch sind Teile, mit denen der Sprecher/Schreiber das Neue, das Mitteilenswerte ausdrückt. So gibt es im Deutschen eine Gesamttendenz der Art, dass die alte, aus dem Vorausgehenden erschließbare Information der neuen vorangeht. Dies hat zur Folge, dass definit belegte N* indefiniten vorausgehen. Definite N* haben oft einen anaphorischen Bezug zum Vorhergehenden. Sie erfüllen die Bekanntheitsbedingung: (77) Der Bundestag hat kürzlich ein Gesetz zur Ausgabensicherung verabschiedet. (78) Diesem Gesetz hat der Bundesrat seine Zustimmung verweigert. Eine weitere Folge dessen ist, dass pronominal belegte oft vollen N* vorangehen und
261
21. Dependenz und lineare Ordnung
meist im linken Mittelfeld stehen. Denn auch anaphorische N_pro haben natürlich einen Bezug zum Vorangehenden, sind also thematisch:
(90) Einigen habe ich dies schon mehrfach gesagt.
(85) Er hat ihn dem Unbekannten verkauft.
Die einzelnen N_pro müssten nach ihrer Bedeutung subkategorisiert werden. Beispielsweise scheinen N_pro_prs weniger fokussierbar als das deiktische dies. Ihre Stellungseigenschaften sind ein Produkt aus Bedeutung, Anaphorik, Deixis und Fokussierung. Auch die verbalen Diathesen nehmen hier Aufgaben wahr. Besondere Beachtung verdienen dabei die sogenannten Enklitika, die nicht informativ und nicht betonbar sind und darum nicht an Eindrucksstellen gehen. So kann anaphorisches es nur als Subjekt und das N_ pro_rfl bei echt reflexivem V überhaupt nicht ins Vorfeld, weil es keinen Sinn hat, sie besonders hervorzuheben. Kommutierendes sich kann aber kontrastiert werden. Enklitisches es lehnt sich an V_fin und N_pro an.
(86) Er hat ihn ihm verkauft.
(91) Er hat es ihr gesagt.
Die Serialisierungsunterschiede zeigen sich im Bereich der Objekte. Sie sind Ausfluss der zunehmenden kontextuellen Einbettung der N*. Die Unterschiede in der Anordnung lassen in dieser konstruierten Abfolge auch standardisierte Erwartungen über die thematische Bindung der Komplemente erkennen. So fällt auf, dass bei Pronominalisierung beider Objekte das akkusativische dem dativischen Pronomen vorangeht und dass nicht die Grundreihenfolge realisiert wird. In den hier zu Tage tretenden Regularitäten schlagen sich z. T. auch einzelsprachliche Parametrisierungen nieder. So werden die Pronomina im Französischen, ungeachtet ihrer spezifischen Verbbindung nach einer festen Liste (mit diversen Restriktionen) serialisiert:
(92) Er hat ihr dies gesagt.
(87) me te se nous vous
4.1. Ikonismus und Empathie Semantisch können auch ikonische Regeln verstanden werden, die besagen, dass die Quelle (Herkunft) vor dem Ziel, das Material vor dem Produkt, der Grund vor der Folge genannt wird. Solche Regeln bestimmen beispielsweise die Abfolge der KO_akk und KO_prä und gelten auch für die Drehung um die Achse des V_fin:
(79) dass ein Autohändler einem Unbekannten einen nagelneuen Wagen verkauft hat. (80) Ein Autohändler hat einem Unbekannten einen nagelneuen Wagen verkauft. (81) Der Autohändler hat den nagelneuen Wagen einem Unbekannten verkauft. (82) Der Autohändler hat dem Unbekannten den nagelneuen Wagen verkauft. (83) Er hat dem Unbekannten den nagelneuen Wagen verkauft. (84) Er hat ihm den neuen Wagen verkauft.
le la les
lui leur
y en
Im Deutschen sind anaphorische N_pro auf ihrem Stammplatz meist fokussiert. Indefinite N_pro sind aber aus dem gleichen Grund den substantivischen Belegungen näher und gehen nicht nach links. Sonst sind sie auch markiert.
(93) *Es hat er ihr gesagt. (94) Dies hat er ihr gesagt. (95) Dies ist ihr von ihm gesagt worden. (96) ?Von ihm ist dies ihr gesagt worden. (97) ?Ihr ist dies von ihm gesagt worden. (98) Der gibt sie ihr. (99) Die gibt der Zahnarzt seiner Familie. Pronominale Formen wie die letzteren treten ein, wenn besonders starke Fokussierungen erzielt werden sollen.
4.
Weitere Regularitäten
(100) dass dieser IC von Hamburg nach München fährt
(88) Ich habe euch dies schon mehrfach gesagt.
(101) dass früher Wolle zu Garn per Hand versponnen wurde
(89) Ich habe dies einigen schon mehrfach gesagt.
(102) dass die Maxhütte schwedisches Eisenerz zu Stahl verarbeitet
262
III. Dependenz. Grundlagen und Grundfragen
(103) Die Maxhütte verarbeitet schwedisches Eisenerz zu Stahl. (104) ?Die Maxhütte verarbeitet zu Stahl schwedisches Eisenerz. (105) ?Zu Stahl verarbeitet die Maxhütte schwedisches Eisenerz. (106) Schwedisches Eisenerz verarbeitet die Maxhütte zu Stahl. Der letzte Satz wäre aber nur sinnvoll, wenn die Hütte aus dem Erz auch noch etwas anderes herstellen könnte. 4.2. Belebtheitshierarchie Die Belegung der N* spielt schließlich auch in dem Sinn eine Rolle, dass personenbezeichnende N* nach links tendieren. Dies resultiert aus einer Tendenz „belebt vor unbelebt“, die Änderungen der Basisfolge bewirkt: (107) dass er einem Unbekannten ein Auto verkauft hat (108) dass er einen Bekannten seinem Schicksal überlassen hat Die bemerkenswerte Abweichung von der Basisfolge „N_dat vor N_akk“ bei den N_ pro_prs könnte hiermit erklärt werden. Wir gehen davon aus, dass die Basisfolge dadurch zustande kommt, dass KO_dat meistens Belebtes bezeichnen. Die anaphorischen N_ pro_prs aber haben dieses Merkmal weder im Akkusativ noch im Dativ, wenigstens weisen sie keinen Unterschied in dieser Hinsicht auf (vgl. die Beispiele 91⫺95). (109) Der Rangierer hat der Lok die Wagen angekoppelt. (110) Er hat sie ihr angekoppelt. (111) Der Vorsitzende hat dem Kandidaten das Ergebnis mitgeteilt. (112) Er hat es ihm mitgeteilt. Solche N* mit Linksdrall sind häufig bei bestimmten Verben, die kein belebtes Agens als KO_nom haben, hingegen ein belebtes KO_ dat.
5.
Literatur in Auswahl
Askedal, John Ole (1998): Gunnar Bechs ‘Studien über das deutsche verbum infinitum’ und die deutsche Grammatikschreibung. In: Pors, Harald/Falster Jakobsen, Lisbeth/Stubkyser, Flemming Talbo: Sprachgermanistik in Skandinavien III, 17⫺38.
Bech, Gunnar (1955/57): Studien über das deutsche verbum infinitum. Københaven. Behaghel, Otto (1932): Deutsche Syntax. Eine geschichtliche Darstellung. Band IV: Wortstellung. Periodenbau. Heidelberg. Boost, Karl (1955): Neue Untersuchungen zum Wesen und zur Struktur des deutschen Satzes. Berlin. Drach, Erich (1940): Grundgedanken der deutschen Satzlehre. Frankfurt/M. Eichinger, Ludwig M. (1991): Ganz natürlich ⫺ aber im Rahmen bleiben. Zur Reihenfolge gestufter Adjektivattribute. In: Deutsche Sprache 4, 312⫺ 329. Erben, Johannes (1980): Deutsche Grammatik. Ein Abriß. München (12. Aufl.). Eroms, Hans-Werner (1999): Linearität, Kohärenz und Klammerung. In: Redder, Angelika/Rehbein, Jochen (Hgg.) (1999): Grammatik und mentale Prozesse. Tübingen, 195⫺219. Eroms, Hans-Werner (2000): Syntax der deutschen Sprache. Berlin/New York. Gaifmann, Chaim (1965): Dependency Systems and Phrase-Structure Systems. In: Information and Control 8, 304⫺337. Glinz, Hans (1952): Die innere Form des Deutschen. Bern. Hays, David G. (1964): Dependency Theory: A Formalism and Some Observations. In: Language 40, 511⫺525. Heringer, Hans Jürgen (1996): Deutsche Syntax Dependentiell. Tübingen Heringer, Hans Jürgen/Strecker, Bruno/Wimmer, Rainer (1980): Syntax, Fragen ⫺ Lösungen ⫺ Alternativen. München. Hoberg, Ursula (1997): Die Linearstruktur des deutschen Satzes. In: Zifonun, Gisela/Hoffmann, Ludger/Strecker, Bruno (Hgg.) (1997): Grammatik der deutschen Sprache. Berlin/New York, 1495⫺ 1678. Hofmann, Ute (1994): Zur Topologie im Mittelfeld: Pronominale und nominale Satzglieder. Tübingen. Lenerz, Jürgen (1977): Zur Abfolge nominaler Satzglieder im Deutschen. Tübingen. Lötscher, Andreas (1987): Text und Thema. Tübingen. Marcus, Salomon (1965): Sur la notion de projectivite´. In: Zeitschrift für mathematische Logik und Grundlagen der Mathematik, Bd.11, 181⫺192. Ortner, Hanspeter (1983): Syntaktisch hervorgehobene Konnektoren im Deutschen. In: Deutsche Sprache 11, 97⫺121. Renz, Ingrid (1993): Adverbiale im Deutschen: Ein Vorschlag zu ihrer Klassifikation und unifikationsbasierten Repräsentation. Tübingen. Schmidt, Jürgen Erich (1993): Die deutsche Substantivgruppe und die Attribuierungskomplikation. Tübingen.
263
22. Dependenzstruktur und grammatische Funktion Tesnie`re, Lucien (1976): Ele´ments de syntaxe structurale. 2me e´dition Paris. Thurmair, Maria (1991): Warten auf das Verb. Die Gedächtnisrelevanz der Verbklammer im Deutschen. In: Jahrbuch Deutsch als Fremdsprache 17, 174⫺202. Van de Velde, Marc (1980): Quantoren hin ⫺ Quantoren her. In: Weigand, Edda (Hg) (1980):
Perspektive: textintern. Akten des 14. Linguistischen Kolloquiums Bochum 1979. Tübingen, 185⫺195. Weinrich, Harald (1993): Textgrammatik der deutschen Sprache. Mannheim/Leipzig/Wien/Zürich.
Hans-Werner Eroms, Passau (Deutschland)/ Hans Jürgen Heringer, Augsburg (Deutschland)
22. Dependenzstruktur und grammatische Funktion 1. 2. 3.
5.
Fragestellung Grammatische Funktionen Die grammatischen Funktionen ‘Kern’ und ‘Satellit’ Die traditionellen grammatischen Funktionen aus dependenzieller Sicht Literatur in Auswahl
1.
Fragestellung
4.
Mit dem Begriff der Funktion, nicht zuletzt der grammatischen Funktion, tun sich die allermeisten linguistischen Theorien schwer, was allerdings nicht auszuschließen scheint ⫺ oder es geradezu bedingt ⫺, dass ihm ein axiomatischer Stellenwert zugesprochen wird. Was sich also auf den ersten Blick als Gemeingut präsentiert, entpuppt sich bei einer näheren Überprüfung, bezogen auf eine spezifische Theorienbildung, in casu die Dependenztheorie(n), als problematisch und äußerst unscharf konturiert. Das ist einerseits auf die Axiomatik, andererseits aber auch auf die Vagheit der wissenschaftlichen Fundierung der Dependenztheorie(n), genauer gesagt deren Kernstück, der Abhängigkeit/des Vorkommens, zurückzuführen. Kreps findet klare Worte: “[the] absence of a widely-accepted and precise content to the dependency relation […]”; “[the] grammarians have generally failed to invest the dependency relation with sufficient autonomous content to set it apart from other systems” (1996, 339). Funktion ist in der Logik und der Mathematik ein unkontroverser Begriff: Zwischen zwei Mengen A und B besteht genau dann eine Funktion, wenn jedem Element der Menge A (des Argument- oder Definitionsbereichs) genau ein Element der Menge B (⫽ der Bildmenge) zugeordnet wird. Die Position der Linguistik lässt sich nicht eindeutig festlegen, vgl. Herslund/Sørensen (1994, 81): “All linguistic theories seem to
make use of some notion of Grammatical Relations (GRs) such as Subject and Object. And yet, such notions are one of the least clarified areas of contemporary linguistic theory”. In semantisch-pragmatisch orientierten Darstellungen ist man deutlich weiter weg vom logisch-mathematischen Begriff Funktion als in manchen syntaktischen Zusammenhängen.
2.
Grammatische Funktionen
,Verbum sein’ ist ein kategoriales syntaktisches Merkmal, ‘Prädikat „von x“ sein’ dagegen ist ein relationales syntaktisches Merkmal, also eine grammatische Funktion, wobei „von“ x von entscheidender Bedeutung ist. Prädikat sein ist nur sinnvoll, wenn auch der Definitionsbereich genannt wird. Im konkreten Fall ist der Definitionsbereich A die Einermenge x, und zwar die Menge der Syntagmen mit verbalem Kern. Die Bildmenge B machen die Konstituenten y1, y2 … yn aus. Die primitivste und wohl zugleich auch unstrittigste grammatische Funktion ist die des ‘Konstituent-„von“-Sein’s, eine Funktion, ohne die alle anderen Funktionen nicht vorstellbar wären. Es scheint aber nicht an dem axiomatischen Stellenwert der traditionellen Satzglieder zu rütteln, dass das Klassifikationskriterium nicht nur von Grammatiktheorie zu Grammatiktheorie wechselt ⫺ was ja zu erwarten ist ⫺, sondern auch innerhalb der verschiedenen Theorien von deren jeweiligen Vertretern immer neu diskutiert wird, ohne dass sich auch nur annähernd eine Einigkeit feststellen ließe. Die andere, strukturbezogene grammatische Relation, ist die der Dependenz, einmal als Alternative (so bei Engel 1994, 23 und Heringer 1996, 27), einmal (und überwiegend) als Komplement zur Konstituenz verstanden (so bei Happ 1976, 51: „Inso-
264 fern sind und bleiben sie [die beiden Relationen] alternativ. […] Da jedoch die Konstituenz als solche kein Kriterium dafür bietet, wie man teilen soll und warum, kann man Teilungs-Kriterien zum Beispiel aus den Dependenz-Verhältnissen gewinnen. Wenn man dies tut, bewirkt man insofern ein komplementäres Zusammenwirken beider Relationen“), ist zwar auch primitiv, wird jedoch im Hinblick auf die reine Existenz, Notwendigkeit und Bonität (Nützlichkeit) als ein eine grammatische Funktion konstituierendes Konstrukt der Linguisten von vielen Seiten angezweifelt, und zwar die Funktion des ‘Abhängen-von’. Die Dependenzrelation besteht immer zwischen zwei sprachlichen Elementen, dem Dependens, dessen Vorkommen von dem eines anderen sprachlichen Elements, des Regens, abhängt. Wenn von manifesten Elementen, Zeichen wie Nichtzeichen, die Rede ist (im Gegensatz zu den virtuellen Elementen wie den Semen), wird oft von ‘Satellit’ bzw. ‘Nukleus’ (oder ‘Kern’) gesprochen. Es herrscht in diesem Punkt jedoch eine beachtliche terminologische Verwirrung. So unterscheidet Engel (1994, 90 ff.) zwischen ‘Regens’⫺‘Dependens’ und ‘Nukleus’⫺‘Satellit’, wobei ‘Regens’ sich auf ein extern regierendes Element, ‘Nukleus’ sich dagegen auf ein intern regierendes Element bezieht (ein Verb regiere „die gesamte Phrase sozusagen von außen her“, wohingegen z. B. eine Präposition „innerhalb der Gruppe höchstes, mithin regierendes Element“ sei (Engel 1994, 91, seine Hervorhebungen)). Die Vorteile einer solchen Unterscheidung leuchten nicht ein, und Engels eigenem Gedanken, diese Unterscheidung (bei ‘Dependens’⫺,Satellit’) mit ‘unmittelbar’ bzw. ‘mittelbar’ terminologisch zu erfassen, kann zugestimmt werden. Dieselbe terminologische Unterscheidung ließe sich problemlos auf das Regens ausdehnen. Streng logisch gesehen gibt es demnach aus rein dependenzieller Sicht nur zwei grammatische Funktionen: 1. ‘Kern „von“’ und 2. ‘Satellit „von“’, wobei sich ‘Kern „von“’ ⫺ genau genommen ⫺ auf die gesamte Konstruktion, ‘Satellit „von“’ dagegen auf den Kern bezieht. Üblicherweise wird jedoch deutlich mehr Gewicht gelegt auf die Relation zwischen dem Kern und dem einzelnen Satelliten, die es zweifelsohne auch gibt. Als übergeordnet erscheint jedoch die Tatsache, dass man mithilfe der Dependenzrelation als Klassifikationskriterium die unmittelbaren Konstituenten einer Konstruktion in genau
III. Dependenz. Grundlagen und Grundfragen
zwei disjunkte, komplementäre Mengen aufteilen kann: eine Einermenge, den Kern, dessen Vorkommen axiomatisch gegeben ist, und eine Menge von n Satelliten, deren Elemente in Abhängigkeit vom Kern vorkommen. Die die grammatische Funktion konstituierende Relation besteht dann einerseits zwischen Kern und kompletter Konstruktion, andererseits jedoch auch zwischen Kern und Satellit(en). Der einschlägige „dependenzielle“ Sprachgebrauch lässt ahnen, dass in Bezug auf die Satelliten eine doppelte Sichtweise vorherrscht: „x ist Satellit in der Wortgruppe y“, aber auch: „x ist Satellit des Kerns z (evtl. für den Kern z)“ (auf letztere Denkweise ist die astral-nukleare Metaphorik zurückzuführen; „von“ ist oben und im Folgenden als Zusammenfassung der verschiedenen Sichtweisen gedacht). Der entscheidende Unterschied zu der Konstituenzrelation ist dann eben diese doppelte Relation; bei der Konstituenz geht es eindeutig um eine Teil-GanzesRelation, bei der Dependenz ist diese zwar auch vorhanden, tritt jedoch zugunsten einer asymmetrischen Teil-Teil-Relation in den Hintergrund. Eine wichtige Eigenschaft der Dependenzrelation ist eben diese Asymmetrie: Sie geht vom Kern aus und bezieht sich auf den/die Satelliten, nie umgekehrt. Das bedeutet, dass ein Satellit auch dann vom Kern regiert wird, wenn die Kookkurenz von Satellit und Kern nicht nur möglich, sondern auch notwendig ist, um überhaupt die von der Dependenzrelation konstituierte Konstruktion zu bilden. Die grammatische Funktion ‘Satellit „von“’ muss dementsprechend in ‘möglicher Satellit „von“’ (oder ‘fakultativer …’) und ‘notwendiger Satellit „von“’ (oder ‘obligatorischer …’) aufgeteilt werden, was auf der Realisationsebene den dependenten bzw. interdependenten Satelliten entspricht. Es stellt sich in diesem Zusammenhang die Frage, ob auch Adependenz eine grammatische Funktion konstituiert. Adependenz wird hier in erster Linie verstanden als eine Relation zwischen den in einer Konstruktion tatsächlich vorkommenden sprachlichen Elementen, zwischen denen keine Dependenzrelation besteht, aber auch als eine Relation zwischen dem Kern einer Konstruktion und sprachlichen Elementen, die mit diesem Kern nicht kookkurieren können. Im ersteren Fall scheint die Annahme einer grammatischen Funktion keinen Erkenntnis- oder Erklärungszuwachs anzubieten, im letzteren dürfte es vorteilhafter sein, die Selektionsrelation (oder im weiteren Sinne semantische und
22. Dependenzstruktur und grammatische Funktion
pragmatische Phänomene) als Erklärungsrahmen zu bemühen. Die Möglichkeit der Konstituierung weiterer grammatischer Funktionen bietet die Dependenzrelation nicht, vgl. Eroms (1985, 306): „[…] und die syntaktischen Strukturen auf ein ⫺ möglichst elegantes ⫺ Minimum zu beschränken“. Die Aufteilung der Satelliten einer Konstruktion ⫺ der dependenten wie der interdependenten ⫺ kann erst unter Einbeziehung der Selektionsrelation (Rektion im weiteren Sinne), also im Rahmen einer Valenztheorie, erfolgen. So sind Eigenschaften wie ‘Subjekt „von“’, ‘Objekt „von“’, ‘Attribut „von“’ natürlich grammatische Funktionen, sie sind jedoch in einer reinen Dependenztheorie kaum erfassbar. Trotzdem wird in der einschlägigen Literatur zur Dependenzrelation ganz besonders der Status des Subjekts intensiv diskutiert, was wahrscheinlich darauf zurückzuführen ist, dass es zwischen Dependenz- und Valenzrelation keine allgemein anerkannte scharfe ´ gel (2000, 68 ff.; 74 ff.). Grenze gibt, vgl. A
3.
Die grammatischen Funktionen ‘Kern’ und ‘Satellit’
Nach wie vor werden die Kriterien für die Unterscheidung zwischen Kern und Satellit intensiv diskutiert, vgl. Jung (1995a, 33-87), wobei die einer jeden Dependenzanalyse zugrundeliegende Konstituenzanalyse entscheidet, welche Items als Kopf bzw. Satellit überhaupt in Frage kommen. Die Konstituenzanalyse der GB-Theorie mit ihren zum Teil virtuellen Kategorien eröffnet logischerweise andere Möglichkeiten als eine eher traditionelle Konstituenzanalyse, die hauptsächlich auf dem Permutationstest basiert. 3.1. Der Kern Die Frage der möglichen Materialisierungen der Funktion ‘Kern’ beschäftigt die Dependenzgrammatiker seit jeher, wobei sich zwei deutliche Tendenzen abzeichnen: ⫺ Immer mehr Wortklassen wird die Fähigkeit zugeschrieben, die Funktion ‘Kern’ zu übernehmen (vor allem sowjetrussische Linguisten waren hier Vorreiter). Diese Tendenz kommt in valenztheoretischen Arbeiten besonders deutlich zum Vorschein. ⫺ Die Meinung, dass nicht nur Wörter, sondern auch Wortgruppen als Kern fungie-
265 ren können (Rekursivität), wird von immer mehr Dependenzgrammatikern vertreten. 3.1.1. Der simplexe Kern Wo Tesnie`re und die ersten Valenzgrammatiker ihr Augenmerk auf das Verb als Kern richteten, ohne jedoch die Adjektive und die Substantive in der Funktion als Kern auszuschließen ⫺ die Leipziger Valenzwörterbücher zeugen davon ⫺, gehen Dependenzgrammatiker wie Engel (1994, 138 f.) davon aus, dass zumindest auch die Adverbien und die Präpositionen die Funktion eines Kerns übernehmen können. Engel (1994, 139) geht jedoch einen Schritt weiter und schreibt wie Eroms (1995, 72), Jung (1995b) und Colliander (1998, 41 ff.) auch den Subjunktoren Kernfunktion zu; vgl. hierzu auch Lobin (1995, 117 ff.). Es ist dabei wichtig, die Subjunktoren von anderen Elementen mit sog. unterordnender Funktion wie den Relativa und den Interrogativa zu unterscheiden: Nur die Subjunktoren sind Kern einer Wortgruppe, die Interrogativa, die eine VerbLetzt-Struktur einleiten, und die Relativa fungieren im Normalfall als Satelliten. Als Kern käme das Relativum lediglich in Randfällen wie ich, der ich keiner Fliege etwas zuleide tun kann in Frage, in denen ein Relativsatz als Ganzes als Satellit eines deiktischen Pronomens fungiert. Die Einstufung der Subjunktoren als Kerne erscheint nicht nur strukturell-syntaktisch als sinnvoll, sondern auch funktionalpragmatisch. Es wäre von beiden Blickwinkeln aus gesehen zweckmäßiger zu sagen, dass sich eine in einem Satz ausgedrückte Proposition „via“ einen Subjunktor in einen Satz einbetten ließe, als zu sagen, dass dasselbe möglich wäre, wenn sich der Satz mit einem Subjunktor als Satelliten verbände (Letzteres setzt natürlich voraus, dass man die Existenz von komplexen Kernen anerkennt; vgl. 3.1.2). Die meisten Subjunktoren geben direkt Auskunft über die semantische Relation zwischen der einbettenden und der eingebetteten Proposition (z. B. weil), bei dass und ob scheint diese Auskunft eher indirekten Charakter zu haben: dass- und ob-Gruppen fungieren typischerweise als Argumentausdrücke in der einbettenden Proposition. Diese Interpretation der Subjunktoren rüttelt an dem Satzbegriff. Das, was traditionell in einen Topf geworfen wird, erweist sich aus dependenzieller Sicht als uneinheitlich: VerbErst- und Verb-Zweit-Strukturen sind bei-
266 de Dependenzstrukturen mit verbalem Kern, und zwar entweder mit einer synthetischen, finiten Form oder einem Verbalkomplex als Kern, wohingegen Verb-Letzt-Strukturen sich dependenziell auf zwei Klassen verteilen: 1. Verbgruppen, wie soeben beschrieben (z. B. Relativsätze), und 2. Subjunktorgruppen. In diesen Zusammenhang gehören auch die verschiedenen sog. Infinitivkonstruktionen. Ein Teil von ihnen sind Verbalgruppen (z. B.: ⬍Er hatte geglaubt,⬎ in Sicherheit gebracht zu werden), ein anderer Teil sind Präpositionsgruppen (z. B.: ⬍Er unternimmt vieles,⬎ um in Sicherheit gebracht zu werden). Dabei ist wichtig, dass auch eine Konstruktion wie ⬍Er bemüht sich,⬎ in Sicherheit gebracht zu werden als Präpositionsgruppe einzustufen ist (vgl. ⬍Er bemüht sich darum,⬎ in Sicherheit gebracht zu werden). Täte man das nicht, ginge die „Valenzrechnung“ von bemühen nicht oder nur sehr umständlich auf. Aber auch ein von der GBTheorie und der Satzmoduslehre angeregter Ansatz wie der von Eroms wirft ein neues Licht auf den Satzbegriff. Bei ihm ist der Kern des Satzes nicht das Verb, sondern ein „‘Wortäquivalent’ ‘S’, das zunächst ein abstraktes Element ist, ein Klassensymbol“ (Eroms 1995, 73; vgl. auch Eroms 1985, 309 und Kunze 1975, 48 ff.), das für den illokutiven Gehalt des Satzes steht und als Satz´ gel macht zu schlusszeichen verschriftet ist. A Recht auf ein Problem bei diesem Ansatz aufmerksam: „Der (auch) suprasegmentale Unterschied zwischen zwei Sätzen wird als seg´ gel mentaler Unterschied rekonstruiert“ (A 2000, 78). Die GB-Theorie selber sieht für jeden Satz, auch für Verb-Zweit-Sätze, einen subjunktionalen Kern vor, die COMP-Position (mit der eine Gleichstellung der Subjunktoren mit den Determinativen erzielt wird), was jedoch nicht nur von dependenzieller Seite stark kritisiert wurde, u. a. auch von Marga Reis. Es herrscht relative Einhelligkeit über die Auffassung der Konjunktoren als zweistellige semantische Prädikate (McCawley, Lang, Lobin). Im Gegensatz dazu stehen wenige Autoren, die in den Konjunktoren auch zweistellige syntaktische Kerne sehen (z. B. Colliander 1999, 45 ff.). Auf der einen Seite ⫺ auch aus funktional-pragmatischer Sicht ⫺ eine intuitiv plausible, auf der anderen Seite eine nicht unproblematische Auffassung: Wie sind die komplexen Konjunktoren wie nicht nur ⫺ sondern auch als Kerne zu handhaben, und wie analysiert man polysyndetische Kon-
III. Dependenz. Grundlagen und Grundfragen
struktionen? Probleme, mit denen nicht nur die Dependenzgrammatik (DG) zu kämpfen hat. Alternativ hierzu versteht Eroms (1985, 310) den Konjunktor als einstelligen syntaktischen Kopf des Satzes. Besondere Aufmerksamkeit wurde immer den Auxiliaren (und einer kleinen Gruppe „auxiliarverdächtiger“ Verben wie z. B. den sog. Modalverben und Verben wie versuchen, hören u.ä.) geschenkt; zusammenfassend geht es um die Verben, bei denen im Bechschen Sinne Kohärenz entweder obligatorisch oder aber möglich ist, vgl. Jung (1995a, 94 ff.). Seit Bech Mitte der 50-er ⫺ und nicht zuletzt seit dem Neudruck 1983 und der darauf (und daraus) folgenden Rezeption im deutschsprachigen Raum ⫺ seine bahnbrechenden Überlegungen zur Statuskategorie und den hypotaktischen Ketten vorlegte, werden die Auxiliare recht einstimmig als Kerne aufgefasst, genau wie schon bei Tesnie`re, der einerseits dem Vollverb („auxilie´“) die Funktion des „semantischen Zentrums“ zuschrieb, andererseits jedoch in dem Auxiliar („auxiliaire“) das „syntaktische Zentrum“ sah. Vor diesem Hintergrund erscheint es sinnvoll, zwischen zwei Klassen dependenziell konstituierter Verbalgruppen zu unterscheiden: 1. die Klasse der „vollen“ Verbalgruppen (VG) (bei Heringer 1996, 62: „große Verbalphrase“), und 2. die Klasse der Verbalkomplexe (VK) (bei Heringer 1996, 69: „innere Verbalphrase“), wobei auch eine Kreuzklassifikation relevant ist: 1. finite Verbalgruppen (Vf G und Vf K), und 2. infinite Verbalgruppen (Vi G und Vi K). Im X-bar-Schema der GB-Theorie dagegen wird das Auxiliarverb der Kategorie INFL zugeordnet, der ihrerseits das Subjekt und der Vollverbknoten untergeordnet sind, und die auch das Determinativ umfasst, was eine Parallele zwischen Sätzen und Substantivgruppen im dependenziellen Sinne deutlich werden lässt. Auch den Substantiven und den Determinativen wurde viel Aufmerksamkeit gewidmet. Der Tesnie`resche Vorschlag, das Substantiv als Kern zu betrachten, hat sich im Großen und Ganzen durchgesetzt, aber auch der Vorschlag, dem Determinativ die Funktion des Kerns zuzuschreiben (vor allem GBTheorie, aber auch Eroms 1985, 316, der allerdings der Meinung ist, dass sein „Platz im Stemma nicht eindeutig angebbar“ sei, S. 317), hat viele Befürworter. Die Diskussion ist dargestellt bei Lobin (1995, 122 f.; 129 f.) mit der Konklusion: „Das Determinativ regiert das Nomen innerhalb eines kom-
267
22. Dependenzstruktur und grammatische Funktion
plexen Elements, alle postnominalen Satelliten aber werden vom Determinativ und vom Nomen gemeinsam regiert“ (Lobin 1995, 132). Engel (1994, 90 ff.) nimmt hier eine Sonderstellung ein: Er sieht in dem Substantiv einen Kern und in dem Determinativ einerseits einen Satelliten des Substantivs, andererseits einen Kern für das attributive Adjektiv. Eichinger (1995, 44 f.) sei stellvertretend für viele erwähnt, die davon ausgehen, dass Substantiv und Determinativ gemeinsam den Kern der SG ausmachen. Diese Sichtweisen haben alle die Konsequenz, dass es keine SG gibt, sondern nur SubstantivgruppeGruppen (SGG; vgl. 3.1.2.), denn das Determinativ ist obligatorisch. Nur wenn das Determinativ als Flexiv aufgefasst wird, gibt es als Realisat auch SG. 3.1.2. Der komplexe Kern Es scheint unumgänglich zu sein, auch mit komplexen Kernen zu rechnen, wobei alle Wortgruppen (wohl abgesehen von den VK) als potentielle Kerne von Wortgruppen-Gruppen in Frage kommen, vgl. Lobin (1995, 117): „Auch wenn diese Annahme [nur Wörter können Wörter oder Phrasen regieren] durchaus praktikabel ist, führt sie doch zu einer ganzen Reihe von syntaxtheoretischen Unzulänglichkeiten, die ausgearbeitete Dependenzgrammatiken gegenüber konkurrierenden Grammatiktheorien als unzulänglich erscheinen lassen.“ So liegt es nahe, die sog. weiterführenden Nebensätze als Satelliten in Verbalgruppe-Gruppen (VGG) aufzufassen. Unabhängig von der Interpretation der Dependenzverhältnisse in Konstruktionen wie das neue Auto ist es sinnvoll, eine Konstruktion wie nur das neue Auto ⬍hat Kopfairbags⬎ als eine Wortgruppe mit einer Wortgruppe als Kern zu analysieren, also (evtl.) als eine SGG. Auch Das Institut für DaF der Universität München lässt sich als eine SGG verstehen, und zwar mit Das Institut für DaF als Kern und dem Rest als Satelliten. Sollten für DaF und der Universität M. gleichermaßen Satelliten zu Institut sein, würde das das sehr prägnante Prinzip brechen, dass zwischen Kern und genitivischem Attribut keine andere Konstituente stehen kann. In vornehmlich in Rom und in in Rom dagegen liegen PGG vor (Kerne hervorgehoben) (Heringer 1996, 132 spricht von der „Rekursion bei P“), in selbst wenn sie es nicht wüsste geht es um eine SubjGG, und nur ab und zu ist eine KonjGG. Konträr dazu u. a. Eroms (1985, 319), der bei Ausdrücken wie kurz vor dem
Haus von „Angabeäquivalente[n] […], die von der Präposition direkt regiert werden“, spricht. Wenn man jedoch die Existenz von XGG anerkennt, muss man auch mit noch komplexeren Kernen rechnen, etwa bei fast das ganze Jahr hindurch: das ganze Jahr fungiert als Kern zu hindurch, das ganze Jahr hindurch fungiert als Kern zu fast; also geht es um eine SGG. 3.2. Die Satelliten Das ganze „Repertoire“ an sprachlichen Konstruktionen auf Zeichenniveau steht im Prinzip als Satellit zur Verfügung, wobei die einzelnen Kernklassen ihre eigene Auswahl im Potenzial treffen. Hiermit ist für viele Theoretiker die Grenze zur Valenzgrammatik schon überschritten, denn die Selektion gehört dorthin. Die grammatische Funktion ‘Satellit’ kann mit dependenziellen Mitteln kaum weiter spezifiziert werden. Die traditionelle Aufteilung der Satelliten in der VG z. B. beruht auf operational-semantosyntaktischen Kriterien, die eigentlich außerhalb der Reichweite der DG liegen, was die Dependenzgrammatiker allerdings nicht davon abgehalten hat, sie anzuwenden, vgl. z. B. Engels Ergänzungsklassen (1994, 154 ff.). Auf der Grundlage des Vorkommensstatus der Satelliten werden sie ⫺ was allgemein als „dependenziell“ akzeptiert wird ⫺ in dependente und interdependente aufgeteilt, was sich mit der Klassifizierung der Valenzgrammatik in Komplemente und Supplemente kreuzt. Erstere sind von dem Kern selegiert (ob dependent oder independent), Letztere nicht (üblicherweise als ausschließlich dependent betrachtet).
4.
Die traditionellen grammatischen Funktionen aus dependenzieller Sicht
Eine streng dependenzielle Sichtweise erlaubt nur die Unterscheidung zwischen Kern und Satellit und im Bereich der Satelliten zwischen dependenten und independenten Satelliten, aber diese eher „bescheidene“ Subklassifikation der Konstituenten ist intuitiv unbefriedigend, und je mehr sich in einer Darstellung die Grenze zwischen Dependenzgrammatik und Valenzgrammatik verwischt, desto deutlicher sind die traditionellen grammatischen Funktionen wie die Satzglieder und das Attribut zu erkennen. Tarvainen (1981) ist in diesem Punkt extrem, da er die beiden Kon-
268 zeptionen gleichstellt, aber auch Eroms’ „reine Dependenzgrammatik“ arbeitet mit den traditionellen Satzgliedern (vgl.: „So bestimmt das Verb Zahl und Art seiner Mitspieler, es legt den Kasus fest.“ 1985, 313). Minimalistisch gehen dagegen Herslund/Sørensen (1994) vor, die mit drei Satelliten-Subklassen im Satz auskommen: dem Subjekt, dem Objekt und dem Adjekt. Dependenzielle Arbeiten enthalten i. d. R. ein Inventar an „Ergänzungsklassen“, das der Zahl und der Art nach mehr oder weniger deutliche Entsprechungen der traditionellen Satzglieder enthält, vgl. z. B. Engel (1994, 149 ff.), mit der wichtigen Anmerkung, dass diese Klassen nur die selektierten Satelliten erfassen. Aus dependenzieller Sicht stört an der traditionellen Funktionslehre, dass einerseits die Satelliten des Vollverbs subklassifiziert werden (und zwar nach uneinheitlichen Kriterien), andererseits die der anderen Wortklassen mehr oder weniger deutlich unter dem Begriff „Attribut“ subsumiert werden.
III. Dependenz. Grundlagen und Grundfragen
dem Einfluss der GB-Theorie. Stellvertretend für viele sei Eroms erwähnt: „Als dependentiell von großer Tragweite ist jedoch die Entscheidung anzusehen, das Subjekt aus der Menge der übrigen E herauszulösen und nicht als ‘Nominativobjekt’ aufzufassen. Ich möchte damit die kommunikative Sonderstellung des Subjekts auch dependentiell zum Ausdruck bringen“ (1985, 313). Befürworter der Gegenposition gibt es jedoch auch, u. a. Lobin (1995), der die Gleichstellung des Subjekts mit den anderen selektierten Satzteilen durch seine Theorie der komplexen Kerne „rettet“, vgl. auch 4.1. Eine ergiebige Diskussion des Subjektbegriffs und des sog. Kon´ gel (2000, gruenzarguments findet sich bei A 91 ff.).
4.1. Das Prädikat Das Prädikat der traditionellen Grammatik entspricht einem verbalen Kern in der Dependenzstruktur. Uneinigkeit herrscht nur in wenigen Punkten, z. B. wenn es um die „auxiliarverdächtigen“ Verben (vgl. 3.1.1) und nicht verbalen „Kandidaten“ für die Funktion des Prädikats wie bei den sog. Funktionsverbgefügen geht. Fasst man Letztere als Teile des Prädikats auf, gerät man einerseits bei der syntaktischen Valenz in Schwierigkeiten, denn sie besetzen eindeutig Valenzstellen, andererseits scheint nicht das Funktionsverb allein, sondern das ganze Gefüge die semantische Valenz festzulegen. Vielleicht muss man sich damit abfinden, dass es in diesem Punkt keine Isomorphie zwischen Ausdruck und Inhalt gibt: syntaktisch selbständige Konstituenten (vgl. Engel 1994, 106), semantisch zum Prädikat gehörend. Vgl. die Diskussion bei Lobin (1995, 120) und seine Konklusion: „Das Funktionsverbgefüge bildet als komplexes Element insgesamt den Nukleus des Satzes“ (Lobin 1995, 131).
4.3. Die Objekte Das Akkusativobjekt nimmt insofern eine dependenzielle Sonderstellung ein, als es prototypisch interdependent ist, im Gegensatz zu den anderen Kasusobjekten und dem Präpositionalobjekt. In ganz anderer Weise heben sich die Dativkonstruktionen von den anderen Konstruktionen mit „reinem“ Kasus ab: Wo die akkusativischen und die genitivischen Konstruktionen als Satelliten zu Verben prototypisch Objekte sind, gibt es neben den unstrittigen Dativobjekten die sog. „freien Dative“. Sie scheinen einerseits nicht so frei zu sein, wie der Terminus andeutet, vgl. Eroms (1985, 312): „der Dativ ist […] auch in den meisten ‘freien’ Typen[,] valenzgebunden“; andererseits hängt ihr (potenzielles) Vorkommen nicht unbedingt nur vom Verb ab, sondern kann auch von dem Vorkommen bestimmter mittelbarer Konstituenten im Satz abhängen, vgl. Engel (1994, 156). Die Präpositionsgruppen (PG) verteilen sich auf zwei Funktionen: Objekt und Adverbial, wobei der Unterschied nur erfasst werden kann, wenn die Selektion herangezogen wird. Heikel sind dabei Fälle wie Er wohnt in Berlin: Die PG ist zwar interdependent mit dem Verb, die Präposition jedoch nur insofern selegiert, als sie das semantische Merkmal [⫹Lok] haben muss.
4.2. Das Subjekt Die Grundposition der DG war die, dass das Subjekt den anderen unmittelbaren Satzteilen gleichgestellt ist. Eben dadurch distanzierte sie sich von der traditionellen Subjekt-Prädikat-Grammatik. Aber die Meinungen der Dependenzgrammatiker scheinen hier immer mehr auseinander zu gehen, vielleicht unter
4.4. Die Prädikative Die dependenten Prädikative unterscheiden sich von den (übrigen) Adverbialen nur in den Anaphorisierungsmöglichkeiten. Das interdependente Objektsprädikativ wirft die Frage auf, ob es sinnvoll ist, auf syntaktischer Ebene zwischen dem Vorkommen zweier Akkusativobjekte und dem eines Ak-
22. Dependenzstruktur und grammatische Funktion
kusativobjektes und eines Objektsprädikativs zu unterscheiden, geht es doch letztendlich um semantische Unterschiede. Das interdependente Subjektsprädikativ wird entweder als Satellit (so bei Engel 1994, 152 f.) oder als Prädikatsteil (vgl. 4.1) betrachtet. 4.5. Das Adverbial Kontroverse Meinungen gibt es vor allem in der Frage, ob die Adverbiale immer als Supplemente zu verstehen sind oder ob die Interdependenten unter ihnen zu den Komplementen zu rechnen sind. Das wirft wiederum die Frage auf, ob es bei den Dichotomien Supplement-Komplement vs. dependent-interdependent um eine echte Kreuzklassifikation geht. 4.6. Das Attribut Bei den Attributen, verstanden als andere Satelliten als die des Verbs, stellt sich die Frage, ob es in einigen Fällen nicht sinnvoll wäre, eine Subklassifikation parallel zu der verbaler Satelliten vorzunehmen, wie es u. a. von der GB-Theorie vorgeschlagen wurde. Vgl. hierzu auch Eroms (1985, 318), der unter Hinweis auf Norbert R. Wolf eine Trennung von „Adjunkten“ (selektiert) und „Attributen“ (nicht selektiert) diskutiert, und Eichinger (1995, 47 f.), der den Status des Genitivattributs diskutiert. 4.7. Die Apposition Bei der Apposition liegt „eine Art von Attribut vor […]. Aber näheres Zusehen zeigt doch, daß die Unterschiede überwiegen“ (Engel 1994, 280). Die Appositionen sind dependente Konstituenten, deren Zugehörigkeit zu einem Kern umstritten ist. Sicher ist, dass dieser Kern nicht das Prädikat sein kann, unsicher ist, ob es überhaupt zweckmäßig ist, bei der Apposition eine Kern-Satellit-Relation anzunehmen. Heringer (1996, 104) spricht bei der sog. engen Apposition vom „Kompositionscharakter“. Vgl. auch Jung (1995a, 118 ff.).
5.
Literatur in Auswahl
´ gel, Vilmos (2000): Valenztheorie (⫽ Narr StuA dienbücher) Tübingen. Bech, Gunnar (1983): Das deutsche verbum infinitum (⫽ Linguistische Arbeiten 139). Tübingen (2. Auflage).
269 Colliander, Peter (1999): Partikelvalenz im Deutschen. Eine prototypenlinguistische Studie über die Valenzverhältnisse bei den Präpositionen, den Subjunktoren und den Konjunktionen. In: Deutsche Sprache 27, 27⫺51. Eichinger, Ludwig M. (1995): Von der Valenz des Verbs und den Abhängigkeiten in der Nominalgruppe. In: Eichinger, Ludwig M./Eroms, HansWerner (Hgg.) (1995), 37⫺51. Eichinger, Ludwig M./Eroms, Hans-Werner (Hgg.) (1995): Dependenz und Valenz (⫽ Beiträge zur germanistischen Sprachwissenschaft 10). Hamburg. Engel, Ulrich (1994): Syntax der deutschen Gegenwartssprache (⫽ Grundlagen der Germanistik 22). Berlin (3. Aufl.). Eroms, Hans-Werner (1985): Eine reine Dependenzgrammatik für das Deutsche. In: Deutsche Sprache 13, 306⫺326. Eroms, Hans-Werner (1995): Dependenz an der Satzspitze. In: Eichinger, Ludwig M./Eroms, HansWerner (Hgg.) (1995), 71⫺84. Happ, Heinz (1976): Grundfragen einer DependenzGrammatik des Lateinischen. Göttingen. Heringer, Hans Jürgen (1996): Deutsche Syntax Dependentiell. Tübingen. Herslund, Michael/Sørensen, Finn (1994): A Valence Based Theory of Grammatical Relations. In: Engberg-Pedersen, Elisabeth/Jakobsen, Lisbeth Falster/Rasmussen, Lone Schack (eds.) (1994): Function and Expression in Functional Grammar (⫽ Functional Grammar Series 16). Berlin/New York, 81⫺95. Jung, Wha-Young (1995a): Syntaktische Relationen im Rahmen der Dependenzgrammatik (⫽ Beiträge zur germanistischen Sprachwissenschaft 9). Hamburg. Jung, Wha-Young (1995b): Zum syntaktischen Status der Subordinativen Konjunktionen. In: Eichinger, Ludwig M./Eroms, Hans-Werner (Hgg.) (1995), 99⫺103. Kreps, Christian (1996): Dependency, licensing and the nature of grammatical relations. In: UCL Working Papers in Linguistics 8, 329⫺364. Kunze, Jürgen (1975): Abhängigkeitsgrammatik (⫽ studia grammatica 12). Berlin. Lobin, Henning (1995): Komplexe Elemente ⫺ Indizien aus Nominalphrase und Verbalkomplex. In: Eichinger, Ludwig M./Eroms, Hans-Werner (Hgg.) (1995), 117⫺133. Rosta, And (1994): Dependency and grammatical relations. In: UCL Working Papers in Linguistics 6, 219⫺258. Tarvainen, Kalevi (1981): Einführung in die Dependenzgrammatik (⫽ Reihe Germanistische Linguistik 35). Tübingen.
Peter Colliander, Kopenhagen (Dänemark)
270
III. Dependenz. Grundlagen und Grundfragen
23. Dependency Grammar and Lexicalism 1. 2. 3. 4. 5. 6.
8. 9.
Grammar as constraints Syntactic rules and representations Grammatical generalizations Word order variations Infinitives and control Information structure and unbounded dependencies Grammatical structure and lexical derivation Conclusion Select Bibliography
1.
Grammar as constraints
7.
more than lexically specified binary dependency relations between pairs of words (the regent and the dependent) and analogical relations between sets of lexical items. The hypothesis that grammatical information is specified in and projected from the lexicon is called lexicalism. In this paper, I would like to present a representative sample of constructions which can be accounted for in this way, though they have often been treated by more powerful mechanisms in other approaches, even within the relatively austere domain of DG. The framework used for exemplification will be the lexicase version of the theory (cf. Starosta 1988; Starosta, this volume, article number 41).
Less is more. Expressive power and empirical content are inversely related, because a more powerful theory or analysis is harder to falsify, and falsifiability is the defining property of empirical science. Dependency grammar (DG) is in principle a lean and economical system of grammatical analysis, and it seems increasingly likely that even when it is radically constrained, by for example limiting it to a single level of representation and outlawing invisible categories and word-internal boundaries, it will still be able to cover most or all grammatical generalizations about most or all human languages in terms of nothing
2.
Syntactic rules and representations
In a strict lexicalist version of dependency grammar such as the lexicase framework employed in this paper, the grammar is projected from the lexicon, and no lexicon-external phrase structure rules or transformations are allowed or needed. The connections between words that are shown in constituent structure grammars by means of Phrase
AgrSP
AgrS
DP the jewels
AgrS V |
have
TP
AgrS DP
T
|
t T V |
PERF PERF
T DP
t
PROG P
PERF |
t
PROG
DP |
t
vp
PROG |
been
v
DP |
t
AgrOP
v V
v
DP
|
|
|
stolen ø
AgrO
t
Fig. 23.1: Passive as raising
VP
AgrO V
AgrO V
|
|
t
t
DP |
t
271
23. Dependency Grammar and Lexicalism
jewels 2ndex N 1 ([Det]) 1 ([Det]) < 2
the 1ndex Det
have 3ndex V 2 ([N]) 2 ([Nom]) 2 ([Nom]) < 3 4 ([V]) 3 < 4 ([V])
been 4ndex V 5 ([V]) 4 < 5 ([V])
stolen 5ndex V
ndex = ‘index’ Nom = ‘nominative’
Fig. 23.2: Passive as base-generated sentences
Structure rules can be shown in a lexicalist dependency grammar by means of indexed valency features, and this procedure at the same time imposes very strong constraints on possible representations. As an example, compare the representations of a sentence like The jewels have been stolen in a Chomskyan transformational framework (23.1) and a lexicalist dependency model (23.2). Because all grammatical information must be projected from actual pronounced words in their ‘surface’ order in a constrained dependency analysis, the ‘functional projections’ (nodes with unpronounced head words) and movements illustrated in 23.1 are not allowed. Instead, in the analysis shown as 23.2, all the information about dependency and linear precedence has been incorporated in the lexical entries of five actual pronounced ‘surface’ words. For example, the indexed valency feature [1([Det])] under jew-
bought V @ndex <@ ? N Nom @ N Acc
Fig. 23.3: List representation for The jewels have been stolen been have jewels stolen the
[4ndex, V, 5 ([V]), 4 ⬍ 5 ([V])] [3ndex, V, 2 ([N]), 2 ([Nom]), 2 ([Nom]) ⬍ 3, 4 ([V]), 3 ⬍ 4 ([V)] [2ndex, N, 1 ([Det]) [5ndex, V] [1ndex, Det]
els tells us that the depends on jewels, and [1([Det]) ⬍ 2] tells us that the precedes jewels. Because this information is lexically represented, the stemma (dependency tree) itself is redundant. That is, exactly the same information shown in 23.2 can be given as an arbitrarily ordered list of words such as 23.3.
3.
Grammatical generalizations
The constrained dependency framework used in 23.2 allows no distinct levels, no movements, and no ‘empty categories’ (inaudible words), and needs none, since the information presented in much more powerful transformational approaches can be represented in a purely lexical form. This includes for example information about the relation between, in this case, active and passive sentences. In both transformational and monostratal frameworks, this information requires a lexical rule that relates active verbs and passive participles, and the generalizations which need to be captured regarding the relation between active and passive sentences can be captured fully in terms of such lexical rules (cf. 7), so that the strata, movements, and empty-headed projections are unnecessary. A constrained lexicalist dependency analysis is also able to accommodate other phenomena treated with rules in alternative frameworks, such as basic word order patterns and ‘discontinuous’ constructions. Consider for example the basic word order pattern in English and Tagalog transitive clauses. The basic word order in English is Nom ⫺ V ⫺ Acc, and in Tagalog it is V ⫺ Gen ⫺ Nom. Note that all the statements in
272
III. Dependenz. Grundlagen und Grundfragen
this section refer to ‘surface’ word order. There is no need to state that each time, of course, since a constrained monostratal analysis does not distinguish multiple ‘levels’ of structure. I represent these order patterns in terms of case form labels, rather than the eurocentric ‘functional’ categories S [intransitive ‘subject’], A [transitive agent], and O or P [transitive ‘object’ or patient] categories used in syntactic typological studies by linguists such as for example Joseph Greenberg, R. M. W. Dixon and Bernard Comrie, in order to avoid confusion between form and meaning and to be able to capture generalizations that apply to both accusative languages such as English and ergative languages such as Tagalog. In this and subsequent examples I will oversimplify the phenomena considerably in order to keep the presentation concise. In a dependency grammar, the verb is the center of the clause, and in a lexicalist grammar, syntactic information resides in the lexicon. Thus clausal word order requirements
woman 2ndex
are stated as contextual features on the head verb, as illustrated in 23.4. binili bought V @ndex @ N Nom @ N Gen N ? N Nom Gen
Fig. 23.4: Lexical entries for English and Tagalog verbs
In this figure, the @ indicates the index of the verb, a number assigned according to the linear order of the word when it appears in a sentence. Thus if bought is the third word in the sentence The woman bought the rice (figure 23.5), @ndex will be 3ndex. ‘?’ indicates a
bought 3ndex 2 N <3 nom
rice 5ndex
3<5 N Acc the 4ndex
the 1ndex
Fig. 23.5: English clausal word order
binili bought 1ndex 2<3 N Nom 3<5 N Acc <5 N 3 N Nom Gen
bigas rice 5ndex
babae woman 3ndex ng of 2ndex
Fig. 23.6: Tagalog clausal word order
ang the 4ndex
273
23. Dependency Grammar and Lexicalism
contextual requirement specified as a valency feature: the verbs in 23.4 both require one nominative-marked dependent noun [? [N, Nom]], and bought also requires an accusative-marked dependent noun [? [N, Acc]], while binili requires an additional genitivemarked dependent noun [? [N, Gen]]. The ‘?’, like the @, is replaced by a linear sequence index in context. Thus if woman is the second word in the same sentence, ‘?’ will be 2 in [? [N, Nom]], producing [2 [N, Nom]]. ‘⬍’ in a linear precedence feature indicates that the index before it must be smaller than the index after. This means that the dependent element bearing the preceding index must precede the element bearing the following index in any phrase in which the word appears. This is exemplified in examples 23.5 and 23.6.
4.
word-order constructions, since in such constructions the linear precedence features are simply omitted. This is illustrated in 23.7 and 23.8.
ano that 1ndex Det
‘that tall building’
takai tall 1ndex Adj
Word order variations
4.1. Free word order In the representations of 23.5 and 23.6, the nominative-marked word must precede the verb in English [2 [N, Nom] ⬍ 3] but follow it in Tagalog [1 ⬍ 5 [N,Nom]]. Accusative and Genitive words must follow the verbs in the respective languages [3 ⬍ 5 [N, Acc]]; [1 ⬍ 3 [N, Gen]], and in Tagalog the Genitivemarked constituent must precede the Nominative-marked one [3 [N, Gen] ⬍ 5 [N, Nom]]. In this respect, ‘SVO’ languages are formally simpler than verb-initial or verb-final languages. By contrast, free word-order constructions are formally simpler than fixed
that 1ndex Det
tall 2ndex Adj
building 3ndex N 1 ([Det]) < 3 2 ([Adj]) < 3 1 ([Det]) < 2 ([Adj])
*
tall 1ndex Adj
that 2ndex Det
building 3ndex N 1 ([Adj]) < 3 2 ([Det]) < 3 2 ([Det]) < 1 ([Adj])
Fig. 23.7: English noun-headed constructions
takai tall 2ndex Adj
biru building 3ndex N 1 ([Det]) < 3 2 ([Adj]) < 3
ano that 2ndex Det
biru building 3ndex N 1 ([Adj]) < 3 2 ([Det]) < 3
‘that tall building’
Fig. 23.8: Japanese noun-headed constructions
This lexically specified approach to free word order can be contrasted with transformational solutions which arbitrarily take one of the possible word orders as basic in ‘deep structure’ and derive the others by an otherwise unmotivated rule of ‘free scrambling’. 4.2. Projectivity The same sort of approach can be taken to word order variation and apparent violations of ‘projectivity’ (structural discontinuity) in constructions such as English ‘particle verb’ patterns, for example. Again, alternative word order in examples such as (1) and (2) has been handled in more powerful frameworks by a ‘particle movement’ transformation, but in a constrained monostratal lexicalist approach simply in terms of the lack of any restriction. That is, in word order, whatever is not specified is left open. (1)
The investigator looked up the number.
(2)
The investigator looked the number up.
The feature scnd ‘ascend’ suggests a lexical semantic analysis of the word up. The selectional feature [? [Adv, ⫹cltc, ⫹scnd]] marks this looked as a ‘particle verb’ requiring the complement up to follow it, and since it is also a transitive verb, looked re-
274
III. Dependenz. Grundlagen und Grundfragen
investigator The
looked 3ndex 4 Adv +cltc +scnd 3 < 4 Adv +cltc 3<6 N Acc
up 4ndex Adv +cltc +scnd
the
number 6ndex N
cltc = ‘clitic’ scnd = ‘ascend’
Fig. 23.9: Post-verb clitic adverb
investigator The
looked 3ndex 4 Adv +cltc +scnd 3 < 4 Adv +cltc 3<6 N Acc
the
number 6ndex N
up 4ndex Adv +cltc +scnd
Fig. 23.10: Clause-final clitic adverb
quires its ‘direct object’ to follow it [@ ⬍ ? [N, Acc]]. In transformational grammars, the close association between a verb and its ‘verbal particle’ has often been shown by placing both together under a single node, so that in examples such as (2) with the clitic adverb (‘particle’) separated from the verb by an intervening accusative NP, the verb and adverb are regarded as a discontinuous constituent. In a constrained lexicalist dependency grammar such an analysis is neither possible nor necessary; the obligatory selectional feature [? [Adv, ⫹cltc, ⫹scnd]] identifies the clitic adverb as a complement of the verb, just as the direct object is. The linear precedence features require both these complements to follow the verb but don’t impose any relative order on them, so both orders are wellformed and neither is discontinuous. (A more detailed analysis would also cover relative ordering constraints between clitic adverbs and clitic accusative pronouns.)
4.3. ‘Subject-AUX Inversion’ Some grammatically conditioned word order variations have been treated in terms of movement rules since the advent of transformational grammar. One of these is English ‘subject-AUX inversion’, as illustrated by (3) and (4). (3)
Buddhists can eat bean burritos.
(4)
Can Buddhists eat bean burritos?
To account for this difference in word order without the use of powerful movement rules, it is only necessary to let some of the linear precedence features be conditioned by a lexical feature ‘interrogative’. Thus English auxiliary verbs take following Nominative dependents when they are interrogative, but follow the normal ‘SV’ order when they are declarative. This is illustrated in 23.11 and 23.12. The relevant syntactic and semantic generalizations can be accounted for in terms of
275
23. Dependency Grammar and Lexicalism
Buddhists 1ndex N
can 2ndex V +xlry – ntrg 1 N <2 Nom
eat bean burritos
xlry = ‘auxiliary’ ntrg = ‘interrogative’
Fig. 23.11: Declarative clause
can 1ndex V +xlry +ntrg 1<2 N Nom
Buddhists 2ndex N
eat bean burritos
Fig. 23.12: Interrogative clause
the lexical subcategorization and redundancy rules (5)⫺(7). (5) [V] J (fint fint ⫽ ‘finite’ (xlry (6) (7)
[⫹fint ] J [(ntrg ] ⫹xlry J @ < N ⫹ntrg Nom
(5) states that verbs in the lexicon may be finite or non-finite, and auxiliary or non-auxiliary. (6) states that finite verbs may be either declarative or interrogative, and (7) states that interrogative auxiliary verbs require their nominative dependents (‘grammatical subjects’) to follow rather than precede them. All of these rules are lexical, and simply describe correlations among features found in subsets of words in the lexicon. Strings of words which satisfy all the valency features are well-formed, and other strings are not. Both types of clauses are ‘base-generated’, and there is no need for any reordering operation to apply to abstract tree structures to derive reordered ‘surface’ structures from ‘deep’ structures.
5.
Infinitives and control
Examples (3) and (4) illustrate an additional construction type found in many languages: control. In certain syntactic environments, verbs are not allowed to appear with ‘grammatical subjects’, but the missing grammatical subjects are uniquely recoverable from the syntactic environment. In early transformational grammar, this phenomenon was handled in terms of the END (Equi-NP deletion) transformation which deleted the subject of an embedded verb when it was identical to a matrix NP. Later transformational grammar replaced this analysis by one in which the missing subject was filled by an unpronounced pronominal element PRO which was assumed to be interpreted by some unformalized rule as coreferential with some controlling element elsewhere in the tree. Lexicase dependency grammar also accounts for such structures in terms of an interpretive rule, but a generative (formal and explicit) one which is stated in terms of the lexical features of two words occurring in a dependency relation to each other.
276
III. Dependenz. Grundlagen und Grundfragen
The formal statement of this and other rules, especially where verbs are involved, typically require reference to case relations, comparable to Fillmorean case relations and Chomskyan thematic relations except that those used in lexicase are defined perceptually and grammatically rather than situationally, and consist of a small closed set, listed here as (8). (8)
Lexicase case relations PAT
‘Patient’
AGT
‘Agent’
common to all predicate words common to all transitive verbs
LOC ‘Locus’ COR ‘Correspondent’ MNS ‘Means’ actr ‘actor’ the ‘macrorole’; coincides with the AGT of transitive verbs, else with the PAT A control construction can be seen as a construction in which a predicate dominates another non-finite [⫺fint] predicate (an ‘infinitive’ in a broad sense), where a [⫺fint] predicate word is defined in dependency terms as a predicate which does not allow a Nominative dependent (a ‘clausemate grammatical subject’). For most infinitival control constructions in most languages I have investigated, the control rule can be stated as in (9). (9)
冤
⫹ xtns ⫺ fact m [⫺fint] n [PAT]
冥
冋nmndex [actr]册
xtns ⫽ ‘extension’ fact ⫽ ‘fact’
Except for the implicational ‘ ’, this is a purely lexical rule. It can be read as follows: if there is a word in a syntactic configuration which is lexically marked to require a verbal or other predicate complement [⫹xtns] and which requires that complement to be nonfinite [⫺fact, ? [⫺fint]], and if that non-finite complement is also present in the configuration and bears the index m [m [⫺fint], and if the first word (the regent) also interprets some dependent noun of index n as its Patient [n [PAT]], then the word indexed as m, the non-finite complement, must interpret its own dependent as an actor bearing the index n. The rule is stated in this way in order to apply regardless of the transitivity. Examples (10)⫺(13) illustrate its application. (Note that
for this rule to work, the ‘complementizer’ preposition to must be regarded as transparent to its application. This may be a generalizable property of all exocentric configurations, or may eventually require a revision in the notational system.) (10) Rudolph expects 1ndex ⫺trns ⫹xtns ⫺fact 4 [⫺fint] 1 [PAT] trns ⫽ ‘transitive’
to succeed. 4ndex ⫺trns 1 [actr]
(11) Rudolph expects 1ndex ⫺trns ⫹xtns ⫺fact 4 [⫺fint] 1 [PAT]
to get a deer. 4ndex ⫹trns 1 [actr]
冤 冥 冤 冥
冤
冥
冤
冥
(12) Rudolph ordered Klaus to return. 1ndex 3ndex ⫹trns 5ndex ⫹xtns ⫺trns ⫺fact 1 [actr] 5 [⫺fint] 3 [PAT]
冤 冥
(13) Rudolph ordered 1ndex
冤 冥 ⫹trns ⫹xtns ⫺fact 5 [⫺fint] 3 [PAT]
冤
冥
Klaus to shoot the deer. 3ndex 5ndex ⫺trns 1 [actr]
冤
冥
In all four examples, the implied actor of the infinitive is coreferential with its missing Nominative dependent, the ‘grammatical subject’, because English is an accusative language. In (10) and (11), the regent verb is intransitive, so the Patient is mapped onto the Nominative (the ‘grammatical subject’). In (12) and (13), the regent is transitive, so the Accusative NP is the Patient. However, the same lexical rule applies to interpret the Patient (the ‘direct object’ now) as the implied grammatical subject of the infinitive. There is no need for the rule features used in other frameworks to distinguish regent verbs into ‘subject control’ and ‘object control’ subtypes.
6.
Information structure and unbounded dependencies
Among the favorite candidates for transformational operations in syntax are constructions involving ‘unbounded dependen-
277
23. Dependency Grammar and Lexicalism
cies’, sentences in which a word which depends on another word appears arbitrarily far away from its regent, in a position in which there is no way to show the link as a local dependency. Such configurations may include topicalization, content questions, and relative clauses, depending on the language. Even for such constructions, however, an analysis is possible which is statable purely in terms of the implicational ‘ ’, logical OR and lexical valency features which are indexed only in terms of their immediate dependents. A sketch of a lexical analysis of English topicalization and content questions will serve to illustrate this approach. 6.1 Topicalization It is common for grammars to distinguish two syntactic positions for constituents, an unmarked one in which the constituent is locally licensed by a regent on which it depends and a sentence-initial position in which the constituent is not locally licensed. (14) and (15) for example are related in this way. (14) She tries to avoid her old boyfriends. (15) Her old boyfriends she tries to avoid. A constrained lexicalist dependency analysis can account for the syntactic relationship between these two constructions and the concomitant meaning differences between them by positing a sentence-initial adjunct position
she 1ndex
tries 2ndex V 1( N )<2 Nom ?( N )<2 them ?( N )<1( N ) them Nom 3( P ) +xtns ? ([them])
for a ‘theme’ topic which depends on the root verb (cf. Starosta 1998), plus two interpretive rules which require the theme’s index to be either associated with another constituent in the same lexical matrix or to be passed down to a theme position in the lexical matrix of an immediate dependent verb or ‘complementizer’ preposition. This is illustrated in 23.13 and 23.14. 23.13 and 23.14 contain the same lexical entries. The verb tries is the root verb in both sentences, and as such has a slot open for a theme adjunct ([? ([N, them])], not shown). In 23.13 this slot is not filled [? ([N, them])], so the linear precedence feature requiring the topic noun if any to precede the dependent nominative noun (‘subject’) if any [? ([N, them]) ⬍ 1 ([N, Nom])] applies vacuously. In 23.14 however, boyfriends is indexed as the theme of tries [3 ([N, them) ⬍ 5], and is required to precede the nominative dependent she [3 ([N, them]) ⬍ 4 ([N, Nom]]. In 23.13, the transitive verb avoid takes boyfriends as an accusative Patient dependent noun (‘direct object’; 4 ⬍ [N, Acc]). In 23.14 this accusative dependent noun is missing (7 ⬍ ? ([N, Acc])), but the [3 [them]] feature is passed down from regent to dependent until it finds the unindexed [? [PAT]] in the matrix of avoid and yields up its index there. The feature [3 [PAT]] is linked to [? [Acc]] via the feature [? [PAT, Acc]], and [3 [Acc]] then interprets the topic
to 3ndex +xtns ? ([them])
avoid 4ndex V 7 [PAT] 7 [Acc] 7 ( PAT ) Acc ? ([them]) 4<7( N ) Acc
Fig. 23.13: Untopicalized clause
boy friends 7ndex N her Det
old Adj
278
III. Dependenz. Grundlagen und Grundfragen
boy friends 3ndex N her Det
old Adj
she 4ndex
tries 5ndex V 4( N )<5 Nom
to 6ndex P +xtns 3 ([them])
3( N )<5 them 3( N )<4( N ) them Nom 6( P ) +xtns
avoid 7ndex V 3 [PAT] 3 [Acc] 3 ( PAT ) Acc
3 ([them]) 7( N ) Acc ? ([them])
Fig. 23.14: Topicalized clause
boyfriends as accusative, accounting for the fact that her old boyfriends could be replaced by them but not by they. The semantic difference between the two sentences is partly accounted for by analyzing her old boyfriends as the topic in 23.14 but as only the direct object of avoid in 23.13. A more complete analysis adds an additional ‘spotlight’ slot at the end of the clause to account for the fact that in English, new information appears in the ‘focus’ position, typically the final slot in the clause (cf. Starosta 1993). The rules needed to account for themepassing and theme-absorption are shown as 23.15 and 23.16. m ([V])
mndex n ([them])
m( P )<2 +xtns n ([them])
Fig. 23.15: Theme-passing
23.15 states that if a word has an indexed theme valency feature [n([them])] and a dependent verb or extension preposition (‘complementizer’) as its implied dependents, then the dependent’s theme feature has the same index as that of its regent. That is, the theme
mndex ? (CR]) n ([them])
mndex n (CR]) ? ([them])
CR = any case relation
Fig. 23.16: Theme-absorption
index is in effect passed on to its immediate dependent. 23.16 states that if an indexed theme valency feature occurs in a matrix with an unindexed case relation valency feature [? [CR]], the theme’s index is passed on to the case relation valency feature. [? [them]] is referred to as a ‘register’ in natural language processing. It serves as a repository for elements which must eventually be used elsewhere in a structure being parsed. 23.15 accounts for the copying of the index locally, from a regent to its immediate dependent, and 23.16 transfers the index to another feature in the same matrix, emptying the ‘register’ and preventing the further application of 23.15. Any structure with an unconsumed theme feature is ill-formed. This non-movement analysis has the desirable property of accounting for the syntactic and semantic properties of unbounded dependency constructions lexically in terms of binary strictly local dependency relations coded on individual lexical items, without the
279
23. Dependency Grammar and Lexicalism
Whom 1ndex N Acc
did 2ndex V +ntrg 2<3(N ) Nom
you 3ndex N
1( N )<2 them 1(P ) < 3 (N ) them Nom
ask 4ndex V 1 ([them])
Sarah 5ndex
to 6ndex P +xtns 1 ([them])
? ([them])
invite 7ndex 1 [Acc] 1 ( PAT ) Acc 1 [PAT] 7(N ) Acc ? ([them])
Fig. 23.17: ‘Direct object’ question
necessity of positing a powerful Chomskyan ‘deep structure’ and unconstrained movement rules. 6.2. ‘WH-movement’ Essentially the same mechanism employed to account for topicalization may be used in the analysis of other related kinds of unbounded dependency structure, such as wh-questions and relative clauses, and a combination of the mechanisms illustrated in 23.12 and 23.14 can be used to provide a straightforward account of German verb-second phenomena, for example. As an example of the former pattern, consider example (16). (16) Whom did you ask Sarah to invite?
7.
Grammatical structure and lexical derivation
It can be shown that the relationship among structures such as those illustrated in examples (17)⫺(21) is a lexical one. (17) Bob drinks a glass of absinthe every afternoon. (18) ?Bob drinks a glass of absinthe heavily. (19) Bob drinks.
(20) Bob drinks heavily. (21) Bob is a heavy drinker. A lexical item is characterized by its pronunciation and its meaning (the Saussurean sign), but also by its distribution. Thus the drinks that appears in (17) and (18) differs in both meaning and distribution from the drinks that appears in (19) and (20), and must be given two separate lexical entries. We may for convenience refer to these two words as drinkst and drinksi respectively, where t and i suggest ‘transitive’ and ‘intransitive’. Less controversially, drinker in (21) differs in form, meaning, and distribution from both drinkst and drinksi, and also requires its own distinct lexical entry. While the words require their own separate lexical entries, speakers recognize some regular relations among them and it is one of the tasks of a grammar of English to account for them. Unsurprisingly, this is a task that can, and must, be carried out wholly in the lexicon. From the point of view of the framework used in this paper, the fact that needs to be accounted for is that a number of pairs of words can be found whose phonological shapes, meanings, and syntactic distributions correspond in regular ways. Some examples are shown as (22), (23) and (24).
280
III. Dependenz. Grundlagen und Grundfragen
(22) Transitive and intransitive verb pairs drink : drink paint : paint hunt : hunt ⫺ : dine devour : ⫺ (23) Intransitive verb and agentive noun pairs drink : drinker paint : painter hunt : hunter work : worker dine : diner sink : sinker lie : liar ⫺ : lawyer awake : ⫺ (24) Transitive verb and agentive noun pairs edit : editor destroy : destroyer mix : mixer terminate : terminator decorate : decorator regulate : regulator ⫺ : butcher resemble : ⫺ For each such set, we can construct an analogical formula (a ‘derivation rule’) indicating how the pairs are related. These formulae have the form of 23.18, where Fsyn indicates the syntactic features common to the forms in the left column, Fsem indicates the semantic features common to the forms in the left column, Fsyn’ indicates the syntactic features common to the forms in the right column, and Fsem’ the semantic features common to the forms in the right column. [X] indicates the aspects of phonological shape characteristic of all the forms in the left column, and [X’] the shape properties characteristic of the forms in the right column. Fsyn Fsem [X]
:
Fsyn’ Fsem’ [X’]
Fig. 23.18: Derivational rule
This rule matches the lexical matrices of pairs of transitive and intransitive verbs; it states that whatever selectional restrictions are placed on the Agent of a transitive verb are also assigned to the Patient (the sole required argument) of the corresponding intransitive
V +trns m AGT F
:
V – trns m PAT F
trns = ‘transitive’ F = semantic features
Fig. 23.19: Transitive-intransitive derivation rule
verb. The two verbs are homophonous, so no correspondence in shape needs to be specified. This rule is a purely lexical rule, stating a fact about pairs of words, but it is also a syntactic rule. Thus given a pair of sentences such as (25) and (26), the rule states that the subject of (25) corresponds to the subject of (26). (25) My dog hunts pheasants. 1ndex 2ndex V 4ndex AGT ⫹trns PAT actr 2 AGT ⫹anmt anmt ⫽ ‘animate’
冤 冥冤
冥
冋
册
(26) My dog hunts well. 1ndex 2ndex V 4ndex PAT ⫺trns actr 2 AGT ⫹anmt
冤 冥冤
冥
The rule 23.19 thus accounts for the same facts as an ‘object deletion’ transformation. The important difference between the two approaches though is that 23.19 treats the relation between the two verbs as lexical derivation, and lexical derivation is of course typically non-productive. A lexical derivation rule states a general analogical relation between two sets of words, but allows for arbitrary lexical gaps on both sides (e. g. devour[⫹trns] vs. dine[⫺trns]) and unpredictable semantic shifts (transitive drink vs. intransitive drink), which according to a transformational analysis should be impossible. Other derivational processes can be accounted for in the same way, e. g. agentive nominalization of intransitive verbs. This rule states that corresponding to a verb ending in -s, there may be a corresponding agentive noun ending in -rP. Whatever selectional requirements the verb imposes on an adjunct (optional) dependent adverb [m ([Adv, Fa]] will be imposed by the corresponding noun on its adjunct adjective
281
23. Dependency Grammar and Lexicalism rule V –trns m ( Adv ) F s]
:
semantic correspondences and the gaps in either column, but it is handled comfortably by a purely lexical rule.
N +agnt m ( Adv ) F
:
8.
rP]
agnt = ‘agentive’
Fig. 23.20: Intransitive verb ⫺ agentive nominalization derivation rule
[m ([Adj, Fa]]. Rule 23.20 then accounts for the syntactic and semantic relations between sentence pairs such as (27) and (28). (27) My dog hunts well. V 4ndex ⫺trns Adv 4 ( Adv ) ⫹mnnr ⫹mnnr ⫹bona mnnr ⫽ ‘manner’ bona ⫽ ‘good’
冤
冥冤 冥
(28) My dog is a good 5ndex Adj ⫹bona
冤
agnt ⫽ ‘agentive’ prdc ⫽ ‘predicate’ mnnr ⫽ ‘manner’
冥
hunter. N ⫹agnt ⫹prdc 5 ( Adj ) ⫹mnnr
冤
冥
Derivation rule 23.20 accounts for the syntactic, semantic and morphological relations between pairs of sentences like (27) and (28) by accounting for the relations between the words hunts and hunter, the respective grammatical heads of the two sentences. For example, the feature [5 ([Adj, ⫹mnnr])] in the representation of (28) accounts for the fact that an adjective modifying an agentive noun is interpreted as describing the manner of the depicted action, even when there is no corresponding verb, as for example in the case of good lawyer or good butcher. It is not clear how a purely syntactic operation could account for all the phonological, syntactic, and
Conclusion
This article has presented evidence for a dependency grammar version of the lexicalist hypothesis, the claim that grammatical information resides in words, and has shown how various grammatical generalizations can be stated as lexical rules. If generally true, this claim has both theoretical and practical implications. Limiting grammatical information to inherent and local valency features of a constrained dependency grammar imposes a radical constraint on the power of a grammatical framework. If all grammatical information can be accounted for in this way, then more powerful and abstract approaches, dependency or otherwise, descriptive, theoretical or typological, should be replaced by comparably constrained approaches. Finally, if linguistic information is lexical information, then language learning is word learning and language processing is word processing. Implications for psycholinguistics, language pedagogy, and natural language processing should be obvious.
9.
Select Bibliography
Radford, Andrew (1997): Syntactic theory and the structure of English: a minimalist approach. Cambridge textbooks in linguistics. Cambridge, England. Starosta, Stanley (1988): The case for lexicase: an outline of lexicase grammatical theory. London. Starosta, Stanley (1993): Word order and focus in constrained dependency grammar. In: Eva Hajicˇova´ (ed.) (1993): Proceedings of the conference: Functional description of language. Prague, 237⫺ 252. Starosta, Stanley (1998): Comments on Petr Sgall’s ‘On the usefulness of movement rules’. In: Bernard Caron (ed.): Actes du 16e` Congre`s International des Linguistes (Paris 20⫺25 juillet 1997). Oxford. Starosta, Stanley (2003): Lexicase grammar. This volume, article number 41.
Stanley Starosta †, Honolulu, Hawaii (USA)
282
III. Dependenz. Grundlagen und Grundfragen
24. Rektion und Kongruenz in der Dependenzgrammatik 1. 2. 3. 4. 5.
1.
Drei unterschiedliche Dependenzrelationen Rektion und Kongruenz als morphosyntaktische Signale der Dependenzrelation Rektion Kongruenz Literatur in Auswahl
Drei unterschiedliche Dependenzrelationen
Alle im Satz vorkommenden sprachlichen Elemente stehen in syntaktischen oder semantischen Beziehungen zu anderen sprachlichen Elementen. Wir haben solche syntaktischen Relationen zwischen zwei sprachlichen Elementen in zwei grundsätzlich verschiedene Typen unterteilt: Relationen der Dependenz und solche der Junktion. Bei der Dependenzrelation handelt es sich um Abhängigkeit als syntaktische Beziehung zwischen zwei Ausdrücken. Innerhalb der Dependenzrelation gibt es grundsätzlich drei unterschiedliche Dependenzverhältnisse: Zugehörigkeitsrelation, Rektionsrelation und Determinationsrelation. Die Zugehörigkeitsrelation zeigt als die Relation zwischen der Kategorie „S“ und dem in ihr eingebetteten Verb nur eine strukturelle Zugehörigkeit zwischen beiden, weil beide gegenseitig keine Leerstelle eröffnen. Die Rektionsrelation und Determinationsrelation sind aufgrund der Richtung der von dem relationalen Ausdruck eröffneten Leerstelle zu unterscheiden. Die Rektion verhält sich syntaktisch ganz anders als die Determination. Der wesentliche Unterschied zwischen Rektion und Determination besteht darin, dass in der Rektion regierende Elemente (Köpfe) Leerstellen für abhängige Elemente eröffnen, während in der Determination abhängige Elemente Leerstellen für regierende Elemente eröffnen. In der Rektion ist die Leerstellenbesetzung durch abhängige Elemente fakultativ, aber in der Determination ist die Leerstellenbesetzung durch regierende Elemente obligatorisch. So ist hier erkennbar, dass das Auftreten der Köpfe in der Dependenzrelation immer obligatorisch ist.
2.
Rektion und Kongruenz als morphosyntaktische Signale der Dependenzrelation
In der Dependenzgrammatik entsteht ein Satz gemäß der jeweiligen Dependenzrelation aus
mehreren sprachlichen Elementen, wobei ein Verb obligatorisch ist und im Zentrum des Satzes steht. Diese Dependenzrelation zwischen den Elementen wird aus der Tiefenstruktur abgeleitet, die auf der logisch-semantischen Valenz der valenztragenden Elemente basiert. Dementsprechend wird, syntaktisch gesehen, die Dependenzrelation in der Oberflächenstruktur des Satzes nicht immer realisiert, da sie eine abstrakte Relation ist. Aber in kasusflektierenden Sprachen wie im Deutschen ist die Dependenzrelation einigermaßen gut in der Oberflächenstruktur des Satzes zu fassen. Mit Ausnahme von isolierenden Sprachen (Chinesisch, Thailändisch usw.) haben alle natürlichen Sprachen eine mehr oder weniger morphologische Kennzeichnung der grammatischen Relation. Die morphologische Kennzeichnung wird nach der Sprachtypologie entweder in Form von Flexionsmorphemen (wie im Deutschen) oder in Form von Partikeln (wie im Koreanischen oder Japanischen) in den Sprachen realisiert. Die morphologische Kennzeichnung ergibt sich eigentlich aus der Verbindung zwischen Wörtern bzw. Konstituenten: (1)
a. das Buch meines Vaters b. my father’s book
Es ist offensichtlich, dass die morphologische Kennzeichnung die syntaktischen Relationen gar nicht beeinflusst, sondern vielmehr von den syntaktischen Relationen beeinflusst wird. Damit kann man feststellen, dass die Flexionsmorpheme Produkte der syntaktischen Relationen sind und bestimmte (semantisch)-syntaktische Funktionen tragen. Die morphologischen Kennzeichnungen werden im Satz entweder als Kasusaffix durch die Rektion im traditionellen Sinne oder als Kongruenzaffix repräsentiert. Nach Nichols (1986, 56 f.) können syntaktische Relationen morphologisch entweder auf dem Kopf einer Konstituente oder auf dem Dependens markiert werden: (2)
M H a. English: the man’s House H M b. Hungarian: az ember ha´za the man house-3sg. (M ⫽ modifier, H ⫽ head)
24. Rektion und Kongruenz in der Dependenzgrammatik
Obwohl beide possessive Konstruktionen in (2) in der gleichen syntaktischen Relation stehen, wird die possessive Konstruktion in (2a) durch den Genitiv auf dem Dependensnomen man markiert, während sie in (2b) von einem pronominalen Suffix auf dem Kopf ha´z markiert wird. Aus dieser Tatsache kann man folgern, dass die morphologische Kennzeichnung das Vorhandensein der syntaktischen Dependenzrelation signalisiert. Morphologische Kennzeichnungen ergeben sich in der Tat aus den syntaktischen Dependenzrelationen und werden als ein die Dependenzrelation bezeichnendes Mittel der flektierenden Sprachen im Satz einerseits in Form von Rektion im traditionellen Sinne, andererseits in Form von Kongruenz realisiert. Außer der oben erwähnten Rektion und Kongruenz gibt es noch weitere sprachliche Mittel, die die Dependenzrelation bezeichnen: Wortstellung und Intonation. Darauf werde ich hier nicht näher eingehen.
3.
Rektion
In flektierenden Sprachen wie im Deutschen gibt es zwei morphosyntaktische Merkmale: Rektion und Kongruenz. Der Gebrauch des Wortes Rektion und seine Definition sind jedoch je nach den Linguisten und sogar nach den Grammatiktypen sehr unterschiedlich. Unter Rektion versteht man in traditioneller Weise „die Tatsache, dass bei bestimmten Wörtern festgelegt ist, in welchen Kasus (grammatischen Fall) ein von ihnen abhängendes Wort gesetzt werden muss“ (Duden 1973, 194). Nach der obigen Definition der Rektion beteiligen sich nur kasuszuweisende Wortarten ⫺ nämlich Verben, Adjektive, Präpositionen, Nomina ⫺ an der Rektion. Aber bei Engel (1982, 109) wird der Rektionsbegriff „als Eigenschaft von Wörtern, andere Wörter zu regieren“, über die oben genannten vier Wortarten hinaus auf alle Wortarten erweitert. In der Konstruktion der Mann regiert also das Nomen Mann den Artikel der. Zunächst definiere ich Rektion wie folgt: (3)
Es liegt Rektion vor, wenn ein regierendes Element (Kopf) A morphosyntaktisch eine Leerstelle für ein abhängiges Element (Dependens) B eröffnet.
Diese Rektionsdefinition in (3) ist etwas anders als die in der GB-Theorie. In der GBTheorie betrifft die Rektion einerseits das
283
Phänomen der Kasuszuweisung, andererseits die Festlegung der bindungsrelevanten Domäne. Im Zusammenhang mit der Rektionsdefinition in (3) sind zwei Gruppen innerhalb der Rektionsrelationen zu unterscheiden: Kasusrektion und Statusrektion. 3.1. Kasusrektion Wenn man die Natur des traditionellen Rektionsverhältnisses in vielen Sprachen genau betrachtet, kann man leicht sehen, dass es zwei grundverschiedene Weisen des Ausdrucks von Rektionsverhältnissen gibt, die ganz verschiedene Konsequenzen für den Satzbau haben (vgl. Lehmann 1983, 344 f.): Die eine wird durch ein personales Kongruenzaffix am Regens ausgedrückt. In zahlreichen Sprachen hat z. B. das finite Verb tatsächlich eine Personalendung, die auf das Subjekt im Nominativ verweist: z. B. Er Rektion findet … Die andere wird durch Kasusaffixe an Dependentien ausgedrückt. Dies ist im Deutschen nachweisbar: z. B. auf Rektion der Bank auf Rektion die Bank In der ersten ist das Rektionsaffix (Kongruenzaffix) im finiten Verb ein Regens (Kopf), da dieses Kongruenzaffix immer das Substantiv im Nominativ (Subjekt) erfordert. Das Kongruenzaffix am Verb, das in der generativen Literatur als INFL(ection) bezeichnet wird, eröffnet somit eine Leerstelle, in die das Substantiv im Nominativ eintreten kann. Darauf werde ich im Abschnitt 4.1.1 näher eingehen. In der letzteren ist das Rektionsaffix (Kasusaffix) ein Dependens, da diese Kasusaffixe stets von kasuszuweisenden Wörtern erfordert werden. Dies bedeutet, dass kasuszuweisende Wörter immer eine Leerstelle für bestimmte Kasusaffixe eröffnen. Dementsprechend können wir zunächst feststellen, dass die Rektion gegenüber der Kongruenz nicht als eine Relation zwischen den Wörtern, die sich an einem morphosyntaktischen Merkmal beteiligen, sondern als eine Relation zwischen einem morphosyntaktischen Merkmal (Kasus) und einem Wort von spezifischen lexikalischen Wortklassen, oder zwei verschiedenen morphosyntaktischen Merkmalen aufgefasst werden kann. Im Deutschen sind kasuszuweisende Wortarten Verben, Adjektive, Präpositionen und Nomina.
284
III. Dependenz. Grundlagen und Grundfragen
3.1.1. Kasusrektionen der Verben Die von der Rektion des Verbs geforderten Kasus heißen casus obliqui (⫽abhängige Kasus), die Akkusativ, Dativ und Genitiv umfassen. Im allgemeinen eröffnen die Verben eine Leerstelle für einen bestimmten Kasus. Aber manche Verben können auch Leerstellen für zwei verschiedene Kasus nebeneinander eröffnen, andere eröffnen eine Leerstelle alternativ für zwei verschiedene Kasus. Im folgenden werden einige Verben aufgelistet danach, welche Kasus sie regieren: (a)
(b)
(c)
(d)
(e)
(f)
(g)
Verben, die den Akkusativ regieren: „lieben“, „messen“, „beschreiben“, „essen“, „zeichnen“, „achten“ usw. Maria liebt ihn. Er misst die Geschwindigkeit. Verben, die den Dativ regieren: „helfen“, „danken“ usw. Sie hilft ihm. Der Schüler dankt dem Lehrer. Verben, die den Genitiv regieren: „bedürfen“, „spotten“ usw. Sie spotten seiner. Ich bedarf eines Buches. Verben, die den Nominativ (im Prädikat) regieren: „sein“, „werden“ usw. Er ist ein Student. Er wurde Präsident. Verben, die einen doppelten Akkusativ regieren: „lehren“, „nennen“, „fragen“, „schimpfen“ usw. Er lehrt mich die Grammatik. Sie nennt ihn ihren Bruder. Verben, die Akkusativ und Dativ regieren: „setzen“, „erklären“, „mitteilen“, „sagen“ usw. Er setzt mir ein Ziel. Sie sagt mir die Meinung. Verben, die Akkusativ und Genitiv regieren: „anklagen“, „beschuldigen“, „verdächtigen“ usw. Sie verdächtigt ihn des Dopings. Sie beschuldigt ihn des Verrats. Sie klagt ihn des Betruges an.
3.1.2. Kasusrektionen der Adjektive Einige Adjektive eröffnen eine Leerstelle für einen bestimmten Kasus. Die von den Adjektiven geforderten Kasus sind Akkusativ, Dativ und Genitiv. Die kasuszuweisenden Adjektive sind meistens vom Verb „sein“ bzw. „werden“ abhängig. Die von Adjektiven geforderten Kasus müssen immer den Adjektiven voranstehen, sonst wird der Satz ungrammatisch: (4)
Er ist seinem Vater ähnlich. *Er ist ähnlich seinem Vater.
(a) (b)
(c)
Adjektive, die den Akkusativ regieren: „wert“, „leid“ usw. Dieses Buch ist das Lesen wert. Adjektive, die den Dativ regieren: „gerecht“, „böse“ usw. Er wird mir gerecht. Er ist mir böse. Adjektive, die den Genitiv regieren: „ledig“, „müde“ usw. Er ist aller Sorgen ledig. Er ist des Wartens müde.
3.1.3. Kasusrektionen der Präpositionen Die Präpositionen eröffnen eine Leerstelle meistens für einen bestimmten Kasus. Die Mehrzahl der Präpositionen fordert nur einen bestimmten Kasus. In die Leerstelle, die Präpositionen eröffnen, können Akkusativ, Dativ und Genitiv eintreten: (a)
(b)
(c)
Präpositionen, die den Akkusativ regieren: „für“, „gegen“, „ohne“, „um“, „durch“, „bis“, „wider“ usw. Er arbeitet für uns. Das fährt um die Ecke. Präpositionen, die den Dativ regieren: „aus“, „mit“ usw. Wasser springt aus der Erde. Er schreibt die Hausarbeit mit der Schreibmaschine. Präpositionen, die den Genitiv regieren: „um … willen“, „außerhalb“, „infolge“, „ungeachtet“, „inmitten“ usw. außerhalb der Arbeitszeit. infolge eines Unfalls.
Aber einige Präpositionen sind in der Lage, zwei Kasus mit deutlichem Bedeutungsunterschied zu fordern, der eigentlich auf den solche Präpositionen fordernden Wortarten ⫺ nämlich, Verben, Adjektiven und Nomina ⫺ beruht: Er geht in die Schule. (Akkusativ) Sein Vermögen besteht in Grundstücken. (Dativ) 3.1.4. Kasusrektionen der Substantive Die meisten Substantive sind absolut. Das heißt, dass sie keine Leerstelle für andere Elemente eröffnen. Aber in einigen Fällen können bestimmte Substantive auch relational sein und damit eine Leerstelle für Kasus ⫺ genauer gesagt, nur für den Genitiv ⫺ eröffnen. Diese relationalen Substantive heißen in der Literatur „inalienable Substantive“ (Lehmann 1983, 361). Innerhalb der inalienablen Substantive sind drei Typen zu unterscheiden:
285
24. Rektion und Kongruenz in der Dependenzgrammatik
(a)
Die Substantive, die als Attribut den Genitivus subjectivus haben; dabei bezeichnen die Substantive ein (meist willkürlich bewirktes) Geschehen oder dessen Resultat (Engel 1988, 610 f.; 618 f). Engel sieht den Genitivus subjectivus als eine fakultative Nomenergänzung an: Frau Müllers Antrag J Frau Müller hat etwas beantragt. Meiers Bericht J Meier hat über etwas berichtet. das Verhalten meines Vaters J Mein Vater verhält sich (in bestimmter Weise). die Beschwerde meines Nachbarn J Mein Nachbar hat sich über etwas beschwert.
Wie die obigen Beispiele zeigen, steht der Genitivus subjectivus in der Regel vor oder hinter dem inalienablen Substantiv und lässt sich auf das Subjekt eines Verbalsatzes zurückführen. (b)
Die durch Nominalisierung transitiver Verben entstandenen, abstrakten Substantive. Diese Substantive bezeichnen ein (willentlich bewirktes) Geschehen oder dessen Ergebnis oder Ausdrucksform (Engel 1988, 611; 619 ff.). Engel nennt das mit diesen Substantiven verbundene Attribut Genitivus objectivus: Beschreibung eines Kampfes J Jemand beschreibt einen Kampf. Zerstörung einer Stadt J Jemand hat eine Stadt zerstört Lösung eines Problems J Jemand löst ein Problem.
Dieser Genitivus objectivus lässt sich in der Regel auf das Akkusativobjekt eines Verbalsatzes zurückführen. (c)
Die Substantive, die als Attribut einen Genitivus explicativus haben. Diese Substantive bleiben auf bestimmte Substantive beschränkt, die Nicht-Gegenständliches bezeichnen: die Möglichkeit des Friedens die Frage des rechten Verständnisses die Gefahr des Kriegs
In vielen Fällen kommutiert der Genitivus explicativus mit dass-Sätzen, indirekten Interrogativsätzen und Infinitivsätzen (Engel 1988, 621): Die Möglichkeit eines Abschlusses J die Möglichkeit, zu einem Abschluss zu kommen.
J die Möglichkeit, dass sie zu einem Abschluss kommen. Die Frage des rechten Verständnisses J die Frage, ob das jemand richtig versteht. J die Frage, wer das überhaupt versteht. Die drei Typen der oben erwähnten inalienablen Substantive eröffnen ebenso wie Verben, Adjektive oder Präpositionen eine Leerstelle für den Genitiv und regieren daher den Genitiv. Aber wir stoßen auf Schwierigkeiten in Bezug auf die Substantive, die als Attribut einen Genitivus possessivus haben. Die Frage, ob der Genitivus possessivus unter die Rektion des Substantivs oder unter die Determination fällt, hat Jung (1995a, 106 f.) ausgeführt. 3.2. Statusrektion Die Definiton in (3) deutet an, dass die Rektion nicht nur auf die Relation zwischen einem Wort und einem morphosyntaktischen Merkmal oder zwei verschiedenen morphosyntaktischen Merkmalen beschränkt bleibt, sondern auch im Prinzip zwischen den zwei Elementen bestehen kann. In einem Satz wie Die Arbeit bekam ihm schlecht eröffnet das Verb bekommen eine Leerstelle nicht nur für den Kasus (den Dativ) ihm, sondern auch für die nicht-kasustragenden Elemente, wie das Adjektiv schlecht, wobei das Verb bekommen sowohl syntaktisch als auch semantisch der Kopf ist. Die Rektion zwischen bekommen und schlecht will ich in Anlehnung an Bech (1983, 12) Statusrektion gegenüber der Kasusrektion nennen. Somit besteht die Statusrektion gegenüber der Kasusrektion zwischen zwei Elementen. Bech hat in seinem Buch "Studien über das deutsche Verbum infinitum" zum ersten Mal die Terminologie Statusrektion gebraucht. Sein Ausgangspunkt ist, dass „sich die infinitiven Formen in ein zweidimensionales System einordnen lassen, in dem man in der einen Dimension zwischen zwei Stufen: der 1. und der 2. Stufe, in der anderen Dimension zwischen drei Status: dem 1., dem 2. und 3. Status zu unterscheiden hat“ (Bech 1983, 12):
1. Status 2. Status 3. Status
1. Stufe
2. Stufe
lieben zu lieben geliebt
liebend (-er) zu lieben (d -er) geliebt (-er)
Nach Bech kann ein bestimmter Status von irgendeinem benachbarten Element, z. B. von
286
III. Dependenz. Grundlagen und Grundfragen
einem Verbum, regiert sein. Normalerweise regieren Modalverben wie „wollen“, „können“ usw. den 1. Status, während die Verben wie „wünschen“, „brauchen“ usw. den 2. Status regieren, und die Verben wie „sein“, „haben“ usw. nur den 3. Status regieren. Es kann nur heißen Er kann kommen oder Er braucht nur zu kommen, aber nie *Er kann zu kommen oder *Er braucht kommen. Dieses Phänomen zeigt also, dass die Statusrektion die gleiche Natur wie die Kasusrektion hat: (5) Er hilft dem Freund Er unterstützt den Freund. *Er hilft den Freund *Er unterstützt dem Freund In diesem Sinne ist die Statusrektion wie die Kasusrektion homonexuell, da die Status nichts anderes als Morpheme sind. Aber die Statusrektion bei Bech ist gegenüber der Kasusrektion rekursiv. Mit anderen Worten, es können ganze Ketten von Verben gebildet werden, die untereinander durch Statusrektionen verknüpft sind. Innerhalb solcher Ketten besteht eine bestimmte Rangfolge, die durch die Status und Statusrektionen der in der Kette enthaltenen Verben gegeben ist. Dies zeigt sich im folgenden Beispielsatz: (6)
Er soll gebeten haben, sitzen bleiben zu dürfen.
Der obige Beispielsatz hat sechs Verben: soll, gebeten, haben, sitzen, bleiben und zu dürfen. Wie nun diese sechs Verben miteinander verbunden sind, geht daraus hervor, dass sie verschiedene Status regieren: „soll“ regiert zuerst den 1. Status (haben), „haben“ regiert wiederum den 3. Status (gebeten), „gebeten“ regiert den 2. Status (zu dürfen), „(zu)-dürfen“ regiert den 1. Status (bleiben), und „bleiben“ letztlich den 1. Status (sitzen): (7) soll | haben | gebeten | zu dürfen | bleiben | sitzen So bestehen rektionelle Abhängigkeiten innerhalb der verbalen Ketten. Wie oben angedeutet, wird die Statusrektion in dieser Arbeit anders als bei Bech verstanden. Die hier an-
geführte Statusrektion wird auf die Relation zwischen zwei Elementen erweitert, die die Rektionsdefinition in (3) befriedigen, während bei Bech die Statusrektion nur zwischen einem infinitiven Verb und einem benachbarten Verb besteht. Im folgenden gebe ich eine rein formale syntaktische Klassifikation der Statusrektionen. 3.2.1. Statusrektionen der Auxiliarverben Die Verwendung des Terminus Auxiliarverben ist in der Literatur unterschiedlich. Engel (1988, 391) fasst nur die perfekt- bzw. passivbildenden Nebenverben (haben, sein, werden und wenige andere) als Auxiliarverben auf. Aber von manchen Linguisten (z. B. Ross (1969), Jackendoff (1981) und anderen) werden die Auxiliarverben ungefähr in dem Sinn gebraucht, der den Hilfsverben im weiten Sinn entspricht, zu denen im allgemeinen temporale Hilfsverben „haben/sein“, passivische Verben wie „werden“ oder „sein“, das futurische Verb „werden“ und auch Modalverben gehören. Es stellt sich nun die Frage, worin der Unterschied zwischen Hilfs- und Vollverben genau besteht. Die Unterscheidung zwischen Hilfs- und Vollverben scheint auf den ersten Blick problemlos. Das Vollverb kann im Satz für sich allein stehen und trägt wesentlich zur Satzbedeutung bei, während Hilfsverben im engeren Sinn (z. B. temporale Hilfsverben und passivische Hilfsverben) im Satz nicht für sich allein stehen können und nur eine relativ begrenzte semantische Rolle spielen: Er hat ihn geschlagen J Er schlug ihn J *Er hat ihn Aber es ist dennoch nicht leicht, bestimmte unterschiedliche Eigenschaften von Hilfsund Vollverben zu beschreiben, weil „Hilfsverben viele gemeinsame Eigenschaften mit Vollverben teilen, und der Hilfsverbbegriff von Sprache zu Sprache verschieden ist“ (Lenerz 1983, 138). Daher ist die Abgrenzung zwischen Hilfs- und Vollverben unklar. Mein Terminus Auxiliarverben deckt sich zum größten Teil mit Engelens Terminus Gefügeverben. Zunächst betrachten wir Engelens fünf Kriterien (Engelen 1975, 72), die die folgenden einschlägigen unterschiedlichen Eigenschaften zwischen Gefügeverben und anderen Verben mit infiniten Ergänzungen verdeutlichen:
287
24. Rektion und Kongruenz in der Dependenzgrammatik
Bei den Gefügeverben ist eine Erweiterung um ein expletives „es“ unmöglich. Gegenbeispiel: Ich hasse es, so behandelt zu werden. (ii) Eine Erweiterung um ein Präpositionaladverb ist nicht möglich. Gegenbeispiel: Er hofft (darauf), sie wiederzusehen. (iii) Eine Erweiterung des Gefügeverbs (nicht der Infinitivgruppe!) um ein konstitutives Satzglied ist nicht möglich. Gegenbeispiel: Niemand half (uns), das Holz hereinzutragen. (iv) Gefügeverben können nicht in demselben Sinn nominalisiert werden wie ein Teil der Vollverben. So kann z. B. der Satz: Er erklärte, oft in dieser Gegend spazieren zu gehen in folgende Nominalgruppe transformiert werden: Seine Erklärung, oft in dieser Gegend spazieren zu gehen. Bei dem Satz Er pflegte oft in dieser Gegend spazieren zu gehen jedoch ist das nicht möglich. (v) Gefügeverben können kein Passiv bilden.
(iv) andere Verben wie „lassen“, „gehen“, „kommen“ usw. Ich lasse ihn grüßen. Ich gehe schwimmen.
(i)
Die von Engelen vorgeschlagenen fünf Kriterien machen den Unterschied zwischen Auxiliarverben (⫽ Gefügeverben) und sogenannten Vollverben deutlich. Nach den obigen fünf Kriterien werden folgende Verben zu den Auxiliarverben gerechnet: traditionelle Modalverben, futurisches Verb, sog. Wahrnehmungsverben, perfektbildende Verben, passivbildende Verben und einige andere Verben wie pflegen, gehen, vermögen, scheinen, lassen, kommen, gehen usw. Die oben gegebenen Auxiliarverben eröffnen jeweils eine Leerstelle für eine bestimmte Infinitmorphologie der benachbarten Verbform (zu-Infinitiv, Null-Infinitiv, Partizip). Dabei fungieren alle Auxiliarverben nach der Kopfbestimmung syntaktisch als Köpfe der Konstruktion „AUX ⫹ VP“. Es ergeben sich also folgende Statusrektionen der Auxiliarverben: (a)
Die Auxiliarverben, die den Null-Infinitiv regieren: (i) die traditionellen Modalverben: „können“, „müssen“, usw. Ich kann es schaffen. (ii) futurisches Verb: „werden“ Ich werde es schaffen. (iii) sogenannte Wahrnehmungsverben: „sehen“, „hören“ Ich höre ihn kommen.
(b)
Die Auxiliarverben, die den zu-Infinitiv regieren: (i) passivbildende Verben: „sein“, „bleiben“, „stehen“ usw. Die Vorschriften sind zu befolgen. Ein Unglück steht zu befürchten. (ii) andere Verben wie „vermögen“, „pflegen“, „scheinen“ usw. Ich pflege meine Meinung zu sagen. Sie scheint ihn zu besuchen.
(c)
Die Auxiliarverben, die das Partizip regieren: (i) perfektbildende Verben: „haben“, „sein" Gott hat die Welt geschaffen. Ein Blitz ist aus den Wolken gefahren. (ii) passivbildende Verben: „werden“, „sein“, „bleiben“, „gehören“, „bekommen“, „kriegen“ usw. Das Buch wird ihm geschenkt. Die Tür ist geöffnet. Das Tor bleibt verschlossen. Er bekommt das Buch geschenkt.
3.2.2. Statusrektionen der COMP Zunächst betrachten wir folgende Sätze: (8)
a. b. c. d. e. f.
Und ich habe das Buch gelesen. Aber ich habe das Buch gelesen. …, weil ich das Buch gelesen habe. …, als ich das Buch gelesen habe. …, um das Buch zu lesen. …, ohne das Buch zu lesen.
Alle Sätze in (8) werden durch Konjunktionen eingeleitet, die ich hier complementizer (abgekürzt: COMP) bezeichne (vgl. Fanselow/Felix 1987, 140 ff.; Radford 1981, 232 ff.). Im Englischen werden Konjunktionen und Relativpronomina zu COMP gerechnet. Aber ich sehe hier Relativpronomina als COMP nicht an, weil Relativpronomina ein Teil des Satzes sind und vom Verb regiert werden. Dementsprechend entspricht der Begriff der COMP im Deutschen dem der Satzkonjunktionen (mit Ausnahme der Konjunktion „dass“). Nach meiner Auffassung ist die Konjunktion „dass“ nichts anderes als der Artikel (vgl. Jung 1995b, 100 ff.). In allen europäischen Sprachen erscheinen COMPs meistens am Satzanfang und können niemals für sich allein stehen, sondern for-
288
III. Dependenz. Grundlagen und Grundfragen
dern stets ein Element. Dies bedeutet, dass COMP nicht absolut, sondern relational ist. Dann stellt sich die Frage, mit welchem Element sich COMP verbindet. Nach den bisherigen Untersuchungen in generativen Grammatiken ist COMP keine Konstituente vom Satz (S), sondern wird vielmehr zusammen mit S von einer gemeinsamen Kategorie dominiert (Fanselow/Felix 1987, 34): S’ J COMP S Dies zeigt offensichtlich, dass COMPs nicht vom Verb als Zentrum des Satzes regiert werden, obwohl sie in obigen Beispielsätzen in (8) als ein lexikalisches Element erscheinen. Mit anderen Worten ist COMP „nicht Teil seines Satzes, sondern regiert vielmehr seinen Satz“ (Eroms 1985, 310). Dementsprechend müssen wir notwendigerweise eine syntaktische Kategorie „S“ in die Dependenzgrammatik aufnehmen. Diese Erweiterung, die gegen die herkömmlichen Dependenzgrammatiken vorzunehmen ist, wurde von einigen Dependenzgrammatikern versucht (vgl. Eroms 1985, 309 f.; 1986, 81; Kunze 1975, 16). Als Begründung für die Aufnahme von „S“ führt vor allem Eroms (1985, 309) zweierlei an: (i)
(ii)
Die in den Verben komprimierten virtuellen Urteilsmuster werden im Satz aktualisiert. D. h. hier werden sie realisiert, auch in dem Sinne, dass sie dort eingebracht werden. Es wird nicht schlechthin S, sondern genauer „.“, „!“, „?“ angenommen, weil „.“, „!“, „?“ Wortäquivalente sind.
Satzschlusszeichen wie „.“, „!“, „?“ als Wörter zu definieren, ist nach Eroms (1985; 1986) nicht nur aus der Sicht der linguistischen Datenverarbeitung evident, sondern wird auch in Bezug auf die distinkten Intonationsführungen in der gesprochenen Sprache gerechtfertigt. Somit ist bei Eroms die syntaktische Kategorie „S“ Wortäquivalent. Die obigen Beispielsätze in (8a⫺b) sind übergeordnete Sätze. Hier erkennen wir im Deutschen Eigenschaften der COMPs, die jeweils eine bestimmte Satzkonstruktion fordern: (a)
(b)
im übergeordneten Satz; (i) COMPs fordern einen finiten Satz mit SVO-Wortstellung wie in (8a⫺ b). im untergeordneten Satz;
(i) COMP wie „weil“, „als“, „während“ usw. fordert einen finiten Satz mit SOV-Wortstellung wie in (8c⫺d). (ii) COMP wie „um…zu“, „ohne…zu“ usw. fordert einen infiniten Satz wie in (8e⫺f). Also können wir feststellen, dass COMP eine Leerstelle für eine bestimmte Satzkonstruktion „Satzstatus“ eröffnet. Nach der Kopfbestimmung ist COMP eindeutig der Kopf der Konstruktion „COMP ⫹ S“ (vgl. Jung 1995a, 69 ff.). Wir haben oben gesehen, dass die syntaktische Kategorie „S“ in die Dependenzgrammatik aufgenommen werden muss. Hier stellt sich wiederum die Frage, was „Satz“ überhaupt ist. Nach der herkömmlichen Dependenzgrammatik muss ein Satz ein finites Verb haben. Aber ich nehme hier einfach an, dass ein Satz ein Verb haben muss. So lassen sich folgende Konstruktionen als Sätze rechtfertigen: (9) a. b. c. d. e. f.
…, ihn zu sehen. …, um ihn zu sehen. sieh! das Buch, das ich gelesen habe. …, dass ich ihn gesehen habe. Ich habe ihn gesehen.
Die Sätze in (9) lassen sich subklassifizieren: Die Sätze in (9a⫺b) haben infinite Verben, während die Sätze in (9c⫺f) finite Verben haben. Man nennt im allgemeinen solche Sätze wie in (9a⫺b) „infinitive Satzkonstruktionen“ und solche Sätze wie in (9c⫺f) „finite Satzkonstruktionen“. Hier stellt sich wiederum die Frage, ob die syntaktische Kategorie „S“ eine Leerstelle für andere Elemente eröffnet oder nicht. Die syntaktische Kategorie S ist syntaktisch entweder durch die Elemente, die in die Leerstellen des Verbs eintreten, schon besetzt, oder bleibt unbesetzt. Wenn S durch die Argumente des Verbs schon besetzt ist, dann ist S absolut und eröffnet daher keine Leerstelle für andere Elemente. Wenn dagegen S durch die Argumente des Verbs unbesetzt bleibt, dann ist S entweder relational oder ungrammatisch. Der Fall, dass S zwar durch die Argumente des Verbs unbesetzt bleibt, aber grammatisch ist, ist der Imperativsatz. So ist ein Imperativsatz wie in (9c) relational und eröffnet daher eine Leerstelle für die Argumente des Verbs. Aber semantisch betrachtet ist ein Relativsatz auch relational, obwohl er syn-
24. Rektion und Kongruenz in der Dependenzgrammatik
taktisch durch die Argumente des Verbs schon besetzt ist. Der Grund dafür ist, dass ein Relativpronomen zwar syntaktisch einen Kasus behält, aber semantisch ein Leerwort ist. Also kann der Relativsatz wie (9d) eine Leerstelle für das Bezugsnomen des Relativpronomens eröffnen. Demgegenüber sind die Sätze in (9a, b, c, f) absolut und eröffnen damit keine Leerstelle, weil die Leerstellen von Verben schon besetzt sind. So ist hier erkennbar, dass die Leerstellenbesetzung eines im Satz eingebetteten Verbs eine entscheidende Rolle dafür spielt, ob S relational oder absolut ist. Nach der oben gegebenen Satzdefinition muss ein Satz ein Verb haben. Dies bedeutet, dass das Vorkommen des Verbs notwendige Bedingung für die syntaktische Kategorie S ist, aber im Gegensatz dazu nicht, dass das Vorkommen der syntaktischen Kategorie S notwendige Bedingung für das Verb sein muss. Somit liegt die Vermutung nahe, dass zwischen der syntaktischen Kategorie S und dem in der Kategorie S eingebetteten Verb eine Abhängigkeitsrelation besteht, und zwar vom in ihr eingebetteten Verb ausgehend. Diese Vermutung kann jedoch nicht für korrekt gelten, weil die syntaktische Kategorie S kein lexikalisches Element, sondern ein das Verb und die um das Verb herum vorkommenden Elemente enthaltendes kategoriales Element ist. Damit handelt es sich zur Bestimmung der Abhängigkeitsrelation zwischen beiden weder um die Vorkommensbedingung noch um die Relationalität, sondern um eine strukturelle Zugehörigkeit: Das Verb gehört als ein Bestandteil von S offensichtlich zur syntaktischen Kategorie S. Dementsprechend können wir feststellen, dass das Verb unmittelbar von der syntaktischen Kategorie S abhängt, obwohl beide gegenseitig keine Leerstelle eröffnen. Aus diesem Grund muss hier betont werden, dass die Relation zwischen der syntaktischen Kategorie S und dem in ihr eingebetteten Verb weder unter Rektion noch unter Determination fällt. 3.2.3. Statusrektionen der Verben Wie in 3.2 angedeutet, können Verben eine Leerstelle nicht nur für Kasus, sondern auch für nicht-kasustragende Elemente eröffnen. Ich nenne solche morphologisch nicht-kasustragenden Elemente, die dennoch in die Leerstelle von Verben eintreten können, „Status“. Die Verben eröffnen eine Leerstelle für folgende Status:
(a)
(b)
(c)
(d)
289 Verben, die eine Leerstelle für bestimmte Präpositionen eröffnen: „bestehen“, „sich freuen“, „abhängen“ usw. Das Referat besteht aus drei Teilen. Er besteht vor der Polizei. Er besteht auf seiner Forderung. Der Grundgedanke besteht in wenigen Sätzen. Verben, die eine Leerstelle für Adjektive eröffnen: „sein“, „werden“, „denken“, „machen“, „gehen“ usw. Sie ist schön. Er wird krank. Der Professor denkt logisch. Es geht ihm gut. Das Essen macht mich satt. Verben, die eine Leerstelle für Adverbien eröffnen: „sich denken“, „sich befinden“, „sein“, „liegen“ usw. Er dachte sich die Sache folgendermaßen. Das Schloss befindet sich dort. Ich bin da. München liegt hier. Verben, die eine Leerstelle für COMP eröffnen: „erfragen“, „ergeben“, „hören“, „prüfen“, „zeigen“ usw. Er zeigte mir, daß er mir wohl wollte. Sein Verhör ergibt, ob er gestohlen hat.
3.2.4. Statusrektionen der Präpositionen Präpositionen eröffnen auch eine Leerstelle für bestimmte Status. In die Leerstelle, die Präpositionen eröffnen, können folgende Status eintreten: (a)
(b)
Präpositionen, die eine Leerstelle für Adjektive oder Adverbien eröffnen: „für“, „als“, „wie“ und direktionale Präpositionen wie „nach“. Der Arzt hält ihn für tot. Er sieht die Sache als gut an. Heute ist es nicht so warm wie gestern. Er geht nach vorn. Präpositionen, die eine Leerstelle für COMP eröffnen: „um“, „nach“, „bei“ usw. Sie streiten sich darum, ob sie ins Kino gehen. Er fragte danach, ob er reisen solle.
3.2.5. Statusrektionen der Adjektive Adjektive eröffnen eine Leerstelle für folgende Status: (a)
Adjektive, die eine Leerstelle für Präpositionen eröffnen: „fertig“, „stolz“, „verliebt“, „abhängig“, „schuld“ usw. Ich bin mit meinem Buch fertig.
290
(b)
III. Dependenz. Grundlagen und Grundfragen
Ich bin stolz auf meine Mutter. Ergänzungen sind von Verben abhängig. Adjektive, die eine Leerstelle für Adjektive eröffnen: „geraten“, „gelaunt“, „geartet“ usw. Er ist gut geartet. Der Kuchen ist schlecht geraten. Mein Nachbar ist heute gut gelaunt.
3.2.6. Statusrektionen der Substantive Obwohl die meisten Substantive syntaktisch absolut sind, eröffnen einige Substantive, die besonders von ihren Verben oder von ihren Adjektiven abgeleitet sind, eine Leerstelle für die den Verben oder Adjektiven entsprechenden bestimmten Status. In die Leerstelle, die solche Substantive eröffnen, können folgende Status eintreten: (a)
Substantive, die eine Leerstelle für Präpositionen eröffnen: „Interesse“, „Angst“, „Gruß“, „Fahrt“ usw. Er zeigt Interesse für die Dependenzgrammatik. Er hat Angst vor dem Krieg. Seine Fahrt nach München ist sehr wichtig.
Wenn Substantive eine Leerstelle für direktionale Präpositionen eröffnen, dann kommen selten Adverbien anstelle der Präpositionalphrasen vor: z. B. Fahrt dahin. (b)
Substantive, die eine Leerstelle für COMP eröffnen: „Frage“, „Überlegung“, „Beobachtung“ usw. Überlegung, ob er in ehrlicher Absicht verhandelt. Beobachtung, ob sein Freund kommt.
4.
Kongruenz
Unter Kongruenz versteht man die Übereinstimmung zweier Wörter bzw. Konstituenten in einem oder mehreren gemeinsamen morphosyntakischen Merkmalen, wobei sich das kongruierende Wort nach einem anderen richtet, mit dem es kongruiert. Also treten die Kongruenzerscheinungen genau dann auf, wenn die beiden auf die Kongruenz bezogenen sprachlichen Elemente folgende drei Voraussetzungen erfüllen: (i) (ii)
Sie müssen in mindestens einer gemeinsamen grammatischen Kategorie übereinstimmen. Sie müssen morphologische Merkmale haben.
(iii) Zwischen den kongruierenden Wörtern muss syntagmatische Relation bestehen, und zwar eine dependenzielle oder eine anaphorische. Nach der oben erwähnten Voraussetzung (i) bezieht sich die Übereinstimmung der kongruierenden Wörter auf die ihnen gemeinsame grammatische Kategorie (Numerus, Person, Kasus, Genus). Nach der Voraussetzung (ii) sind die kongruierenden Wörter flektierbar (Substantive, Adjektive, Pronomen, Verben, Artikel). Aber die Kongruenz kann nicht nur morphologisch definiert werden. Meistens weisen die kongruierenden Wörter zwar das gleiche Morph auf, wie das etwa in frische Fische der Fall ist. Dies ist aber nicht notwendig. In der Konstruktion der Vater wird die grammatische Kategorie Genus nicht am Kontrolleur Vater, sondern nur am Kongruent der ausgedrückt. Nach (iii) ist die Kongruenz ein Mittel, mit dem syntaktische Beziehungen gekennzeichnet werden. Man spricht also in der Konstruktion du und ich nicht von der Kongruenz, obwohl du und ich im Kasus übereinstimmen, weil zwischen ihnen weder anaphorische noch dependenzielle Relation vorliegt. Somit kann die Kongruenzerscheinung je nachdem klassifiziert werden, ob zwischen den kongruierenden Wörtern eine anaphorische Relation oder eine dependenzielle Relation besteht. Folglich ist die Kongruenz keine grammatische Relation, sondern ein grammatischer Prozess, der eine Relation der oben genannten Art voraussetzt. Insoweit ist die Kongruenz nichts anderes als die Kasusmarkierung bei der Rektion. Als solches wird die Kongruenz am ehesten von der in 1. angeführten Rektion differenziert. Mit anderen Worten ist die Kongruenz kein Typ von Dependenzrelation, sondern fungiert nur als ein morphosyntaktisches Merkmal, durch das die syntagmatischen Relationen bezeichnet werden, während die Rektion ein Typ von Dependenzrelationen ist und damit in allen Sprachen vorkommt. Damit gibt es die Kongruenz gegenüber der Rektion nicht in allen Sprachen, sondern nur in flektierenden Sprachen wie im Deutschen. Die Kongruenzerscheinung repräsentiert also einerseits die anaphorische Relation zwischen den kongruierenden Wörtern, andererseits die Dependenzrelation. Die Kongruenz fällt innerhalb der Dependenzrelationen entweder unter Rektion oder unter Determination.
24. Rektion und Kongruenz in der Dependenzgrammatik
4.1.
Die Kongruenz als Ausdrucksmittel der Dependenzrelation 4.1.1. Die Kongruenz zwischen dem Subjekt und dem finiten Verb Im Deutschen kongruiert das Verb meistens in Person und Numerus mit dem Subjekt: (10) Ich hole das Buch. Er holt das Buch. Der Kasus des Subjekts ist normalerweise der Nominativ. Nach der klassischen Einteilung der Kasus steht der Nominativ als Subjektkasus zu den anderen Kasus in Opposition: (i)
Der Nominativ kann gegenüber den anderen Kasus als einziger Kasus nicht mit einer Präposition bzw. einem Adjektiv bzw. einem Substantiv verbunden werden: Dies weist darauf hin, dass der Nominativ ein von Präposition/Adjektiv/ Substantiv unabhängiger Kasus ist. (ii) Der Nominativ ist als Kasus der Identität dadurch charakterisiert, dass das Nominativsubjekt beim finiten Verb Personen- und Numeruskongruenz hervorruft: z. B. Ich zeige/du zeigst/er zeigt/wir zeigen/… (iii) Das Nominativsubjekt kann niemals bei einer infiniten Verbform auftreten: z. B. Er hofft, dass er seine Freundin bald wiedersieht. Er hofft, seine Freundin bald wiederzusehen. (iv) Das Nominativsubjekt wird beim Imperativ in der 2. Person getilgt: z. B. Komm mal hierher! Betrachten wir nun im Zusammenhang mit den oben erwähnten Besonderheiten des Nominativsubjekts gegenüber den anderen Kasus, ob das Nominativsubjekt überhaupt ein syntaktisch abhängiger Kasus ist oder nicht, und wenn er ein abhängiger Kasus ist, von welchem Element dann das Subjekt seinen Kasus „Nominativ“ erhält. Nach der Besonderheit (i) des Nominativs kann das Nominativsubjekt nur vom Verb abhängig sein, weil andere Abhängigkeiten nicht bestehen. Aber nach der Besonderheit (iii) scheint es mir, dass das Nominativsubjekt niemals vom Verb abhängt. Wenn das Nominativsubjekt vom Verb abhängt, dann muss es nicht nur bei finiter Verbform, sondern auch bei infinitiver Verbform auftreten. Wie der Beispielsatz in (iii) zeigt, kann jedoch das Nominativsubjekt keineswegs in Infini-
291
tivfügungen auftreten. Dass das Nominativsubjekt nicht bei infiniter Verbform, sondern nur bei finiter Verbform auftreten kann, heißt, dass das Nominativsubjekt auch ein abhängiger Kasus ist. Hier stellt sich die Frage, von welchem Element das Nominativsubjekt abhängt. Nach der Besonderheit (ii) kongruiert das Nominativsubjekt mit der Flexionsendung des finiten Verbs in Numerus und Person. Dies bedeutet, dass das Nominativsubjekt und die verbale Flexionsendung (INFL) in Dependenzrelation stehen. Mit anderen Worten, wenn die verbale Flexionsendung im Satz vorkommt, muss auch das Nominativsubjekt auftreten. Wie der Beispielsatz in (iv) zeigt, tritt das Nominativsubjekt tatsächlich im Imperativ in der 2. Person nicht auf, weil der Imperativsatz in der 2. Person keine Flexionsendung hat. Dementsprechend scheint dies intuitiv die Vermutung nahezulegen, dass das Subjekt seinen Kasus von der verbalen Flexionsendung erhält. In der Tat finden wir weitere Evidenz für Nominativzuweisung durch INFL in zahlreichen Sprachen. Aber es ist nicht unstrittig, welche Eigenschaft von INFL genau das Auftreten des Nominativsubjekts in finiten Sätzen bedingt, weil INFL das Merkmal „Tempus“ und „Kongruenz“ trägt. Es gibt im Prinzip drei Möglichkeiten für Nominativsubjektzuweisung: (i)
Das Subjekt kann vom Tempusmerkmal von INFL den Nominativ erhalten. (ii) Das Subjekt kann den Nominativ vom Kongruenzmerkmal von INFL erhalten. (iii) Das Subjekt kann den Nominativ von Verb ⫹ INFL erhalten. Die Möglichkeit, dass das Subjekt den Nominativ vom Tempusmerkmal erhält, ist jedoch ausgeschlossen, da das Tempusmerkmal sowohl in finiten Konstruktionen als auch in Infinitivkonstruktionen wie in (11b) auftreten kann: (11) a. Er will das Mädchen geliebt haben. b. Er behauptet, das Mädchen geliebt zu haben. Nach Chomsky erhält das Subjekt den Nominativ vom Kongruenzmerkmal „AGR(eement)“, weil das Nominativsubjekt stets mit dem Verb in Numerus und Person kongruiert; d. h. wenn das verbale Kongruenzmerkmal im Satz vorkommt, dann muss das Nominativsubjekt auch im Satz auftreten, und umgekehrt. Jedoch können wir hier auch die Möglichkeit nicht ausschließen, dass das
292 Subjekt vom „Verb ⫹ INFL“ den Nominativ erhält, weil INFL ohne Verb nie allein im Satz realisiert werden kann. Diese Unklarheit der Nominativzuweisung führt somit direkt zur Unklarheit des Dependenzmodells (Jung 1995b, 153 f.). Betrachten wir nun, ob die Kongruenz zwischen dem Subjekt und dem finiten Verb in Person und Numerus unter Rektion oder unter Determination fällt. Wie gesagt, kongruiert die Subjekt-NP mit INFL in Person und Numerus. INFL ist außer diesem Kongruenzmerkmal auch „Tempus“ und „Modus“ markiert, während die Subjekt-NP „Kasus“ markiert. Tempus und Modus werden jedoch nicht von der Subjekt-NP, sondern von S bestimmt. Dagegen wird der Kasus eindeutig von INFL, und zwar von Kongruenzmerkmalen bestimmt. Sowohl syntaktisch als auch semantisch ist INFL der Kopf der Konstruktion „INFL ⫹ Subjekt-NP“ und eröffnet eine Leerstelle, die unbedingt durch das Nominativsubjekt besetzt werden muss. Jedoch eröffnet die Subjekt-NP keine Leerstelle für INFL. Damit fällt die Kongruenz zwischen dem Subjekt und dem finiten Verb in Person und Numerus unter Rektion. 4.1.2. Die Kongruenz zwischen dem Substantiv und dem Artikel Artikel und Substantiv kongruieren miteinander in Genus, Numerus und Kasus. Diese Kongruenzerscheinung zeigt sich noch deutlicher in genitivischen oder dativischen Konstruktionen wie den folgenden: (12) a. des Vaters b. den Büchern Hier stellt sich nun die Frage, von welcher Kategorie die Kongruenzaffixe zugewiesen werden. Eine klare Antwort darauf ist, dass sich der Artikel nach der Flexion der Substantivformen richtet, und nicht umgekehrt. Numerus, Genus und Kasus kommen in den Artikeln nur formal zum Ausdruck. Besonders der Kasus wird von Kasuszuweisern über das Substantiv dem Artikel übermittelt. Also bekommt der Artikel direkt oder indirekt vom Substantiv Genus, Numerus und Kasus. Wenn man das Verhältnis zwischen dem Substantiv und dem Artikel syntaktisch betrachtet, ist leicht erkennbar, dass der Artikel stets mit dem Substantiv vorkommt, aber niemals mit Pronomina oder Adjektiven usw. und der erste stets vor dem letzteren steht. Noch ein weiteres Merkmal in Bezug auf den Artikel und das Substantiv ist, dass das Sub-
III. Dependenz. Grundlagen und Grundfragen
stantiv in einem Satz oft ohne den Artikel vorkommen kann, während umgekehrt der Artikel nicht für sich allein stehen kann. Dies besagt jedoch nicht, dass der Artikel syntaktisch stets fakultativ ist. Wie die folgenden Beispielsätze in (13) zeigen, ist der Artikel genauso wie das Substantiv syntaktisch obligatorisch: (13) *Er hat ihm Buch gegeben. *Er hat ihm ein gegeben. Also kann die Relation zwischen Artikel und Substantiv in gewissem Sinne als Interdependenz interpretiert werden, weil in manchen Fällen, wie obige Beispielsätze zeigen, sich beide gegenseitig bedingen. Trotzdem kann man feststellen, dass der Artikel das Substantiv immer voraussetzt. Diese Tatsache bedeutet, dass der Artikel und das Substantiv strukturell zwei hierarchisch unterschiedliche Größen sind. Mit anderen Worten besteht eine Dependenzrelation zwischen den beiden. Intuitiv scheint dies die Vermutung nahezulegen, dass der Artikel von dem Substantiv abhängt. Diese Vermutung ist in der Tat richtig. Denn wenn der Artikel erscheint, muss das Substantiv auch vorhanden sein, aber umgekehrt nicht. Somit kann man schlussfolgern, dass das Substantiv eine Leerstelle für den Artikel eröffnet. Dies ist jedoch bei (14a) nicht der Fall: (14) a. (Ein Kind zu seinem Vater): Vater, erzähle mir bitte eine Geschichte. In (14a) ist das Substantiv Vater ohne Artikel verwendet. Wenn das Substantiv Vater eine Leerstelle für den Artikel eröffnen würde, könnte ein Artikel in (14a) vorkommen. Jedoch zeigt sich der Satz in (14b) ungrammatisch, wenn der Artikel in (14a) vorkommt: (14) b. (Ein Kind zu seinem Vater): *Der Vater, erzähle mit bitte eine Geschichte. Folglich eröffnet das Substantiv keine Leerstelle für den Artikel. Obwohl der Artikel vom Substantiv abhängt, scheint vielmehr der Artikel eine Leerstelle für das Substantiv zu eröffnen. Denn wenn ein Artikel vorhanden ist, muss ein Bezugssubstantiv auf alle Fälle vorkommen. Sonst ist der Satz ungrammatisch. Denn in Sätzen wie ist Der nicht Artikel, sondern Demonstrativpronomen: (15) a. Der Baum ist eine Pflanze. b. *Der ist eine Pflanze. Auch semantisch gesehen eröffnet der Artikel eine Leerstelle für das Bezugssubstantiv, weil
293
24. Rektion und Kongruenz in der Dependenzgrammatik
die Bedeutung des Substantivs mit Hilfe des Artikels noch konkretisiert wird. Also repräsentiert die Kongruenzerscheinung zwischen dem Artikel und dem Substantiv eine syntaktisch-semantische Dependenzrelation, in der der Artikel sowohl syntaktisch als auch semantisch eine Leerstelle für das Substantiv eröffnet, wobei der Artikel vom Substantiv abhängt. Somit fällt die Kongruenz zwischen dem Artikel und dem Substantiv in Genus, Numerus und Kasus gegenüber der Kongruenz zwischen dem Subjekt und dem finiten Verb unter Determination. 4.1.3. Die Kongruenz zwischen dem Substantiv und attributivem Adjektiv Die attributiven Adjektive haben verschiedene Deklinationsformen, die durch grammatische Kongruenz in Genus, Numerus und Kasus mit dem Bezugssubstantiv bestimmt werden. Sie können im Prinzip zusammen mit den sogenannten Artikelwörtern beim Substantiv stehen, sie stehen immer nach den Artikelwörtern, und ihre Deklination ist von den Artikelwörtern und Substantiven abhängig: (16) großem Erfolg einem großen Erfolg dem großen Erfolg Das Substantiv eröffnet sowohl aufgrund seiner syntaktischen als auch seiner semantischen Eigenschaften keine Leerstelle für das Adjektiv, aber umgekehrt eröffnet das Adjektiv in der Rolle eines Attributs stets eine Leerstelle für sein Bezugssubstantiv, wobei das Adjektiv nach der Kopfbestimmung ein Dependens ist und damit von seinem kongruierenden Substantiv abhängig ist. Also fällt die Kongruenz zwischen dem Substantiv und dem attributiven Adjektiv hinsichtlich Genus, Numerus und Kasus unter Determination. 4.2. Die Kongruenz als Ausdrucksmittel der anaphorischen Relation Die Kongruenz kann nicht nur als Ausdrucksmittel der Dependenzrelation, sondern auch als Ausdrucksmittel der anaphorischen Relation fungieren. Es handelt sich hier vor allem um die Kongruenz zwischen dem Subjekt und dem Reflexivpronomen. In der Konstruktion Ich werde mir alles überlegen kongruiert das Reflexivpronomen mir grundsätzlich mit dem Subjekt ich in Person und Numerus. Aber der Kasus des Reflexivpronomens wird unabhängig vom kongruierenden
Subjekt durch das regierende Verb bestimmt. Darüber hinaus repräsentiert die Kongruenz zwischen Substantiven (Pronomen) die anaphorische Relation. In der Konstruktion Er ist mein Freund kongruiert das Substantiv Freund mit dem Subjekt Er in Numerus und Kasus. Aber der Kasus des Substantivs Freund ist unabhängig vom kongruierenden Subjekt durch das regierende Verb festgelegt.
5.
Literatur in Auswahl
Bech, Gunnar (1983): Studien über das deutsche Verbum infinitum. Tübingen. Duden (1973): Grammatik der deutschen Gegenwartssprache. Mannheim. Engel, Ulrich (1982): Syntax der deutschen Gegenwartssprache. Berlin. Ders., (1988): Deutsche Grammatik. Heidelberg. Engelen, Bernhard (1975): Untersuchungen zu Satzbauplan und Wortfeld in der geschriebenen deutschen Sprache der Gegenwart. Teilband 1. München. Eroms, Hans-Werner (1985): Eine reine Dependenzgrammatik für das Deutsche. In: Deutsche Sprache 13, 306⫺326. Ders., (1986): Funktionale Satzperspektive. Tübingen. Ders., (1987): Passiv und Passivfunktionen im Rahmen einer Dependenzgrammatik. In: Centre de Recherche en Linguistique Germanique (Hg): Das Passiv im Deutschen. Akten des Kolloquiums über das Passiv im Deutschen, Nizza 1986. Tübingen, 73⫺95. Fanselow, Gisbert/Felix, Sascha W. (1987): Sprachtheorie: Eine Einführung in die Generative Grammatik. Band 2: Rektions- und Bindungstheorie (⫽ UTB 1142). Tübingen. Helbig, Gerhard/Buscha, Joachim (1986): Deutsche Grammatik. Ein Handbuch für den Ausländerunterricht. Leipzig. Hentschel, Elke/Weydt, Harald (1990): Handbuch der deutschen Grammatik. Berlin. Jackendoff, Ray (1977): X-Syntax: A Study of Phrase Structure. Cambridge, Mass. Jung, Wha-Young (1995a): Syntaktische Relationen im Rahmen der Dependenzgrammatik (⫽ Beiträge zur germanistischen Sprachwissenschaft 9). Hamburg. Ders., (1995b): Zum syntaktischen Status der subordinativen Konjunktionen. In: Eichinger, Ludwig M./ Eroms, Hans-Werner (Hgg.): Dependenz und Valenz (⫽ Beiträge zur germanistischen Sprachwissenschaft 10). Hamburg. Kunze, Jürgen (1975): Abhängigkeitsgrammatik (⫽ studia grammatica 12). Berlin. Lehmann, Christian (1983): Rektion und syntaktische Relationen. In: Folia Linguistica 17, 339⫺378.
294
III. Dependenz. Grundlagen und Grundfragen
Lenerz, Jürgen (1983): Zur Unterscheidung von Voll- und Hilfsverben. In: Centre de Recherches Germaniques le l’Universite´ II, Nancy (Hg): La linguistique a` la session 1983 de l’ agre´gation d’allemand, 137⫺173.
Nichols, Johanna (1986): Head-marking and dependent-marking grammar. In: Language 62, 56⫺ 119.
Wha-Young Jung, Andong (Korea)
25. Formal Foundations of Dependency Grammar 1. 2. 3. 4. 5. 6. 7.
Introduction Brief History Formalizations of DG Word Order Comparison to Other Formalisms Conclusion Select Bibliography
1.
Introduction
This chapter presents alternative formalizations of Dependency Grammar (DG). After some remarks on formalization in general, Sec. 2 will discuss historical milestones in formalizing DG, starting with Tesnie`re, and catching up with recent advances. Sec. 3 presents and compares three general approaches to formalization, while Sec. 4 is concerned with the description of word order in DG. Sec. 5 highlights similarities and differences to other prominent grammar formalisms. What is lacking here, is a discussion of statistical architectures of DG that recently have arisen from corpus-oriented parsing models. (Refer to Eisner, 1996; Samuelsson, 2000; Collins, 1997 and others for such proposals.) I would like to acknowledge the active help of Richard Hudson, Sylvain Kahane, Vincenzo Lombardo, and Owen Rambow in preparing this article, although I failed to accomodate all their recommendations. In addition, I must apologize for the remaining hardship in reading this article: I tried to include all relevant references, but neither time nor space allowed a complete explanation of all relations between the different theories and formalisms, so that sometimes a remark and a reference must suffice. 1.1. Why do we formalize? The main reason for formalization is to enhance communication (amongst ourselves or with a computer): Natural language is full of ambiguities and interpretation alternatives. Although every science develops its own terminology (e. g., a tree is radically different in
Linguistics compared to, e. g., Biology), even such a specialized sublanguage can fall prey to the usual understanding problems. Formalization as understood in this chapter tries to overcome this problem by supplying a mathematical framework, which enjoys a precise semantics (ideally) without any interpretation scope (Chomsky 1957, 5). The following tasks are made easier by formalization: ⫺ Verify or falsify the theory by deriving statements through formal reasoning, and comparing the predictions to empirical findings. ⫺ Compare one analysis to another in the same linguistic framework, to see which one better fits the empirical facts. ⫺ Compare an analysis to others developed in different linguistic frameworks, to incorporate insights from these frameworks. ⫺ Develop models of processing (with or without the assumption that the representations are in some way related to physiological processes), to explain how humans learn, produce, and understand language; or to simulate this behaviour in machines. The last task, in particular, has recently gained importance with the widespread application of computers to linguistics. Besides facilitating these tasks, two formal questions can only be answered on the basis of a precise mathematical model; namely that of generative capacity and that of processing complexity. With respect to generative capacity, we are interested in the kinds of representations that can be constructed with a given generative formal system. Most basically, we require that the formal system generates all grammatical word sequences, and no ungrammatical ones. Formal language theory captures this notion in the weak generative capacity, which is the set of all strings generated by a grammar. But as linguists, we need more:
25. Formal Foundations of Dependency Grammar
295
Words in a sentence stand in relations to each other, which must be described as well. The so-called strong generative capacity is the range of possible structures that a grammar may assign to sentences. The traditional means of describing them is a tree, but more general graph structures are possible. Grammars may be weakly equivalent (meaning that they generate the same set of sentences) while not being strongly equivalent (meaning the same sentence receives different analyses, e. g. in terms of trees). Following Chomsky, four classes of formal languages can be defined by the form of the rules generating the languages, i. e., regular, context-free, context-sensitive, and unrestricted languages (Hopcroft/Ullmann 1979; Klenk 1995). There has been a long debate whether natural languages are context-free, or rather context-sensitive (Shieber 1985). Recently, so-called mildly-context-sensitive formalisms have been developed (Weir 1988), which add generative capacity compared to context-free languages, while not being as general as context-sensitive languages. Some dependency theories fall into one of these classes, while the placement of others is not yet worked out. Intimately tied to the question of generative capacity is the processing complexity of a formalism, which can be divided into questions of recognition complexity (Is a certain sentence derivable?) and parsing complexity (Which structural analyses can be derived for a certain sentence?). Besides the fact that a certain generative capacity implies a minimum processing complexity, the processing complexity is also important for the development of practical applications, such as parsers or machine translation systems.
convenient (for reasons discussed in Sec. 3.2) to add a language (or calculus) describing the structure. Fig. 1 depicts the relations between the empirical domain, the model, and the description language.
1.2. How do we formalize? Completely describing language is, at least currently, impossible. The first thing to do is to create an abstraction. Chomsky has created the abstraction of an ideal speaker, which continually enjoys wide acceptance. In mathematical works, such abstractions are called models. A model represents those aspects of the empirical domain we are interested in, and abstracts from all the other facts we cannot (yet) describe (or don’t want to, for some reason). The model is a mathematical structure (i. e., it consists of mathematical objects, like relations or functions), and its structure mirrors the empirical domain’s structure as closely as possible. It will be very
Empirical Domain Abstraction Modelling
Model
Prediction Instantiation (Satisfaction)
Description
Calculus
Fig. 25.1: Relations between domain, model, and calculus
1.3. Formalization and Linguistic Theory Formalization should not be confused with linguistic theory, which is a precursor to formalization. Before one may create a model, the nature of this abstraction must be clearly defined. Linguistic theory must specify which aspects of the empirical domain are to be included in the model, and how they are represented. Naturally, formalization may raise questions not answered by the original formulation of the linguistic intuitions. As with every construction, implementing a plan (by actually building a house or constructing a mathematical model) will require additional decisions on a very detailed level, and may identify inconsistencies or gaps in the plan. This is no problem, but requires a refinement of the original plan. In that sense, formalization is only a supplementary tool for the linguist, and cannot be a cover for deficiencies in the linguistic motivation. 1.4. Rule-based vs. Lexicalized Grammars The view that the lexicon only describes the idiosyncrasies of language has become obsolete. Nowadays, a large part what has previously been considered a rule is contained in highly structured lexical entries. Nevertheless, rules to combine these lexical entries are still required, even if their number has been greatly reduced. So there is a continuum between rule-based and lexicalized grammars. The question of formalization is entirely independent of the place within this continuum occupied by a certain grammar. There are proposals of DG which employ many rules (towards the rule-based end of the con-
296
III. Dependenz. Grundlagen und Grundfragen
tinuum) as well as ones which employ few rules (towards the lexicalized end of the continuum). DG in general has been very much concerned with the content and structuring of the lexicon. Even if the rest of this chapter seems to concentrate on lexicalized approaches, this is not due to the fact that rulebased systems cannot be formalized, need not be formalized, or do not exist, but rather due to the fact that a rule system would add another component to the formalization, making the presentation larger and less understandable. The organizing dimension of Sec. 3 is not the rule-vs.-lexicon continuum, but the question which kinds of objects are considered primitives, the choices presented being trees, sets of trees (in the form of descriptions), or statements about trees (in the context of proofs).
2.
Brief History
2.1. Tesnie`re The history of modern DG begins with (Tesnie`re 1959; 1980). From a formal point of view, Tesnie`re used a quite complex grammar formalism: Not only are his stemmata complex graphical objects, the operations defined on them also prove to be non-trivial. A stemma consists of words, represented by nodes, and directed binary relations between words, represented as edges. The nodes are further annotated by word classes (I, A, E, and O) and morpho-syntactic markers. Edges are not consistently annotated, but we may take the distinction between O1 and O2, for example, as the first sign of distinguishing different kinds of dependency relations formally. Looking at syntactic relations (subordination) alone, Tesnie`re restricted himself to tree structures, i. e., there is one node dominating all the other nodes (a finite verb of class I), and no word is dominated by more than one node. The trees, however, are not projected from the actual word order, because the dependencies are motivated semantically, rather than by adjacency. For example, a relative clause would be linked to a noun, regardless of intervening material not belonging to the noun phrase. Junction, to analyze, e. g., coordination, adds binary relations to the stemma which result in an acyclic graph. Tesnie`re also included anaphoric and semantic relations which turn the stemma into a directed graph, where cycles are allowed in principle. The nodes themselves may also exhibit internal structure: Tesnie`re devel-
oped the concept of a nucleus to accomodate the process of transference, whereby a word of a given word class is converted to another class by some marking element. The nucleus thus contains three elements, namely the resulting class, the transference marker, and the original class (which could in fact be the result of an embedded transference, allowing recursion within the node structure). Of the three structural relations subordination, junction, and transference, only subordination is widely used in formal work, which is due to the fact that neither junction nor transference have up to now recieved a well-behaved definition. Junction, on the one hand, has failed to yield a successful formulation of coordination in general. As yet, there is no all-encompassing description of coordination in terms of junction which would allow an algorithmic formulation of the process. Therefore, coordination is either restricted to simple cases (Hellwig 1993) or employs other descriptional means (Hudson 1988). The reason why transference is ill-received has to do with its un-restrictedness: There is no need for formal reflection (in morphology or word order), and there is no restriction on what transference can do: Any class conversion is legitimate. This is strongly reminiscent of transformations in transformational architectures, which also have been abandoned due to formal, computational and linguistic reasons. 2.2. Context-free Dependency Grammar The first formal investigation into DG is Gaifman (1965), on whose work others have built, from Hays (1964) and Robinson (1970) to Lombardo/Lesmo (1996). Gaifman reduced Tesnie`re’s system to its core component, subordination, and imposed the additional constraint that the dependency tree be projective. Under these assumptions, the weak generative equivalence of DG and context-free grammars (CFG) is shown. Although the complexity of Tesnie`re’s original work required simplification to be formally tractable at all, Gaifman threw out the baby with the bathing water: The resulting system is no longer able to assign semantically motivated dependencies due to its word-order rigidity. Gaifman’s result, which reduced dependency grammar to a notational variant of CFG, seemingly stopped research on formal architectures of dependency for a long time. Although there is a set of alternative formulations of full-fledged dependency systems
25. Formal Foundations of Dependency Grammar
297
(Helbig 1971; Hudson 1988; Mel’cˇuk 1988; Kunze 1975; Starosta 1988), the main thrust of these works has been descriptive rather than formal.
Such graphs (whether they are trees or more general graphs) can be encoded as mathematical objects as follows: Let ᏺ be the set of nodes, and be an asymmetric, irreflexive, and intransitive relation over ᏺ * ᏺ. Various conditions can be formulated on to restrict the possible graphs:
2.3. Non-projective Dependency Grammar Prompted by Lombardo/Lesmo (1996), Neuhaus/Bröker (1997) argued that the projectivity assumption was wrong, and that a relaxation of word order not only is linguistically well motivated, but also formally feasible. (Kahane et al. 1998; Lombardo/Lesmo 1998; Bröker 1998c) propose strikingly similar architectures for such a relaxation of word order by introducing a limited set of discontinuous, or non-projective, dependency relations, resulting in a higher, but still polynomial processing complexity. The main idea is to not use the semantically motivated dependency tree directly for the derivation of word order, but to derive the word order from another tree constructed by lifting some dependents to a higher governor. This idea is detailed in Sec. 4.2.
3.
Formalizations of DG
This section discusses various proposals for the formalization of DGs, grouping them into three classes (my terminology): The object-based and the description-based architectures both take traditional linguistic structures (e. g., stemmata from Tesnie`re) as their primitive objects. They differ in the specificity of these objects: Object-based architectures assume fully specified structures, while description-based architectures use partial descriptions which can each represent a set of fully specified structures. The proof-based architecture assumes basic objects which do not directly correspond to the traditional linguistic structures. The discussion of word order is delegated to Sec. 4, since it is nearly independent of the question of how exactly the formal architecture is defined. The following provides a mathematical definition of trees; more general graphs may be defined similarly by relaxing the constraints on the relation . For the notation used in the following, please refer to Klenk (1995); Hopcroft/Ullmann (1979), or any other introduction to formal language theory. 3.1. Object-based Architectures 3.1.1. Graphs and Trees Tesnie`re used graphical illustrations to represent syntactic structure, called stemmata.
Definition 1. Acyclicity No node dominates itself: ÿ∃x 苸 ᏺ : x ⫹x Definition 2. Tree For all nodes, their dominating node, if existent, is unique: ∀x, y, z 苸 ᏺ : (y x ∧ z x) ⇒ (y = z) Definition 3. Rooted Graph All nodes are dominated by one node, the root: ∃x 苸 ᏺ : ∀y 苸 ᏺ : x ⫹ y ∨ x = y We interpret as immediate dominance: Whenever x y for two nodes x, y 苸 ᏺ, we will say that node x dominates node y. The basic assumption of DG, namely that nodes in syntactic structure represent words, and not abstract categories, is accomodated if each node corresponds to one word and vice versa. In this chapter, we will consider only acyclic rooted trees as syntactic structures, although this is not uncontroversial (e. g., Word Grammar allows multiple mother nodes as well as cyclic structures (Hudson (1984, 83); (1990, 119))). 3.1.2. Node and edge annotations Typically, dependency theories distinguish several types of dominance (e. g., they distinguish subjects from objects). This distinction can formally be reflected by splitting the dominance relation into several relations: Let Ᏸ be the set of dependency relation types, and define for each d 苸 Ᏸ a relation d over ᏺ * ᏺ. All d are pairwise disjoint (∀d, d⬘ 苸 Ᏸ : d ∩ d⬘ = π), which means that between any two nodes at most one relation holds. All d combined yield the original dominance relation, i. e. = ∪d苸Ᏸ d. In addition to the dependency annotation on edges, node annotations are often used to provide further information about the syntactic structure. Linguistic examples are word
298
III. Dependenz. Grundlagen und Grundfragen
class (part of speech), lexeme, or morphosyntactic features of word forms. A word class annotation can be realized as follows: Let Ꮿ be the set of word classes, and define a function FᏯ : ᏺ J Ꮿ which maps nodes to word classes. Similarly, we will use the function Fᐃ : ᏺ J ᐃ to map nodes to their corresponding surface word forms. 3.1.3. An example Wrapping up the previous definitions, we notate a dependency tree as a tuple *r, ᏺ, d 1, … dm, FᏯ, Fᐃ+, where r 苸 ᏺ is the root node, Ᏸ = {d1, … dm} the set of dependency types, di ᏺ * ᏺ the dependency relation of type di, FᏯ : ᏺ J Ꮿ the word class assignment, and Fᐃ : ᏺ J ᐃ the surface form assignment. Ᏸ, Ꮿ and ᐃ are only implicit in this notation, but should be clear from the context. Relations and functions are notated as sets of pairs, e. g. subj = {*n2, n1+} means that there is only one subject dependency, such that node n2 dominates node n1. Fig. 2 gives an example graph written similar to Heringer (1993) (only node names ni have been added), while Table 25.1 spells out the same tree in set notation. n2 Verb
L(w) = *r, ᏺ, , Fᐃ , FᏯ+ where *r, ᏺ, + defines a tree rooted in r with Fᐃ (r) = w and Fᐃ (n) undefined for any n 苸 ᏺ\{r}. (To accomodate lexical ambiguities, L must map word forms to a set of lexical structures, generalizing this definition slightly.) r is called the lexical anchor in L(w), i. e., the sole lexical element in it. If the word has no valencies, it is mapped to a tree of depth 1 (like ‘John’ in Fig. 3); otherwise it is mapped to a tree of depth 2 where the valencies are represented by nodes on the second level (like ‘likes’ in Fig. 3). Two trees t1, t2 may be combined by substituting t2 for a leaf l of t1, provided l is not already lexically filled (Fᐃ (l) is undefined) and the categories of l and the root r2 of t2 match (FᏯ(l) = FᏯ(r2)); see Fig. 3. Verb
obj
subj n1 Noun ‘John’
3.1.4. Grammar formalism A simple grammar formalism can be derived from this representation of syntactic structure as follows: Associate parts of the syntactic structure of a sentence with that sentence’s words, and define an operation combining these lexical structures. Formally, we define the lexicon to be a function L mapping words to trees, such that
‘likes’
obj
subj
n3 Noun
Noun
‘beans’
‘John’
Fig. 25.2: Dependency tree in graph notation
*n2, {n1, n2, n3}, {*n2, n1+}, {*n2, n3+}, {*n1, Noun+, *n2, Verb+, *n3, Noun+}, {*n1, ‘John’+, *n2, ‘likes’+, *n3, ‘beans’+}+ Table 25.1: Dependency tree in set notation
Note that the dashed lines connecting nodes to surface forms, whose status is unclear in (Heringer 1993), are the graphical representation of Fᐃ, the function mapping nodes to surface forms. This graphical rendering, which makes the sentence under consideration more obvious, has been chosen to be different from the rendering of FᏯ, which puts the class name below the node name.
Noun
Noun
‘likes’
Fig. 25.3: Substitution operation
3.1.5. Some Instantiations The bulk of the work in DG can be classified as object-based. Lexicase (Starosta 1988) employs very simple formal means, but has been applied to an impressive set of languages. It derives fully specified lexical entries from partial ones via lexical redundancy rules, and combines them using substitution (or rather, identification of matching nodes) as well as special rules for, e. g., topicalization and control phenomena. Meaning-Text Theory (Mel’cˇuk 1988) defines seven levels of liniguistic representation (from semantic to surface-phonetic), which are linked by rule systems (a rule formalism
25. Formal Foundations of Dependency Grammar
299
is proposed in Gladkij/Mel’cˇuk 1975). MTT also comes with a lexicon model (Mel’cˇuk/ Polguere 1987), which includes abstract semantic relations between lexemes, called lexical functions. Mel’cˇuk/Pertsov (1987) describe the surface-syntactic component of an English MTT, and Iordanskaja et al. (1992); Rambow/Korelsky (1992) are examples for MTT-based text generation systems. Kunze (1975) has presented a formal architecture (called Abhängigkeitsgrammatik) where feature annotations and interactions are specified in a very detailed manner. Unfortunately, it is limited to projective trees, and there is no discussion of the complexity or expressivity of the formalism. Dependency Unification Grammar (Hellwig 1988; 1986), also applied to German, is oriented towards a computer implementation. It extends the objects with features typically found in descriptions (like disjunction), provides limited handling of non-projectivity, and aims to produce a dependency-based meaning representation.
This means we will have one modal atom for each word class, and one for each word form, giving us the atomic formulae. We will also have one modal operator for each dependency type d, written 앳d. Additionally, we have a truth-functional set of Boolean connectives. Table 25.2 defines the syntax of this description language ᏸᏰ. A node n in a tree t satisfies a formula ›, written as t, n 1 ›, if the constraints expressed in ø are met by n; the exact definition for each formula is given in Table 25.3.
3.2. Description-based Architectures The careful reader has noticed that the object-based architecture does not fit Fig. 25.1: It lacks a calculus. This is rectified with description-based architectures, which add a language to describe linguistic objects as well as operations to combine smaller descriptions into larger ones. 3.2.1. Multi-modal Description Language We will use a modal logic for the formulation of the constraints; other choices are possible as well (Johnson 1994; Rogers 1996; Stabler 1997). Please be aware that the standard application of modal logic supplies interpretations such as necessity or possibility to a calculus which receives a different interpretation here. In modal logic, a formula describes local conditions on a node, and there are two types of constraints: Either the node needs to have a certain property, or another node (whose properties are given in a subformula) must be related to (or accessible from) the original node. Properties are written as modal atoms (such as noun, verb, ‘John’, etc.), accessibility conditions as modal operators (such as 앳subj, 앳obj, etc). For a standard introduction to modal logic see Fitting (1984), for other applications of modal logic to syntax see Blackburn 1994; Blackburn et al 1993; Kracht (1995).
∀c 苸 Ꮿ ∀w 苸 ᐃ 앳d › ∀d 苸 Ᏸ, › 苸 ᏸᏰ (› ∧ c) ∀›, c 苸 ᏸᏰ (ÿ ›) ∀› 苸 ᏸᏰ c ‘w’
Table 25.2: Valid Expressions in ᏸᏰ
苸 ᏸᏰ iff FᏯ (n) = c 苸 ᏸᏰ iff Fᐃ (n) = w 苸 ᏸᏰ iff ∃m 苸 ᏺ : (*n, m+ 苸 d ∧ t, m 1 ›) t, n 1 (› ∧ c) 苸 ᏸᏰ iff t, n 1 › and t, n 1c t, n 1 (ÿ ›) 苸 ᏸᏰ iff not t, n 1 › t, n 1 c t, n 1 ‘w’ t, n 1 앳d ›
Table 25.3: Satisfaction in ᏸᏰ
Since any formula represents a large set of models (any object meeting additional constraints also satisfies the formula), it is not a priori clear which one to pick. The usual choice is to take the minimal model, i. e., the object which has the smallest set of nodes, dependency relations, etc., while still satisfying the formula. 3.2.2. The Example Continued Table 25.4 describes the dependency tree from Fig. 25.2. The formula requires the existence of a node which is mapped to the word class verb and the surface form ‘likes’. In addition, it is required to dominate two other nodes, one in relation subj and the other in relation obj. The subordinate nodes must be mapped to the word class noun, and to the word forms ‘John’ and ‘beans’, respectively. Since node n2 satisfies this formula, the dependency tree in Fig. 25.2 is one of its minimal models (it is not the only one, since we are disregarding word order here). verb ∧ ‘likes’ ∧ 앳subj (noun ∧ ‘John’) ∧ 앳obj (noun ∧ ‘beans’) Table 25.4: Description of dependency tree
300
III. Dependenz. Grundlagen und Grundfragen
3.2.3. Grammar Formalism The description language ᏸᏰ already gives us a grammar formalism. Any (satisfiable) formula describes a set of objects, and the operation of conjoining two formulae corresponds to the intersection of the object sets. Subordinating a tree described by formula f to a node n in dependency relation d amounts to extending the formula constraining n by a conjunct 앳d ( f ).
can be exploited for parsing. Often, socalled tabular algorithms keep a record of analyses for substrings of the entire utterance. When based on descriptions, these records may be more compact than records based on fully specified objects. More generally, parsing within a description-based architecture can be viewed as a constraint-satisfaction problem, for which there are very general solution algorithms.
3.2.4. Relation to Object-based architectures What is the value of adding a calculus to an object-based architecture? The main difference between structures and descriptions of structures is that descriptions can be partial and be combined into larger and more specific descriptions of the same object, while objects are always fully specified. This difference allows the description-based architectures to differ from object-based architectures in the following areas:
3.2.5. Some Instantiations There is a prominent description-based architecture, Word Grammar (Hudson 1984; 1990), which employs nearly natural-language descriptions for complex structures covering, amongst others, semantics, syntax, and morphology. Like Lexicase, Word Grammar has been applied to many languages. It makes extensive use of inheritance in lexical descriptions (Fraser/Hudson 1992). DACHS (Bröker 1997) concentrates on the integration of different linguistic knowledge sources, focussing on morphological features, word order, and encyclopedic knowledge. It uses an extension of the description language introduced above. Constraint Dependency Grammar (Maruyama 1990a; 1990b; Harper/Helzerman 1995) does not follow Tesnie`re as closely, but still describes syntactic structure as a graph with nodes representing words. Legal relations are described by implication constraints, which refer to word class, relations, and textual position of the words.
⫺ Variation (such as optional dependents, alternative realization of dependents, ordering alternatives, etc.) can in an objectbased architecture only be represented by a set of fully specified objects; since the different variations must be multiplied out into all possible combinations, this set may be large. Descriptions, on the other hand, may contain alternative sub-descriptions (in the form of disjunctions), which allows to share the constant parts and localizes the variation (no need to enumerate all combinations explicitly). Thus, a description-based architecture leads to more readable grammars since they are smaller and more local. ⫺ Linguistic information comes from different sources. For example, information about a word form may come from the lexeme realized in the word form, or the morphological features of the word form. Fully specified objects for morphologically different word forms do not represent the relation between the word forms (a common lexeme), and introduce redundancy into the grammar. Both disadvantages are avoided in description-based architectures, where the description of word forms can be constructed by combining the lexeme’s description with the description of the specific morphological features of the word forms. ⫺ The fact that descriptions can be underspecified, i. e., that one description represents a large set of more specific objects,
3.3. Proof-based Architectures The object- and the description-based architectures use models which directly correspond to Tesnie`re’s stemmata. Dependency Grammar Logic (DGL, (Kruijff 2001; 1999)) formalizes dependency theory using a typelogical (or categorial) calculus where the derivation process, rather than the models, contains information about the dependency structure. In the following, I will ignore one characteristic of type-logical grammar in general (cf. Sec. 5.3), and DGL in particular, namely the construction of a semantic structure consisting of l-expressions in parallel to the syntactic structure. As is common in type-logical grammar, DGL represents linguistic objects as signs consisting of a surface structure and a syntactic type, employs basic types and operators to construct complex types, and defines deduction rules to combine the types. Each bi-
25. Formal Foundations of Dependency Grammar
301
nary operator is complemented by a deduction rule stating how types containing this operator can be combined with other types. The standard operators are \ and /, for combining a functor type with a preceding or subsequent argument type, resp. The deduction rules work by cancelling basic types from complex ones, and typically insert the meaning representation associated with the basic type as an argument into the meaning representation associated with the complex type, which is therefore called the functor. The lexicon associates surface forms with types, and grammaticality of a sentence is equivalent to the existence of a proof which combines the types associated with the sentence’s words into a legal result type. A sentence is analyzed by retrieving the lexical types associated with the word forms, and applying the deduction rules until a legal result type is reached. The proof shows which argument type was combined with which functor type, and can thus be used to construct a dependency tree as illustrated in Sec. 3.3.1. DGL differs from standard type-logical approaches in the motivation behind types and operators, and therefore enriches the standard representation: From a set of basic types (e. g., noun), complex types can be formed by combination using several binary operators and by prefixation using unary operators (which are special to DGL). Dependency relations are encoded by the unary operators, of which there is one for every dependency relation (written 첸d for d 苸 Ᏸ) plus a special operator 첸dep signifying that the argument type has not yet been subordinated (or, in DGL terminology, functionally interpreted). Deduction rules map this generic operator to the specific dependency operators, which are used to encode the valency frame of functors. What is not shown in the example below is the usage of unary operators to also encode morphological features. For the construction of dependency trees, DGL proposes one last extension: In the surface structure, concatenation operators indicate the head of the construction. Instead of using the standard type-logical concatenation operator 쑗, DGL uses two headed concatenation operators < and >, where the arrow points to the governor.
the given set of premises, the consequence can be deduced. Since we disregard the semantic interpretation in this chapter, linguistic signs are bipartite and are written as ‘surface string’: type. Lexical entries correspond to axioms, so there is no premise in the lexical descriptions. To analyze the sentence from Fig. 25.2, the following lexicon entries are needed. The first two state that the word forms ‘John’ and ‘beans’ are nouns which must be subordinated. The third encodes the word class as well as the arguments of ‘likes’, by adding dependency operators and the required dependent’s types, using binary combination operators.
3.3.1. The Example reformulated In the following, the rules will be written as premise(s) [rule name], meaning that from consequence
‘John’: 왏depNoun ‘beans’: 왏depNoun
[lex] [lex]
‘likes’: ((왏subjNoun\왏depVerb)/왏objNoun)
[lex]
For subordinating types there are special rules which specialize the 첸dep operator. Note that such rules may also refer to morphological features encoded in unary operators to eliminate overgeneration. ‘X’: 왏depNoun [subj] ‘X’: 왏subjNoun ‘X’: 왏depNoun [obj] ‘X’: 왏objNoun The so-called elimination rules for the combination operators require two premises, namely the two items to combine. In both rules, X is the argument, Y the functor, and d the dependency relation to establish. ‘X’: 왏dA, ‘Y’: 왏dA\B [\] ‘X ⬎Y’:B ‘Y’: B/왏dA, ‘Y’: 왏dA [/] ‘Y ⬍ X’:B Now the proof from Fig. 25.4 is available. To derive a dependency tree as in Fig. 25.2 from this proof, every application of an elimination rule gives rise to a dependency relation is follows: From the surface structure of the premises, the governors are determined; to allow this, the headed concatenation operators were introduced. The dependency operator eliminated by the rule (첸d in the rule definitions above) determines the dependency relation to establish between the governor of
302
III. Dependenz. Grundlagen und Grundfragen
[lex]
[lex],
‘John’ : dep Noun ‘likes’:(( subj Noun\ dep Verb)/ obj Noun) [subj], ‘likes < beans’ ‘John’ : subj Noun ‘John’ > (likes < beans)’: dep Verb
‘beans’ : dep Noun ‘beans’ : obj Noun
[lex] [obj] [/]
[/]
Fig. 25.4: Proof for sentence ‘John likes beans’
the functor sign (which contains the combination operator eliminated by the rule) and the governor of the argument sign. The application of the (/) rule above establishes the dependency relation obj between ‘likes’ as governor and ‘beans’ as dependent, and the application of the (\) rule establishes the dependency relation subj between ‘likes’ as governor and ‘John’ as dependent, yielding the dependency tree from Fig. 25.2. It would be easy to enrich the surface structure of the sign to directly encode the dependency tree, thereby eliminating the need for an interpretation step on the derivation tree. 3.3.2. Grammar Formalism The formalism used in DGL, as presented so far, is based on bipartite linguistic signs, which consist of a surface structure and a type, and which are processed by a set of deduction rules. Lexical entries play the role of axioms, and introduce signs into the proof. A sentence is grammatical if a proof exists which results in a sign containing a legal result type. The surface structure consists of word forms and the two headed concatenation operators, < and >, which are introduced into the surface structure by elimination rules. The type is composed of simple types (which roughly correspond to word classes), binary combination operators, and unary dependency operators. The deduction rules fall into three classes. There are lexical rules without premises, elimination rules which describe how types containing combination operators combine with other types, and dependency rules which specialize the general dependency operator 첸dep into specific dependency operators. To overcome a limitation of standard typelogical grammar with respect to word order, DGL is based on multi-modal type-logical grammar, which defines several modes of combination, and limits the applicability of certain rules to certain modes. Refer to the discussion of word order and multi-modality in Sec. 5.3. for further motivation and details.
Wrapping up, DGL is a type-logical grammar which extends multi-modal type-logical formulations by different headed concatenation operators, and unary dependency operators, as well as the corresponding deduction rules. 3.3.3. Relation to Description-based Architectures To avoid unnecessary terminological confusion, let me stress that the meaning of multimodal in this section is different from that in Sec. 3.2.: For the description-based architecture, multi-modality refers to the existence of several linguistic relations (different dependency relations, precedence, semantic relations, etc.). In proof-based architectures, a mode corresponds to an operation combining linguistic signs, and multi-modality refers to the co-existence of several such operations with different characteristics. Furthermore, there may be other instantiations of description-based architectures not relying on (multi-)modal logic. Formally, the models of description-based and proof-based architectures are identical (both use so-called Kripke structures), but they play a very different role: In description-based architectures, the model is the traditional dependency tree (with suitable extensions according to the theory under consideration), while in proofbased architectures, the model represents the behavior of the various combination operations. Models in description-based architectures correspond to the nodes of the models in proof-based architectures; the (analyzable) structure of description-based models determines their combinability, which is explicitly encoded in the relations of the proof-based models. In a way, the proof-based models are less interesting, because they don’t give more information than already contained in the formula they satisfy; they just complete the model-theoretic framework. A profound difference from the grammar writer’s viewpoint is to be found in the organization of the grammar: Although both approaches require very structured lexical en-
25. Formal Foundations of Dependency Grammar
303
tries, the proof-based architecture cannot be said to be as strictly lexicalized as the description-based architecture. The more power of the multi-modal setup is used, the more deduction rules specifying the individual mode’s behavior and its interaction with other modes must be spelled out. Although this is not a measurable criterion, large rule systems have over and over proven to be difficult to manage, independent of their application domain (e. g., natural language grammars, expert system rules, machine learning systems, etc.).
this tight relation, one may adapt parsing techniques for CFG (Earley 1970) to projective DGs, resulting in algorithms of a time complexity which is cubic in the number of input words (Lombardo/Lesmo 1996). This efficiency comes at a price, however: Projectivity prohibits linguistically well-motivated structures, and has therefore not been used in many recent DG architectures. Constituencybased grammars relax the projectivity constraint by the use of traces, coindexation, movement, slashed categories, etc. ‘know’
4. Word Order The previous section has only dealt with hierarchical structure, not with the linear ordering of the words. This chapter discusses problems of the simple projective setup studied by Gaifman, and presents proposals to use less restrictive ordering constraints. For simplicity, the discussion will be limited to objectbased and description-based architectures; the general approach in the proof-based architecture is sketched in Sec. 5.3. 4.1. Projective DG First, we will extend the definition of a dependency tree from Sec. 3.1. to include the linear order of words. Linear ordering is encoded by an ordering relation Ɱ over ᏺ ⫻ ᏺ. Ɱ thus is irreflexive, asymmetric, transitive, and total. A dependency tree is redefined to contain the additional component Ɱ as follows: *r, ᏺ, d 1, … dn, FᏯ, Fᐃ,Ɱ). Projectivity can then be defined as follows: Definition 4. Projectivity A tree is projective iff every word z appearing between a governor g and a dependent d is dominated by g: ∀g, d : g ⫹d ⇒ (∀z : ((g Ɱ z Ɱ d) ∨ (d Ɱ z Ɱ g)) ⇒ g ⫹z) Remember that = ∪d 苸 Ᏸd and that ⫹ is the transitive closure of . Graphically, this condition forbids any crossing lines when the tree is drawn above the surface string, and each word in the string is connected upwards to its corresponding node in the tree. The restriction to use only projective trees renders the grammar formalism context-free, i. e., any language generable with a projective DG can also be generated by a CFG. What is more, one can derive a CFG whose phrase marker encodes the dependency tree (Gaifman 1965). Because of
‘I’ ‘Beans’
‘likes’ ‘John’
Fig. 25.5: Non-projective dependency tree
Possibly the simplest example of non-projectivity is extraction in English: Consider the sentence ‘Beans I know John likes’ (cf. Fig. 5). Linguistically, the verb ‘know’ dominates another verb, ‘likes’, which in turn governs the fronted noun ‘Beans’; both relations are motivated by semantic and morpho-syntactic arguments. The resulting tree is not projective, however: Not all words between ‘Beans’ and its governor ‘likes’ are governed by ‘likes’. 4.2. Non-projective DG Grammars based on projective trees implicitly collapse two tasks, namely the assignment of a syntactic structure as well as the linear ordering of the words. Separating these tasks gives more flexibility, since the syntactic structure needs not directly determine the linear order of words. We still restrict the syntactic structure to trees, but these may not be projective anymore because word order is derived by additional means. Lifting as detailed below is one approach; topological fields (Gerdes/Kahane 2001) and rule systems (Mel’cˇuk/Pertsov 1987) are alternatives as well. If we want to relax the ordering constraints to allow non-dominated words to appear between a word and its dependents, then there appears the question of what other restrictions need to be formulated – words do not just appear in any order. Looking at the offending sentence again, there is a simple means of making it projective: Don’t attach
304
III. Dependenz. Grundlagen und Grundfragen ‘know’
‘know’ ‘I’ ‘Beans’
‘I’
‘likes’
‘Beans’
‘John’
‘likes’ ‘John’
‘know’ ‘I’ ‘Beans’
‘likes’ ‘John’
Fig. 25.6: Original (top left) and lifted tree (top right) in one diagram (bottom)
‘Beans’ to ‘likes’, but rather to its ancestor ‘know’. This operation of lifting (possibly across more levels than one) may turn any non-projective tree into a projective one: Trivially, all dependents can be lifted to the root node. But if certain liftings are ruled out, certain non-projectivities are marked ungrammatical because they cannot be turned into a projective tree anymore. Both the original and the lifted tree can be drawn in one diagram, where the relations introduced by lifting are dashed for identification. In such a diagram, a word may have two governors, the original one (connected to it by a solid line), called the syntactic governor, and a second (connected to it by a dashed line), called the linear governor. There are several proposals employing this idea. Word Grammar, without actually using the word ‘lifting’, allows one word to be governed by more than one word, one being the syntactic governor, and the rest being linear governors. The linear governors are linked to the word by a special dependency called visitor. Rules are formulated which determine whether a visitor dependent can be converted into a regular dependent, or whether it is the visitor of another regular dependent. Three recent proposals are explicitly based on lifting, and differ only in the description of allowed liftings (Kahane et al. 1998; Bröker 1998c; Lombardo/Lesmo 1998); they are compared in Bröker (2000). Specialized parsing algorithms are presented which record the unresolved lifting operations along with partial results. The parsing algorithms have an increased processing complexity, which mirrors the increased generative capacity of the formalism: While projective DG can only
generate context-free languages (e. g., a nb n), the non-projective DG can generate the context-sensitive language a nb nc n (and in fact any language x 1n x 2n … xmn for fixed m, cf. (Neuhaus/Bröker 1997; Bröker 2000)). TAG is conjectured to only be able to generate a nb nc nd n, i. e., can only guarantee the same number of up to four words in a sentence. As another conjecture, I believe that non-projective DG is not fully context-sensitive, because the context-sensitive reduplication language {ww 兩 w 苸 s⫹} cannot be generated. Kahane et al. 1998; Lombardo/Lesmo 1998; Bröker 2000 in fact contain parsing algorithms of polynomial complexity which depend on the grammar size and the sentence length.
5.
Comparison to Other Formalisms
Instead of identifying abstract trends in CL, and relating them to DG, this section picks three prominent formalisms, discusses some of their properties, and briefly compares them to DG formalisms, highlighting differences which constitute interesting research areas for dependency theory. I have selected the reference formalisms for their different advantages and mathematical foundations. For a comparison of DG with Lexical-Functional Grammar cf. Bröker (1998b; 1998a); for comments on the relation between DG and X-bar syntax cf. Covington (1992; 1994). 5.1. Tree-Adjoining Grammar Tree-Adjoining Grammar (TAG) (Joshi 1987; 1995) manipulates trees directly, combining them either by substitution (cf. Fig. 3) or by
305
25. Formal Foundations of Dependency Grammar S
S VP
VP
NP V ‘sees’
VP
NP NP
Adv
VP
‘surely’
Adv
VP
‘surely’ V
NP
‘sees’
Fig. 25.7: Adjunction operation
adjunction, whereby a node in one tree is split and another tree is spliced into the gap, provided the root and one leaf node of the second tree are of the same category as the node spliced (cf. Fig. 7). TAGs can thus be viewed as being object-based (although there are description-based variants as well (Rogers/Vijay-Schanker 1992)). TAGs provide three structures, namely the derived tree which is the result of combining all elementary trees, the word sequence which can be read off the derived tree, and the derivation tree which describes which elementary tree has been attached to which. In case the partial trees each contain exactly one lexical item, the TAG is said to be lexicalized (Schabes et al. 1988; Joshi 1995), and the derivation tree looks similar to a dependency tree (cf. (Schabes/Shieber 1992) for another definition of the derivation tree reducing the differences even further). TAGs have a greater weak generative capacity than CFGs; they generate so-called mildly context-sensitive languages (Weir 1988). Due to this fact, TAGs come with parsing algorithms of polynomial complexity (Becker 1994; Rambow/ Joshi 1994). Nevertheless, word order in natural language cannot be adequately described in the basic TAG formalism, which is the reason for several extensions (Becker et al. 1991; Joshi 1987; Rambow 1994). A discussion of word order in TAG compared to DG can be found in (Rambow/Joshi 1997). In contrast to DGs, TAGs formalize the distinction between complements (which occur once) and adjuncts (which occur zero or more times) by specifying the complements as substitution nodes and the adjuncts by socalled auxiliary trees which can be adjoined any number of times. The principle of putting all arguments of a lexical item into the tree describing that lexical item is called the extended domain of locality. From a dependency point of view, this corresponds to the valency
frame of the lexical item. There usually is no similar formal difference between complements and adjuncts in DG, but see Bröker (1997) for a distinction between valencies (for complements) and vacancies (for adjuncts). 5.2. Head-driven Phrase Structure Grammar Head-Driven Phrase Structure Grammar (HPSG) (Pollard/Sag 1987; 1994) can be classified as a description-based architecture. It is a very popular grammar formalism which grew out of a variation of phrase-structure grammar (Gazdar et al. 1985) and incorporates many ideas from different sources. Much work has been done describing linguistic phenomena of different languages within HPSG, as well as formulating the mathematical foundations of the formalism and the processing algorithms. HPSG is very similar to DG in that it identifies the head of a construction, and associates a set of possible arguments with it (which roughly corresponds to the valency frame). Generally speaking, HPSG descriptions consist of a set of attribute-value pairs (called an attribute-value matrix). The attributes may either be descriptive for a single word or clause (such as [POS: noun]) or be structural and have as their value an embedded attribute-value matrix (such as [daughter: [POS: noun]]). Such descriptions can be mapped to relational structures easily: Every attributevalue matrix and each single value (like noun) is mapped to a node in that structure, while the attributes correspond to the directed relations connecting these nodes. Coreference specifications may be included to state that two relations must end on one and the same node, thereby ensuring that two different sub-descriptions are satisfied by one and the same part of the relational structure. Due to the coreference specifications, the relational structures are not restricted to trees,
306
III. Dependenz. Grundlagen und Grundfragen
but may be general (directed) graphs (although cycles are generally excluded). HPSG not only describes lexical entries with attributive-value matrices, but also rules combining lexical entries into phrasal entries. The dependency tree from Fig. 2 can be described by the following attribute-value matrix (note that this only serves as an illustration of the notation of attribute-value matrices; HPSG employs an entirely different set of attributes): word: ‘likes’ POS: VERB word: ‘beans’ subj: POS: NOUN word: ‘beans’ obj: POS: NOUN
One interesting difference between the ways HPSG and DGs are formulated is the distinction between the possible dependents and the actual structure found: HPSG specifies the lexically legal arguments in the attribute ARG-ST, while the actual arguments found in the utterance are specified in the attribute DAUGHTERS. This opens the possibility to formulate rules which combine two argument descriptions from different lexical elements, called argument composition (Hinrichs/Nakasawa 1994; Kathol 1994). Argument composition has been employed in HPSG to describe raising and control phenomena, which cannot be nicely captured in pure dependency trees. Typical analyses of raising and control in DG employ additional formal expressivity, such as graph structures, co-indexation, etc. It may also be possible to implement the complex elements introduced by (Lobin 1993) with the help of argument composition. 5.3. Type-logical Grammar Following a recent shift in terminology, I use type-logical grammar for what is elsewhere called categorial grammar. Depending on their viewpoint, some researchers have equated dependency grammar with type-logical grammar (e. g., Hudson (1993) subsumes categorial grammar under DG, whereas Milward (1992) does the reverse). Type-logical grammar (Lambek 1988; Oehrle et al. 1988; Buszkowski 1988; Milward 1994) is characterized by lexicalization,
identification of semantic functors, and a tight integration of a meaning representation. Expressions (words or phrases) are assigned types, which are atomic for arguments (e. g., S, NP) or complex for functors. Complex types are formed from atomic types and (direction-sensitive) combination operators, whose behavior is defined in deduction rules. A complex type (NP\S)/NP) thus will first combine with an expression of type NP to its right, and then with another expression of type NP to its left, finally yielding an expression of type S. One difference to DG can be found here: The functor is semantically motivated, and thus may differ from the syntactically motivated governor. It is easy to see that complex types can be interpreted as valency frames, and that a conventional dependency tree could be recovered from a proof in type-logical grammar, provided that heads are identified and dependency relations can be inferred (see Sec. 3.3 for such a proposal). Due to the directionality of the combination operators, the formalism is limited with respect to word order variation. For example, to handle extraposition, another category NP\(NP\S) is needed for ‘likes’ which requires the combination (or function application) in inverse order due to the different word order. One solution is the addition of unary deduction rules called type-raising rules (Steedman 1991; Dowty 1988). They restructure the type as required and change the meaning representation to adapt it to the different order of combination (by adding l-abstractions). Type-raising rules can either be thought of as lexical rules, or be applied dynamically during the proof. In any case, they derive many additional types. The down-side of this approach is that often many alternative proofs exist for the same (unambiguous) utterance, and automatic processing is slow due to the many possibilities even in cases where only one valid proof can be found. These problems have led to multi-modal type-logical grammars, which move from one implicit mode of combination to several explicitly defined modes, where each deduction rule is applicable only in a subset of the modes. The rules of associativity and commutativity are examples of restructuring rules, which lead to overgeneration if applied indiscriminately. To restrict their applicability to certain contexts, each combination operator is split into several operators, distinguished by the mode they are applicable to. In a natural language grammar, e. g., there
25. Formal Foundations of Dependency Grammar
307
may be a general mode for complementation, which does not allow any argument permutation. A second mode is used to analyze topicalization, and allows the permutation of functor and arguments such that one complement may be fronted. Coordination phenomena may elegantly be handled by additional deduction rules, and special type-raising rules (Steedman 1991). For example, using the type-raising rule (TR) and the deduction rules for functor composition (FC) and conjunct combination (CC), the fragment ‘Mary likes and I dislike’ can be analyzed to be of category S/NP, correctly expecting another NP to its right to form a sentence.
are linked by rule systems. Meaning-Text Theory and Functional Generative Description (Sgall et al. 1986; Hajicova et al. 1993) are prominent examples, while many others employ only one level of representation. The question here is not whether linguistic information pertaining to, e. g., phonology, morphology, and syntax can or should be factored, but only how this is done. Stratified theories employ different representations and rule systems, while mono-stratal theories employ some kind of partitioning within one representation; this can be seen clearly in Word Grammar or DACHS. Even if the rules used in stratified theories are algorithmic, they may, for example, prevent a truly incremental processing because the rules cannot be applied to partial structures. ⫺ Lexicalization and Rules: Throughout the chapter, I have assumed a rather strict form of lexicalization: There has been no mention of rules apart from the proofbased architecture, which is inherently rules-based. Rules may be used in the specification of either the correspondence between strata (as in Meaning-Text Theory) or the combination of partial monostratal structures (as in Dependency Grammar Logic). Although a general trend in recent years has been to eliminate rules, and to strive for so-called declarative grammars, I believe that (explicitly defined) rules have their place in natural language grammars: Even though subordination (in Tesnie`re’s terminology) can be formulated using one very general rule (identification of tree nodes in object-based architectures, or conjoining formulae in description-based architectures), other important phenomena such as coordination, anaphora etc. probably require different combination rules. ⫺ Meaning: The discussion so far has been focussed on syntactic structure. But the description of form must be complemented by a description of meaning. Tesnie`re assumed each syntactic relation to be accompanied by an inversely directed semantic relation, but this surely is not enough to capture a sentence’s meaning. Nowadays, semantic structures are much more structured, containing information not only about predicates and their argu-
‘A’: NP ‘A’: S/(NP\S)
[TR]
‘A’: X/Y, ‘B’: Y/Z [FC] ‘A B’: X/Z ‘A’: X, ‘and’: Y, ‘B’: X [CC] ‘A and B’: X Type-logical grammars come with a tight coupling to semantics, in the form of predicate-argument structures (or l-expressions). Apart from its category, each lexical item is assigned an interpretation, where simple categories correspond to arguments, and complex categories correspond to functors expecting arguments of the respective categories. Combining, e. g., ‘beans’ of category noun and interpretation BEAN with ‘likes’ of category (noun\verb)/noun and interpretation l y.l x.LIKE(x, y) yields the interpretation l x.LIKE(x, BEAN), which represents the functor LIKE which still expects one argument.
6.
Conclusion
I have presented a three-way classification of formalisms which have been used for dependency theory, discussed their relations, listed some representative examples, and briefly compared them to other prominent linguistic formalisms. Due to the size of this chapter, several simplifications had to be made, which should at least be made explicit here: ⫺ Levels of representation: I have only briefly touched upon the question of stratification. As a rough definition, a stratified theory defines separate representations for different linguistic information, which
308 ments, but also about quantifier scope and anaphora, for example. Since semantics can be viewed as another level of representation, the remarks from above apply here as well: As long as the intended semantic representation can be encoded as a relational structure, it can be integrated into the framework presented. In fact, several dependency theories include such semantic structures, either as separate strata (Meaning-Text Theory, Functional Generative Description) or as part of the overall structure (Dependency Unification Grammar, Word Grammar, DACHS). A second very interesting approach to the meaning of a dependency tree is the glue language idea developed in the LFG framework (Dalrymple et al. 1999). Although there is no application to DG as far as I know, the similarity between dependency trees and LFG’s functional structure makes it a promising research area. ⫺ Lexical Information: As was briefly mentioned for description-based architectures, linguistic information on word forms may originate in different subsystems, ranging from phonology to syntax to encyclopedic knowledge. The representation of such heterogeneous information and its integration in linguistic processes is another research issue. Apart from the question of how to represent and integrate these different knowledge systems, it will be necessary for large-scale practical applications to factor variation and to eliminate redundancies in the representation. In summary, this chapter tried to illustrate the following: Formalization is an important tool for the linguist which must be based on linguistic theory and allows a deeper understanding of it. The choice of the actual notation is independent of the linguistic theory; compare description-based DGs with HPSG, or DGL with categorial grammars. The benefits of such a precise formalization are that dependency theory can be communicated better, and that the remaining research issues can be identified more clearly.
7. Select Bibliography Abbreviations: ACL ⫽ Association for Computational Linguistics COLING ⫽ International Conference on Computational Linguistics
III. Dependenz. Grundlagen und Grundfragen EACL ⫽ European Association for Computational Linguistics Becker, Tilman/Rambow, Owen (1994): Parsing Free Word-Order Languages in Polynomial Time. Technical Report TALANA-RT-94-01. Talana, Universite´ Paris 7. Becker, Tilman/Joshi, Aravind K./Rambow, Owen (1991): Long-Distance scrambling and tree-adjoining grammar. In: Proceedings of the 5th EACL, 21⫺26. Blackburn, Patrick (1994): Structures, Languages and Translations: The Structural Approach to Feature Logic. In: Johnson, Rod L./Rupp, C.J./ Rosner, Michael A. (eds.): Constraints, Language and Computation. London, 1⫺27. Blackburn, Patrick/Gardent, Claire/Meyer-Viol, Winfried (1993): Talking About Trees. In: Proceedings of the 6th EACL, 21⫺29. Bröker, Norbert (1997): Eine Dependenzgrammatik zur Kopplung heterogener Wissenssysteme auf modallogischer Basis. (Ph.D. thesis) Freiburg. Bröker, Norbert (1998a): How to define a contextfree backbone for DGs: Implementing a DG in the LFG formalism. In: Proceedings of the COLINGACL ‘98 workshop “Processing of Dependencybased Grammars”, Montreal/CAN, 29⫺38. Bröker, Norbert (1998b): A Projection Architecture for Dependency Grammar and How it Compares to LFG. In: Butt, Miriam/King, Tracy (eds.): Proceedings of the 1998 International Lexical-Functional Grammar Conference. online at: http://cslipublications.stanford.edu/LFG/3/lfg98.html Bröker, Norbert (1998c): Separating Surface Order and Syntactic Relations in a Dependency Grammar. In: Proceedings of the 17th COLING and 36th ACL, 174⫺180. Bröker, Norbert (2000): Unordered and non-projective dependency grammars. In: Traitement automatique des langues. Special issue: Les grammaires de de´pendance, 245⫺272. Buszkowski, Wojciech (1988): Three Theories of Categorial Grammar. In: Buszkowski, Wojciech/ Marciszewski, Witold/van Benthem, Johan (eds.): Categorial Grammar. Amsterdam, 57⫺84. Chomsky, Noam (1957): Syntactic Structures. Den Haag. Collins, Michael (1997): Three generative, lexicalized models for statistical parsing. In: Proceedings of the 17th Annual Meeting of the ACL, 16⫺23. Covington, Michael (1992): GB Theory as Dependency Grammar. Research Report University of Georgia AI-1992-03. Athens, GA. Ders., (1994): An Empirically Motivated Reinterpretation of Dependency Grammar. Research Report University of Georgia AI-1994-01. Athens, GA. Dalrymple, Mary/Lamping, John/Pereira, Fernando/Saraswat, Vijay (1999): Quantifiers, Anaph-
25. Formal Foundations of Dependency Grammar
309
ora and Intensionality. In: Dalrymple, Mary (ed.): Semantics and Syntax in Lexical Functional Grammar. Cambridge/MA, 39⫺89. Dowty, David (1988): Type Raising, Functional Composition, and Non-constituent Conjunction. In: Oehrle, Richard T./Bach, Emmon/Wheeler, Deirdre (eds.): Categorial Grammars and Natural Language Structures (⫽ Studies in Linguistics and Philosophy 32). Dordrecht, 153⫺197. Earley, Jay (1970): An Efficient Context-Free Parsing Algorithm. In: Communications of the Association for Computing Machinery 13, 94⫺102. Eisner, Jason (1996): Three New Probabilistic Models for Dependency Parsing: An Exploration. In: Proceedings of the 16th COLING, 340⫺345. Fitting, Melvin (1984): Basic Modal Logic. In: Gabbay, Dov M./Guenthner, Franz (eds.): Handbook of Philosophical Logic. Dordrecht, 365⫺448. Fraser, Norman/Hudson, Richard (1992): Inheritance in Word Grammar. In: Computational Linguistics 18, 133⫺158. Gaifman, Haim (1965): Dependency Systems and Phrase Structure Systems. In: Information and Control 8, 304⫺337.
Heringer, Hans Jürgen (1993): Basic Ideas and the Classical Model. In: Jacobs, Joachim/von Stechow, Arnim/Sternefeld, Wolfgang/Vennemann, Theo (eds.): Syntax. Ein internationales Handbuch zeitgenössischer Forschung. Berlin/New York, 298⫺316.
Gazdar, Gerald/Klein, Ewan/Pullum, Geoffrey/ Sag, Ivan A. (1985): Generalized Phrase Structure Grammar. Oxford. Gerdes, Kim/Kahane, Sylvaine (2001): Word Order in German: A Formal Dependency Grammar Using a Topological Hierarchy. In: Proceedings of the ACL-EACL 2001, 220⫺227. Gladkij, Aleksej/Mel’cˇuk, Igor (1975): Tree Grammars: A formalism for syntactic transformations in natural languages. In: Linguistics 150, 47⫺82. Hajicˇova´, Eva/Sgall, Petr/Skoumalova´, Hana (1993): Identifying Topic and Focus by an automatic procedure. In: Proceedings of the 6th EACL, 178⫺182. Harper, Mary P./Helzerman, Randall A. (1995): Extensions to Constraint Dependency Parsing for Spoken Language Processing. In: Computer Speech and Language Vol. 9(3), 187-234. Hays, David G. (1964): Dependency Theory: A formalism and some observations. In: Language 40, 511⫺525. Helbig, Gerhard (1971): Theoretische und praktische Aspekte eines Valenzmodells. In: Helbig, Gerhard (ed.): Beiträge zur Valenztheorie. Den Haag, 31⫺49. Hellwig, Peter (1986): Dependency Unification Grammar. In: Proceedings of the 11th COLING, 195⫺198. Hellwig, Peter (1988): Chart parsing according to the slot and filler principle. In: Proceedings of the 12th COLING, 242⫺244. Hellwig, Peter (1993): Extended Dependency Unification Grammar. In: Hajicˇova´, Eva (ed.): Functional Description of Language. Prague, 163⫺178.
Hinrichs, Erhard/Nakasawa, Tsuneko (1994): Linearizing AUXs in German Verbal Complexes. In: Nerbonne, John/Netter, Klaus/Pollard, Carl J. (eds.): German in Head-driven Phrase-Structure Grammar. Stanford/CA, 11⫺37. Hopcroft, John E./Ullmann, Jeffrey D. (1979): Introduction to automata theory, languages, and computation. Reading/MA. Hudson, Richard (1984): Word Grammar. Oxford. Hudson, Richard (1988): Coordination and grammatical relations. In: Linguistics 24, 303⫺342. Hudson, Richard (1990): English Word Grammar. Oxford. Hudson, Richard (1993): Do we have heads in our minds? In: Corbett, Greville G./Fraser, Norman/ McGlashan, Scott (eds.): Heads in grammatical theory. Cambridge, 266⫺291. Iordanskaja, Lidija/Kim, Myunghee/Kittredge, Richard/Lavoie, Benoit/Polguere, Alain (1992): Generation of Extended Bilingual Statistical Reports. In: Proceedings of the 14th COLING, 1019⫺1023. Johnson, Mark (1994): Two ways of formalizing grammars. In: Linguistics and Philosophy 17, 221⫺248. Joshi, Aravind K. (1987): An introduction to tree adjoining grammars. In: Manaster-Ramer, Alexis (ed.): Mathematics of Language. Philadelphia, 87⫺114. Joshi, Aravind K. (1995) Some Linguistic, Computational and Statistical Implications of Lexicalized Grammars. In: Proceedings of the Conference on Recent Advances in Natural Language Processing, 1⫺4. Kahane, Sylvaine/Nasr, Alexis/Rambow, Owen (1998): Pseudo-Projectivity: A Polynomially Parsable Non-Projective Dependency Grammar. In: Proceedings of the COLING-ACL ‘98, 646⫺652. Kathol, Andreas (1994): Passives without Lexical Rules. In: Nerbonne, John/Netter, Klaus/Pollard, Carl J. (eds.): German in Head-driven Phrase-Structure Grammar. Stanford/CA, 237⫺272. Klenk, Ursula (1995): Formale Sprachen. In: Jacobs, Joachim/von Stechow, Arnim/Sternefeld, Wolfgang/Vennemann, Theo (eds.): Syntax. Ein internationales Handbuch zeitgenössischer Forschung. Berlin/New York, 1576⫺1605. Kracht, Markus (1995): Is there a genuine modal perspective on feature structures? In: Linguistics and Philosophy 18, 401⫺458. Kruijff, Gert-Jan M. (1999): Diamonds for Dependencies. In: Proceedings of the 3rd International Workshop on Computational Semantics, 351⫺366.
310 Kruijiff, Gert-Jan M. (2001) A Categorial-Modal Logical Architecture of Informativity: Dependency Grammar Logic and Information Structure. (Ph.D. thesis) Charles University, Prague. Kunze, Jürgen (1975): Abhängigkeitsgrammatik (⫽ studia grammatica XII). Berlin. Lambek, Joachim (1988): The mathematics of sentence structure. In: Buszkowski, Wojciech/Marciszewski, Withold/van Benthem, Johan (eds.): Categorial Grammar. Amsterdam, 153⫺172. Lobin, Henning (1993): Koordinationssyntax als prozedurales Phänomen (⫽ Studien zur deutschen Grammatik 46). Tübingen. Lombardo, Vincenzo/Lesmo, Leonardo (1996): An Earley-type recognizer for dependency grammar. In: Proceedings of the 16th COLING, 723⫺728. Lombardo, Vincenzo/Lesmo, Leonardo (1998): Formal aspects and parsing issues of dependency theory. In: Proceedings of the COLING-ACL ‘98, 787⫺793. Maruyama, Hiroshi (1990a): Constraint Dependency Grammar and its weak generative capacity. In: Computer Software Vol. 7(3). Maruyama, Hiroshi (1990b): Structural disambiguation with constraint propagation. In: Proceedings of the Annual Meeting of the ACL, 31⫺38. Mel’cˇuk, Igor (1988): Dependency Syntax: Theory and Practice. Albany/NY. Mel’cˇuk, Igor/Pertsov, Nicolai (1987): Surface Syntax of English: A Formal Model within the MTT Framework. Philadelphia. Mel’cˇuk, Igor/Polguere, Alain (1987): A Formal Lexicon in the Meaning-Text-Theory (or how to do lexica with words). In: Computational Linguistics 13, 261⫺275. Milward, David (1992): Dynamics, Dependency Grammar, and incremental interpretation. In: Proceedings of the 14th COLING, 1095⫺1099. Milward, David (1994): Dynamic Dependency Grammar. In: Linguistics and Philosophy 17, 561⫺605. Neuhaus, Peter/Bröker, Norbert (1997): The Complexity of Recognition of Linguistically Adequate Dependency Grammars. In: Proceedings of the 35th ACL and 8th EACL, 337⫺343. Oehrle, Richard T./Bach, Emmon/Wheeler, Deirdre (1988): Categorial Grammars and Natural Language Structures (⫽ Studies in Linguistics and Philosophy 32). Dordrecht. Pollard, Carl J./Sag, Ivan A. (1987): InformationBased Syntax and Semantics 1: Fundamentals. Stanford/CA. Pollard, Carl J./Sag, Ivan A. (1994): Head-Driven Phrase Structure Grammar. Chicago/IL. Rambow, Owen (1994): Formal and Computational Aspects of Natural Language Syntax. (Ph.D. thesis) Pittsburgh/PA.
III. Dependenz. Grundlagen und Grundfragen Rambow, Owen/Joshi, Aravind K. (1994): A Processing Model for Free Word Order Languages. In: Clifton, Charles J./Frazier, Lyn/Rayner, Keith (eds.): Perspectives on Sentence Processing. Hillsdale/NJ. Dies., (1997): A Formal Look at Dependency Grammars and Phrase-Structure Grammars with special consideration of word-order phenomena. In: Wanner, Leo (ed.): Current Issues in MeaningText-Theory. Amsterdam, 167⫺190. Rambow, Owen/Korelsky, Tanya (1992): Applied Text Generation. In: Proceedings of the 3rd Annual Meeting of the Association for Neuro-Linguistic Programming, 40⫺47. Robinson, Jane (1970): Dependency Structures and Transformational Rules. In: Language 46, 259⫺ 285. Rogers, James (1996): A Model-Theoretic Framework for Theories of Syntax. In: Proceedings of the 34th Annual Meeting of the ACL, 10⫺16. Rogers, James/Vijay-Schanker, K. (1992): Reasoning with Descriptions of Trees. In: Proceedings of the 30th Annual Meeting of the ACL, 72⫺80. Samuelsson, Christer (2000): A statistical theory of dependency syntax. In: Proceedings of the 18th COLING, 684⫺690. Schabes, Yves/Abeille, Anne/Joshi, Aravind K. (1988): Parsing Strategies with ‘Lexicalized’ Grammars: Application to TAGs. In: Proceedings of the 12th International Conference on Computational Linguistics, 578⫺583. Schabes,Yves/Shieber, Stuart (1992): An Alternative Conception of Tree-Adjoining Derivation. In: Proceedings of the 30th ACL, 167⫺176. Sgall, Petr/Hajicˇova´, Eva/Panevova´, Jarmila (1986): The Meaning of the Sentence in its Semantic and Pragmatic Aspects. Dordrecht. Shieber, Stuart (1985): Evidence against the Context-freeness of Natural Language. In: Linguistics and Philosophy 8, 333⫺343. Stabler, Edward (1997): Derivational Minimalism. In: Retore´, Christian (ed.): Logical Aspects of Computational Linguistics Vol. 1328, 68⫺95. Starosta, Stanley (1988): The Case for Lexicase. London/New York. Steedman, Mark (1991): Type-Raising and Directionality in Combinatory Categorial Grammar. In: Proceedings of the 29th ACL, 71⫺78. Tesnie`re, Lucien (1959): Ele´ments de syntaxe structurale. Paris. Tesnie`re, Lucien (1980): Grundzüge der strukturalen Syntax. Edited and translated by Ulrich Engel. Stuttgart. Weir, David (1988): Characterizing Mildly ContextSensitive Grammar Formalisms. (Ph.D. thesis) Pittsburgh/PA.
Norbert Bröker, Ravenberg (Germany)
311
26. Empirische Argumente für Dependenz
26. Empirische Argumente für Dependenz 1. 2. 3. 4. 5. 6.
1.
Warum müssen Dependenzrelationen bewiesen werden? Zur psychologischen Realität der dependentiellen Analyse Empirische Argumente für die Gerichtetheit von Dependenz Empirische Argumente für die psychologische Realität von Satzgliedern Zusammenfassung Literatur in Auswahl
Warum müssen Dependenzrelationen bewiesen werden?
1.1. Die axiomatische Grundlage des Zweifels Auf die Suche nach Argumenten für Dependenz muss man sich nur dann begeben, wenn man die Existenz dieser Relation ernsthaft in Zweifel zieht. Aber sind Dependenzrelationen nicht selbstevident? Diese Frage liegt nahe, ist doch für jeden kompetenten Sprecher erkennbar, dass Sätze keine Additionen von beliebig miteinander vertauschbaren Elementen darstellen. Sätze sind nur dann perzipierbar, wenn sie ‘richtig’, d. h. nicht willkürlich segmentiert werden. Es handelt sich um funktionale Einheiten, die dadurch definiert sind, dass das Ganze mehr ist als die Summe seiner Teile. Die Relationen, die diesen ‘Mehrwert’ erzielen, gehören zur Familie der Dependenzrelationen. Durch Koordinationsrelationen lässt sich dagegen im Bereich der Syntax kein syntaktischer Mehrwert erreichen; es wird lediglich die additive Reihung der Elemente bewirkt. Es ist unbestritten, dass alle Sätze der uns bekannten Sprachen primär funktionale Ganzheiten im soeben definierten Sinn darstellen. In Sätzen überwiegen Subordinationsrelationen; Koordination spielt dagegen eine untergeordnete Rolle. Liegt dann die Beweislast genaugenommen nicht bei der Seite, die Dependenzrelationen leugnet? Wie kommt eine solche kontraintuitive Behauptung dann überhaupt in die Welt? Die wenigsten machen sich bewusst, dass sich die Skepsis gegenüber Dependenzrelationen ganz notwendig aus einer spezifischen, heute häufig unreflektierten Axiomatik speist: gemeint ist das nominalistische Credo der frühen Neuzeit, wonach es in der Welt keine Relationen gebe, sondern lediglich beziehungslose Einheiten. Die Relationen zwischen den Einheiten werden als willkürliche Konstrukte des menschlichen Geistes betrachtet, denen kein Korrelat in der Welt entspreche.
Nun gilt die Aussage, dass wir die Einheiten der Welt beliebig miteinander kombinieren und in Beziehung setzen können, tatsächlich immer dann, wenn Koordiationsrelationen vorliegen. In diesem Sinn könnte man sogar behaupten, dass bei Koordination tatsächlich keine Relation vorliegt, zumindest nicht im Sinne eines ‘engen Bands’ zwischen den Teilen, da sich koordinierte Teile ja beliebig neu miteinander kombinieren lassen. Koordination ist für die Glaubenswelt des Nominalisten somit kein Problem. Anders verhält es sich mit der Dependenzrelation. Da bei Vorliegen von Dependenz tatsächlich vom realen Vorliegen einer Relation (‘Konnexion’ im Sinne Tesnie`res) ausgegangen werden muss, solche Relationen aufgrund der axiomatischen Setzung des Nominalismus jedoch keine Existenzberechtigung haben, werden diese ganz einfach geleugnet. Der skeptische Zweifel an Dependenzrelationen erweist sich als dogmatischer Zweifel, für den jedoch kein Beweis erbracht wurde. In diesem Sinne lässt sich strenggenommen kein Gegenbeweis führen. Wer Evidentes anzweifelt, wird durch weitere Evidenz nicht zu überzeugen sein. Und evident sind Dependenzrelationen durchaus. Gegen die nominalistische Position lässt sich nämlich einwenden, dass allein die beobachtbare Tatsache, dass sich willkürlich zerlegte Einheiten nicht wieder problemlos zusammensetzen lassen, einen Beweis für die Zerstörbarkeit und damit gleichzeitig auch für die Existenz von Relationen darstellt. Bei der Suche nach empirischen Argumenten für Dependenz finden wir uns also in der paradoxen Situation, dass die Beweislast strenggenommen auf der anderen Seite liegt. Der Schwerpunkt liegt im Folgenden vor allem auf dem Nachweis der psychologischen Realität von Dependenzrelationen. Die Frage, ob die psychologische Realität der Ontologie entspricht, bleibt ausgeklammert, denn hier ist selbstverständlich nicht der Ort, um in weitere wissenschaftstheoretische Grundlagendiskussionen einzutreten. Es sollte nur transparent gemacht werden, woher sich der Zweifel an Relationen im allgemeinen und an Dependenzrelationen im besonderen speist. 1.2. Terminologische Klärung Dependenzrelationen finden sich heute in allen uns bekannten syntaktischen Modellen integriert. Die Untersuchung von Dependenz
312 gehört sogar zu den zentralen Bereichen, mit denen sich die Phrasenstrukturgrammatik aktuell auseinandersetzt (Lust et al. 1994, 1). Es stellt sich jedoch die Frage, ob diese Integration geglückt ist. Soviel lässt sich auf jeden Fall festhalten: Die Welt der Syntaktiker lässt sich längst nicht mehr auf die einfache Opposition von Konstituenz- versus Dependenzmodellen reduzieren. Die Rede von ‘Heads’ oder ‘Köpfen’ ist nichts anderes als die Rede von Dependenz, nur in spiegelverkehrter Terminologie. Dependenz ist heute nicht nur in allen syntaktischen Modellen ubiquitär vorhanden: Auch die Entwicklungen der Silbenphonologie machen dramatisch deutlich, dass erst die Berücksichtigung von Dependenzrelationen entscheidende Erkenntnisfortschritte gebracht hat. Im Folgenden wird darauf insistiert, dass die Prinzipien der Konstituenz und der Dependenz keinen unterschiedlichen oder gar inkompatiblen syntaktischen Universen angehören. Konstituenz und Dependenz werden auch nicht als stark oder schwach äquivalente Beschreibungsverfahren betrachtet. Die Behauptung, dass beide Prinzipien äquivalent seien, wird allein durch ihre häufige Wiederholung ohne Anführung von überzeugenden Argumenten nicht richtiger. Vielmehr gilt, dass es sich um zwei komplementäre Prozesse der syntaktischen Analyse handelt. Es handelt sich um zwei kognitive Prozesse, die aufeinander aufbauen. Ihnen sollten im metasprachlichen Bereich ebenfalls zwei Phasen der Analyse entsprechen. Diese Praxis der syntaktischen Analyse war im späten Mittelalter mit ihren vermeintlich übertriebenen ‘grammatischen und philosophischen Spitzfindigkeiten’ selbstverständlich. Darauf hat Baum 1976 in seiner gründlichen Analyse zu Tesnie`res Syntaxmodell aufmerksam gemacht. Die Einsicht in die Komplementarität und Notwendigkeit beider Verfahren bei jeder syntaktischen Analyse geht auf die Grammatikschreibung des späten Mittelalters zurück (Baum 1976, 28). In der scholastischen und ‘spekulativen’ Grammatiktheorie der Modisten im 13. und 14. Jahrhundert stellt der Dependenzbegriff einen Schlüsselbegriff der syntaktischen Analyse dar. Baum weist ausdrücklich darauf hin, dass Dependenz als Relation zwischen zuvor ermittelten Konstituenten verstanden wurde. Tesnie`res bekannter Beispielsatz Alfred singt wäre somit zunächst in Konstituenten zerlegt worden, wenn auch nicht in die uns als selbstverständlich erscheinenden Teile Alfred und
III. Dependenz. Grundlagen und Grundfragen
singt. Nehmen wir als heute vertrautes Beispiel folgenden Baumgraphen: S ∑∂ NP VP In einem nächsten Schritt wurde dann zwischen den Konstituenten, die sich auf einer Ebene befinden, die dort vorliegende Relation (‘Konnexion’ in Tesnie`res Terminologie) ermittelt: „Zwischen den beiden Konstituenten eines Syntagmas besteht eine und nur eine Relation, die der Dependenz“ (Baum 1976, 29). Die Notation der Dependenzrelation macht deutlich, wo die hierarchischen Relationen anzusiedeln sind: zwischen den Elementen, die auf derselben Stufe angesiedelt sind, in diesem Beispiel also zwischen Nominalphrase (NP) und Verbalphrase (VP). Das Konstituentenstrukturmodell macht durch seine Baumstruktur also keine syntaktischen Hierarchien transparent. Diese werden erst sichtbar, wenn wir die horizontalen Ebenen der konstituentenstrukturellen Notation vertikalisieren, um sozusagen auf ikonische Art und Weise die Abhängigkeitsrelation zwischen den beiden Konstituenten darzustellen. Bei der Bestimmung der Dependenzrelation muss geklärt werden, welche von zwei Konstituenten die andere dominiert. Denkbar wären bei unserem Beispiel die Relationen: VP | NP
NP | VP
Es ist unübersehbar, dass die Konstituentenstrukturanalyse in diesem Punkt inexplizit bleibt. Wir erfahren nichts über die syntaktische Hierarchie und damit nichts über die Qualität der Relation zwischen NP und VP (einmal vorausgesetzt, wir hätten die Konstituenten richtig ermittelt, was so selbstverständlich nicht ist). Im Rahmen der Konstituentenstrukturnotationen wird bis heute die Tiefe der Baumgraphen als Ausdruck syntaktischer Hierarchie mißverstanden. Jede Dependenzanalyse ist natürlich auf eine zuverlässige Konstituentenstrukturanalyse angewiesen. Sie kann also auf keinen Fall übersprungen werden. Engels Behauptung (1996, 54), das Dependenzprinzip sei das umfassendere Prinzip, das keiner Ergänzung durch eine andere Teiltheorie bedürfe, ist somit nicht haltbar. Tesnie`re überspringt eine Phase der syntaktischen Analyse. Er
313
26. Empirische Argumente für Dependenz
setzt sie voraus; und da er Studenten mit der syntaktischen Analyse vertraut machen will und nicht Maschinen, kann er sich diesen Mangel an Explizitheit aus praktischen Erwägungen heraus kurzfristig erlauben. Die prinzipielle Notwendigkeit einer Konstituentenstrukturanalyse mit hohem Explizitheitsgrad kann jedoch auch die Dependenzgrammatik nicht leugnen. Die Bedeutung der Einsicht, dass es sich bei Dependenz- und Konstituentenstrukturmodellen nicht um Notationsvarianten oder um mehr oder weniger äquivalente Modelle handelt, sondern um aufeinanderfolgende Phasen der syntaktischen Analyse kann nicht hoch genug veranschlagt werden. Die konsequente Durchspielung dieses Gedankens lässt sichtbar werden, dass in den neueren Modellen der Phrasenstrukturgrammatiken eine Mischnotation vorliegt, die dadurch entstanden ist, dass Abhängigkeitsrelationen in ein Baummodell eingearbeitet wurden, das solche Relationen nicht darstellen wollte und dies auch nicht kann. Kopf und Dependens sind bei dieser Notation ja gerade zwingend auf derselben Ebene anzusetzen. Die Einbeziehung von funktionalen und lexikalischen Köpfen in dasselbe Darstellungsformat stellt eine Inkonsequenz der Notation dar, die zu einer Inkonsequenz in der Theorienbildung und damit zu Denkfehlern führen kann. Dass Konstituentenstrukturanalyse und Dependenzanalyse zwei notwendige und komplementäre Phasen der syntaktischen Analyse darstellen, die psychisch realen Prozessen der sprachlichen Wahrnehmung und Verarbeitung entsprechen, stellt offensichtlich eine sehr alte Einsicht dar. In der Gegenwart hat Baumgärtner (1970, 52) diesen Standpunkt vertreten; er hat allerdings gleichzeitig auch skeptisch die Zentralität des Verbs angezweifelt. Das ist selbstverständlich zulässig. Die Zentralität des Verbs kann nicht einfach behauptet werden. Dass die Analyse so funktioniert, ist, wie Baumgärtner zu Recht einwendet, nur ein schwaches Argument. Weitere, empirisch fundierte Argumente sind erforderlich. Im Folgenden sollen zunächst empirische Argumente für die Motiviertheit der Richtung von Dependenz vorgetragen werden, da immer wieder behauptet wird, dass die Richtung von Dependenz eine willkürlich getroffene Entscheidung darstelle, die „empirisch prinzipiell nicht beweisbar“ sei (Lobin 1993, 9). Der Dependenzbegriff wird in den folgenden Abschnitten zuneh-
mend ausgeweitet. Die dependentielle Analyse wird zunächst als psychologisch reale und notwendige Phase der Wahrnehmung und Verarbeitung von Sätzen vorgestellt. Anschließend wird Dependenz im Sinn von Verbvalenz untersucht: hier geht es um die Gerichtetheit von Dependenz, um den Nachweis der Zentralität des Verbs sowie um die psychologische Realität von Satzrahmen. Schließlich wird die psychologische Realität des Konzepts des Satzglieds einer Prüfung unterzogen. Es wird sich zeigen, dass das Konzept der Dependenz im engen und im erweiterten Sinn ein hohes Maß an Plausibilität beanspruchen kann.
2.
Zur psychologischen Realität der dependentiellen Analyse
2.1. Segmentieren, Klassifizieren, Hierarchisieren Die Tatsache, dass bei der maschinellen Analyse von (gesprochenen) Sätzen die Segmentierung von Lautkontinua erhebliche Schwierigkeiten bereitet, hat eine umfangreiche Sprachrezeptionsforschung in Gang gebracht. Im Vordergrund steht dabei der Spracherwerb beim Kind. Konsens besteht darüber, dass Kinder drei Phasen der Sprachrezeption zu durchlaufen und sukzessiv zu erwerben haben (Hirsh-Pasek/Golinkoff 1996, 1): 1) Kinder müssen imstande sein, die Lautkontinua zu segmentieren. 2) Sie müssen in einem zweiten Schritt die Fähigkeit entwickeln, die segmentierten Einheiten zu klassifizieren, und sie müssen 3) imstande sein, Relationen zwischen den segmentierten und klassifizierten Einheiten herzustellen. Die Entdeckung der Relationen geht einher mit der Entdeckung von syntaktischen Hierarchien, da im Bereich der Syntax Relationen der Subordination weit häufiger sind als solche der Koordination. Die drei Phasen der Sprachrezeption lesen sich wie ein Abriß der Syntaxforschung des 20. Jahrhunderts: Die vom klassischen amerikanischen Strukturalismus entwickelten Entdeckungsverfahren bestanden neben der Korpusbildung darin, dass 1) eine unbekannte Sprache segmentiert werden sollte, 2) die ermittelten Segmente klassifiziert und 3) anschließend die Beziehungen zwischen den einzelnen Elementen beschrieben werden sollten. Diese drei Operationen wurden noch nicht als Teil einer syntaktischen Theorie verstanden, sondern als
314 Elemente empirischer Untersuchungen, die jeder Entwicklung einer Theorie vorausgehen sollten. Die klassischen amerikanischen Strukturalisten wie Wells, Bloomfield und Harris begaben sich bei der Untersuchung noch nicht beschriebener Sprachen also versuchsweise in dieselbe Situation, in der Kinder sich befinden, die gerade mit der Entdeckung der ihnen noch unbekannten Muttersprache beginnen: Es geht darum, in die Welt der Bedeutungen und der grammatischen Regularitäten vorzudringen, ohne dass bereits Bedeutungen und Regeln vorausgesetzt werden können. Die verschiedenen syntaktischen Modelle, die im 20. Jahrhundert dominierten, haben in der Regel nur jeweils eine dieser drei Operationen stärker fokussiert und bearbeitet. Die Konstituentenstrukturgrammatik hat den Schwerpunkt auf die Segmentierung von Einheiten gelegt. Die Phrasenstrukturgrammatik legt den Schwerpunkt auf die Klassifizierung der ermittelten Einheiten, wobei die Ermittlung der Einheiten teilweise schon wieder vernachlässigt wurde, und zwar in dem Sinne, dass sie als weit unproblematischer betrachtet wurde als sie es tatsächlich ist. So segmentierten die frühen amerikanischen Strukturalisten die Einheit der König von Frankreich noch in der/König von Frankreich, während man in den späteren Phrasenstrukturgrammatiken dieselbe Sequenz so selbstverständlich wie naiv als der König/von Frankreich segmentiert. Diese Fehlsegmentierung wurde in den letzten Jahren durch die sogenannte DP (Determiner Phrase)-Analyse nach mehreren Jahrzehnten wieder rückgängig gemacht. Die Dependenzgrammatik überspringt gleich zwei Phasen, nämlich die der Segmentierung und die der Klassifizierung, und setzt sie somit als unproblematisch voraus. Tesnie`res Lehramtsstudenten konnten im Gegensatz zu Maschinen segmentieren und klassifizieren, wobei allerdings ungeklärt bleibt, worauf sich dieses Wissen gründet ⫺ auf Introspektion oder auf naiv übernommene metasprachliche Annahmen. Der Vorwurf von Seiten der Phrasenstrukturgrammatiker, dass die dependentielle Analyse nicht explizit genug sei, betrifft vor allem diese übersprungenen Phasen. Allerdings war auch die Phrasenstrukturgrammatik nicht explizit genug, was die Segmentierungsverfahren betrifft. Das Ausblenden einer syntaktischen Operation führt zwangsläufig dazu, dass metagrammatische Vorurteile, so wie sie in der Ausbildung erworben wurden, ungeprüft
III. Dependenz. Grundlagen und Grundfragen
Eingang in die syntaktischen Modelle finden können. Die Phrasenstrukturgrammatik und ihre Nachfolgemodelle sind in Hinsicht auf Dependenzrelationen auch längst nicht explizit genug. Offensichtlich hat die gleichmäßige Beachtung aller drei syntaktischen Operationen die bisherigen syntaktischen Modelle überfordert. Anstatt nun aber zusammenzuarbeiten und die Terminologien zu homogenisieren, wurde viel Energie für Abgrenzungsgefechte verschwendet. Das hat der Profilierung der verschiedenen syntaktischen Schulen genützt, gleichzeitig aber auch mögliche Erkenntnisfortschritte im Bereich der syntaktischen Analyse blockiert. So stellt Engel (1996, 54) mit einer gewissen Genugtuung fest, dass die von Baumgärtner und anderen vertretene These von der Komplementarität von Konstituenz und Dependenz von den Dependenzgrammatikern nie akzeptiert wurde. Seine Behauptung, dass die Dependenzgrammatik keine Ergänzung durch andere Theorien brauchte, ist nur in dem Sinn richtig, dass die dependentielle Analyse die anderen Phasen der Analyse voraussetzt. Diese Behauptung ist jedoch falsch, wenn sie meint, dass die dependentielle Analyse auf Dauer ohne reflektierte Vorlaufphasen der Segmentierung und Klassifizierung auskommen könne. Es gibt inzwischen genügend Evidenz für die psychologische Realität dieser drei Phasen der syntaktischen Analyse: Kinder durchlaufen beim Syntaxerwerb genau diese drei Phasen. 2.2. Die Daten aus der Kindspracherwerbsforschung Daten aus der Kindspracherwerbsforschung weisen, wie bereits angedeutet, darauf hin, dass das Verstehen eines Satzes auf drei Operationen angewiesen ist: Segmentieren, Klassifizieren und Hierarchisieren von sprachlichen Einheiten. Es handelt sich um drei Phasen der Analyse. Kinder müssen, um einen Satz verstehen zu können, sukzessiv und in einer unumkehrbaren Reihenfolge diese drei Phasen des Syntaxerwerbs durchlaufen. Pointiert formuliert heißt das, sie müssen zunächst die Technik der Konstituentenstrukturanalyse erwerben; darauf folgt dann die Technik der Etikettierung der Einheiten auf der Basis von Wortklassen (Wortarten), wobei Phrasen nichts anderes als expandierte Wortarten darstellen. Den Abschluss des Syntaxerwerbs bildet der Erwerb der syntaktischen Relationen und damit der syntaktischen Hierarchien. Die Analogie zu den Er-
26. Empirische Argumente für Dependenz
mittlungsverfahren des frühen amerikanischen Strukturalismus ist unübersehbar. Sie lässt sich auch noch weiter treiben. Wie bei jeder sprachlichen Analyse, muss auch beim Kindspracherwerb die Korpusbildung erfolgen. Tatsächlich können Säuglinge zwischen muttersprachlichen und fremdsprachlichen Sequenzen sehr früh unterscheiden. Schon vom 6. Monat an bevorzugen Kinder muttersprachliche Sequenzen gegenüber fremdsprachlichen Äußerungen (durch dieselbe zweisprachige Person) sowie gegenüber Nonsense-Silbensequenzen (Gerken 1996, 413⫺ 414). Ist die Korpusbildung abgeschlossen in dem Sinne, dass mögliche Sequenzen der Muttersprache erkannt werden, beginnt die Phase der Segmentierung. Dabei werden zunächst nicht einzelne Wörter oder Phrasen als Grundlage der Segmentierung genommen; auch keine satzübergreifenden Einheiten. Das erste Segment, das aus dem Lautkontinuum extrahiert wird, ist ein Satzäquivalent, beispielsweise Look at that oder Open the door (Peters 1985, 1033). Wiederum zeigt sich eine deutliche Parallele zu den amerikanischen Strukturalisten, die vom Satz als Basiseinheit der syntaktischen Analyse ausgegangen waren. Man kann anhand eines einfachen Tests zeigen, dass auch Erwachsene den Satz als Basiseinheit extrahieren, sobald sie mit einer ihnen unbekannten Sprache konfrontiert werden: Studenten wurden an der Universität Bamberg gebeten, einer kurzen, an sie gerichteten Rede zuzuhören, die eine kirgisische Kommilitonin in ihrer, allen unbekannten Muttersprache hielt. Sie wurden dabei gebeten, darauf zu achten, wie viele Einheiten, beispielsweise Wörter, die Rede enthalte. Die Antwort der Studenten war einstimmig: es sei ihnen nicht möglich, Wörter oder Phrasen als Einheiten zu erkennen. Sie würden aber vermuten, sie könnten die Anzahl der Sätze angeben. Die Anzahl der Sätze wurde tatsächlich zuverlässig „erraten“. Das ist umso erstaunlicher, als offensichtlich keine Pausen zwischen den Satzeinheiten vorhanden waren; dennoch wurden Pausen „empfunden“. Interessanterweise wurden jedoch noch keine Pausen zwischen Wörtern „wahrgenommen“, obwohl sich diese „Illusion“ der Pausen mit dem zunehmenden Erwerb einer Sprache sehr wohl einstellt. Einem Muttersprachler kann man nur noch sehr schwer plausibel machen, dass den psychologisch als real empfundenen Wortgrenzen kein
315 materielles Korrelat in Form einer Pause entspricht. Ein einfacher Test wie der oben genannte, genügt jedoch, um sie davon zu überzeugen. Wie gelingt es nun aber Studenten, Strukturalisten und Kindern, die Satzeinheiten einer ihnen zunächst unvertrauten Sprache zu extrahieren, wenn es keine zuverlässigen Pausensignale gibt? Eine zentrale Rolle, so nimmt man heute an, spielt die Intonation bzw. die sogenannte Satzmelodie (Peters 1985; eine Zusammenfassung des Forschungsstands findet sich in Hirsh-Pasek/Golinkoff 1996 und in Morgan/Demuth 1996). Obwohl sich die Intonation in den verschiedenen Sprachen durchaus unterscheidet, ist sie offensichtlich imstande, die Ganzheit eines Segments zu signalieren. Nach der Extraktion der Satzeinheit kommt es zur Segmentierung dieser Einheit. Diese beginnt mit der Extraktion weiterer Einheiten. Hier ist interessant, dass die zweite Phase der Extraktion durchaus selektiv verfährt. Kinder wählen keine Verben aus. Verben sind die Wortarten, die von Kindern zuletzt erworben werden. Zuerst werden Substantive, anschließend attributive Adjektive, schließlich prädikative Adjektive erworben, erst danach die Verben (Jakobson 1977; Gentner 1978 und 1982; Gleitman/Gillette 1995; Stenzel 1997, 209). Wie aber „wissen“ Kinder a priori, welche Wortart sie bei der Selektion zu privilegieren und welche sie zu vermeiden haben, wenn sie noch über keinen Wortartenbegriff verfügen? Zentral scheint hier der Prozeß der Vorder- und Hintergrundierung von Einheiten zu sein. Perzeptuell auffällige Einheiten, zum Beispiel Einheiten, die sowohl betont als auch hochfrequent sind, werden zunächst privilegiert. Peters (1985, 1037) spricht von einer Distributionsanalyse, die das Kind durchführt, sobald die ersten Subeinheiten extrahiert wurden. Da es sich dabei um konkrete Substantive handelt, ist anzunehmen, dass neben den phonetischen und phonologischen Faktoren nun auch die Referentialität der Einheiten eine Rolle spielt. Die Zuordnung von Subeinheiten zu Referenten in der Umwelt ist offensichtlich auf die sie ständige begleitende Distributionsanalyse angewiesen, sonst werden beliebige betonte Segmente einer Äußerung dem Referenten in der Umwelt zugewiesen. Beispielsweise kann es in Phase I durchaus vorkommen, dass ein Kind bei dem Satz Das ist ein Hund, guck mal zunächst den Hund mit guckma bezeichnet. Erst die kontinuierliche Distributionsanalyse der extrahierten Subeinheiten ermöglicht schließlich die
316 zutreffende Zuordnung und Klassifikation der Einheiten. Diese Extraktionsphase führt interessanterweise nicht zur Extraktion von Verben. Verben sind nicht referentiell; ihre Bedeutung lässt sich nicht durch Beobachtung erwerben. Zunächst ist der syntaktische Rahmen vorhanden, der durch die extrahierten Substantive bzw. Nominalphrasen (Argumente) gebildet wird. Die Bedeutung des Verbs wird zunächst auf der Grundlage dieses „Frames“ erschlossen. Dabei werden offensichtlich schon die einzelsprachlichen Weichenstellungen beim Aufbau der Satzmuster kopiert. Die Versuche wurden mit Kindern, die Englisch und somit eine Nominativ/Akkusativsprache als Zielsprache erwerben, durchgeführt. Hier dominierte die Interpretation von Verben als Handlungsverben. Bei einem Versuchsaufbau, bei dem beispielsweise zuerst ein Kaninchen vorbeiläuft und dann ein Verfolgertier, tendieren die Kinder dazu, ein Verb mit der Bedeutung ‘jagen’ und nicht eines mit der Bedeutung ‘fliehen’ zu extrahieren (vgl. Gleitman 1992; 1994, 295). Bevor man aber generell einen „agency bias“ bei Kindern annimmt (Gleitman/Gillette 1995, 420), wären zusätzlich parallele Untersuchungen mit Kindern erforderlich, die eine ergative Sprache erwerben, bei der Geschehensverben wie ‘fliehen’ und Geschehenskonstruktionen wie ‘der Hase flieht den Fuchs’ die typischen Konstruktionen darstellen. Hirsh-Pasek/Golinkoff (1996) bezeichnen diese zweite Phase als die semantische Phase. Ihr folgt eine dritte Phase, bei der die Bedeutung des Verbs nicht mehr starr von der Bedeutung der semantischen Rollen abgeleitet wird. Hierbei liegt der Fokus auf der syntaktischen Information des Satzes. Dadurch kommt die Technik der Perspektivierung ins Spiel. Die starre Zuordnung von Subjekt ⫽ Agens wird aufgehoben. Das Verständnis von Passivsätzen wird möglich. Die Phase III korreliert mit dem Erwerb der syntaktischen Relationen und damit der hierarchischen Struktur des Satzes. Diese Phase setzt etwa ab dem zweiten Lebensjahr ein (Hirsh-Pasek/ Golinkoff 1996, 130). Hirsh-Pasek/Golinkoff 1996 haben mit ihrem Mehrphasenmodell auch die intensive und langandauernde Kontroverse darüber, ob der Syntaxerwerb auf der Basis semantischer Strategien (‘semantic bootstrapping’; vgl. Pinker 1994) oder syntaktischer Strategien verläuft (‘syntactic bootstrapping’), erfolgreich aufgelöst. Mit Hilfe semantischer Strategien werden zuerst
III. Dependenz. Grundlagen und Grundfragen
die Wort- und Phrasenklassen entdeckt; die Verbbedeutung wird lediglich erraten. Diese Phase entspricht im Grunde der Vorgehensweise der Phrasenstrukturanalyse, deren Einheiten (NP und VP) keine hierarchischen Informationen enthalten. Der Unterschied zwischen ‘Nominalphrase’ und dem ‘Subjekt’ besteht darin, dass mit ‘Subjekt’ zusätzlich eine Information über die Hierarchie der Einheiten gegeben wird. Eine Phrase wird damit als syntaktisch privilegiert und fokussiert dargestellt. Das Kind, das sich in Phase III befindet, wird von Hirsh-Pasek/Golinkoff mit einem Regisseur verglichen, der verschiedene Elemente fokussieren kann. Hirsh-Pasek/Golinkoff (1996) haben mit ihrer umfassenden Beschreibung von Phase II und III nicht nur eine beeindruckende Synthese von zwei scheinbar unversöhnlichen Theorien vorgelegt, sie haben auch die zentrale Rolle des Verbs beim Erwerb der syntaktischen Relationen und damit der Hierarchisierung der Satzstruktur überzeugend dargestellt. Dabei haben sie aber auch das Rad zum zweiten Mal erfunden. Die Modisten im Mittelalter hatten schon Jahrhunderte früher ebenfalls zwei voneinander unterschiedene Phasen angesetzt (vgl. Pinborg 1967; 1982 und 1984), die beim Verständnis jeden Satzes wirksam werden: eine semantische Phase (Impositio 1), die durch die lexikalischen Einheiten repräsentiert ist, ergänzt durch die Einsetzung eines sogenannten ‘modus significandi’ (Modus bzw. Art und Weise des Bedeutens), der die semantischen Einheiten auf spezifische Art und Weise durch eine Interpretation ergänzt und damit perspektiviert (Impositio 2). Geleistet wird diese Perspektivierungsfunktion durch die Grammatik (Wortarten und grammatische Kategorien). Hirsh-Pasek und Golinkoff sowie die Autoren, auf die sie sich beziehen, verwenden dieselben Termini ‘Interpretation’ und ‘Perspektivierung’, ohne sich auf die Sprachtheorie der Modisten zu beziehen. Die Theorie der Modisten wurde durch die empirischen Arbeiten zum Kindspracherwerb nach mehreren Jahrhunderten ganz unbeabsichtigt (und unbewusst) bestätigt. Sowohl bei den empirisch orientierten Arbeiten zum Kindspracherwerb als auch bei den theoretisch orientierten Modisten steht das Verb im Zentrum. Der Prozess der grammatischen Hierarchisierung ist ganz offensichtlich untrennbar mit dem Erwerb und der Beherrschung des Verbs, und zwar des finiten Verbs, verbunden.
26. Empirische Argumente für Dependenz
3.
Empirische Argumente für die Gerichtetheit von Dependenz
3.1. Evidenz für die Zentralität des Verbs Der Erwerb des Verbs korreliert mit dem Erwerb syntaktischer Hierarchien und damit der Dependenzrelationen. Dies ermöglicht eine Loslösung von der bloß lexikalischen Lesart eines Satzes. Leider kann man im Rahmen auch der Dependenzmodelle gegenwärtig eine Art lexikalistische Regression beobachten. Damit wird die syntaktische Kompetenz mit dem Kompetenzstand der von Hirsh-Pasek/Golinkoff 1996 beschriebenen Phase II gleichgesetzt. Nach der lexikalistischen Position sind die dependentiellen Informationen vollständig im Lexikon gespeichert. Daher gebe es für die Verwendung von Dependenzregeln keinen Grund (Lobin 1993, 14). Die Leugnung von dependentiellen Regeln läuft somit auf die Leugnung einer empirisch nachweisbaren Phase III hinaus. Da Primaten beim Syntaxerwerb sowohl Phase I und II erreichen (Segmentieren und Klassifizieren), nach verbreiteter Auffassung aber nicht oder nur rudimentär Phase III, läuft ein lexikalistisches Modell bestenfalls auf eine Primatensyntax hinaus, bei der keine Valenzreduktionen (Passivierungen) und Valenzerweiterungen (Kausativierungen) und damit auch keine Perspektivenwechsel vorgesehen sind, bei der aber jederzeit die Anzahl der beteiligten Argumente erkennbar ist. Es gibt gegenwärtig keine überzeugenden empirischen Argumente für diese Position. Das Verb ist, wenn man Hirsh-Pasek/Golinkoff (1996) und die von ihnen zusammenfassend dargestellten Untersuchungen ernstnimmt, die Schnittstelle zwischen Syntax und Semantik und gleichzeitig die primäre Quelle syntaktischer Dependenzrelationen. Dass die Integration von Syntax und Semantik durch das Verb geleistet wird, war auch das Ergebnis der Auswertung von empirischen Arbeiten zur Patholinguistik (Leiss 1983). Das Verb gehört zu den schwierigsten Wortkategorien bei Aphasikern. Das gilt für die so gegensätzlichen Aphasien wie Wernicke- und BrocaAphasie gleichermaßen. Ob nun, wie im ersten Fall die semantische Komponente (genauer die Achse der paradigmatischen Organisation) oder die syntaktische Komponente (die der syntagmatischen Organisation) ausfällt, in jedem Fall gilt: Das Verb als Wortart ist am schwersten gestört. Das Verb als Integrator von Syntax und Semantik kann offen-
317 sichtlich nicht ‘teilweise’ ausfallen. Sobald eine dieser Komponenten gestört ist, ist auch das Verb nicht mehr verfügbar (Leiss 1983, 98⫺110). Neuere Arbeiten bestätigen die starke ‘Verletzbarkeit’ des Verbs regelmäßig (z. B. Seewald 1998); dies gilt auch im übereinzelsprachlichen Maßstab (für das Chinesische vgl. Dong 1997, 21; empirisches Material für eine große Anzahl weiterer Sprachen findet sich in Menn/Obler 1990). Gemeint ist dabei stets das finite Verb, was nicht mit dem flektierten Verb zu verwechseln ist, wie Dong (1997, 21) betont: im Chinesischen werden Verben nicht flektiert, dennoch stellen sie bei Aphasie (hier speziell bei Agrammatismus; zu Paragrammatismus fehlen für das Chinesische vergleichbare Untersuchungen) die anfälligste Wortklasse dar. Präzise gesprochen sind genau die Wortarten am stärksten betroffen, welche die meisten funktionalen Köpfe aufweisen. Der finite Anteil des Verbs enthält ja nicht nur Diatheseninformationen; er ist auch Träger der grammatischen Kategorien Aspekt, Tempus und Modus. Genaugenommen bestehen die funktionalen Köpfe aus den jeweiligen grammatischen Kategorien, die einen lexikalischen Kopf einer spezifischen Wortart weiter spezifizieren können. Vergleicht man den funktionalen Überbau des Verbs mit den funktionalen Köpfen des Substantivs oder Verbs, dann ist der Vergleich des Verbs mit einer ‘grammatischen Medusa’ sehr naheliegend. Es sind mehrere funktionale Köpfe vorhanden. Diese haben einen jeweils unterschiedlichen Status, was ihren Komplexitätsgrad betrifft. So lässt sich die Finitheit des Verbs in unterschiedlichen Schritten neutralisieren. Dies zeigt sich besonders deutlich bei Agrammatismus: die grammatische Kategorie Modus ist am stärksten störungsanfällig, es folgt die Kategorie Tempus, schließlich die Kategorie Aspekt (ausführlich in Seewald 1998 empirisch untersucht). Die Tatsache, dass beim Kindspracherwerb die Erwerbsreihenfolge dieser grammatischen Kategorien in spiegelverkehrter Reihenfolge nachweisbar ist, und zwar ebenfalls im übereinzelsprachlichen Maßstab (Stephany 1985), beweist im übrigen, dass Jakobsons (1944/1969) berühmte These nach wie vor unwiderlegt ist, trotz vielfacher gegenteiliger Behauptungen. Entpackt man die häufig noch nicht genauer spezifizierten funktionalen Köpfe (man denke nur an den noch wenig spezifizierten INFL-Kopf bei den Nachfolgern der Phrasenstrukturgrammatik), so ist die Gerichtet-
318 heit der Dependenz zwischen den funktionalen Einzelköpfen nicht beliebig. Je infiniter die Verbform, desto näher steht ihr beispielsweise die funktionale Kategorie des Aspekts: das zeigt sich schon darin, dass bei schwerem Agrammatismus, bei dem von den ATM-Kategorien nur noch Aspekt erhalten ist, jeweils die infiniten und semifiniten Formen des Infinitivs und Partizips II erhalten bleiben. Dass das Partizip II im Deutschen aspektuelle grammatische Information kodiert, ist bekannt. Es liegt also nahe, die bekannten Hierarchien im Bereich der grammatischen Kategorien konsequent als Hinweis auf ihren hierarchischen Status im Rahmen der syntaktischen Architektonik ernstzunehmen. Beim Verlust aller funktionalen Köpfe, wie er bei schwerstem Agrammatismus vorliegt, erhalten wir unstrukturierte Additionen von Wörtern. Der dafür früher oft verwendete Terminus des Worthaufens bringt die bloß additive Natur solcher strukturlosen Sequenzen deutlich zum Ausdruck. Am längsten erhalten bleibt im übrigen das Verständnis der semantischen Rollen, was sich darin zeigt, dass Aktivsätze und nichtreversible Passivsätze damit keine Probleme bereiten (Friederici/Graetz 1987). Auch die für den Sprachtyp kanonische Struktur (Subjekt ⫽ Agens) ist sehr stark resistent (hier müßte man vergleichende Untersuchungen zu Agrammatismus bei den spiegelbildlich gebauten ergativen Sprachen hinzuziehen). Diese starke Resistenz der semantischen Rollen selbst bei schwerstem Agrammatismus weist auf die starke Resistenz der in Phase II (im Sinne von Hirsh-Pasek/ Golinkoff 1996) durch semantische Strategien erworbenen syntaktischen Kompetenz hin. Eine lexikalistisch orientierte Dependenzgrammatik kann also nur kanonische, d. h. unmarkierte Sätze erklären, nicht aber markierte Satzkonstruktionen. Im Lexikon steckt somit zu wenig syntaktische Information, was die Dependenzrelationen betrifft. Kommen wir an unseren Ausgangspunkt zurück. Die Frage war: Woher wissen wir, welche Gerichtetheit der Relation zwischen den Konstituenten NP und VP besteht? Die Antwort ist, dass das Verb funktional ‘kopflastig’ ist. Es ist der ‘Regierungssitz’ der meisten uns bekannten funktionalen Köpfe. Diese Aussage gilt jedoch nur für das Verb, nicht für die gesamte Verbalphrase. Wir wissen nicht, ob die Aufteilung das Satzes in die Konstituenten NP und VP zutrifft. Ungeklärt ist auch, ob die Aufteilung in Konstituenten binär zu erfolgen hat. Wir wissen nicht, ob es
III. Dependenz. Grundlagen und Grundfragen
hier unterschiedliche Optionen (sogenannte konfigurationale vs. nichtkonfigurationale Sprachen) gibt, wie zum Teil behauptet wird. Wir können nur sagen: Die Grammatik regiert das Lexikon. Und hier ist einschränkend noch mit Tesnie`re hinzuzufügen: Die Grammatik dominiert nur hinsichtlich der syntaktischen Architektonik. In semantischer Hinsicht könnten sich die Dominanzverhältnisse als genau spiegelverkehrt erweisen. Da das Verb aber den Integrationsort von Syntax und Semantik darstellt, bei dem jede kanonische Zuordnung von semantischen Rollen und syntaktischen Aktanten aufgelöst und neu konstruiert werden kann, ist es sinnvoll, das finite Verb als das Regens anzunehmen. Die modistische Grammatik ist noch weitergegangen, indem sie nur dem finiten Teil des Verbs diesen Status zugeschrieben hat. Dazu musste bei der syntaktischen Analyse der finite Teil in Form der Kopula extrahiert werden. Dieser finite Verbteil wäre dann, wenn wir dieser Analyse folgen, der Kopf von NP und VP. Sehr weit sind die heutigen Syntaxmodelle von dieser Praxis der syntaktischen Analyse nicht mehr entfernt. Die verschiedenen theoretischen Modelle konvergieren; und sie konvergieren nicht nur untereinander, sie stimmen auch mit den Ergebnissen der Kindspracherwerbsforschung und der Aphasiologie überein (auch weitere Bereiche würden diese Ergebnisse unterstützen, z. B. die Arbeiten zum Dysgrammatismus beim Kind). Es zeigt sich, dass die Auxiliare im besonderen und die grammatischen Morpheme ganz allgemein ein dependentielles Gerüst für die lexikalischen Elemente bereitstellen. Dieses Gerüst ist beim Syntaxerwerb schon latent vorhanden, und zwar noch bevor die ersten Auxiliare und Verben geäußert werden. Das wurde durch speziell für diese Fragestellung konzipierte Tests nachgewiesen: Kinder erkennen funktionale (präziser: grammatische) Morpheme lange bevor sie diese selbst aktiv verwenden. Erkennen sie ein grammatisches Morphem, lassen sie dieses sogar bevorzugt aus (Gerken/Remez/Landau 1990), was sich nicht durch die Unbetontheit der grammatischen Morpheme allein erklären lässt. Auffälligerweise werden unbetonte Nonsense-Morpheme nämlich seltener ausgelassen als die grammatischen Morpheme einer Sprache. Beim Kindspracherwerb werden die grammatischen Köpfe während der Phase I und II (Segmentierung und Klassifizierung) ganz offensichtlich aktiv gemieden. Kinder erkennen zu diesem Zeitpunkt noch nicht die spezifi-
26. Empirische Argumente für Dependenz
sche Qualität der grammatischen Morpheme; sie erkennen nur, dass es sich um solche handelt (Gerken 1996, 418). Mit der Spezifizierung der grammatischen Funktionen der Morpheme kommt es zum Erwerb der Satzhierarchie und damit der Dependenzrelationen. Eng mit dem Erwerb der hierarchischen Relationen ist der Aufbau von Subkategorisierungsrahmen verbunden. Dabei wird kontrovers diskutiert, was zuerst vorhanden ist: die Subkategorisierungsrahmen oder die Verbbedeutung. 3.2. Zur psychologischen Realität von Subkategorisierungsrahmen Bisher wurde die Gerichtetheit von Dependenz an einem ausgewählten Beispiel, der Relation zwischen grammatischen und lexikalischen Köpfen, vorgestellt. Damit wurde zumindest die Behauptung widerlegt, es gäbe für die Annahme der Gerichtetheit von Dependenz prinzipiell keine empirischen Argumente. Die Richtung der Dependenz ist durchaus motiviert. Es lässt sich daher annehmen, dass sich diese Art von Nachweis auch für weitere Bereiche der Syntax führen lässt. Die zentrale Rolle des Verbs war dabei unübersehbar. Verben weisen jeweils ganz spezifische Subkategorisierungsrahmen auf. Nach der lexikalistischen Position handelt es sich um starre Subkategorisierungsrahmen, die in einem Verblexikon aufgeführt werden können. Diese Behauptung trifft jedoch nur auf die hochfrequenten kanonischen Sätze zu. Nach Gleitman/Gillette (1995, 427, Anm. 8) gibt es keine solchen festen Subkategorisierungsrahmen. In nichtkanonischer Verwendung (Valenzreduktion wie beim Passiv; Valenzerweiterung wie beispielsweise bei der Transitivierung von Sätzen) können die Subkategorisierungsrahmen jederzeit verändert werden. Jedes intransitive Verb kann nach dieser Auffassung prinzipiell auch transitiv werden. Gleitman/Gillette (1995) nennen als Beispiel das Verb tanzen, das als intransitiv gilt, das aber jederzeit die Verwendung Er tanzt den Sterbenden Schwan zulässt. An diesem Punkt stellt sich die Frage nach der psychologischen Realität von Subkategorisierungsrahmen. Zusammen mit ihren Mitarbeitern hat Gleitman überzeugende Tests erarbeitet, die zeigen, dass sich Verbbedeutungen nicht aus der beobachteten Situation extrahieren lassen: Es wurden Eltern-KindGespräche auf Video aufgezeichnet; anschließend wurden diese Kindern und erwachsenen Kontrollpersonen ohne Ton vor-
319 gespielt. Bei einem eingeblendeten Piepston hatten die Zuschauer zu erraten, welches Wort an dieser Stelle verwendet wurde. Interessanterweise ließen sich die verwendeten Substantive gut ‘erraten’; die Verben konnten dagegen nicht allein durch das Beobachten der Situation extrahiert werden (Fisher/Hall/ Rakowitz 1994). Diese Beobachtung wendet sich vor allem gegen die Vertreter der These des ‘semantic bootstrapping’ (z. B. Pinker 1994), die davon ausgehen, dass sich Verbbedeutungen aus dem situationellen Kontext extrahieren lassen. Gleitman und ihre Kollegen konnten nun feststellen, dass die Verben gut extrahiert werden konnten, sobald die verwendeten Substantive, die in Argumentpositionen stehen, bekannt waren. Sie folgerten daraus, dass sich die Verbbedeutung aus den rahmenbildenden Substantiven deduzieren lässt. Nicht das Verb evoziert die ‘Verbszene’ bzw. die beteiligten Rollen, wie das Dependenzgrammatiker bislang annahmen, sondern umgekehrt: die Gesamtheit der beteiligten Rollen summiert sich zur Verbbedeutung auf. Das Verb könnte nach dieser Beobachtung genausogut durch einen Piepston ohne lexikalischen Inhalt ersetzt werden. Nach Hirsh-Pasek/Golinkoff (1996, 127⫺ 130) ist die Strategie der Extraktion der Verbbedeutung auf der Basis der semantischen Rollen die Strategie der jüngeren Kinder; solange sie die Verbbedeutungen nicht kennen, verlassen sie sich auf die semantischen Rollen („noun arguments“). Die so extrahierten Verbbedeutungen verfestigen sich anschließend, so dass es etwa nach dem zweiten Lebensjahr möglich wird, die starre Ordnung der semantischen Rollen aufzulösen. Das bedeutet, dass Perspektivenwechsel wie sie etwa beim Passiv vorliegen, möglich werden. Eine interessante Beobachtung soll dem noch hinzugefügt werden. Danach hatten die 24 Verben, die am häufigsten in der Konversation von Müttern mit ihren Kindern verwendet wurden, alle einen anderen syntaktischen Rahmen (Gleitman/Gillette 1995, 421). Daraus lässt sich ableiten, dass es zunächst um den Erwerb einer begrenzten Anzahl von Satzrahmen geht. Sobald diese Muster zusammen mit den kanonischen Verbbedeutungen erworben sind, können Verben unter modifizierten ‘Rahmenbedingungen’ Verwendung finden. Die genannten experimentellen Befunde passen gut zu Welkes dependenzgrammatischen Ansatz, wonach es eine jeweils prototypische Verbvalenz gibt („Grundvalenz“), die jederzeit durch Valenzerweite-
320
III. Dependenz. Grundlagen und Grundfragen
rung und Valenzreduktion modifiziert werden kann. Subkategorisierungrahmen sind als kanonische Rahmen somit durchaus psychologisch valide. Auch die Techniken der Modifizierung (Valenzreduktion und Valenzerweiterung) gehören zum Bestand aller uns bekannten Sprachen. In diesem Sinne können sie ebenfalls psychologische Realität beanspruchen. Unplausibel wäre es dagegen, für das mentale Lexikon zu postulieren, dass in ihm alle denkbaren und situativ möglichen Valenzreduktionen und Valenzerweiterungen eines Verbs aufgeführt wären. Nun erfassen die Subkategorisierungsrahmen ja nur die Ergänzungen bzw. Komplemente, aber nicht die Angaben bzw. Adjunkte. Beide, Komplemente und Adjunkte, werden in der Dependenzgrammatik durch den Terminus des „Satzglieds“ zusammengefasst. Die psychologische Realität von Satzgliedern wurde bislang nicht diskutiert. Ein erster Versuch des Nachweises dieses Konzepts, das für Dependenzgrammatiken im deutschsprachigen Raum so charakteristisch ist, soll abschließend unternommen werden.
4.
Empirische Argumente für die psychologische Realität von Satzgliedern
4.1. Konstituenten, Phrasen und Satzglieder Nach Weber (1998, 283) beruht der Begriff des Satzglieds und der Satzgliedfähigkeit eines Elements auf einer „Eigentümlichkeit des Deutschen: auf der in ihrer theoretischen Relevanz ungeklärten Fähigkeit von Satzteilen, im Aussagesatz vor das finite Verb in Zweitstellung permutiert werden zu können.“ Unrichtig ist an dieser Aussage, dass die Ermittlung von Satzgliedern allein das Ergebnis dieser Probe darstellen würde. Satzglieder wurden bereits von den wiederholt genannten amerikanischen Strukturalisten ermittelt, und zwar durch eine Probe, die sich für alle bekannten Sprachen eignet: die Substitutionsprobe oder Pronominalisierungsprobe. An dieser Stelle lässt sich einwenden, dass auf diese Weise keine Satzglieder ermittelt wurden, sondern Konstituenten. Also brauchen wir zunächst eine Klärung der Begriffe Konstituente, Phrase und Satzglied, die häufig synonym miteinander oder einfach durcheinander verwendet werden. Bei dem Satz Das Sommersemester geht zu Ende lässt sich nun ja tatsächlich Das Sommersemester sowohl
als Konstituente, als auch als Phrase und als Satzglied bezeichnen. Trotzdem handelt es sich nicht um synonyme Termini. Die drei Termini beziehen sich auf die drei Phasen der Analyse, die bereits im Zusammenhang mit den drei Phasen des Kindspracherwerbs und den drei Ermittlungsprozeduren der Strukturalisten vorgestellt wurden: „Konstituente“ ist demnach der Terminus für das Ergebnis der Segmentierung. Mit „Phrasen“ werden die klassifizierten Konstituenten bezeichnet, d. h. die durch Segmentierung ermittelten Einheiten werden in bezug auf ihre interne Struktur und Qualität (Wortklasse) charakterisiert. „Satzglieder“ schließlich sind das Ergebnis der Hierarchisierung der zuvor segmentierten und klassifizierten Einheiten. Die Konstituente wäre also Das Sommersemester. Als Phrase ist sie zusätzlich als NP klassifiziert. Als Satzglied tritt zusätzlich zur Klassifikation als NP die Ermittlung des satzrelationalen Status hinzu, etwa ‘Ergänzung im Akusativ’ etc. Die Pronominalisierungsprobe lässt sich verwenden, um den Umfang einer Konstituente zu ermitteln. Pronomen reduzieren expandierte Konstituenten auf ein Minimum: beispielsweise lässt sich die Sequenz Das Sommersemester, das mir in diesem Sommer so gut gefallen hat, obwohl es pausenlos geregnet hat durch ein Pronomen (es) ersetzen. Die Pronominalisierungsprobe reduziert also Konstituenten auf ihren Kern. Interessanterweise haben diese Kerne nicht die Wortartqualität der Köpfe dieser Phrasen. Vor der Klassifizierung und Zuordnung zu einer Wortartqualität wird nämlich etwas anderes ermittelt: die Expandierbarkeit bzw. die Reduzierbarkeit und damit die Wortarttauglichkeit bzw. die Phrasentauglichkeit. Mit Hilfe der Pronominalisierungsprobe lässt sich ein reduziertes Satzskelett ermitteln, bei dem zunächst tatsächlich alle Einheiten (Ergänzungen und Angaben) auf einmal und damit auf einer Ebene erfasst werden. In diesem Sinn hatte Tesnie`re Recht, wenn er Ergänzungen und Angaben („actants“ und „circonstants“) alle auf einer Ebene (nämlich unmittelbar unterhalb des Verbs) ansiedelte. Doch was soll man mit diesem Ergebnis, dass die Pronominalisierungsprobe Ergänzungen und Angaben gleichermaßen erfasst, anfangen? Handelt es sich hier um ein Testartefakt, oder soll man tatsächlich eine Art mittlere Abstraktionsebene annehmen, auf der Ergänzungen und Angaben ‘gleichberechtigt’ als Satzglieder angesiedelt sind? Für die psychologische Reali-
26. Empirische Argumente für Dependenz
tät von Satzgliedern gibt es seit langem einen bedeutenden Hinweis von George A. Miller, der jedoch im Kontext der Dependenzgrammatik noch keine Beachtung gefunden hat. 4.2. Die magische Anzahl der Satzglieder Der Begriff des Satzglieds soll im Folgenden mit dem bekannten psychologischen Begriff des „chunks“ in Verbindung gebracht werden. Die viele Jahrzehnte lang in der Gedächtnis- und Wahrnehmungspsychologie meistrezipierte Arbeit, die diesen Begriff populär gemacht hat, stammt von dem Sprachpsychologen George A. Miller (1956/1994). Miller bringt die ‘magische Zahl Sieben’ ins Spiel. Ihm war aufgefallen, dass unser Arbeitsgedächtnis (immediate memory) nur begrenzt viele unidimensionale Stimuli (z. B. Tonhöhen) speichern kann. Miller versucht nun, die Anzahl dieser Stimuli zu ermitteln und kommt auf die „magische Zahl Sieben plus/minus zwei“: „I have just shown you that there is a span of absolute judgment that can distinguish about seven categories and that there is a span of attention that will encompass about six objects at a glance“ (Miller 1956/1994, 348). Entscheidend an seinem Ergebnis ist nun nicht in erster Linie die Zahl Sieben. Entscheidend ist auch nicht allein die Tatsache, dass die Kapazität des Arbeitsgedächtnisses begrenzt ist. Von höchster Relevanz war vielmehr seine Erkenntnis, dass sich diese Kapazität nicht in absoluten Einheiten, den bits, messen lässt, sondern allein in sogenannten „chunks“. Mit anderen Worten, die Kapazität bemisst sich in der Anzahl der Einheiten. Diese Einheiten können potentiell viele Informationseinheiten enthalten; Chunks sind sozusagen ‘gepackte’ Informationen, die erst entpackt werden müssen, wobei wir in allen Entpackungs- und umgekehrt auch in allen Verpackungsphasen wiederum nur eine begrenzte Anzahl von Chunks verarbeiten können. Das Arbeitsgedächtnis lässt sich in bezug auf die Wahrnehmung unidimensionaler Stimuli interessanterweise auch nicht trainieren (Shiffrin/Nosofsky 1994, 357). Wenn wir bei der Verarbeitung von unidimensionalen Stimuli immer nur eine begrenzte Anzahl bearbeiten können, also nur ca. sieben Phoneme, nur ebenso viele Silben oder Morpheme, nur sieben Wörter gleichzeitig oder nur sieben Phrasen, so stellt sich die Frage, wie wir bei der Wahrnehmung und Bearbeitung eines Satzganzen vorgehen. Um einen Satz verstehen zu können, muss er in unserem Arbeitsgedächtnis Platz finden. Dort
321 können etwa sieben Einheiten gleichzeitig verarbeitet werden. Welche Einheiten eignen sich also für den ersten syntaktischen Zugriff? Die relevanten Einheiten sind mit Sicherheit nicht die Wörter, da jeder Satz potentiell beliebig viele Wörter enthalten kann, was Chomsky zur Behauptung der potentiellen Unendlichkeit eines Satzes veranlasst hat. Die relevanten Einheiten können auch nicht die Phrasen sein, weil diese durch potentiell unendlich viele Einbettungen ebenfalls beliebig vermehrbar sind. Spielt man alle uns bekannten syntaktischen Einheiten durch, erfüllt eine und nur eine Einheit die genannten Bedingungen: das Satzglied. Jeder Satz umfaßt eine endliche Anzahl von Satzgliedern. Die maximale Anzahl möglicher Satzglieder ist begrenzt und entspricht in konkreten Sätzen eben der Anzahl, die Miller annimmt: maximal sieben bis neun Einheiten. Konkret heißt das, dass ein Satz nur eine genau definierbare Anzahl von Komplementen und Adjunkten enthalten kann. Ihre Anzahl entspricht der Anzahl an Chunks, die wir gleichzeitig wahrnehmen und verarbeiten können. Es ist somit sinnvoll, in der syntaktischen Analyse ein Konzept zu verwenden, das die Klassen der Komplemente und Adjunkte zusammenfasst. Dieses Konzept ist das des Satzglieds. Man könnte diesen unattraktiven Terminus auch durch den der primären syntaktischen Einheit ersetzen. Tesnie`res Praxis der Anordnung aller Komplemente und Adjunkte unterhalb des Verbknotens stellt somit nicht ein undifferenziertes Vorgehen dar. Es ist vielmehr der Ausdruck einer Intuition, die besagt, dass es bei der syntaktischen Analyse eine mittlere Abstraktionsebene gibt, auf welcher der erste Zugriff der syntaktischen Analyse erfolgt. Dafür spricht auch die Tatsache, dass lexikalische Köpfe, d. h. die Nuklei von Satzgliedern bei Gedächtnisexperimenten leichter erinnert werden können (vgl. McKee 1994) als Nichtköpfe bzw. Dependentien (subchunks). Die Technik des Chunking impliziert, dass die einzelnen Chunks voneinander unterscheidbar sein müssen. Jede Einheit braucht ein anderes ‘label’, um gespeichert werden zu können. Das passt zu der sich zunehmend etablierenden Einsicht, dass jede Komplement- und Adjunktklasse nur einmal pro Satz vorkommen kann. Diese notwendige Differenziertheit der primären Zugriffsebene der syntaktischen Analyse wird durch die Etikettierungen der Phrasenstrukturgrammatik
322 (NP, VP etc.) nicht ausreichend zum Ausdruck gebracht. Bei der ersten Wahrnehmung eines Satzes wird also zunächst eine begrenzte Anzahl von primären Einheiten, die alle eine unterschiedliche Qualität aufweisen, erfasst. Die strukturalistische Technik der Pronominalisierung simuliert sozusagen dieses kognitive Verpackungsprogramm. Sukzessiv werden die primären Chunks in Sub-Chunks aufgelöst. Es gibt also Einheiten höherer Ordnung und solche niederer Ordnung. Einheiten derselben Ordnung können jeweils parallel wahrgenommen und verarbeitet werden. Das Prinzip des Chunking dürfte auf allen Ebenen der Analyse wirksam sein, also nicht nur auf der Ebene der syntaktischen Analyse, sondern auch auf der Ebene der Worterkennung und der phonematischen Analyse. Eine abschließende Beobachtung ist in diesem Zusammenhang noch aufschlussreich: Es ist bekannt, dass die Verarbeitung der grammatischen Morpheme und damit auch der funktionalen Köpfe bei Kindern noch nicht stark automatisiert verläuft (Friederici 1994). Bei Erwachsenen dagegen erfolgt die Verarbeitung von funktionalen Einheiten automatisiert und somit erheblich schneller als die Verarbeitung von lexikalischen Elementen. Diese Beobachtung legt den Schluss nahe, dass beim erwachsenen Sprecher bei der Wahrnehmung eines Satzes die Erfassung der funktionalen Einheiten schon abgeschlossen ist, wenn die erste Erfassung von lexikalischen Einheiten erst beginnt. Mit anderen Worten: Bei der Wahrnehmung eines Satzes ist bereits ein ‘Etikettierungsangebot’ bzw. ein funktionales Skelett vorhanden, das die Entdeckung der primären syntaktischen Einheiten erleichtert bzw. nicht einer zufälligen ad-hoc-Strukturierung überlässt. Ohne den Begriff des Satzglieds können wir offensichtlich in der syntaktischen Analyse nicht auskommen. Satzglieder sind die primären Einheiten der syntaktischen Analyse. Ohne sie wäre die Wahrnehmung und Verarbeitung eines Satzes nicht durchführbar. Am Schluss stellt sich die Frage, warum der Sprachpsychologe George A. Miller sein Konzept des Chunking nicht selbst in diesem Sinn angewandt hat. Miller hat zusammen mit Chomsky an Problemen der syntaktischen Analyse gearbeitet (vgl. Miller 1962). Chomsky stand jedoch der Begriff des Satzglieds nicht zur Verfügung. Die rekursiven syntaktischen Operationen, die seine Baumgraphen abbilden, lassen sich nicht auf eine ‘magische Zahl’ begrenzen.
III. Dependenz. Grundlagen und Grundfragen
Miller wurde durch das Chomsky’sche Paradigma am Transfer seiner elementaren Erkenntis auf den syntaktischen Bereich gehindert. Abgelenkt durch Transformationsregeln, deren Anzahl nicht einmal mit syntaktischer Komplexität korreliert (vgl. die Kritik von Fodor/Garrett 1967, Rohrmann 1968, Wang 1970), konnte Miller keine syntaktischen Chunks entdecken, die nur annähernd seiner „magischen Zahl“ entsprachen. Die Dependenzgrammatiker konnten einen solchen Transfer nicht durchführen, weil sie an sprachpsychologischen Fragestellungen und empirischen Nachweisen ihrer Modelle nur wenig interessiert waren. Das Konzept des Chunks ist immer noch aktuell (vgl. Sperling 1988, Newell 1990, Shiffrin/Nosofsky 1994, Baddeley 1994), nur seine erfolgreiche Übertragung auf syntaktische Einheiten steht noch aus. Ein solcher Transfer, der vor allem die Perzeption von Syntax und weniger die Produktionsseite betrifft, zeigt, dass Tesnie`res Syntaxmodell in erster Linie die Sprachwahrnehmung berücksichtigt hat. Aus dieser Perspektive sind Sätze nicht potentiell unendlich. Bei der Wahrnehmung werden Sätze vielmehr systematisch verendlicht. Satzglieder sind der Ausdruck dieser kognitiven Strategie der Verendlichung von Rekursivität.
5.
Zusammenfassung
Es hat sich gezeigt, dass Sätze, anders als in der Nachfolge von Chomsky immer wieder behauptet wurde, durchaus endlich sind. Die Endlichkeit der Sätze lässt sich erst erkennen, wenn man einen Begriff von den primären und damit perzeptuell relevanten Einheiten des Satzes hat: diese primären Chunks sind die Satzglieder. Sätze wären ohne Chunking nicht verarbeitbar. Die Technik des Chunking ist wiederum ohne eine Differenzierung und Hierarchisierung der Einheiten nicht durchführbar. Diese Einsicht ließ sich durch den Transfer von wahrnehmungs- und gedächtnispsychologischen Erkenntnissen auf syntaktische Fragestellungen gewinnen. Es wurde außerdem deutlich, dass das Verb mit seinen vielen funktionalen Köpfen die Schnittstelle zwischen Syntax und Semantik darstellt. Das finite Verb ist die Organisationszentrale des Satzes. Mit dem Verlust des Verbs kommt es zum Verlust der syntaktischen Relationen. Mit dem Verlust der Relationen ist bei Agrammatismus bekanntermaßen auch die Einschränkung der Verarbei-
26. Empirische Argumente für Dependenz
tungskapazität verbunden. Ohne Verb ist offensichtlich kein syntaktisches Chunking möglich. Wenn keine Chunks verarbeitet werden, sondern Bits, dann ist die Grenze der Kapazität des Arbeitsgedächtnisses schnell erreicht. Mit dem Nachweis der Zentralität des Verbs war für einen Teilbereich der Syntax auch der Nachweis der Gerichtetheit von Dependenzrelationen verbunden. Es ist anzunehmen, dass sich die Motiviertheit der Gerichtetheit der Dependenz auch auf weiteren Ebenen der syntaktischen Analyse wiederholt. Die Dependenzanalyse selbst wurde als notwendige Phase der syntaktischen Verarbeitung vorgestellt: als die komplexeste Phase der syntaktischen Analyse. Sie folgt beim Kindspracherwerb auf die Phase des Segmentierens (Ermitteln der Konstituenten) und des Klassifizierens (Ermittlung der Wortarten und Phrasen). Die verschiedenen syntaktischen Modelle, die gegenwärtig miteinander konkurrieren, modellieren lediglich unterschiedliche Phasen der syntaktischen Verarbeitung. Die Einbeziehung von Dependenz bzw. Köpfen durch ursprünglich nichtdependentielle Modelle zeigt, dass auch im Universum der Konstituenten- und Phrasenstrukturgrammatiker die syntaktische Modellierung eine ‘dritte Phase’ erreicht hat und damit erwachsen zu werden beginnt.
6.
Literatur in Auswahl
Baddeley, Alan (1994): The Magical Number Seven: Still Magic After All These Years? In: Psychological Review 101, 353⫺356. Baum, Richard (1976): Dependenzgrammatik. Tesnie`res Modell der Sprachbeschreibung in wissenschaftsgeschichtlicher und kritischer Sicht (⫽ Beihefte zur Zeitschrift für romanische Philologie 151). Tübingen. Baumgärtner, Klaus (1970): Konstituenz und Dependenz. Zur Integration der beiden grammatischen Prinzipien. In: Steger, Hugo (Hg.): Vorschläge für eine strukturale Grammatik des Deutschen (⫽ Wege der Forschung CXLVI). Darmstadt, 52⫺77. Bloomfield, Leonard (1933): Language. New York. Dong, Yinghong (1997): Agrammatismus im Chinesischen (⫽ Europäische Hochschulschriften: Reihe 21; 194). Frankfurt am Main u. a. Engel, Ulrich (1996): Tesnie`re mißverstanden. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.): Lucien Tesnie`re ⫺ Syntaxe structurale et ope´rations mentales. Akten des deutsch-französischen Kolloquiums anläßlich der 100. Wiederkehr seines Geburtstages (⫽ Linguistische Arbeiten 348). Strasbourg, 53⫺61.
323 Fisher, Cynthia/Hall, Geoffrey D./Rakowitz, Susan (1994): When it is better to receive than to give: Syntactic and conceptual constraints on vocabulary growth. In: Gleitman, Lila R./Landau, Barbara (eds.), 333⫺375. Fodor, J. A./Garrett, M. (1967): Some syntactic determinants of sentential complexity. In: Perception & Psychophysics 2, 289⫺296. Friederici, Angela D. (1994): Funktionale Organisation und Reorganisation der Sprache während der Sprachentwicklung. Eine Hypothese. In: Neurolinguistik 8, 41⫺55. Friederici, Angela/Graetz, Patty A.M. (1987): Processing Passive Sentences in Aphasia: Deficits and Strategies. In: Brain and Language 30, 93⫺105. Gentner, Dedre (1978): On Relational Meaning: the Acquisition of Verb Meaning. In: Child Development 49, 988⫺998. Gentner, Dedre (1982): Why Nouns are Learned Before Verbs: Linguistic Relativity versus Natural Partitioning. In: Kuczay, Stan A. (ed.): Language Development. Vol.2: Language, Thought and Culture. Hilldale, 301⫺334. Gerken, LouAnn (1996): Phonological and Distributional Information in Syntax Acquisition. In: Morgan, James/Demuth, Katherine (eds.), 411⫺ 425. Gerken, LouAnn/Remez, Robert E./Landau, Barbara (1990): Function Morphemes in Young Children’s Speech Perception and Production. In: Developmental Psychology 26, 204⫺216. Gleitman, Lila R./Gillette, Jane (1995): The Role of Syntax in Verb Learning. In: Fletcher, Paul/ MacWhinney, Brian (eds.): The Handbook of Child Language. Oxford, 413⫺427. Gleitman, Lila R./Gleitman, Henry (1992/1994): A Picture Is Worth a Thousand Words, But That’s the Problem: The Role of Syntax in Vocabulary Acquisition. In: Lust, Barbara/Sun˜er, Margarita/ Whitman, John (eds.), 291⫺299 [zuerst 1992]. Gleitman, Lila R./Landau, Barbara (eds.) (1994): The Acquisition of the Lexicon (⫽ Lingua 92). Cambridge, MA. Hirsh-Pasek, Kathy/Golinkoff, Roberta Michnick (1996): The Origins of Grammar. Evidence from Early Language Comprehension. Cambridge, MA. Jakobson, Roman (1944/1969): Kindersprache, Aphasie und allgemeine Lautgesetze. Frankfurt am Main [zuerst 1944]. Jakobson, Roman (1977): Der grammatische Aufbau der Kindersprache. Opladen. Leiss, Elisabeth (1983): Semantische Universalien. Einige „unterspülte“ Begriffe der Semantik und ihre Überprüfung durch Ergebnisse aus der Patholinguistik (⫽ Göppinger Arbeiten zur Germanistik 395). Göppingen. Lobin, Henning (1993): Koordinationssyntax als prozedurales Phänomen (⫽ Studien zur deutschen Grammatik 46). Tübingen.
324 Lust, Barbara/Sun˜er, Margarita/Whitman, John (eds.) (1994): Syntactic Theory and First Language Acquisition: Cross Linguisitic Perspectives. Vol. 1: Heads, Projections, and Learnability. Hillsdale, NJ. Lust, Barbara et al. (1994): Introduction. In: Lust, Barbara/Hermon, Gabriella/Kornfilt, Jaklin (eds.): Syntactic Theory and First Language Acquisition: Cross-Linguistic Perspectives. Vol. 2: Binding, Dependencies, and Learnability. Hillsdale, NJ., 1⫺37. McKee, Cecile (1994): What You See Isn’t Always What You Get. In: Lust, Barbara/Sun˜er, Margarita/Whitman, John (eds.), 201⫺212. Menn, Lise/Obler, Loraine K. (eds.) (1990): Agrammatic Aphasia. A Cross-Language Narrative Sourcebook. Vol. 1⫺3. Amsterdam, Philadelphia. Miller, George A. (1956/1994): The Magical Number Seven, Plus or Minus Two: Some Limits on Our Capacity for Processing Information. In: Psychological Review 101, 343⫺352 [zuerst 1956]. Miller, George A. (1962): Some Psychological Studies of Grammar. In: The American Psychologist 17, 748⫺762. Morgan, James L./Demuth, Katherine (eds.) (1996): Signal to Syntax: Bootstrapping From Speech to Grammar in Early Acquisition. Mahwah, NJ. Morgan, James L./Demuth, Katherine (1996): Signal to Syntax: An Overview. In: Morgan, James L./ Demuth, Katherine (eds.), 1⫺22. Newell, Allen (1990): Unified Theories of Cognition. Cambridge, MA. Peters, Ann M. (1995): Language Segmentation: Operating Principles for the Perception and Analysis of Language. In: Slobin, Dan Isaac (ed.): The Crosslinguistic Study of Language Acquisition. Vol.2: Theoretical Issues. Hillsdale, NJ, 1029⫺ 1067. Pinborg, Jan (1967): Die Entwicklung der Sprachtheorie im Mittelalter (Beiträge zur Geschichte der Philosophie und Theologie des Mittelalters. Texte und Untersuchungen; XLII,2). Münster. Pinborg, Jan (1982): Speculative Grammar. In: Kretzmann, Norman et al. (eds.): The Cambridge History of Later Medieval Philosophy. Cambridge, 254⫺269. Pinborg, Jan (1984): Modus significandi. In: Ritter, Joachim/Gründer, Karlfried (Hgg.) (1984): Historisches Wörterbuch der Philosophie. Bd. 6. Basel, 67⫺71.
III. Dependenz. Grundlagen und Grundfragen Pinker, Steven (1994): How could a child use verb syntax to learn verb semantics. In: Gleitman, Lila R./Landau, Barbara (eds.), 377⫺410. Rohrmann, Nicholas L. (1968): The Role of Syntactic Structure in the Recall of English Nominalizations. In: Journal of Verbal Learning and Verbal Behavior 7, 904⫺912. Seewald, Barbara (1998): Aphasie und Natürlichkeit. Abbauhierarchien im Bereich der Grammatik (⫽ Psycholinguistische Studien). Opladen. Shiffrin, Richard M./Nosofsky, Robert M. (1994): Seven Plus or Minus Two: A Commentary on Capacity Limitations. In: Psychological Review 101, 357⫺361. Sperling, George (1988): The magical number seven: Information processing then and now. In: Hirst, William (ed.) (1988): The making of cognitive science. Essays in honor of George A. Miller. Cambridge, 71⫺80. Stenzel, Achim (1997): Die Entwicklung der syntaktischen Kategorien Nomen und Verb bei ein- und zweisprachigen Kindern (⫽ Tübinger Beiträge zur Linguistik: Series A: Language Development 20). Tübingen. Stephany, Ursula (1985): Aspekt, Tempus und Modalität. Zur Entwicklung der Verbalgrammatik in der neugriechischen Kindersprache (⫽ Language Universals Series 4). Tübingen. Tesnie`re, Lucien (1959/1965): Ele´ments de syntaxe structurale. Paris (2. Aufl). [1. Aufl. 1959]. Wang, Marilyn D. (1970): The Role of Syntactic Complexity as a Determiner of Comprehensibility. In: Journal of Verbal Learning and Verbal Behavior 9, 398⫺404. Weber, Heinrich (1998): Was leistet die Wortart „Partikel“? In: Strässler, Jürg (Hg.): Tendenzen europäischer Linguistik (⫽ Linguistische Arbeiten 381). Tübingen, 280⫺283. Welke, Klaus (1988): Einführung in die Valenz- und Kasustheorie. Leipzig. Wells, Rulon S.(1947/1958): Immediate Constituents. In: Joos, Martin (ed.) (1958): Readings in Linguistics: The development of descriptive linguistics in America since 1925. New York, 186⫺207 [zuerst 1947].
Elisabeth Leiss, München (Deutschland)
325
27. Dependenzgrammatik und Kategorialgrammatik
27. Dependenzgrammatik und Kategorialgrammatik 1. 2. 3. 4. 5. 6.
Einleitung Kategorialgrammatik Dependenz in der Kategorialgrammatik Dependenzielle Kategorialgrammatik Schlussbemerkung Literatur in Auswahl
1.
Einleitung
Die Kategorialgrammatik ist eine konstituenzielle Grammatiktheorie, deren Wurzeln in der mathematischen Logik zu finden sind. Der polnische Logiker Ajdukiewicz veröffentlichte 1935 einen Aufsatz, in dem er ein Typensystem für Wörter der natürlichen Sprache beschreibt, das genutzt werden kann, um mit einfachen Ableitungsregeln die Grammatikalität eines Satzes zu überprüfen. In der Kategorialgrammatik kann somit auf ein elaboriertes System grammatischer Regeln verzichtet werden ⫺ die Wörter tragen in ihren Kategorien ihre grammatischen Kombinationsmöglichkeiten mit sich. Die Kategorialgrammatik kann deshalb als ein genuin lexikalisierter Grammatikformalismus verstanden werden. Da auch die Dependenzgrammatik von der Dominanz des Wortes in der grammatischen Struktur ausgeht, kann man mit Gewinn nach dem Verhältnis von Dependenzgrammatik zu Kategorialgrammatik fragen (vgl. auch Milward 1992; Hudson 1993; Bröker 2003).
2.
Kategorialgrammatik
2.1. Klassische Kategorialgrammatik Die Kategorialgrammatik ist in einer Reihe von Varianten ausgeprägt worden, sodass man nicht von einem Standardformalismus sprechen kann. Gemeinsam ist allen diesen Ansätzen, dass die grammatische Kategorie einer Konstituente aus der Kombination eines Funktortyps mit einem Argumenttyp gebildet wird. Im Funktortyp ist dabei die Information enthalten, welche Kategorie die entstehende Konstituente aufweist: (1) dieser: NP/N Mann: N dieser Mann: NP Hier wird der Funktor NP/N mit dem Argument N kombiniert, sodass sich der resultierende Typ NP für die Konstituente „dieser Mann“ ergibt. Die Richtung des Schräg-
strichs gibt in den meisten Versionen der Kategorialgrammatik an, ob das Argument rechts oder links vom Funktor erscheinen muss: (2) lacht: S\NP Hans: NP Hans lacht: S Wir folgen in diesem Artikel der Notation von Steedman (2000). Der Ergebnistyp steht dabei in einem komplexen Typ immer auf der linken Seite, der Argumenttyp auf der rechten. In anderen Versionen der Kategorialgrammatik kann die Anordnung dieser Typen vertauscht werden, in diesem Beispiel also NP\S. Auf der Grundlage einer Menge von Basistypen (in (1) und (2) z. B. N, NP und S) können rekursiv neue Typen gebildet werden: (3) Wenn X ein primitiver Typ ist, dann ist X ein Typ. Wenn X und Y Typen sind, dann sind auch X/Y und X\Y Typen. Wenn den Wörtern geeignete Typen zugewiesen sind, können mit den zwei einfachen Regeln der funktionalen Applikation auch Ketten dieser Wörter Typen zugeordnet werden: (4) Rechtsseitige Applikation (RA): X/Y Y ⇒ X (Forward Application) Linksseitige Applikation (LA): X\Y Y ⇒ X (Backward Application) In Beispiel (1) ist somit die rechtsseitige Applikation angewendet worden, in Beispiel (2) die linksseitige. Die Überprüfung der Grammatikalität eines ganzen Satzes kann mit (4) in der folgenden Weise vorgenommen werden: (5) -Hans - - - - - - -kennt - - - - - - -diesen - - - - - Mann ----NP (S\NP)/NP NP/N N - - - - - - - - - - RA NP - - - - - - - - - - - - - - - - RA S\NP - - - - - - - - - - - - - - - - LA S Setzt man diese für kategorialgrammatische Ableitungen übliche Darstellung in eine Baumdarstellung um, so ist deutlich die Äquivalenz zur konstituenziellen Analyse zu erkennen:
326
III. Dependenz. Grundlagen und Grundfragen
(6)
S S\NP
NP Hans
S
(S\NP) /NP kennt
NP NP
Hans
NP/N
N
diesen
Mann
Zusätzliche Bedeutung erlangte die Kategorialgrammatik mit den Arbeiten des Logikers Richard Montague (Montague 1974). Montague verband eine kategorialgrammatische Syntaxanalyse mit einem Typ-Logik-Kalkül, um dadurch zu beweisen, dass sich die logische Interpretation eines Satzes aus seiner syntaktischen Struktur herleiten lässt. In vereinfachter Fassung lässt sich dieses für unser Beispiel in der folgenden Weise rekonstruieren. Mit den kategorialgrammatischen Typen der jeweiligen Wörter werden prädikatenlogische Ausdrücke kombiniert: (7) Hans: NP : hans kennt: (S\NP) /NP : lu lv [kennen(u, v)] diesen: NP/N : lP lQ ∃x [P(x) ∧ Q(x)] Mann: N : (mann) Dabei wird von der sog. Lambda-Abstraktion Gebrauch gemacht, durch die Formeln zu Prädikaten überführt werden. Jede Anwendung der funktionalen Applikation führt nun zur Kombination zweier logischer Ausdrücke als Prädikat und dem dazugehörigen Argument. Durch Umformungsprozesse ergibt sich dann ein prädikatenlogischer Ausdruck, der als semantische Repräsentation der jeweiligen Wortkette gelten kann: (8) diesen Mann: NP : lP lQ ∃x [P(x) ∧ Q(x)](mann) ⇒ lQ ∃x [mann(x) ∧ Q(x)] kennt diesen S\NP : lQ ∃x [mann(x) ∧ Mann: Q(x)] (lu lv [kennen(u, v)]) ⇒ ∃x [mann(x) ∧ lu [kennen(u, x)]] Hans kennt S : ∃x [mann(x) ∧ lu [kendiesen Mann: nen(u, x)]] (hans) ⇒ ∃x [mann(x) ∧ kennen(hans, x)] Die funktionale Applikation kann somit leicht um eine prädikatenlogische Komponente erweitert werden:
VP V kennt
NP Det
N
diesen
Mann
(9) Rechtsseitige Applikation (RA): X/Y : F Y : x ⇒ X : F(x) (Forward Application) Linksseitige Applikation (LA): Y : x X\Y : F ⇒ X : F(x) (Backward Application) 2.2. Erweiterungen der Kategorialgrammatik Während in konstituenziellen Grammatiktheorien Art und Typ der Konstituenten linguistisch motiviert sind, werden Konstituenten in der Kategorialgrammatik gewöhnlich lediglich als „Abfallprodukte“ der Ableitung verstanden. Stattdessen werden in verschiedenen Versionen der Kategorialgrammatik weitere Regeln zur Typ-Kombination dadurch begründet, dass sie bestimmte semantische Interpretationen ermöglichen oder reale Verarbeitungsprozesse widerspiegeln. Zwei typische Erweiterungen bilden die Typ-Anhebung und die funktionale Komposition. Grundlage der Typ-Anhebung (Type Raising) bildet die Idee, dass das Verhältnis von Funktor und Argument umgekehrt werden kann. Fassen wir ein intransitives Verb mit dem Typ S\NP als Funktor einer Subjekt-NP auf, so kann man mit gleichem Recht die Subjekt-NP auch als einen Funktor verstehen, der zu einer Konstituente vom Typ S führt, wenn er mit einer Konstituente vom Typ S\NP kombiniert wird. Wir führen also eine Typ-Anhebung in der folgenden Weise durch: (10) NP ⇒ S/ (S\NP) Ein Subjekt kann demzufolge verstanden werden als ein Satz, dem noch ein intransitives Verb bzw. eine Verbalphrase fehlt. Der gleiche Prozess lässt sich auch für eine Kombination auf der linken Seite definieren, des Weiteren ist er nicht auf primitive Typen beschränkt. Allgemein lässt sich die Typ-Anhebung folgendermaßen definieren:
327
27. Dependenzgrammatik und Kategorialgrammatik
(11) Rechtsseitige Typ-Anhebung (RT): X ⇒ Y/ (Y\X) (Forward Type-raising) Linksseitige Typ-Anhebung (LT): X ⇒ Y\ (Y/X) (Backward Type-raising) Die funktionale Komposition (Functional Composition) führt ebenfalls zu einer modifizierten Reihenfolge der Typ-Kombination. Sehen wir uns dazu noch einmal einen Ausschnitt aus der Satz-Ableitung in (5) an:
Bei dieser Ableitung werden die Wörter entsprechend ihrer linearen Anordnung kombiniert. Da durch Applikation, Typ-Anhebung und Komposition jede Teilkette des Satzes als Konstituente abgeleitet werden kann, ist somit auch die folgende Ableitung möglich: (16)
(12) - - -kennt - - - - - - - -diesen - - - - - Mann ----(S\NP) / NP NP/N N - - - - - - - - - RA NP - - - - - - - - - - - - - - - - - - - RA S\NP Wollen wir die Wortkette „kennt diesen“ als eine Konstituente behandeln, so können wir über ihren Typ aussagen, dass sie auf der rechten Seite mit einer Kategorie vom Typ N zu kombinieren ist, um eine Konstituente vom Typ S\NP zu ergeben, also (S\NP)/N. Dieser Typ lässt sich aus den Typen für „kennt“ und für „diesen“ ableiten: (13) (S\NP) /NP NP/N ⇒ (S\NP) /N Wenn ein Wort, das auf der linken Seite eine NP braucht, um eine Verbalphrase (S\NP) zu ergeben, mit einem Wort kombiniert wird, dem auf der rechten Seite noch ein N fehlt, um eine NP zu ergeben, dann fehlt der Konstituente, die sich aus diesen beiden Wörtern bilden lässt, folglich auf der rechten Seite ein N, um eine Verbalphrase vom Typ S\NP zu ergeben. Dieses allgemeine Prinzip lässt sich wie bei der Typ-Anhebung auch auf eine linksseitige Kombination übertragen: (14) Rechtsseitige Komposition (RK): X/Y Y/Z ⇒ X/Z (Forward Composition) Linksseitige Komposition (LK): Y\Z X\Y ⇒ X\Z (Backward Composition) Mit Typ-Anhebung und Komposition ist es nun möglich, neben der Ableitung 5 auch andere Ableitungen des Beispielsatzes vorzunehmen: (15)
-Hans - - - - - - - -kennt - - - - - - - diesen - - - - - - Mann ----NP (S\NP) / NP NP/N N - - - - - RT S/ (S\NP) - - - - - - - - - - - - - - - - - RK S/NP - - - - - - - - - - - - - - - - RK S/N - - - - - - - - - - - - - - - RA S
-Hans - - - - - - - -kennt - - - - - - - -diesen - - - - - -Mann ---NP (S\NP) / NP NP/N N - - - - - - - - - - - - - - - - - RK (S\NP) /N - - - - - - - RT S / (S\NP) - - - - - - - - - - - - - - - - - - - - RK S/N - - - - - - - - - - - - - - - - - - - - RA S
Da Typ-Anhebung eine fakultative Operation ist, die auf jeden Typ angewendet werden kann, existieren potentiell unendlich viele Ableitungen für jede ableitbare Wortfolge. (16) zeigt, dass mit diesen Ableitungsregeln Konstituenten wie „kennt diesen“ gebildet werden können, die nach keiner Theorie für linguistisch motivierte Konstituenten zugelassen wären. Kategorialgrammatiker, die derartige Konstituenten propagieren (vor allem Steedmann, vgl. Steedman 2000), halten dagegen, dass tatsächlich jede Teilkette eines Satzes in bestimmten Konstruktionen, vor allem bei koordinativen Verbindungen, konstituenziellen Charakter bekommen kann.
3.
Dependenz in der Kategorialgrammatik
Die dargestellten Eigenschaften der Kategorialgrammatik legen es nahe, nach der Korrespondenz zu Konzepten wie Dependenz und Valenz zu fragen. Es ist deutlich, dass ein Typ wie (S\NP) /NP für transitive Verben große Ähnlichkeit mit einem entsprechenden Valenzeintrag aufweist. Vor diesem Hintergrund kann argumentiert werden, dass ein Wort mit einem derartigen Typ dependenzielles Potential besitzt und im konkreten Fall die Dependenz mit je einer NP zu seiner Linken und zu seiner Rechten konstituiert: (17) NP I (S\NP) /NP J NP Es ist also denkbar, einen Funktor als Regens zu interpretieren, ein Argument als Dependenz. Kruijff (1999) beschreibt einen Formalismus, in dem dependenzielle Information innerhalb des Ableitungsprozesses genutzt wird, um spezielle Typen und Operatoren zu
328
III. Dependenz. Grundlagen und Grundfragen
erzeugen (vgl. auch Bröker 2003 [Art. 25 in diesem Band]). Doch gibt es auch Unterschiede in den zugrunde liegenden Prinzipien dieser beiden Grammatiktypen, die die Weiterführung dieser Parallelen durchkreuzen: 1. Die Kategorialgrammatik basiert auf dem Prinzip der Adjazenz. Dieses bedeutet, dass ein Funktor und ein Argument nur kombiniert werden können, wenn sie in der Wortkette unmittelbar nebeneinander stehen. Eine Ableitung wie in (15) ist somit ausgeschlossen: (18) - - -kennt - - - - - - - wahrscheinlich -diesen - - - - - Mann ----(S\NP) / NP NP - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - RA S\NP Dieses Prinzip kann in der Dependenzgrammatik nicht angewendet werden, da auf alle Fälle Wörter mit dreiwertiger Valenz zu mindestens einem Dependens in nicht-adjazenter Beziehung stehen. Adjazenz ist eine stärkere Bedingung als Projektivität (d. h. die Forderung, dass sich Dependenzrelationen im Baum nicht kreuzen); adjazente Strukturen sind im Sinne der Dependenzgrammatik zugleich projektiv, projektive Strukturen müssen aber nicht zwangsläufig dem Adjazenzprinzip unterliegen.
ten Sequenzierungsinformationen Gültigkeit.
strikte
3. Der Aspekt der Gerichtetheit ist eng verbunden mit dem der Reihenfolge der Applikation von Funktor und Argument. Da Funktor und Argument in einer binären Relation zueinander stehen, wird in einem komplexen Typ durch die Klammerung eine eindeutige Sequenz von möglichen Anwendungsschritten der funktionalen Applikation festgelegt. Bezogen auf einen Typ wie (S\NP) /NP heißt dieses, dass zunächst eine Funktor-Argument-Beziehung mit einer NP auf der rechten Seite aufgebaut wird, dann eine mit einer NP auf der linken Seite. Wenn wir diese Beziehungen als Dependenzen interpretieren, können wir eigentlich gar nicht von der gleichzeitigen Anwesenheit zweier Dependenzpotentiale bei einem komplexen Typ sprechen, wie wir es in (14) getan haben. Stattdessen liegt zunächst nur eine Dependenz (20) (S\NP) /NP J NP vor, in einem zweiten Schritt wird dann eine zweite Dependenz aufgebaut: (21) NP I (S\NP) In der Dependenzgrammatik spielt die Reihenfolge der Realisierung dependenzieller Bezüge hingegen keine Rolle.
((S\NPnom) /NPdat) /NPakk ((S\NPnom) /NPakk) /NPdat ((S\NPdat) /NPnom) /NPakk ((S\NPdat) /NPakk) /NPnom ((S\NPakk) /NPnom) /NPdat ((S\NPakk) /NPdat) /NPnom
4. Es wurde gezeigt, dass über das Instrument der Typ-Anhebung das Verhältnis von Funktor zu Argument umgekehrt werden kann. Aus einer NP als Argument eines Typs S\NP kann durch Typ-Anhebung ein Funktor erzeugt werden, der einen derartigen Typ als Argument nimmt. Obwohl die Typ-Zuordnung in der Kategorialgrammatik grundsätzlich linguistischen Prinzipien folgt, kann die Richtung der Zuordnung mit formalen Mitteln umgekehrt werden. Auch in der Dependenzgrammatik werden für die Festlegung der Richtung von Abhängigkeitsbeziehungen linguistische Kriterien geltend gemacht. In manchen Fällen herrscht hierüber auch keine Einigkeit, etwa bei der Richtung der Dependenz zwischen Determinativ und Nomen (vgl. z. B. Hudson 1984, 90 ff.). Wird jedoch einmal eine Entscheidung über die Richtung der Dependenz getroffen, so gibt es im System der Dependenzgrammatik keine Möglichkeit, diese Richtung umzukehren.
Aber auch bei dieser Lösung der Wortstellungsproblematik besitzen die im Typ kodier-
5. Die Möglichkeit der Interpretation beliebiger Ketten von Wörtern als Konstituenten
2. Ein zweiter wichtiger Unterschied ist die prinzipielle Gerichtetheit der Funktor-Argument-Beziehung in der Kategorialgrammatik. Während die Wortstellung in der Dependenzgrammatik gewöhnlich getrennt von den hierarchischen Beziehungen der Wörter behandelt wird, ist sie in den kategorialgrammatischen Typen strikt kodiert. Dieses führt gerade bei der Anwendung auf Sprachen mit freierer Wortstellung zu Problemen. Eine Lösung kann darin bestehen, für ein Wort verschiedene Typen aus einer zugrunde liegenden Datenstruktur zu generieren, sodass etwa für das deutsche Verb „geben“ die folgenden Typ-Zuordnungen möglich werden: (19) a. b. c. d. e. f.
329
27. Dependenzgrammatik und Kategorialgrammatik
zieht die Frage nach sich, ob dann nicht auch von einer Art Konstituenten-Valenz gesprochen werden muss. Sehen wir uns erneut (16) an. Hier wird für die Teilkette „kennt diesen“ durch Komposition der komplexe Typ (S\NP) /N gebildet. Können wir in Anlehnung an (17) mit Recht annehmen, dass diese Konstituente eine Valenz aufweist, die wie in (22a) dargestellt werden müsste? (22) a. NP I (S\NP) /N J N b. Hans I [kennt diesen] J Mann (b) zeigt, dass diese Interpretation zu einer dependenzgrammatisch wenig befriedigenden Struktur führt. Weder entspricht sie der dependenzgrammatischen Intuition über die Abhängigkeitsverhältnisse im Satz, noch wird überhaupt die Existenz komplexer Dependenzträger allgemein anerkannt (zu komplexen Elementen in der Dependenzgrammatik vgl. Lobin 1993).
4.
Dependenzielle Kategorialgrammatik
Einen anderen Weg der Erweiterung der Kategorialgrammatik um dependenzielle Aspekte gehen Pickering/Barry (1993). Sie fragen nicht direkt danach, wie sich das Konzept der Dependenz in die Kategorialgrammatik integrieren lässt, sondern vielmehr, wie interessante linguistische Generalisierungen, die dependenzgrammatische Beschreibungen möglich machen, den formal sehr mächtigen Apparatismus der Kategorialgrammatik auf linguistisch plausible Weise einzuschränken vermögen. Um ihre Version einer dependenziellen Kategorialgrammatik zu definieren, führen sie zunächst das Konzept der dependenziellen Konstituenz ein. Unter einer dependenziellen Konstituente verstehen sie eine Gruppe von Wörtern, die alle durch Dependenzrelationen miteinander verbunden sind. Sehen wir uns einen Beispielsatz an:
(23) Peter lässt Hans mithelfen
Als dependenzielle Konstituenten können hier „Peter lässt“, „Hans mithelfen“, „lässt Hans mithelfen“, der ganze Satz und trivialerweise jedes einzelne Wort gelten, nicht aber „lässt Hans“. In jeder dependenziellen Konstituente gibt es einen eindeutigen Wurzelknoten, und Konstituenten diesen Typs können ⫺ anders als „klassische“ Konstituenten ⫺ auch diskontinuierlich auftreten: auch „lässt … mithelfen“ bildet eine dependenzielle Konstituente. Hudson (1988; 1989) und Pickering/Barry (1993) legen dar, dass ein derartiges Verständnis von Konstituenz wesentlich besser geeignet ist als eine strenge Auslegung von Konstituenz, um Phänomene der Koordination, Ellipse und fragmentarische Konstruktionen sowie Topikalisierungsphänomene zu beschreiben. Zur Formalisierung der Dependenziellen Kategorialgrammatik werden zusätzlich zu Applikation und Komposition die folgenden Regeln eingeführt (s. Lemma 24 unten). Mit diesen Regeln, aber ohne Verwendung der Typ-Anhebung, lassen sich ausschließlich dependenzielle Konstituenten ableiten, wie etwa im folgenden Beispielsatz: (25) -Peter - - - - - - - - - lässt ----Hans - - - - mithelfen -------NP (S\NP) /S NP S\NP - - - - - - -RV - - - - - - - - - - LA (S/S) \NP S - - - - - - - - - - - - - - LA S/S - - - - - - - - - - - - - - - - - RA S Hier werden neben dem gesamten Satz die dependenziellen Konstituenten „Hans mithelfen“ und „Peter lässt“ abgeleitet, die Ableitung von „lässt Hans“ dagegen ist ⫺ dem Konzept der dependenziellen Konstituenz
(24) Rechtsseitige Komposition 2. Ordnung (RK2): X/Y (Y/Z) /W ⇒ (X/Z) /W
(Forward Composition Order 2) Linksseitige Komposition 2. Ordnung (LK2): (Y\Z) \W X\Y ⇒ (X\Z) \W (Backward Composition Order 2) Rechtsseitige Vertauschung (RV): (X\Y) /Z ⇒ (X/Z) \Y (Forward Swapping) Linksseitige Vertauschung (LV): (X/Y) \Z ⇒ (X\Z) /Y (Backward Swapping) Rechtsseitige Vertauschung 2. Ordnung (RV2): ((X\Y)/Z) /W ⇒ ((X/Z)\Y) /W (Forward Swapping Order 2) Linksseitige Vertauschung 2. Ordnung (LV2): ((X/Y)\Z) \W ⇒ ((X\Z)/Y) \W (Backward Swapping Order 2)
330
III. Dependenz. Grundlagen und Grundfragen
entsprechend ⫺ nicht möglich. Eine wichtige Einschränkung weist die dependenzielle Kategorialgrammatik jedoch auf: es ist nicht möglich, solche dependenziellen Konstituenten zu bilden, die diskontinuierlich auftreten (hier „lässt … mithelfen“). Dieses ergibt sich aus der Forderung, dass zu kombinierende Typen in der Wortkette adjazent erscheinen müssen. Als zentral für die Abbildung dependenzieller Konstituenz in der Kategorialgrammatik ist die Einführung der Vertauschungsregeln anzusehen. Ihr Zweck besteht vor allem darin, die in einem komplexen Typ kodierte Reihenfolge der Kombination eines Typs mit anderen Typen zu flexibilisieren. Zwar wird durch Typ-Anhebung das gleiche Resultat erzielt, doch ist dieser Regeltyp so mächtig, dass dadurch alle Teilketten eines Satzes als Konstituenten ableitbar werden und nicht nur die dependenziell motivierten. Die sinnvolle Einschränkung der zusätzlichen Kombinationsmöglichkeiten ergibt sich dadurch, dass durch die Vertauschungsregeln lediglich bereits eingeführte Typen manipuliert werden, während die Typ-Anhebung zur Einführung ganz neuer Typen führt. Identifiziert man etwa den Typ eines transitiven Verbs (S\NPnom) /NPakk mit der Valenz dieses Verbs, so bewirkt die Anwendung der Vertauschungsregel RV, dass als erstes nicht die Akkusativ-NP, sondern die Nominativ-NP mit dem Verb zu kombinieren ist: (S/NPakk) \NPnom. Damit kommt der Typ eines Wortes tatsächlich der Funktion der Valenz nahe, da auch hier die Reihenfolge der Realisation der Dependenzien keine Rolle spielt.
5.
Schlussbemerkung
Die Verbindung von Kategorialgrammatik und Dependenzgrammatik ist nicht so leicht möglich, wie es auf den ersten Blick erscheinen mag. Eine der ausdrücklichen Stärken der Dependenzgrammatik, die Etablierung syntaktischer Zusammenhänge zwischen diskontinuierlichen Einheiten im Satz, ist in der Kategorialgrammatik aufgrund des Adjazenzprinzips nicht rekonstruierbar. Hinzu kommt, dass bei einer kategorialgrammatischen Interpretation des Konzepts der Valenz konsequenterweise auch die Valenz von Konstituenten betrachtet werden muss, was den Grundprinzipien der meisten dependenz-
grammatischen Systeme zuwider läuft (vgl. dazu aber Lobin 1993 und Bröker 2003). Trotzdem lassen sich gute Argumente für eine moderate Verbindung beider Grammatiktheorien finden, wie es die Dependenzielle Kategorialgrammatik unternimmt. Auf der Seite der Kategorialgrammatik erhöht eine dependenziell motivierte Einschränkung der möglichen Konstituenten die linguistische Plausibilität der Ableitungen. Die Dependenzgrammatik kann von einer strikteren Verknüpfung mit semantischen Strukturen sowie einem Typensystem als Grundlage für die Spezifikation von Valenztypen profitieren.
6.
Literatur in Auswahl
Ajdukiewicz, Kazimierz (1935): Die syntaktische Konnexität. In: Studia Philosophica 1, 1⫺27. Bröker, Norbert (2003): Formal Foundations of Dependency Grammar. In diesem Band, Artikel 25. Hudson, Richard A. (1984): Word Grammar. Oxford. Hudson, Richard A. (1988): Coordination and grammatical relations. In: Lingua 76, 233⫺264. Hudson, Richard A. (1989): Gapping and grammatical relations. In: Journal of Linguistics 25, 57⫺94. Kruijff, Geert-Jan M. (1999): Diamonds for Dependency. In: Proc. 3rd International Workshop on Computational Semantics. Tilburg, 351⫺366. Lambek, Joachim (1958): The mathematics of sentence structure. In: American Mathematical Monthly 65, 154⫺170. Lobin, Henning (1993): Koordinationssyntax als prozedurales Phänomen (= Studien zur deutschen Grammatik 46). Tübingen. Milward, David (1992): Dynamics, Dependency Grammar and Incremental Interpretation. In: Proc. 14th International Conference on Computational Linguistics. Nantes, 1095⫺1099. Montague, Richard (1974): The Proper Treatment of Quantification in Ordinary English. In: Thomason, Richmond H. (Hg.): Formal Philosophy. Selected Papers of Richard Montague. New Haven/London, 247⫺270. Pickering, Martin/Barry, Guy (1993): Dependency categorial grammar and coordination. In: Linguistics 31, 855⫺902. Steedman, Mark (2000): The Syntactic Process. Cambridge, MA.
Henning Lobin, Gießen (Deutschland)
28. Dependency Grammar’s Limits ⫺ and Ways of Extending Them
331
28. Dependency Grammar’s Limits ⫺ and Ways of Extending Them 1. 2. 3. 4.
Introductory remarks Representational limits Further limits Select Bibliography
1.
Introductory remarks
Dependency grammar (henceforth DG) is one way to describe structural linguistic phenomena in particular sentence structuring. In a DG, structuring is perceived to be hierarchical rather than the grouping based organization of a constituency grammar. In an overwhelming range of cases, there are sufficiently overt indications for such hierarchical relations. Those may be of morphological nature such as case markers, or of semantic nature such as selection of semantic features. In general, DGrammarians are adamant in defining the circumstances when a hierarchical relation may hold. There are problems, though. Whether these problems pose unsurmountable limits, may be open to discussion. Chapter 2 deals with four kinds of problems that either pose technical or representational limits. First, the principles of stemmatological representation as laid down by Groß (1992) will be explained. The treatment of discontinuities in 2.1 immediately follows from these principles, and these phenomena are necessary to understand why the concept of dissociated nuclei (CDN) treated in 2.2 is problematic. The CDN has been employed widely in DG, though not in all DGs, and in late forms of generative grammar such as GB-theory. Basically, CDN maintains that separate items must be considered as dissociated parts of one item, if their semantic or functional proximity is so great that treating them as different items could not fully explain their workings. CDN is problematical insofar as it defies a pure monostratal description of the syntactic phenomena. Furthermore, CDN must make use of a further theory, a sequence ordering module (SOM) that only deals in assigning sequence positions to linguistic items. SOM is needed by CDN because the very concept of dissociation causes discontinuities. Thus, CDN poses a problem to word order which in general is problematic for DGs. This will be treated in 2.3. A further representational limit is posed by coordination which is basi-
cally a specific sequencing strategy for a certain kind of complex linguistic elements. Technically, it is therefore also a problem pertaining to word order and treated separately in 2.4. Chapter 3 briefly discusses a cross between scope and epistemological limits. First, DG has virtually nothing to say about two areas: the evolution of language, and the psychology of language which may also contain neurolinguistic aspects. Furthermore, due to extensive technicalization caused by the use of expert programs in natural language processing (NLP), there is danger that linguistic theories will henceforth be judged by their computational success. Insofar as linguistics has to judge its own theories in epistemological terms, technicalization does pose an epistemological limit on DGs.
2.
Representational limits
The two modern methods of explaining sentence structures, constituency grammar and DG, both use graphical representations to illustrate and support their respective claims on particular or general sentence structures. Those representations are called “P(hrase)S(tructure)-markers” in any constituencybased grammar, and “dependency-trees” in DG. Tesnie`re himself introduced the term “stemma” (19802, 30). A stemma shows all necessary hierarchical connections between elements of a sentence, and thus illustrates its internal structure. This method of representation is central to DG, and it graphically differs only in the way of how stemmata are actually represented. Most often, straight lines depict connections and thus symbolize dependency relations, but sometimes also curved arrows are applied to a linear sentence structure, see figures 28.1 and .2: ate
boy
cookie
the
a
Fig. 28.1: Stemma with straight branches
332
III. Dependenz. Grundlagen und Grundfragen
The boy ate a cookie.
Fig. 28.2: Stemma with curved arrows
These two ways of representing the sentence structure of The boy ate a cookie have both an advantage and a disadvantage: A stemma such as figure 28.1 can depict sentence structures that are much more complicated than the sentence above, while the method of figure 28.2 will become more difficult to decipher, if longer and more complicated sentences are analyzed. On the other hand, figure 28.2 preserves an important aspect of the sentence structure, namely its word order, while a stemma such as depicted in figure 28.1 does not. The property of a stemma to depict the actual linearization or word order of a sentence is called “projectivity” (cf. Mel’cˇuk 1988, 35). Thus, figure 28.1 is non-projective, and figure 28.2 is projective. It is surprising, how many DGrammarians and theoreticists do not consider it necessary for a stemma to be projective. However, non-projective stemmata require SOM in order to convert nonprojective sequences into projective ones. Therefore, any theory that can account for projective representations without first passing through a level of non-projective representations is stronger in explanatory terms, since it is simpler. Any theory however, that develops projective representations out of non-projective ones, uses a superfluous device because non-projective representations are then no more than the graphical representation of previously detected dependency relations. In Groß (1992) a geometrical theory of stemmata is proposed that is unique, insofar as there are formalized approaches to tree representations, they are all algebraic theories. I. e. they describe properties of dependency trees such as nuclei, connective lines in algebraic terms. However, they do not describe dependency trees as two-dimensional structures (in algebraic terms a tree can be projected in any number of dimensions, not only two), and most importantly they do not show how dependency trees can systematically be evolved out of utterances. Tesnie`re prudently states that language is one-dimensional and uni-directional (19802, 32). Based in this insight, Groß (1992, 123 f.) proceeds to first assigning “linear indices” to every element of the sentence. They are used to assign “dependency indices” to the ele-
ments in the way that an element is assigned the linear index of its governor as its own dependency index. Elements that are not dependent on any other element are assigned the value {0}. It is then trivial to formalize a relation (symbol “I”) symbolizing a sequence order “immediately left-of”, and the converse relation “immediately right-of” (symbol “J”). Thus, in the example sentence depicted in 28.1, the following relations hold: (1)
the I boy
(2)
boy I ate
Furthermore, it is also possible to formalize sequence orders between elements that are not immediate neighbours. For logical reasons, the linear index of an element on the right-hand side of I must have a higher value than the element on the left-hand side. Thus the number of arrows are calculated by subtracting the value of the first element’s linear index from that of the second one. Instead of writing a lot of arrows, one can use the difference value gained by that subtraction and abbreviate (1) and (2) to (3)
the I2 ate
The hierarchical relation [“B” (or “under”)] is defined by dependency. Since in (1) the is a dependent of boy, and boy itself a dependent of ate in (2), the following relations hold: (4)
the B boy
(5)
boy B ate
Now there are two different sets of relations that hold between items. Every item is at least in one sequence and one dependency relation. These two relation types belong to different dimensions, and it is now necessary to unify them. It is possible to first simply multiply the relations: (6)
the IB boy
(7)
boy IB ate
It is furthermore possible to unify the dimensional relations into a “vector” relation: if (AIBB), then (AGB). The same shall hold for converse sequence relations. For all items in the example sentence this leads to (8) the G boy (9) boy G ate (10) a G cookie (11) ate
2F
cookie
28. Dependency Grammar’s Limits ⫺ and Ways of Extending Them
Vector relations are not yet connecting lines (which are geometrical objects, while vectors are not), but two-dimensional positioning devices. E. g. (8) means: the is positioned one unit down and one unit left of boy. On the other hand, (11) means: cookie is positioned one unit down and two units left of ate. Then, all elements of the example sentence can be embedded into a plane which is a twodimensional object:
boy The
cookie a
hierarchy
ate
time Fig. 28.3: Time/hierarchy plane
If some values are calculated for the respective vectors, namely their length and their angle, connecting lines can be defined. The necessary computations belong to the most basic level of trigonometry: length is defined by the square root of the square of linear index minus dependency index plus the square of {⫺1}: (12) 兹((⫺1) 2 ⫹ (linear index ⫺ dependency index) 2) The angle value is defined by the tangens of x divided by y: (13) tan h ⫽
x y
Then a connecting line is defined by a vector with values for length (λ) and angle (f), and it is then called a “branch”. Since both length and angle value need a reference system, Groß (1992, 127) proposes to embed the elements of a sentence plus their respective branches into a Cartesian coordinate system. Disregarding this technical application, the currently defined branch type produces a stemma that does not look like figure 28.1 but like figure 28.4: ate
boy
the
Fig. 28.4: Projective Stemma
cookie
a
333
The stemma in figure 28.4 maintains the advantages of both the representations shown in figure 28.1 and figure 28.2: the structuring is comprehensible and immmediately discernable, and it is projective. 2.1. Discontinuities In order to arrive at the above way of representing the sentence structures, nothing more was required than statements on previously detected hierarchy relations and perceptible word order. This representation requires no further module to generate ordered sequences, and it has the elegant touch of being a reliable step-by-step procedure without incorporating unnecessary assumptions. Such assumptions would be any restrictions on stemma generation that are either directed at avoiding undesired sentence structures, or a formal necessity of an algebraic approach to graphical representations. Mel’cˇuk (1979, 12) proposes the restrictions that every element must be connected to another element (no unconnected elements), that every element must be dependent on exactly one other element, but not more (no multiple dependencies), and that exactly one element must not be dependent (no unrooted trees). These restrictions yield remarkable consistent stemmata, but unfortunately not for every acceptable utterance of natural languages. Consider the following German dialogue: (14) a: “Du wäschst dich doch nie!” b: “Was? Ich mich nie waschen?! Lüge!” B’s second utterance Ich mich nie waschen violates all three restrictions. Both ich and waschen are unconnected, because a finite verb such as soll is missing. This missing element also causes the stemma to be unrooted. Finally, the reflexive pronoun mich depends to some extend to different elements: its case markedness is caused by the infinitive verb waschen, but it refers to ich with which it shares equivalent number features, namely first person singular. This problem, however, is not intrinsically a stemmatological one, but rather one of DG terminology. As long as, for instance, binding relations, that resemble true dependency relations to a significant degree, are not distinguished from genuine dependency relations, ad-hoc explanations must save the day. It must be noted that (14) does not pose any communcation problems for speakers of German, and it is necessary that DG should be able to describe it. Natural language speakers pose further threats
334
III. Dependenz. Grundlagen und Grundfragen
and problems for linguistic theories. Consider the next sentence:
wollte
(15) “Nicht über mich wollte ich etwas wissen!” (emphatic stress on mich) The prepositional phrase über mich inside the negative scope of nicht is in preverbal position, and the whole construction depends on wissen. However, it is positioned at the opposite side of the sentence, and since wissen is not the finite verb, their dependency relation is serially intervened by both the finite verb wollte and its subject ich. Although, again there are no comprehension or communication problems, sentence (15) is not a proper candidate for a variety of DGs. The reason for this is that the position of nicht über mich is considered as “discontinuous”. A discontinuity in the strong sense is every instance of branch crossing because it is immediately discernible in a projective stemma. Weak discontinuities are the remaining cases where a branch crosses a projecting branch of another element. Projecting branches can be imagined as lines that extend orthogonal to the time dimension. They can be used to check for sequence violations in graphical representations. A version of figure 28.4 including projective branches looks like figure 28.5: ate
boy
cookie
a
the
time
Fig. 28.5: Explicit projective stemma
As can be seen in figure 28.5, the projective branches marked by dotted lines are undisturbed by the connecting branches. However, a stemma for sentence (15) reveals projective branches crossed over by connecting branches. The stemma in figure 28.6 shows that the branch connecting nicht and wissen crosses over the projective branches of wollte and ich. This is the signature of a weak discon-
wissen
ich
nicht
etwas
über
mích
Fig. 28.6: Explicit projective stemma of (15)
tinuity. In the early era of DG, in particular in the USA, where computer applications were attempted, discontinuities were systematically prohibited by restrictions, probably because they could not be satisfactorily computed. Again, however, it seems inappropriate to keep out undesirable sentence structures of the analysis. With regard to discontinuities, it is rather desirable to be able to describe these phenomena, because in various languages discontinuities occur systematically. In particular any language with whmovement will systematically produce discontinuous structures (consider sentences with so-called “long distance dependencies” ⫺ not a dependency grammatical term! ⫺ such as “From which direction do you think the bus to London will come?”). Further causes are various coordinate structures, in particular those that require two coordinative elements (such as “not only … but”, “either … or” etc.), or focal, topical, or contrastive movements (such as in sentence (15)) into sentence-initial position. All these structures are readily understood and often used in natural languages, although seemingly they put language users under significantly more mental stress than continuous structures. But this seems to be such a subtle process and difficult to measure, that only lately research results concerning this topic have become available. In other words, to understand the nature of discontinuities means to understand an important part of language perception. Some aspects of the nature of dis-
28. Dependency Grammar’s Limits ⫺ and Ways of Extending Them
continuities that are interesting for the descriptive approach to human utterances can be figured out with the terminology already made available. The generation of the stemma in figure 28.6 can be systematically traced back to the assignment of linear and dependency indices. Some cases of invalid index-assignment can be ruled out a priori: an element can not have the same value for its linear and dependency index, because dependency is an irreflexive relation, i. e. words do not govern themselves. Two or more elements can not have the same value for their linear indices, because the time dimension to which linear indices refer is one-dimensional, i. e. different elements can not occupy the same point in time, but must be sequenced. Different elements may have the same value for their dependency indices, however. Concludingly, in a sentence, every element has a different linear index, but may have the same dependency index as other elements. If that is the case, there cannot be a discontinuous structuring between these elements, because their branches will connect with the same element, namely the one they are dependent on. This means that for a discontinuity to occur there is the necessary restriction that the indices of two or more elements cannot be equal. According to Groß (1992, 133) this restriction can be named “the principle of arithmetical unequality” for indices. This principle is insufficient, however, for the following reason: since elements cannot have the same value for linear and dependency indices, these values must obviously be different. I. e. either the value of the linear index is larger than the one for the dependency index, or vice versa. The first case marks a regressive dependency, since the governor is positioned left to its dependent element; the second case marks a progressive dependency, since the governor is positioned right to its dependent element. If two elements are progressively dependent, than they do not constitute a discontinuity, even if all their index values are different, if the element with the lower linear index has a larger dependency index than the element with the larger linear index. The respective statement is true for regressive dependents, if the words “lower” and “larger” are mutually substituted. If of two elements one is progressively dependent, and the other regressively dependent, they cannot constitute a discontinuity if any index of one element is larger than any index of the other element. These two properties led Groß
335
(1992, 135 f.) to claim that a discontinuity is furthermore characterized by a “non-contiguicy” principle: elements cannot constitute a discontinuity if the indices of one element are contigue in value. E.g. sentence (15) can be formalized by assigning indices: (16) “7Nicht1 1über2 2mı´ch3 0wollte4 4ich5 7etwas6 4wissen7!” The elements ich and etwas do not share the same index values. However, any index of etwas is larger than any index of ich. If this is formalized as (17) 7 (DI: etwas) ⬎ 6 (LI: etwas) ⬎ 5 (LI: ich) ⬎ 4 (DI: ich) it becomes obvious that the indices of etwas are contigue, and those of ich, too. Since the non-contiguicy principle is thus violated, they do not constitute a discontinuity. Observing figure 28.6, the connecting branch of nicht crosses first over the projective branch of wollte. Therefore, the indices of wollte and nicht should respect the non-contiguicy principle: (18) 7 (DI: nicht) ⬎ 4 (LI: wollte) ⬎ 1 (LI: nicht) ⬎ 0 (DI: wollte) It is evident that they do. However, the connecting branch of nicht also crosses over the projective branch of ich. It turns out that the order of their indices actually violates the non-contiguicy principle, although there is clearly a discontinuity: (19) 7 (DI: nicht) ⬎ 5 (LI: ich) ⬎ 4 (DI: ich) ⬎ 1 (LI: nicht) In this respect, Groß (1992, 135) points out that a “discontintuity” is a relation between two elements. One relatum of this relation causes the discontinuity, the other one is affected by it. The causing element is called “discontinuous element”, the affected element “reference element”. If there are two or more possible reference elements, the one that should be chosen as the actual reference element, is that reference element which dominates the other reference element(s) for the simple reason that as dependents they could be missing. If, however, the top reference element is moved to another position in the sentence, where it cannot act as a reference element anymore, the dominated element(s) can take over as reference element(s). If (15) is rephrased as a subordinated clause with the complementizer dass,
336
III. Dependenz. Grundlagen und Grundfragen
(20) 0dass1 7nicht2 2über3 3mich4 8ich5 was6 8wissen7 1wollte8
7et-
ich takes over as reference element, and then the non-contiguity principle is observed: (21) 8 (DI: ich) ⬎ 7 (DI: nicht) ⬎ 5 (LI: ich) ⬎ 2 (LI: nicht) This theory is not as trivial as it seems because it can make some predictions that other theories cannot make, and which are relevant for the typology of discontinuities. Groß (1992, 136) claims there are only four different sequence orders for discontinuities that depend on the language type. The number of only four types relies on the fact that dependent elements can either be progressive or regressive, and as there are two necessary elements, namely a discontinuous and a reference element, there are only four combinations. If both discontinuous and reference elements are progressive, they constitute a “strong progressive field”, if they are both regressive, a “strong regressive field”. If the discontinuous element is progressive, but the reference element regressive, they form a “weak progressive field”, because the discontinuity is progressive. Otherwise, they form a “weak regressive field”. Figure 28.7 provides an overview: Field type
Index sequence order
Strong progressive Weak progressive Weak regressive Strong regressive
DIR ⬎ DID ⬎ LIR ⬎ LID DID ⬎ LIR ⬎ LID ⬎ DIR DIR ⬎ LID ⬎ LIR ⬎ DID LID ⬎ LIR ⬎ DID ⬎ DIR
Fig. 28.7: Possible discontinuity types
Accordingly, SOV-languages such as Japanese or Korean will exclusively show strong progressive discontinuities. VSO-languages such as Irish will prefer strong regressive discontinuities. Languages such as German will tend to form strong progressive fields preferably in subordinate clauses which have SOVorder, while choosing between weak discontinuities in main clauses. In English with fixed SVO-order in main and subordinate clauses, one can expect weak fields whose specific directions depend on whether the reference element is on the left side of finite verb, or on its right side. Wh-movement, on the other hand, almost always causes regressive fields, the only exception being the wh-movement of a subject. This makes a strong point for including discontinuities into descriptions of natu-
ral languages, because they are as predictable properties of a language as e. g. its noun or adposition phrase structure. 2.2. Dissociated nuclei The term and the concept of dissociated nuclei have been introduced by Tesnie`re (1980, 56 f.) in the context of defining grammatical categories which he called “nuclei” (1980, 55 f.). This was necessary because the previously defined term “nexus” (1980, 28 f.) comprised a governor and all its dependents. This concept of a matrix phrase had to be broken up into smaller segments that carried different semantic functions within this phrasal category. Thus, within a verbal nexus (a VP), the subject and its verbal predicate can be regarded as different nuclei. Tesnie`re goes on to explain that semantic functions are not necessarily localized in one element, but can be dispersed (19802, 57). This, he called a dissociated nucleus. For instance, periphrastic tenses or moods are considered as realized as dissociated nuclei. The term came to fame in the treatment of predicative constructions with existential verbs. The problem with the concept of dissociated nuclei (CDN) is that it is inconsistent with a stemmatological theory that produces projective stemmata. The CDN is without flaw if no elements intervene between the dissociated nuclei, but if they do, they cause discontinuous structures. These discontinuities may, but not necessarily must be of the kind dealt with above. According to Tesnie`re’s treatment of the CDN and its presumably wide range of application, natural languages turn out to be riddled with discontinuities. However, it has been mentioned earlier that discontinuities pose mental stress, and it is not conceivable that languages could have efficiently evolved if they continued to put their users under constant mental stress in articulating themselves. In German, periphrastic tense is usually realized in a framing or bracketing structure, such as the participle or the infinitive constitute the rightmost element of the nucleus which usually closes the VP, see (22): (22) Ich bin gestern angekommen. In (22) bin and gekommen form one nucleus which is dissociated as the temporal adverb gestern intervenes. Sentence (22) is often depicted as in figure 28.8:
28. Dependency Grammar’s Limits ⫺ and Ways of Extending Them
Other than figure 28.8, 28.9 is projective and therefore does not need a further module theory to provide proper sequence ordering. However, 28.8 does need such a theory, called SOM above. A simplified listing of (22) would look like (23):
bin angekommen
ich
gestern
Fig. 28.8: Non-projective stemma of (22)
The DN has been framed. It is obvious that (22) cannot be rendered a projective stemma under the CDN. In a such a stemma, whose mode of construction has been laid out above, every segment in the utterance receives a different linear index. It is impossible however, to rationally decide which linear index a DN should receive (for instance should the LI of bin angekommen be {2} or {3}, and on what grounds?). Since a DG with CDN would probably not use a stemmatological theory such as the one above, it is in need to show how its non-projective stemmata can be arrived at from the linguistic phenomena. Proponents of the CDN often claim that dependents such as temporal adjectives depend on the whole periphrastic construction, not just on one element. In the case of periphrastic tense constructions such as (22), however, this claim cannot be justified on general linguistic theoretical grounds. It is true that a temporal adverb such as gestern with the semantic feature [⫹PAST] cannot be controlled by verbs without the corresponding inherent or flexematic feature. However, while the finite verb bin does not contain the corresponding feature, the past participle, does. Thus, it is possible to let the adverb be controlled by the participle, and again let the participle ⫺ since all participles are of adjectival nature ⫺ be governed by the finite verb. Thereby an explanation can be achieved that leads to a projective stemma and denies the CDN: bin
ich
337
angekommen
gestern
Fig. 28.9: Projective stemma of (22)
(23) bin angekommen ⇒ ich ⇒ gestern SOM then would assign each element a serial position: (24) bin[2] angekommen[4] ⇒ ich[1|3] ⇒ gestern[3|1] Even though this looks like a workable solution, the potential of SOM should not be overrated. DG sentences structures as they are depicted in stemmata, are not ordered, since DG structuring does not acknowledge phrasal nodes (apart from the cases where a DN constitutes a phrase by chance). It is therefore quite difficult to define a general working mechanism that is able to act as a SOM. Hudson (1984, 98 ff.) proposes a mechanism that is based on adjacency. The difference between an approach that includes the CDN and one that does not, does not constitute an unsurmountable limit. The difference can simply be found in the basic analysis that every linguistic theory must conduct. CDN approaches seem to fall short in this area. If there are analyses that explain the phenomena with less theoretical amount than other approaches, the former should be preferred and the latter rejected. In summary, if a DG uses the CDN, it does so only because it has failed to employ its resources sufficiently. It pays with a significantly blown up theory, and with the necessary inclusion of SOM, DG becomes in effect a stratified theory. However, while every instance of an alledged DN can ⫺ by varying degrees of difficulty ⫺ be explained as two (or more) elements where one element definitely depends on the other (such as in (22) the past participle depends on the finite verb), i. e. can be explained in simple terms of dependency, there does exist the opposite phenomenon, namely that two different semantic functions are localized in one expression. These cases pose a real difficulty and a representational limit on DG. One example in German is the fusion of locative PPs and adnominal flex-
338 emes, supposedly even the whole inflected adnominal. See the next expressions: (25) im dunklen Wald; im tiefen Tal (26) in der/einer kleinen Wohnung In (25) the PP in has fused either with an adnominal such as dem or einem, or just with the allomorph ⫹m of the flexeme ⫹Em. This morphophonological process can be best described by: (27) a. i[n ⫹ d.e]m b. i[n ⫹ ein.e]m c. i[n ⫹e]m In all cases, the nasal coda and the vowel of the flexeme are elided. In (27a) and (27b), furthermore, adnominals have to be elided, in the case of (27b) even two syllables. With feminine nouns such as the one in (26), fusion does not occur. In all cases, the phrases either function as locative if the verbal element heading the PP is static, or as path if the verbal element is dynamic. In both cases, the PP governs dative case. In case a dynamic verbal element demands a directional function from the PP, it must govern accusative. Then, fusion/agglutination only occurs with neuter nouns: (28) in den/einen dunklen Wald (29) in die/eine kleine Wohung (30) ins tiefe Tal Instead of the PP in “into”, the PP zu “to(wards)” can be used to assign directional function: (31) zum dunklen Wald, zum tiefen Tal (32) zur kleinen Wohnung In (31) and (32), agglutination accompanied by elision occurs: (33) a. zu[⫹ d.e]m/r b. zu[⫹ ein.e]m/r c. zu[⫹e]m/r It is very difficult to decide which of the three fusion or agglutination processes in (27) and (33) are the correct ones, since the nouns cooccurring with these kind of complex PPs can be understood sometimes as definitely and sometimes as indefinitely determined. However, it is not predominant to decide this question here, but it is rather necessary to take a look at the ramifications for dependency structure. As the possible structure of the German noun phrase, various attempts have been made. In Groß (1993, cf. also for
III. Dependenz. Grundlagen und Grundfragen
a summary of analyses concerning this subject), it has been argued that in the German noun phrase, the noun takes head position and directly governs the adnominal (indefinite or definite article) via case/genus control of its flexemes. If adnominals are present, they govern attributive adjectives by controlling case features. Groß argued that the noun phrase acts from the top down as a filter, and that feature complexity decreases on the way down. Strongly case (GEN, DAT, ACC for masculine, GEN, DAT for feminine and neuter nouns) marked noun phrases successively sieve out all features until only a general case feature arrives at the bottom adjective. In (25), (26), (28), (31), and (32) the adjective is marked by the allomorph ⫹en of the suffix ⫹En. This suffix merely marks the function [⫹CASE], and it is controlled by the flexemes of a governing adnominal: the flexeme ⫹er in (26), and the flexeme ⫹en in (28). Adnominals are governed by nouns via the control of case and genus: masculine nouns demand GEN ⫹es, DAT ⫹em, and ACC ⫹en for their adnominals, neuter nouns demand the same flexemes for GEN and DAT, but not for ACC, which is not a strong case for neuter nouns. Feminine nouns only demand GEN/DAT ⫹er. Nouns themselves pass case on to their adnominals. In (25), (31), and (32) the nouns receive DAT from the PP, in (30) it is ACC. The problem for DG then is that the dependency relation between the complex PPs and their nouns is mutual. The PP itself governs its noun via case assignment, but the noun controls the adnominal flexemes (of an adnominal that may or may not be present) which is either fused or agglutinated to the PP. Since the adjective is controlled by this flexeme, it depends on the complex PP. A stemma for (25) would therefore have to look like: im
Wald
dunklen
Fig. 28.10: Stemma depicting mutual dependency between complex PP and noun
The representation in 28.10 is most undesirable for DG. Since representations such as
28. Dependency Grammar’s Limits ⫺ and Ways of Extending Them
stemmata are by nature static objects, they tend to represent processes as more static than they actually are. Fortunately, the dependency and control process is less opaque than the structure represented in 28.10: first, the PP assigns case (here: DAT) to the noun. Secondly, the noun, since in singular, must assign an appropriate adnominal flexeme, in particular in this case where an attributive adjective is present which the noun can only indirectly control. Since there is no adnominal as a free element, the noun assigns the flexeme to the element sequenced immediately in front of the attributive adjective. This happens to be the PP. Once the PP receives the adnominal flexeme, the adjective can receive its required case suffix from the flexeme. In order to depict this process properly, the complex PP has to be broken up in two recognizable elements. This can be achieved by assigning a tupled linear index: (34) 0i1,1~3m1,2
three nouns are marked by dative ⫽ ni. The first noun otoˆsan depends on the last verb morat.ta, but is also the implicit subject of i.sase.te. With this verb, dative marks the person who performs an action benefitting another person. The other two nouns depend on the complex verb i.sase.te. However, while uti is a locative complement of i(.ru) “be”, otoˆto which is also the implicit subject of i(.ru), is the causee, and as such it must be marked with dative. If the causative verb is not viewed as one unit but as two, a stemma for (35) should look like: morat.ta
watashi = wa otôsan = ni = wa
i
i
otôto = ni
1,2dunklen2 1,1Wald3
This could then be depicted in a stemma such as:
339
sase.te
uti = ni
Fig. 28.12: Stemma of (35)
It is also worth noting that the construction i.sase.te morat.ta is regarded by the majority of linguists on Japanese as a DN. Under CDN, a stemma of (35) would look like:
Wald
i.sase.te morat.ta m watashi = wa otôs an = ni = wa otôto = ni uti = ni
dunklen
Fig. 28.13: CDN-based stemma of (35) Fig. 28.11: Projective stemma with complex PP
The fusion of two or more elements with different semantic or grammatical functions is not unusual, although it is unusual that these elements constitute both the head and the dependent of another element such as was the case with complex PPs. In agglutinating languages such as Japanese, fusion of elements occurs frequently, although not with such problematic consequences. In the next sentence (35) watashi ⫽ wa otoˆsan ⫽ ni ⫽ wa otoˆto ⫽ ni uti ⫽ ni i.sase.te morat.ta. I ⫽ exclusive focus father ⫽ DAT ⫽ exf younger brother ⫽ DAT home ⫽ DAT be ⫺causative ⫹participle receive ⫹perfect “My father let my brother stay at home.”
A comparison of 28.12 and 28.13 clearly shows how much more linguistic information is contained in the former stemma. The CDN tends not only to simplify linguistic phenomena but is also in danger to neglect relevant information that is required to understand how language works. 2.3. Word order It has been mentioned that DG is improperly equipped to deal with word order. The reason for this is that basically DG only distinguishes the two relata of the dependency relation: regent or head, and dependent. These terms are neither serially nor categorially qualified, and thus it is impossible to employ them to formulate general rules or principles on word order. Often generalizations on grammatical relations such as “subject” or
340 “object” are made. In some languages that are characterized by a very strict word order such as English, such an approach as e. g. Starosta (1993) proposed in response to Hajicˇova´ & Sgall (1987) may be sufficient. In other languages this becomes very troublesome business. One of the most important ideas in Chomsky’s generative syntax (1965) is the relevance of the notion of phrase for productive sentence formation. The historical reluctance of DGrammarians to utilize this notion on a broad scale cannot be justified by the very idea, but only by the epistemological ramifications caused by the approach of how phrases are introduced in a constituency grammar. However, nowadays, most DGs use the concept but base it losely on previously established dependency relations. It is possible to develop the required constituency terms from a set of dependency terms, which after all is necessary since dependency grammar should use dependency notions as primary terminology. However, while primary dependency concepts are similarily used, there is considerable difference how the required terms are introduced, justified and employed. Tarvainen’s textbook (1981, 1) introduces the notion of concomitance first: the relation that two or more elements appear together. He proceeds to explain that the hierarchy necessary is introduced by dependency which in his example (36) Der Mann liebt seine Frau. is grounded in the transitive valency of the verb lieben. Although the combination of valency and dependency notions makes a good deal of sense, there are drawbacks because simply not all occurring elements are dependents via valency, i. e. not all elements are complements. Also, a closer look at the dependency relations stated between the elements in (36) leads to the assumption that these relations are by no means primitive. I. e. if the reasons why these dependency relations are correct were demanded, one would have to go one step back to find a justification. For instance, the verb lieben not always appears with the nouns Mann and Frau, rather there is a whole subset of nouns it can draw from, while there are others it cannot draw from. This is called semantic selection. Furthermore, there is case to consider. Neither does lieben assign nominative twice, nor does it assign accusative twice, but it rather assigns nominative and accusative. If a language uses overt morphology to assign case,
III. Dependenz. Grundlagen und Grundfragen
case markers in this language are formally selected. In Japanese, the above sentence would be expressed as (37) Sono otoko ⫽ no hito ⫽ ga jibun ⫽ no okusan ⫽ o aisi.te i.ru koto that man ⫽ GEN person ⫽ NOM self ⫽ GEN wife ⫽ ACC love ⫹ part be ⫹ PRES COMP “that the man loves his wife” As in German, the Japanese lieben, i. e. ais.uru, is transitive and demands nominative ⫽ ga and accusative ⫽ o which are overt case markers that need to occur. Both semantic and formal selection preceed what is considered as dependency. The distinction between semantic and formal selection is intralinguistically concrete, but interlinguistically grows softer. I. e. features that are purely semantic in language L1 may be formal features in language L2. Case markers are a case in point: in German case is rarely realized morphologically, but rather occurs as a function that percolates downwards (to adnominal expressions). Nominal dependent such as determiners and adnominals may show case formally. In Japanese, on the other hand, case is always formally selected because case is realized morphologically and immediately after the nouns or nominal expressions. Semantic selection as understood by Groß (1996) may comprise the following features: sememes (the meaning ‘house’ in the German noun Haus), semes (the semantic feature [⫺ANI] in Haus), grammemes (the grammatical feature [⫹n. sg.] in Haus), and functions (the temporal function [⫹PAST] of the German suffix -te after regular verb stems). Formal selection can be considered as a basically classematic selection; i. e. the selection from a word class which can range from very general to very specific. For instance, Japanese adjectives in adnominal or attributive position do not require any adjectival flexemes but only those that can occur in finite position (this function is neutralized in attributive position). I. e. Japanese head nouns do not select flexemes, or adjectival flexemes, but finite adjectival flexemes. However, the notion of selection should neither be categorically regarded as an active demand process, nor even as the passive process of admission, nor as the very faint process of non-prohibition. Selection is rather a continuum ranging from active choice to faint non-prohibition. Complements range higher towards active choice in this selection continuum than for instance
28. Dependency Grammar’s Limits ⫺ and Ways of Extending Them
adjuncts which can appear almost without any restrictions. Thus, the head element’s internal setup acts rather as filter for selection candidates than as an active module. However, it is necessary to show that the filter process is antireflexive, antisymmetrical, and antitransitive as Mel’cˇuk (1988, 21⫺22) puts it. Of these three logical properties the second one is the most important. Taking (36), the accusative case slot which happens to be seine Frau is always required by the verb, while the opposite is not true: accusative does not always require the verb lieben. Therefore, there is an antisymmetrical relation such that lieben demands an accusative slot. Antireflexivity and antitransitivity are more intuitive to handle, although they are nevertheless important. Antireflexivity rules out the case that for instance the verb lieben demands the verb lieben, i. e. elements do not select themselves, but other elements. Antitransitivity rules out the case that a selection (or dependency relation) proceeds through all elements down, e. g. lieben demands an accusative slot, or more specific the occurrence of an expression with the case function [ACC], and the grammeme [⫹f] in Frau demands the flexeme ⫹e in seine, but lieben selects nothing of seine. All selection relations can be regarded as proto-dependency relations. They help to establish primary dependency relations: If an element A selects an element B, the word containing element A governs the word containing element B. Traditionally, the term dependent is used in a converse manner: if A governs B, B is a dependent of A. These two terms are sufficient to set up a working word dependency grammar, but they are insufficient to introduce the notion of phrase. “Phrase” is usually understood as a sequence of a head element and all its direct and indirect dependents. “Direct dependent” in that sense is equivalent to the term “dependent” defined above. It is possible to use the term “direct dependent” exclusively in order to define “phrase” but that procedure is very inconvenient since its logical form may grow very long and complicated. That would be as if one tried to define “ancestor” by “parent” or “descendent” by “child” exclusively. The advantage of words such as “ancestor” and “descendent” is that they can even be used if the degree of the relationship is unknown. The same property is desired for “indirect successor”, and in order to achieve that an abbreviation mechanism is needed so that potentially infinite sequences of direct depend-
341
encies are avoided. In mathematics this is done by recursive definitions (cf. Groß 1995 for an explicit formalism). The logically crucial difference between the words “descendent” and “indirect successor” is that a person B can be a descendent of a person A if B is A’s child. However, this immediacy cannot be tolerated for “indirect dependency” because it is reserved for “direct successor”. Therefore another term is required: let an element C be a direct dependent of B, and B a direct dependent of A (such as for instance the determiner der is a direct dependent of Mann which itself is a direct dependent of liebt). In this case, element C may be called an indirect dependent of A. This term is equivalent to the word “grandchild” in ancestral relationship terminology. It is still an antitransitive term, but even if it should be defined as a transitive term (such as e. g. the artificial term “oddgeneration-descendent”, so that a grandchild and its own grandchildren ⫺ and again their grandchildren and so on ⫺ are odd generation-descendents of the grandchild’s grandfather), all dependents that are no direct dependents or indirect dependents (to whatever degree) of a given expression stay unaccounted for. However, the terms “direct dependent” and “indirect dependent” are sufficient to give a recursive definition: an indirect successor of an element A then is any element D if D is an indirect dependent of A or if there is an indirect successor of A, namely C, of which D is either a direct or indirect dependent. In order to clarify this definition take a look at sentence (16) again, repeated below as (38): (38) “Nicht über mich wollte ich etwas wissen!” The structure of (38) was shown in figure 28.6. The words ich and wissen are both direct dependents of wollte. Nicht and etwas directly depend on wissen, so they are by definition indirect dependents of wollte. Über directly depends on nicht, so it is an indirect dependent of wissen, and mich indirectly depends on über, so it is an indirect dependent of nicht. Mich is the lowest ranked word in sentence (38), and it is an indirect successor of wollte because first there is an indirect dependent of wollte, namely nicht, of which mich is an indirect dependent, and secondly there is an indirect successor of wollte, namely über, that directly governs mich. Über must be an indirect successor of wollte, because there is an indirect dependent of wollte,
342 namely nicht, that directly governs über. The notions of direct and indirect successor can be unified to general successor, and then be used to define “phrase”: a sequence of words A1 … An is a phrase P if there is only one word Ax of which the other words A1 … Ax1 , and Ax⫹1 … An are general successors. Ax is then called the head of phrase P. The notion of phrase can be used to define the notion of “sentence”: if there is a head H of a phrase P that is not a general successor of any other word W in a phrase Q that contains P, then P is a sentence. (38) is a sentence, because there is a head wollte and there is no other word that governs wollte. Sentence (38) contains two phrases besides the head wollte, namely ich and nicht über mich etwas wissen. The first phrase is terminal because it only contains one element. The second phrase furthermore contains nicht über mich and etwas, the former again contains über mich which in turn contains the terminal phrase mich. Phrases may be considered as dependents of a word via the dependency of the phrase’s head. Phrases that thus depend on a word that is the sentential head may be called primary constituents. Since phrases may be terminal if they contain only one word constituents may be words or phrases. Besides the phrasal category “sentence” all other phrases can be classified according to the dominant classemes of its heads. Since ich is a pronoun (and since pronouns always translate into “noun”), ich is an NP. In nicht über mich etwas wissen, the head wissen contains the verb stem wiss and the infinitve -en which is a nominal suffix with the grammeme [⫹n.sg.]. Thus it is also an NP with an internal verbal structure (since wiss is a verb stem). In other words, wissen as a dependent behaves like a noun (which satisfies the transitivity of wollte), but as a head it behaves like a verb. Etwas is an indeterminate adnominal quantifier and its phrase type can be generalized to NP, thus satisfying the (usual sentential) transitivity of wissen. Nicht über mich is an adverbal phrase, since nicht is a negation adverb, and über mich is a PP that embeds an NP. Once these categorial labels are available, the constituency history of sentence (38) can be traced back and reformulated again for productive sentence formations rules similar to those Robinson (1967; 1970) proposed. These formulae (that are familiar from generative grammar prior to Xbar-syntax) can be employed as formation rules in order to also generate formal struc-
III. Dependenz. Grundlagen und Grundfragen
tures. If the notion of selection is applied to the notion of phrase, the term “complement” can be defined: A phrase P is a complement if semantic or formal features of its head H are demanded by the internal setup of a word W which governs P. If a phrase merely meets no prohibition by its governor then it is an adjunct. Among complements, the subject complement in languages such as German and English may pose the most problems. In dependency grammar, the subject is considered as a dependent of ⫺ most often ⫺ the verb, but in constituency grammar, the subject phrase forms a sentential phrase together with a complex verb phrase which contains all other complement and adjunct phrases. Constituency grammarians argue that the subject has to agree with the verb (or nowadays the category INFL). In (36) the subject der Mann and the verb liebt are in agreement. Agreement can also be defined by the notion of selection: a word A is in agreement with a word B if both A and B share an equivalent feature where a hierarchy cannot be resolved. It is impossible to say whether the grammeme [⫹sg] of Mann demands the function [⫹sg] of the flexeme ⫹t or vice versa. In order to establish a hierarchy relation between der Mann and liebt this line of argument comes to nought. However, the verb still selects features of the subject by filtering ⫺ in this case ⫺ for nouns with respective semes such as [⫹ANI] and [⫹SENT]. The disposition of lieben can only be shared by entities in the world that are animate and sentinent. Inanimate entities such as books or chairs, or insufficiently sentinent ones such as plants or microbes cannot turn up as subjects in sentences where the verb lieben filters the subject position. This is an antitransitive relation and thus constitutes a hierarchy because nouns with the semes [⫹ANI] and [⫹SENT] do not always demand a verb that shares these features. Nevertheless, although the property of agreement is irrelevant for the dependency structure, it is important for the sequence structure. Sentence formation rules as those that are used in generative grammar or generative DGs are still inadequate as far as word order was concerned. These rules just generate every possible word order and thus produce a lot of completely inacceptable sentences in the process. Since agreement is an outcome of mutual selection, or at least a result for which it is impossible to determine the origin of the process, selection terminology can be used to define prelimiary cate-
28. Dependency Grammar’s Limits ⫺ and Ways of Extending Them
gories suitable for phrase and word order sequencing. Such has been proposed by Groß (1996): if a proper, i. e. antitransitive, selection relation between two elements has been verified and established, and if this proper selection relation is accompanied by an agreement relation between the same elements, the properly selected element is placed into a segment called remote zone. Elements that are selected without further agreement relations cooccurring are to be placed into a segment called close zone. Observe the next German sentence: (39) Du kauftest gestern ein Buch. The subject du is in numerus agreement, namely [⫹2sg], with the flexeme ⫹Est, and the adverb gestern is in temporal agreement, namely [⫹PAST] with the suffix -te.Thus, the subject and the adverb are located in a remote zone, while the object ein Buch is located in a close zone. The main problem for every attempt to explain and predict word order regularities is which sequence can act as a base. Several possibilities may be considered but since the selection process is the chosen framework, three notions may be leading in the choice of a base sequence: the filter sequence order, the mirror alignment and zone adjacency principle. Different morphemes in a word can act on different elements in the environment of that word. While the sequence of the surrounding elements that have been selected is under scrutiny and thus one or another sequence cannot act as a base convincingly, the sequence order of the selecting elements may serve as an indicator of which sequence could be considered as a base sequence. While the selected elements, i. e. the words in a phrase or a sentence, show more than one possible order, the selecting elements, i. e. the filters within the governing word, are sufficiently ordered. In (39) the filters are contained in the verb kauf.te.st, where the sequence cannot be changed but is fixed. The mirror alignment principle demands that the base sequence of surrounding selected elements must show a mirror alignment of the filter sequence order with the further restriction that this so determined base sequence must be a possible sequence in a natural language. Finally, the base sequence should show a zone order where the close zone is adjacent to its filter. For (39) and all structurally similar German sentences there are two possible base sequences:
343
(40) Kauftest du gestern ein Buch? (41) … (dass) du gestern ein Buch kauftest … However, erotetic (40) does not respect the zone adjacency principle, since the remote zone [du gestern] is located between the filters and the close zone. Therefore, (41) must serve as a base sequence. Zones can contain several elements, and therefore it is desirable to make more distinctions. Segments of one type of zone may be called loci. The agreement relation between du and ⫹Est is a relation concerning numerus, while the agreement relation between gestern and -te concerns temporal features. Therefore the subject is placed on the locus NUMerus, and the adverb on the locus TENse within the remote zone.The proper selection of the object ein Buch is a lexical valency relation, therefore it is placed in the locus VALency within the close zone. The principles of filter sequence order, mirror alignment and adjacency not only apply to primary constituents but also to the constituents themselves: in the object NP, the adnominal ein and Buch are also in an agreement relation, namely one that concerns genus, numerus, and case. Thus, the adnominal is located in a remote zone with respect to its head noun. The close zone is empty and serves as a location for adjectives. Adjectives again may be placed on different loci, dependening on their subclassification as numerals etc. (41) can now be formalized as: (42) … (dass) [RZ[NUMdu] [TENgestern]] [CZ[VAL{RZein} {CZ} Buch]] kauftest … In order to explain and predict the sequence order rules it is possible to adopt the Optimality Theoretical approach (OT hereafter, cf. Archangeli 1997). In OT, the attempt is made to find a set of parameters that can be violated by structured expressions, be they phonological, morphological or syntactic. For this set of parameters, a priority hierarchy must be empirically established. High ranking parameters are more fatal to the acceptability of an expression than low ranking parameters, and the priority hierarchy can be different for different languages due to their typological distinctions. OT is used in the framework of GB-theory or Minimalism. Both rely on X-bar-syntax which is an ordered system of sentence formation. DG does not use ordered systems, and therefore DG needs more parameters from the onset in order to establish the proper and possible sequence orders. For this reason, OT analyses
344
III. Dependenz. Grundlagen und Grundfragen
look more elegant in the constituency framework than in DG. There is also the possibility to restrict an OT analysis purely to one constituent type such as e. g. the object. Since here only the basic working and application of OT principles to DG shall be shown, there is no space to conduct more complex crosslinguistic analyses here. For a basic German sentence such as (39) with the sequence order of the four constituents du, gestern, ein Buch and kauftest considered, 24 different sequence orders must be judged by a given set of parameters. As parameters it is possible to take “FC1”, “FCn”, “Stay”, “NumAdj”, and “AlignFocus” in order of priority: “FC” is the parameter concerning the position of the filter sequence complex, here the verb. “FC1” is defined as: FC is located either immediately before or immediately after the first locus; “FCn” is defined as: FC is located immediately after the last locus. Violation of “FC1” and “FCn” is fatal, violation of either one is not. “Stay” is a parameter actually used in OT, and it means simply that a constituent has been moved. Since the notion of movement is in principle problematic, this parameter shall here only indicate that a constituent is not located where it should be located in the base structure, leaving open whether this implies movement. Violation of “Stay” thus implies that the structure does not exhibit a mirror alignment between FC and loci. It is necessary to distinguish between “FC-Stay”, and “Loc-Stay” for the loci. Either can be violated without consequences, if no other parameters are violated. They can even be violated both at the same time, but “Loc-Stay” may only be violated once, and without consequences only, if no other parameters are violated. “Loc-Stay” ranks higher than “FC-Stay”. “NumAdj” is defined as: the locus NUM is adjacent to FC. Violation of “NumAdj” is fatal if any violation of another parameter occurs. “AlignFocus” is a parameter that has been borrowed from OT. It means that the focus position contains an unfocalized constituent, or that the focalized constituent is not in a proper position for focalization. This may result through the violation of “Stay”. The list of the 24 permutations of the four constituents mentioned above is given below: (43) a. b. * c. * d.
du du du du
kauftest gestern ein Buch kauftest ein Buch gestern gestern kauftest ein Buch gestern ein Buch kauftest
e. * f. * g. h. * i. * j. * k. * l. * m.* n. * o. p. * q. * r. * s. * t. * u. v. * w. * x. *
du ein Buch kauftest gestern du ein Buch gestern kauftest kauftest du gestern ein Buch kauftest du ein Buch gestern kauftest gestern du ein Buch kauftest gestern ein Buch du kauftest ein Buch du gestern kauftest ein Buch gestern du gestern du kauftest ein Buch gestern du ein Buch kauftest gestern kauftest du ein Buch gestern kauftest ein Buch du gestern ein Buch du kauftest gestern ein Buch kauftest du ein Buch du kauftest gestern ein Buch du gestern kauftest ein Buch kauftest du gestern ein Buch kauftest gestern du ein Buch gestern du kauftest ein Buch gestern kauftest du
In OT, a tableaux notation is used, and with the five parameters defined above, a tableaux for (43) should look like fig. 28.14. The asterisk marks a violation, an exclamation mark marks a fatal violation. Grey areas mark parameters whose violation or compliance is irrelevant for the outcome since a fatal violation has already occurred. As figure 28.14 shows, FC is credited the highest priority, since its violation results in an ungrammatical sequence. Loc-Stay ranks next because if it is violated twice, the sequence is fatal, even without other parameters violated. FC-Stay ranks third, because its violation only results in a fatal sequence if even lesser ranked parameters are also violated. NumAdj is ranked even lower, because its violation does only cause a fatal result, if Stay has been violated. AlignFocus is ranked last, since it is not strictly a syntactic but pragmatic parameter. This credits the idea that structural violations should take precedence over contextual violations. Furthermore, it is hard to judge whether structurally fatal sequences actually violate AlignFocus, because most often they are ungrammatical anyway. A verbal summary of the evaluation of (43) in figure 28.14 shall follow: (43c), (43e), (43m), (43r), (43s), and (43x) all violate FC since there the verb is neither located last nor before or after the first locus. (43j), (43l), (43q), (43v), and (43w) incur at least two Loc-Stay violations which usually results in an AlignFocus violation. Next are (43f), (43i), (43k), (43n), (43p), and (43t) which incur a NumAdj violation in addition to other viol-
28. Dependency Grammar’s Limits ⫺ and Ways of Extending Them 43
FC
LocStay
a * *!
* *
d e
NumAdj
AlignFocus
*
b c
FCStay
*! *
*
* *!
f
* *
g
*
*
*!
*
*
h
*
*
i
*
*
*!
*
j
**!
*
*
*
k
*
*
*!
*
l
**!
*
*
*
*
*
m
*!
*!
*
n
*
o
*
*!
p
*
*!
q
**!
*
*
*
r
*!
*
*
*
s
*!
*
*
*
t
*
u
*
*
v
**!
*
w
**!
x
*!
**
*!
*
*
* *
*
*
Fig. 28.14: Tableaux for sentences (43a⫺x)
ations which means that the subject is not located properly with respect to the verb. Unproblematic sequences are (43a) and (43g) where the verb has a different location, (43d) which constitutes the base, and (43o) and (43u) where the verb and another constituent are placed in different locations. The sequences (43b) and (43h) differ from (43o) and (43u) only in the respect that their foci are improperly aligned. This violation of AlignFocus (and therefore the entire parameter) must be ranked very low because sometimes these sequences do occur in spoken German (usually accompanied by heavy prominence). However, a sequence like (43j) never occurs in German. The above discussed approach may be a tool to deal with word order in DG
345
without having to introduce another level (such as a functional, contextual, or pragmatic level) and without the need to stratify the grammar. Unfortunately, there is no space to go into more complex cases concerning this problem. 2.4. Coordination The terminology of zones and loci may be useful to describe a phenomenon that has defied satisfying treatment not only in DG but in practically every other theory as well, namely coordination. The key idea behind the sceptical point of view that coordination cannot be represented adequately in the usual frameworks is that any phenomena of coordination are lately understood not as representational, but as procedural. In particular Lobin (1993) emphasizes the procedural approach to coordination, and stresses that in order to fully grasp the phenomenon of coordination DG must implement a respective syntactic subtheory. Lobin (1993, 65⫺110) has done extensive research and convincingly argues that previous proposals on the treatment of coordination are either consistent but not exhaustive (i. e. some structure types remain unexplained or ad hoc), or exhaustive but inconsistent (since the general phenomenon of coordination is analyzed differently for different structure types). Lobin’s main objection centers on most proposals not recognizing the prodecural nature of coordination, and trying to represent a phenomenon that has “… keine strukturelle Realität …” (1993, 4). The problem of what is structurally real in linguistics, however, is a mainstay of linguistic reflection. It might be asked how real stemmatic structures are in reference to the sentences that are represented by them. At least the hierarchy dimension (as is grouping of immediate constituents) is not immediately perceived, other than word order, for instance. Even very well schooled linguists cannot visually perceive the hierarchy structure of a complicated sentence in the same amount of time that it takes to understand it. The point is that the hierarchy dimension is introduced as a tool for sentence structuring (which is a formal linguistic task that normal language users simply do not conduct), and that it has to be justified. Procedural phenomena such as coordination defy the usual structuring because at least one structure rule is repeatedly applied to another element. If there is one procedure type repeatedly apply-
346
III. Dependenz. Grundlagen und Grundfragen
ing only to one locus, no grave structural impediments evolve:
whole construction. Sentence (44) rendered in Japanese sustains this:
(44) Paul met Norma and Joan.
(45) Paul ⫽ wa Norma ⫽ to Joan ⫽ ni ai. mashi.ta. Paul ⫽ EXclusiveFocus Norma ⫽ COO Joan ⫽ DAT meet ⫺HONorative ⫹PERfect
Probably the easiest way to analyze sentence (44) is to assume with Mel’cˇuk (1988, 26 ff.) that the coordinator and not only must be sequentially placed between Norma and Joan, or other element types, but also hierarchically between them. Thus, the coordinator and must at the same time govern and depend on the same element type, in this case two proper names, thus nouns or noun phrases. Thus a stemmatic representation of (44) could look like figure 28.15. met
Paul
Norma
and
In a stemma of (45), the hierarchy relations between Norma and Joan would be inverted in a way that Joan would be the highest ranked element, not Norma. Such a structuring is necessary because only Joan receives dative case, but not Norma. In order to comprehend a sentence or an utterance it is necessary to understand which role an element plays in the sentence. In Japanese, this can only be understood after the last element of a coordinate construction. In the English sentence (44), however, the coordinate construction’s role in the sentence is understood already after the first element because English objects must comply with the adjacency requirement. If the subject of (44) is enhanced by a further element such as (46) Paul and I met Norma and Joan.
Joan
Fig. 28.15: Projective stemma of (44)
In figure 28.15 Joan is the lowest ranked element of the coordinate structure. Concludingly, Joan might be considered the element to which the same procedure is repeatedly applied. The coordinator and in English, and the respective words in German or French, all fulfill the same function: they appear between the last and the second-to-last element in sequence subjected to the same procedure. More frequent occurrencies, for instance between every element subjected to the same procedure, are possible, but serve different pragmatic purposes, e. g. stressing. One of the first problems now is to determine the dependency direction of coordinators with two different views colliding. The first is to simply give priority to precedence, i. e. the first conjunct is always the highest ranked element of the coordinate construction. This is sensible insofar as natural languages show only one dimension, namely that of time. However, in purely progressive languages such as Japanese the first conjunct takes a clitic particle or an inflection that cannot be related to the governor of the coordinate construction, but only to the second (or last) element of the
it seems obvious that the role of the first coordinate construction can be understood only after the last element, much in the same way as in Japanese. Thus, Paul would depend on and which in turn would depend on I. Therefore, the appropriate dependency directions of coordinators depend on the coordinate constructions they form being in progressive or regressive position with reference to their governor. So far, coordination was only a form of expanding a specific locus within a zone. But coordinators such as and can do more than that. First of all, they can mark the beginning of a procedure repetition that affects two or more different loci, which furthermore do not even need to be immediate or in any way continuous. For instance, sentence (46) means at least: (47) a. b. c. d.
Paul met Norma. Paul met Joan. I met Norma. I met Joan.
If not all but only some paraphrases of (47a⫺d) are to be expressed, similar structures characterized by different procedures must be constituted. If at least one paraphrase is omitted, so-called “gapping” structures occur:
28. Dependency Grammar’s Limits ⫺ and Ways of Extending Them
(49) Paul met Norma and Joan, I only Joan. For (48) only (47a) and (47d) are valid paraphrases, while for (49) paraphrase (47c) is invalid. Since DG usually denies empty categories in order to stay monostratal, a deletion of the verb in the second part of the sentence cannot be assumed. The form of coordination in (48) and (49) does not apply to loci, but to sets of loci. If a “main cycle” is defined as a structure with a head and at least two filled loci, and a “conjoined cycle” as the set of at least two loci that match at least two respective loci in the main cycle insofar as grammatical features are equivalent. In (48) and (49), there are two loci types respectively: two subjects, namely Paul and I, and two objects, namely Norma or Norma and Joan and Joan. The procedure for the subjects Paul and I is the same, and so too is the one for the objects. Unlike in sentence (44), however, it is impossible to align the same element types together in front of or behind the verb, because this would yield sentence (46) which means all paraphrases (47a⫺d) which (48) and (49) do not. The structure in sentence (46) is simply reserved to express (47a⫺d) and cannot be employed to express less than that. Therefore, it is feasible to consider the first parts of (48) and (49) as structure as main cycles (with (49) containing locus coordination). Since gapped structures require at least two different dependents in the gapped part, the second procedural cycle does not first compute (in this case) the subject and then the object, but it rather repeats the zone or locus formation. If there are more than two dependents in the first cycle, the second does not need to repeat all of them but only those that are different: (50) He read a book in the house, (and) I in the yard. However, there must be at least two dependents in the gapped part of the sentence. The conclusion is that in the cases of (48) to (50), the conjunction and does not conjoin loci, but it rather conjoins two (or more) cycles. If the conjunction occurs ⫺ and it must be noted that it does not need to occur ⫺ in front of the second cycle, it announces the second (or last) cycle. If it does not occur, sentences can be checked whether a conjunction can occur properly in some positions. The next problem is how to depict sentence structures such as (48) and (49) in a stemma, a
task that is by no means easier in a constituency grammar and its PS-markers. The problem can be overcome if cycles themselves are considered as elements that have to obey to sequence ordering. Sequence ordering in a stemma is depicted in the dimension of “time”. If the dimension of “hierarchy” is applied, a two-dimensional graphical representation is gained. A dimension of “cycle time” can be added if cycles are layered into a third dimension. Thereby, a two-dimensional structure is converted into a three-dimensional one. Observe a 3D-stemma for sentence (48): met
hierarchy
(48) Paul met Norma, (and) I Joan.
347
(and)
I Paul
Norma
time
Joan
cycle
time
Main cycle Conjoined cycle
Fig. 28.16: 3D-stemma of (48)
Figure 28.16 is to be read in the way that the first cycle layer is traced first through time, i. e. from left to right. When the first cycle has ended, time jumps back (diagonally through the cube) to the beginning of cycle layer 2, from where it is being traced again through time. The third dimension of cycle time denotes the time delay between the processing of the two cycles: the second cycle starts when the first cycle is finished. If a conjunction occurs, the elements of the second cycle may connect remotely to the verb via the conjunction, but since conjunctions may be omitted it seems obvious that elements of the second cycle have to connect to the verb under any circumstances. The conjunction’s function in this case may only be to announce the beginning of a different cycle layer, thus being basically interjective. It is rather undesirable to place it into a crossing position between the loci, because the first cycle subject is neither conjoined with its own object, nor with that of the second cycle. In any way, this process is nothing like the coordination of sentence (44), depicted in figure 28.15. Furthermore the stemma in figure
348
hat
hierarchy
28.16 probably also depicts more adequately what might happen at the psycholinguistical level of language processing. However, a main cycle does not have to be finished in order for the conjoined cycle to start. First of all, it could simply be placed after the conjoined cycle, and secondly the conjoined cycle could be located inside a main cycle, so that it causes a cycle discontinuity. In German, there is a way of structuring cycle coordination other than gapping, namely “left-deletion” which causes cycle discontinuity. This often occurs when periphrastic verbal structures such e. g. perfect tense are used:
III. Dependenz. Grundlagen und Grundfragen
(und) getroffen Peter
Paul
Norma
time Main cycle
Joan
le cyc
e
tim
Conjoined cycle
Fig. 28.17: 3D-Stemma of (52) with discontinuous main cycle
(51) Paul hat Norma (und) Peter Joan getroffen. In (51) the finite verb hat and the past participle getroffen bracket the first cycle object and the second cycle. However, the first cycle subject can also be part of this bracket if the initial position is occupied by another expression, such as a locative phrase, or adverbs. There are different hierarchy relations depending on whether the CDN is used or not. In case it is used, (which simplifies extraordinarily) finite and adverbal verb form one unit which governs subject and object. In case it is not used, the adverbal verb (here: the participle) must depend on the finite verb which governs the subjects, but not the objects which must depend on the participle. Since the participle is the last word in (51) but must govern the main cycle object locus, it must end the main cycle. Concludingly, the conjoined cycle is located between the main cycle object locus and the participle, which coincides with the word order in (51). This discontinuity of the main cycle can be expressed by assigning tupled linear indices, and thus render (51) as formalized (52): (52) 2Paul1,1 0hat1,2 7Norma1,3 2(und)2,4 4Peter2,5 4Joan2,6 2getroffen1,7. In (48) the assignment of tupled indices was not required because the location of the conjoined cycle did not cause a cycle discontinuity. Thus, a 3D-stemma of (51) should look like: In figure 28.17 the main cycle starts and continues until the conjunctor steps in and announces the conjoined cycle. Since the main cycle contains two loci up to this point in time, the conjoined cycle will contain equivalent loci. After the last of these conjoined cycle loci time continues in the main cycle which is closed by the participle. Hier-
archy relations are sustained by binding principles: the participle can still govern the conjoined cycle object through its own head, the verb hat. The distinction between locus coordination and cycle coordination can be applied to treat ambiguities such as the example Lobin (1993, 73) gives: (53) Lag das Buch auf oder unter dem Tisch? This question can be understood as a yes-noquestion or as an alternative question. The first case is an instance of locus coordination (here the PPs), while the second one contains a cycle coordination: (54) a. 0Lag1 3das2 1Buch3 1auf4 4oder5 5unter6 8dem7 6Tisch8? b. 0Lag1,1 3das1,2 1Buch1,3 1auf1,4 4oder2,5 5unter2,6 8dem1,7 4Tisch1,8? Sentence (54b) would require a 3D-stemma. In conclusion, it may be claimed contrary to Lobin, that there are two types of coordination that cannot be treated in the same manner. Cycle coordination is much more complicated than locus coordination. The fact that unification has been demanded by Lobin may be the result of a language bias because the German conjunctors and coordinators simply work in both types of coordination. However that need not be so: a linguist starting from Japanese would have good reasons to assume more than one type of coordination because some locus coordinators are not used for cycle coordination.
3.
Further limits
This chapter deals briefly with three topics: language evolution, psychology of language, and linguistic epistemology. While in the first
28. Dependency Grammar’s Limits ⫺ and Ways of Extending Them
area, generative grammar has only contradictory claims to make, it is very powerful and the leading paradigm in the latter two areas. Although nobody can doubt that language is as much an evolved capability as is child nursing, and that it is adapted to its environment as well as the human eye is for its purposes, only very few attempts in constituency grammar, and none in DG have been made, to contribute in this field. Admittedly, there are no linguistic sources of a time, when the human language was in a significantly earlier stage of evolution, so prospects are dismal for any theory. However, even technical features of the human language that pertain to evolution have stayed uncommented on. The psychology of language is basically the research on the human language faculty that has evolved. Since languages have only limited capabilities of structuring, it seems reasonable to assume that those structures present in modern languages have successfully outdeveloped competing structures. This must have come at a cost to computability for the language faculty, which can be measured as stress (boggles of the EEC). However, there is only limited research, and none that is DG-based. Epistemology is in particular the problem of justification of linguistic theories. Theories are tools that may or may not adequately explain phenomena in their assigned fields or areas, but they are improperly equipped to establish which theory is the best one. Modern DG has a history of about 60 years, and early on it has been employed in NLP. Today, the majority of DGs are more or less intimately related to NLP (although the majority of grammars in NLP is not DG based), and this has changed its epistemological point of view. In simplification, it is not anymore a leading purpose for a given theory to properly explain linguistic phenomena. The ultimate verification of modern DGs is, again simplified, whether they provide a workable parser or not. In epistemological terms, the attempt to “know why” has gradually passed through the “know what”-stage to the attempt to “know how”. Thus, DGs may run danger of not being explanatory theories anymore, but technical frameworks that are judged by the linguistic adequacy of the parsing devices that can be build. 3.1. Language evolution The storm of the nature/nurture debate that has influenced sociology, biology, and anthropology has passed over linguistics with-
349
out a trace. While sociolinguistic studies have steadily increased in number (the famous DGrammarian Richard Hudson (1996) for instance has published a well known textbook on sociolinguistics), language studies based on biology, or based into the frameworks of studies in the nature of humans, lead a fringe existence and are not recognized. Thus, language is basically the one human faculty that is not researched under the henceforth unmoveable insights of Darwinian evolutionary theory. That, of course, does not imply that linguists deny that language is a faculty that has evolved in more or less gradual development from a less complex stage. Admittedly, this problem of biological origin might never be solved (although Pinker & Bloom (1990) claim otherwise), because we lack the sources that would be required to conduct proper research, as writing has developed too late to preserve language stages that are so much earlier than the modern language stage. However, we have so many insights in the workings of the evolution process from our own development and from animals and plants, that the general ideas could be used to understand and explain language in a way from which modern linguistics has shied away. This reluctance is probably caused by a long established tradition in linguistics not to make normative, but only descriptive statements. Although the attitude to avoid normativism is perfectly understandable and justified, it may also hamper insights in other areas. One of the central ideas in modern evolutionary theory is the concept of cost. This concept has entered evolutionary theory through some common areas it shares with economics. Simply to be alive means having to find energy resources, and to consume them as efficiently as possible. The less time is required to find resources and consume them, the more time is available to do other things, such as procreating and ⫺ if required ⫺ nurture the offspring. Language shares this important feature for the simple reason that it takes time to breath. Spoken language as the principal of all other language types such as sign language or others, is a rather awkward process because the organs that humans use for phonetic language production were not designed for that purpose in the first place, but for breathing (a mechanism for energy consumption). Thus the pneumatic mechanism is steadily performing two tasks. Air has to be pressed through the trachea and then
350 through a complex of air modulating devices. This process takes time and is the reason why language is unidirectional and one-dimensional. These two properties influence how human language works at all. In the same way as there is more than one mode of locomotion (swimming, flying, bipedal, quadrupedal motion), which all use different energy/ cost models, different languages also use different models of cost and energy. Considering gapping (among other coordination phenomena) as treated in (48) and (49), language is restricted by its technical properties (unidirectionality and one-dimensionality) and semantic properties such as shown in (47) so that it cannot simply combine loci of the same type for gapping. Thus it faces an energy/cost problem: to repeat the full main cycle takes more time, to add a gapped structure takes less time. The cost is comprehensibility: the repetition of a main cycle with different loci is less ambiguous than gapping. Another example are discontinuities. A discontinuity places the energy saved by a shorter structure at the expense of imposing more mental stress on the hearer. Therefore, discontinuities that place to much stress on the user because they place too many constituents between the reference element and the discontinuous element, will probably not survive as productive structures. Thus, languages that could balance the effects of cost and energy efficiently would have been able to shorten structures with no significant expenditure in comprehensibility. 3.2. Psychology and DG The above-said is intimately connected to the area of linguistic psychology. If languages try to be cost efficient tools for communication then the faculties that deal with language deand encoding must have developed accordingly. Until now, the field of linguistic psychology is an area of a firm entrenchment of generative grammar. In particular research on first language acquisition, language development and lately sign language have made progress. DG seems not to be interested in this developments although it is not only relevant for understanding the language faculty, but also strategically important. While general linguistics does not make blockbuster popular science, psychology does. And since researchers use generative grammar to explain the linguistic angles of their research, the effect is that generative grammar gains popular ground at the expense of other theo-
III. Dependenz. Grundlagen und Grundfragen
ries such as DG. Statements e. g. that traces or empty categories are actually computed by the language faculty, do in effect harm to DG. All statements, for instance, that Pinker (1994, 209⫺213) makes on language perception of ambiguous structures do not suffer if they are placed into a DG framework, since there is not much difference speaking about phrases and dependency relations. However, DG has made no attempt to enter that debate. Chapter 2 has commented extensively on word order and discontinuities, and has pointed out that projective representations are very important for linguistics. Projective representations simply credit the technical limitation languages are bound by, namely the time dimension. This dimension and its representational relation are insofar extraordinarily important, as linguistic items are not totaly free to be scrambled into new combinations. Beyond purely syntactic considerations, time is also very important for neurolinguistic preception, since all language-internal rules (or “parameters” as they are called in GB-theory, Minimalism, and various typological approaches) on sequencing pertain to human capabilities of language perception. The further allegedly undeniable fact that the hierarchy notion that constitutes the core concept in DG is so easily grasped and almost intuitive, still remains to be field-tested. 3.3. Epistemology DG is but one theory in the field of linguistics. Linguistics itself is an scientific untertaking, and as such it is subject to certain standards of truth. Linguistics as taken traditionally is but the attempt to understand and explain the linguistic traces (such as sounds or writing on paper etc.) that linguistic action of humans leaves behind. To this effect different theories ⫺ even within the framework of DG there is not only one theory ⫺ compete for the best explanation. Usually, the efficiency of theories can be tested by comparison as to how they handle the phenomena. Comparison is based on exhaustion (to explain all phenomena in the field), consistency (same phenomena are explained the same way), and economy (the least number of explanations possible). However, not only the empirical content is important but also its terminological setup. Terminology is restricted so that it may not be circular (a term may not be defined by itself), not be regressing ad infinitum (there must be a first term that is not pre-
28. Dependency Grammar’s Limits ⫺ and Ways of Extending Them
ceded by other terms), not be dogmatic (demands to show the flawlessness of the terminology may not be rejected by mere authority). One of the ways out is to construct the terminology in a methodical step-by-step procedure so that every term can be checked by its previous definiens. Such a method has been employed in Chapter 2.3 to introduce the term “phrase”. Lately, DG has established itself in NLP, and the peril exists that theories are not judged anymore by the above properties but by their computational success. It may well be that the parsers NLP theories produce work, but that does not reflect on the quality of the respective theories. A technical device is in general judged by a set of features that do not intrinsically pertain to explanatory theories. For instance, workability for a technical device such as a parser (which is a program that does not work without a powerful computer) can be judged by computing time, storing capacity asf. None of these criteria apply to an explanatory theory. A parser that is based on CDN, for instance, may work, but that does not mean that CDN is justified as a theoretical method for explaining linguistic phenomena. The same is true for the treatment of discontinuities. This does not imply that the property of workability must be rejected at any cost, but only that it does not apply to theories, but to computer programs. A parser must naturally be judged by its working success. But neither does a working parser necessarily evolve out of a good grammar theory, nor does a bad parser prove a grammar as refutable. Beyond these problems of verification, there is an epistemological problem. Are the principles of language understood if a specific parser works? While everyone can arrange a glowing light bulb and two (or more) spherical objects in order to demonstrate the phenomena of the eclipse of a celestial body, there is justified hesitation in applying the same thinking to parsers and the language faculty. One of the reasons is that it is yet to be shown that computers and the cerebral areas responsible for the language faculty are equivalent or at least analoguous. In epistemological terms, linguistics, and thus DG, has to decide whether the priority objective is to understand and know why language is what it is, or be satified by knowing how to build a working translation machine. The necessity to make a stand only seems so remote because even the attempts to build such machines for limited applications are in general
351
rather sobering. But if they were not, would and could linguistics be satisfied with the epistemological insights it could offer?
4.
Select Bibliography
Archangeli, Diana (1997): Optimality Theory. In: Optimality Theory: An Overview. Malden/Oxford, 1⫺32. Chomsky, Noam (1965): Aspects of the Theory of Syntax. Boston. Groß, Thomas (1992): Konstruktive Stemmatologie. In: Papiere zur Linguistik 47, 115⫺139. Groß, Thomas (1993): NP vs DP. In: Papiere zur Linguistik 48, 3⫺28. Groß, Thomas (1995): Theorie hierarchischer Relationen. In: Dependenz und Valenz (⫽ Beiträge zur germanistischen Sprachwissenschaft 10). Hamburg, 85⫺97. Groß, Thomas (1996): On Getting a Head. In: Prague Linguistic Circle Papers Vol. 2. Prague, 85⫺100. Groß, Thomas (1999): Theoretical Foundations of Dependency Syntax. München. Hudson, Richard (1984): Word Grammar. Oxford/ New York. Hajicˇova´, Eva/Sgall, Petr (1987): The ordering principle. In: Journal of pragmatics 11, 435⫺454. Hudson, Richard (1996): Sociolinguistics. Cambridge. Lobin, Henning (1993): Koordinationssyntax als prozedurales Phänomen (⫽ Studien zur deutschen Grammatik 46). Tübingen. Mel’cˇuk, Igor (1988): Dependency Syntax: Theory and Practice. Albany. Pinker, Steven (1994): The language instinct. London. Pinker, Steven/Bloom, Paul/commentators (1990): Natural language and natural selection, In: Behavioral and brain sciences 13, 707⫺784. Starosta, Stanley (1993): Word order and focus in constrained dependency grammar. In: Proceedings of the conference: Functional description of language. Prague, 237⫺252. Robinson, Jane J. (1967): A Dependency Based Transformational Grammar. Yorktown Heights. Robinson, Jane J. (1970): Dependency Structures and Transformational Rules. In: Language 46, 259⫺285. Tarvainen, Kalevi (1981): Einführung in die Dependenzgrammatik. Tübingen. Tesnie`re, Lucien (1980): Grundzüge der strukturalen Syntax. Hg. und übersetzt von Ulrich Engel. Stuttgart.
Thomas Michael Groß, Toyohashi (Japan)
IV. Valenz. Grundlagen und Grundfragen Valency. Basic Principles and Basic Issues 29. Grundlagen der Valenz 1. 2. 3. 4. 5.
Einführung Grundkonzepte Monokriteriale Valenzkonzepte Polykriteriale Valenzkonzepte Literatur in Auswahl
1.
Einführung
Bereits in der Themenstellung „Grundlagen“ des Valenzbegriffs, die hier systematisch und nicht historisch angegangen werden soll, kommt zum Ausdruck, daß ‘Valenz’ heute kaum mehr selbst als ein linguistischer Grundbegriff betrachtet wird, der durch einen relativ direkten Zugriff auf sprachliche Beobachtungsdaten zu gewinnen wäre. Vielmehr ist mit Valenz ein komplexes Organisationsprinzip natürlicher Sprachen gemeint, dessen Bestimmung nur aufgrund des ganzheitlichen Modus der Metapher, der sowohl der Übertragung aus den Strukturmodellen der Chemie als auch bei der „dramaturgischen“ Erklärung Tesnie`res zugrunde liegt, als einfach und stringent erschien. Jeder nicht-metaphorische Erklärungsversuch führte notwendig auf den Gebrauch anderer, ihrerseits nicht einfacher Begriffe im definiens zurück, wie etwa Rektion (regiertes Element), Argumentstatus (Elemente mit Argumentstatus), Notwendigkeit (notwendige/nicht-weglassbare Elemente). Der vorliegende Artikel geht im wesentlichen zwei Fragestellungen nach: ⫺ Welche fundierenden Grundkonzepte werden für Valenz geltend gemacht? Wie stehen sie zueinander? (Abschnitt 2) ⫺ Wie wird mit der Tatsache, potentiell mehrere Grundkonzepte zur Verfügung zu haben, bei der Beschreibung von Valenz in einem Ansatz umgegangen? (Abschnitte 3 und 4) ‘Notwendigkeit’ wird hier nicht als Grundkonzept betrachtet. Bei dem mehrdeutigen
Begriff ist zwischen ‘Sinnotwendigkeit’, ‘kommunikativer Notwendigkeit’ (gegebenenfalls auch noch ‘Textnotwendigkeit’) und ‘syntaktischer Notwendigkeit’ zu unterscheiden (vgl. Storrer 1992, 105): 1. Wo ‘notwendig’ so viel wie ‘sinnnotwendig’ heißt (vgl. Welke 1988, 29 ff.), ist es identifizierbar mit dem semantischen Kriterium ‘Beteiligtheit’ (vgl. Abschnitte 4.2.2. und 4.2.3.). 2. Ein Fall von ‘kommunikativer Notwendigkeit’ liegt z. B. bei semantisch „blassen“ Geschehensverben vor, wo ein Begleiter aus Gründen des Relevanzprinzips gesetzt werden muß, sofern das informationelle Defizit nicht in der Äußerung selbst oder im weiteren Kontext ausgeglichen wird: ?Diese Tat geschah versus Diese Tat geschah aus Leidenschaft / in Frankfurt / am 12. Juli versus Diese Tat ist nun einmal geschehen. Die kommunikativ notwendigen Begleiter aus Leidenschaft / in Frankfurt / am 12. Juni sind nicht als Ergänzungen einzuordnen, kommunikative Notwendigkeit ist also kein hinreichendes Kriterium für Valenzbindung (vgl. Heuer 1977, Welke 1988, 68, Grundzüge 1981, 425 ff., Zifonun et al. 1997, im Folgenden: GDS, 1100 f.). Vergleichbares gilt auch für ‘Textnotwendigkeit’, denkt man an für die Textkohärenz unverzichtbare Begleiter mit Angabestatus (Storrer 1996a, 226). 3. Wo Notwendigkeit als (syntaktische) Nicht-Weglaßbarkeit sogenannter „obligatorischer“ Begleiter verstanden wird, mußten (vgl. Sæbø 1984, Blume 1993, Jacobs 1994a) eine Reihe von Fallunterscheidungen (u. a. im Hinblick auf mehr oder weniger weglassungsfreundliche Kontexte) getroffen werden, die zeigen, daß ausdrucksseitige Notwendigkeit/ Weglaßbarkeit eher als Epi- denn als Basisphänomen der Valenz zu betrachten ist. Nicht-Weglaßbarkeit ⫺ in nicht-weglas-
29. Grundlagen der Valenz
sungsfreundlichen Standardkontexten ⫺ kann dann zwar als hinreichendes Kriterium für Valenzbindung gelten, nicht jedoch als notwendiges: Weglaßbare Begleiter können valenzgebunden sein (fakultative Ergänzungen) oder nicht valenzgebunden (Angaben).
2.
Grundkonzepte
2.1. Valenz als Rektion Wenn Valenz auf Rektion zurückgeführt oder auf der Basis von Rektion definiert wird, so wird damit am unmittelbarsten auf die dominante westliche Tradition zum Verhältnis von Verb bzw. Prädikat und Satzgliedern zurückgegriffen (siehe Baumgärtner 1970, 62; Vater 1978, 3; vgl. jedoch auch die traditionelle Sonderstellung des Subjekts). Allerdings gibt es in der modernen Rekonstruktion des traditionellen Begriffs zwei gegenläufige Linien, deren Ergebnisse nur teilweise kompatibel sind: die im Sinne einer syntagmatischen Relation und die strukturelle. Strukturelle Definitionen von Rektion liegen sowohl im phrasenstrukturell-generativen als auch im dependentiellen Rahmen vor. Rektion wird dabei jeweils zurückgebunden an das Vorliegen struktureller Beziehungen zwischen Knoten/ Termen/Entitäten in Konstituenten- oder Dependenzstrukturen bzw. ihren jeweiligen Baumgraphen. Zu „government“ allgemein ist Moravcsik (1993) heranzuziehen, wo Rektion selbst als ein „cluster“-Konzept, basierend auf Kasuszuweisung bzw. Zuweisung einer syntaktischen Funktion, begriffen wird. 2.1.1. Syntagmatische Definition von Rektion Ein Verständnis von Valenzgebundenheit als syntagmatische Relation im allgemeinsten Sinne ist zunächst mit jedem theoretischen Ansatz verträglich: Die Beziehung zwischen einem Valenzträger X und einer valenzgebundenen Einheit Y in einem Satz S ist eine syntagmatische Relation im Sinne von Saussure, eine Konnexion im Sinne von Tesnie`re. Bei Valenz geht es allerdings, zumindest wenn Valenz dem lexikalischen Wort (dem Paradigma) und nicht der Wortform zugeschrieben wird, um die Fähigkeit eines Valenzträgers, innerhalb von Sätzen diese syntagmatische Relation mit anderen Einheiten des Satzes einzugehen. ‘Valenz’ ist also der der Valenzgebundenheit zugeordnete Dispositions´ gel 1995, 3; begriff („Valenzpotenz“ bei A ´ gel 2000, 113 f.), der über die paradigmatiA
353 sche Verallgemeinerung der entsprechenden syntagmatischen Relation ‘Valenzgebundenheit’ zu gewinnen ist. (Man vergleiche zu dieser zentralen, jedoch häufig nur implizit bleibenden Unterscheidung Jacobs 1994, 30 f., auch Lehmann 1992, 437.) Von den einzelnen syntagmatischen Relationen, die als Basis der paradigmatischen Verallgemeinerung in Frage kommen, ist Rektion in der heutigen Forschung der primäre Kandidat. Der Begründer der Valenztheorie allerdings hatte in seiner sprachvergleichenden allgemein-linguistischen Perspektive keineswegs eine solche Verengung im Auge. Als Zeichen der Valenzgebundenheit kommen für Tesnie`re (1959, 111) sowohl morphologisch-lexikalisch realisierte „indices“ (Adpositionen, Affixe, insbesondere Flexive) als auch „la position des actants dans la chaıˆne parle´e“ in Frage. Somit ist auch die syntagmatische Relation des Positionsbezugs (Eisenberg 1994, 56) ein Kandidat für die Bestimmung von Valenzgebundenheit. Bei einer strukturellen Definition von Rektion, wie sie in der GB-Theorie vorgelegt wird, wird ⫺ aller terminologischen Turbulenzen ungeachtet ⫺ dieser sprachspezifizischen Variation im syntagmatischen Ausdruck der „besonderen syntagmatischen Beziehung“ Rechnung getragen (vgl. Abschnitt 2.1.2.3). In Eisenberg (1994) ist Valenz Rektion, eingeschränkt auf die Kategorie der Verben. Dabei wird folgender Rektionsbegriff zugrunde gelegt: [Rek-1] Eine Konstituente f1 regiert eine Konstituente f2, wenn die Form von f2 durch eine Paradigmenkategorie von f1 festgelegt ist (Eisenberg 1994, 52). Formfestlegung kann z. B. heißen: Festlegung des Kasus einer nominalen Gruppe („inflectional selection“ im Sinne von Hudson 1984, 78), Festlegung der Form eines Satzes (daßSatz versus ob-Satz), Festlegung der Form einer präpositionalen Gruppe durch Wahl einer Präposition und gegebenenfalls der Wahl eines von mehreren durch die Präposition erlaubten Kasus (Fälle von „lexical selection“ im Sinne von Hudson 1984, 78). Durch die Fassung als Paradigmenkategorie ⫺ alle Formen z. B. eines Verbparadigmas haben notwendigerweise dieselben Rektionen; systematische Abwandlungen z. B. im Rahmen von Modus oder Diathese sind getrennt zu behandeln ⫺ wird hier der oben geforderte Schritt zur paradigmatischen Verallgemeinerung partiell geleistet. Dennoch bleibt der Rekti-
354 onsbegriff an Konstituenten, somit an Sätze gebunden. Wir können den weiteren Verallgemeinerungsschritt von der Rektion zur Rektionsdisposition so vornehmen: [Rek-2] P sei ein Paradigma zusammengehöriger kategorisierter Verbformen. Die Konstituente f1 eines beliebigen Satzes S sei eine Verbform aus P; sie kookkurriere in S mit einer Konstituente f2. Wenn P zu der Paradigmenkategorie α gehört, die die Form von f2 in S festlegt, hat P Rektionsdisposition α. Wenn außerdem berücksichtigt wird, daß (nach Eisenberg 1994, 54) von Verben im allgemeinen mehrere, verschieden viele Einheiten regiert werden können, so können wir bestimmen: [Val-1] P sei ein Paradigma zusammengehöriger kategorisierter Verbformen. Die Konstituente f1 eines beliebigen Satzes S sei eine Verbform aus P; sie kookkurriere in S mit Konstituenten f2 bis fn⫹1. Wenn P zu der Paradigmenkategorie ⬍α1, …, αn⬎ gehört, deren Elemente jeweils die Formen von f2 bis fn⫹1 in S festlegen, hat P die Valenz ⬍α1, …, αn⬎. In dieser Bestimmung sind fakultative Valenzen und syntaktisch bedingte Abwandlungen der Valenz nicht erfaßt. Diese Formulierung zeigt, daß Rektion, Rektionsdisposition und Valenz auf dieser Ebene auf der Setzung beruhen, daß z. B. ein bestimmtes Verbparadigma P zu einer Menge von Verbparadigmen gehört, beispielsweise zu der Menge ⬍α1, α2⬎, so daß ⬍α1, α2⬎ ⫽ ⬍NOM, AKK⬎. In diesem Fall liegt die Setzung vor, daß P zu der Menge M von Verben gehört, die eine nominativische und eine akkusativische Konstituente regieren. Diese Setzung ist nur dann nicht empirisch leer, wenn die Zuordnung von P zu M ihrerseits auf der Beobachtung beruht, daß eine beliebige Form von P in Sätzen als Konstituente f1 mit den Konstituenten f2 im Nominativ und f3 im Akkusativ kookkurriert, und daß diese Kookkurrenz gerade dem Vorkommen von f1 geschuldet ist. Somit beruht Valenzbegriff [Val-1], die Setzung, auf dem für empirische Überprüfung zugänglichen Valenzbegriff [Val-2], den wir durch Umformung von [Val1] gewinnen können: [Val-2] Ein Verbparadigma P hat die Valenz ⬍α1, …, αn⬎, wenn in Sätzen, in denen eine Verbform aus P als Konstituente f1 vorkommt, die Konstituenten f2, …, fn⫹1 vor-
IV. Valenz. Grundlagen und Grundfragen
kommen, deren Form jeweils durch P als α1, …, αn festgelegt ist. Dieser auf syntagmatische Kookkurrenzbeziehungen zwischen Verbformen und ihren Kokonstituenten gegründete, aber für das Verbparadigma verallgemeinerte Valenzbegriff ist es, den wir letztlich hier gewinnen wollten; der abgeleitete Valenzbegriff [Val-1] setzt [Val-2] um in ein Konzept für die Unterteilung der Menge der Verbparadigmen oder (gleichbedeutend) in die Idee der im Lexikoneintrag des Verbs festzuhaltenden verbalen Subkategorisierung, die die Wohlgeformtheit syntaktischer Strukturen steuert. Dabei ist der Zusatz ‘durch P’ ein entscheidendes Bestimmungsstück, weil dadurch die „zufällige“ Kookkurrenz von f1 mit formal jeweils als α1, …, αn spezifizierten Konstituenten ausgeschlossen wird. Abprüfbar ist diese Eigenschaft über einen (doppelten) Grammatikalitätstest, bei dem a) bei Beibehaltung von f1 die Formmarkierungen von f2, …, fn⫹1 (sukzessive) verändert werden (z. B. Der Konzern storniert den Auftrag ⫺ *Des Konzerns storniert den Auftrag ⫺ *Der Konzern storniert dem Auftrag) und b) bei Austausch von f1 die Formmarkierungen von f2, …, fn⫹1 beibehalten werden (*Der Konzern entspricht den Auftrag). b) ist nur bei lexikalischer, nicht bei kategorialer Rektion (Subjektsnominativ im Deutschen) aussagekräftig. In Eisenbergs Ansatz ist für seinen syntaktischen Valenzbegriff ⫺ und dies ist der einzige, der der Grammatik zugrunde liegt ⫺ bei einem verbalen Paradigma Rektion hinreichend und notwendig für das Vorliegen von Valenz. Da aber die Einschränkung des Valenzbegriffs (statt des allgemeineren Begriffs der Rektion) auf die verbalen Paradigmen nicht begründet wird, es also nur eine terminologische Festlegung ist, kann grundsätzlich nicht nachgefragt werden, ob und inwiefern die verbale Rektion, die Valenz, sich von den übrigen Rektionsdispositionen unterscheidet. Dies kann aus einer übergeordneten Perspektive als unbefriedigend erscheinen, wenn man bedenkt, daß Rektion bei Eisenberg so ‘unterschiedliche’ Phänomene wie z. B. die Festlegung des Genus von Artikel und adjektivischem Attribut durch den substantivischen Kopf einer nominalen Gruppe oder die Festlegung der Personkategorie des finiten Verbs durch das nicht-pronominale Subjekt umfaßt. Dies zeigt, daß Rektion die syntagmatische Realisierung ganz unterschiedlicher inhaltlicher Bindungsrelationen ist und somit
29. Grundlagen der Valenz
einen nicht rein syntaktischen Valenzbegriff eindeutig unterbestimmt. Ein generelles Problem rein syntagmatischer Ansätze zur Rektionsdefinition ⫺ jedoch wohl konstitutiv mit ihnen verbunden ⫺ ist, daß die syntaktische Domäne, in der Rektion überhaupt wirksam werden kann, nicht angegeben wird (vgl. im Gegensatz dazu Abschnitt 2.1.2). Zu verweisen ist auch auf die weitere, sprachtypologischen Erfordernissen Rechnung tragende Fassung des Rektionsbegriffs bei Lehmann (1983), Lehmann (1985), der zwischen Kongruenz- und Kasusaffixen als Ausdrucksformen der Rektion unterscheidet. Im ersteren Fall wird Rektion am Regens ausgedrückt, z. B. durch Personalaffixe am Finitum zum Verweis auf das Subjekt wie im Deutschen und anderen indoeuropäischen Sprachen, aber auch im außerindoeuropäischen Bereich u. a. zum Verweis auf das direkte oder indirekte Objekt. Im zweiten Fall ist ⫺ wie in bei den Objekten in indoeuropäischen Sprachen üblich ⫺ die Rektion als Kasusaffix am Rektum ausgedrückt. Nicht erfaßt durch den Eisenbergschen Rektionsbegriff sind „indices actanciels intraou paraverbaux“ (Lazard 1988, 15), also Verbalaffixe (gegebenfalls auch Klitika), die „komplementär“ zu nominalen Ausdrücken eine Ergänzung vertreten können, jedoch keinen Wort- und Konstituentenstatus haben („pro-drop-“Phänomen, z. B. im Lateinischen, Ital., Span.). 2.1.2. Strukturelle Definitionen von Rektion Strukturelle Definitionen von Rektion scheinen zunächst wenig geeignet als Basis für ein Valenzkonzept, aus zwei Gründen: 1. Wenn es bei Valenz in erster Linie (vgl. 2.1.1) um einen Dispositionsbegriff geht, so bedarf es bei einem strukturellen (auf Verhältnisse in Sätzen mit ihren Strukturanalysen bezogenen) Rektionsbegriff in jedem Fall eines zusätzlichen Abstraktionsschrittes. Valenz wäre dann die Fähigkeit eines Valenzträgers, in beliebigen Sätzen seiner Umgebung eben jene strukturellen Beziehungen aufzuprägen. Valenz ist in diesem Rahmen die Disposition für eine bestimmte Rektion. 2. Die Formulierung von syntaktischen Regelsystemen, die bestimmte strukturelle Beziehungen zwischen grammatischen Entitäten determinieren wie etwa bestimmte Formen von Dominanz/Über- oder Unterordnung, ist theoriegeleitet, sie ist keine unmittelbare Funktion sprachlicher „Gegebenheiten“.
355 Dies zeigt sich ganz generell an der Existenz unterschiedlicher und zumindest deskriptiv gleichermaßen adäquater struktureller Beschreibungen für identische Phänomenbereiche. Demgegenüber „empfinden“ wir Valenz als eine sprachliche Gegebenheit, die zwar nur im Rahmen bestimmter Theorien genauer zu erfassen ist, die aber dennoch nicht der „Zufälligkeit“ theorieimmanenter Entscheidungen für eine bestimmte von mehreren möglichen strukturellen Beziehungen abhängig gemacht werden sollte. Insofern liegt die Vermutung nahe, daß die strukturellen Entscheidungen mehr oder weniger implizit empirische Gegebenheiten zwar jeweils differenzierend abbilden, etwa die Unterscheidung zwischen valenzgebundenen und nichtvalenzgebundenen syntaktischen Einheiten, daß die spezielle strukturelle Form dieser Differenzierung nicht zwingend ist. Daher wäre im Rahmen dieser Überlegungen der prätheoretische Valenzbegriff fundierend für die Setzung bestimmter struktureller Relationen wie etwa der Rektion, und nicht etwa umgekehrt. Ich werde an dieser Stelle dennoch auf zwei Versionen der strukturellen Definition von Rektion (als mögliche Basis/Explikation für Valenz) eingehen, auf die dependentielle und die im Rahmen der generativen Governmentand-Binding-Theorie (GB). In der Dependenztheorie ist Valenz in jedem Fall als eine Form von Abhängigkeit zu interpretieren: Eine bezüglich eines Valenzträgers Y valenzgebundene Einheit X ist notwendigerweise eine von Y abhängige Einheit. Rektion wiederum ist entweder die direkte strukturelle Umsetzung des empirisch durch Kookkurrenzbeziehungen getragenen Abhängigkeitsbegriffes (Engel) oder aber es handelt sich um eine spezielle Abhängigkeitsrelation (Heringer). Rektion (strukturelle Interpretation von Abhängigkeit) ist also in dependentiellem Rahmen mit Valenz notwendig verknüpft. In GB kommt syntaktischen Strukturen der Intention ihrer Verfechter nach ein anderer Status als der oben geschilderte zu. Sie haben als universalgrammatisch zugelassene und den Parametrisierungen einer speziellen natürlichen Sprache angepaßte mentale Formen/Muster den Status von Gegenständen, die durch die Konstrukte der Theorie erfaßt werden sollen. D. h. bezogen auf das hier angesprochene Thema: Das Vorliegen von Rektion (in den Strukturen der „inneren Spra-
356
IV. Valenz. Grundlagen und Grundfragen
che“ I-language) ist eine ⫺ wenn auch nicht direkt beobachtbare ⫺ ‘Gegebenheit’ und kommt somit durchaus als (möglicherweise partielle) Explikation des Valenzbegriffs in Frage. 2.1.2.1 Rektion und ihr Verhältnis zur Valenz in dependentiellem Rahmen Im dependentiellen Rahmen ist Rektion eine asymmetrische Relation zwischen einer dominierenden Entität und einer abhängigen/dependenten. Dabei wird bei Engel (1994, 90 ff.) Rektion in dem allgemeinen Sinne von Überordnung (Dominanz) in einem Dependenzgraphen (Stemma) verwendet; Engel schließt dabei unmittelbar an Tesnie`re (1959, 13) an, der zwischen „regissant“ (Regens) und „subordonne´“ (Dependens) unterscheidet. Zu einer Kritik an der Gleichsetzung von ‘Rektion’ mit ‘Dependenz’ und damit der bloßen Verdopplung eines bereits existierenden Konzepts vgl. Moravcsik (1993, 706). Rektion kann hier sowohl in „virtuellen“, also rein kategorialen Stemmata (wie (1)) mit nicht ausdifferenzierter Subkategorisierung oder mit (beliebig feiner) Subkategorisierung (wie (2)) vorkommen, als auch in „aktuellen“ oder „monematisierten“ Stemmata (Engel 1994, 46) wie (3): (1)
Nom
(2)
V<sub akk nom>
Det
Nom n
Adj
Det n
(3)
Prn a
No m a
Deta
V<sub akk nom> nannten Nom n Leute Detn die
Prn a ihn
Nom a Vorstadt-Playboy Det a den
Stemma (1) (siehe Engel 1994, 90) besagt, daß ein (beliebiges) Nomen ein Determinativ direkt und ein Adjektiv indirekt regiert. Stemma (2) (vgl. Engel 1994, 47) besagt, daß ein mit ‘sub’ (Subjekt), ‘akk’ (Akkusativer-
gänzung) und ‘nom’ (Nominalergänzung) subkategorisiertes Verb ein nominativisches Nomen direkt (und ein nominativisches Determinativ indirekt), ein akkusativisches Pronomen direkt und ein akkusativisches Nomen direkt (und ein akkusativisches Determinativ indirekt) regiert. Stemma (3) besagt, daß nannten als Element der Klasse V⬍sub akk nom⬎ Leute, ihn und Vorstadt-Playboy jeweils als Elemente der von ihm subkategorisierten Klassen Nomn, Prna und Noma regiert. Auch das Adverb immer in Stemma (4) ist von dem Verb nannten regiert; es ist aber nicht im Subkategorisierungsrahmen des Verbs vorgesehen: (4)
Nom n Leute
Det n die
V <sub akk nom> nannten
Prn a ihn
Adv immer
Nom a Vorstadt-Playboy
Det a den
In (4) weist die gestrichelte Linie darauf hin, daß das Adverb immer nicht nur von Verben der im Stemma genannten Subklasse regiert wird, sondern „daß der Regensbereich weiter als hier angegeben ist“ (Engel 1994, 44). Die Engelsche Fassung des Rektionsbegriffs umfaßt also alle von einer Entität abhängigen Glieder, die sogenannten „Satelliten“; auch darin folgt Engel Tesnie`re, bei dem actants und circonstants gleichermaßen unmittelbare Dependentien des Verbs sind (1959, 102 f.); eine morphologische Manifestation der Rektion ist nicht erforderlich (vgl. Tesnie`res „marquant ze´ro“) Regiert sind ⫺ valenzgrammatisch gesprochen ⫺ Ergänzungen und Angaben; daneben aber auch z. B. Determinative (siehe (1)) zu einem Nomen, die in der Valenztradition häufig von der Ergänzung/Angabe-Dichotomie gar nicht erfaßt werden. Aus diesem Ansatz ergibt sich, daß Valenz zwar Rektion notwendig voraussetzt ⫺ alle valenzabhängigen Glieder sind regiert ⫺ daß Rektion jedoch für Valenz nicht hinreichend ist. Bei Engel ist daher das Kriterium der Subklassenspezifk (siehe 2.2) ausschlaggebend für das Vorliegen von Valenz. Der Befund, daß eine dependentielle/
357
29. Grundlagen der Valenz
rektionale Unterscheidung von „Aktanten“ und „Circumstanten“ ausgeschlossen ist, veranlaßt Hudson (1984, 120 f.) dazu, Valenz als übergreifendenden Terminus für die Beziehungen eines „Kopfs“ zu seinen „Modifikatoren“ (Aktanten und Circumstanten) zu gebrauchen. Bei Bedarf kann zusätzlich zwischen „lexikalischer“ Valenz (Aktanten) und „allgemeiner“ Valenz (Circumstanten) unterschieden werden (vgl. auch die Unterscheidung zwischen „kategorialer“ und „lexikalischer“ Rektion bei Eisenberg). Heringer (1996) faßt Rektion enger als Engel. Ein Element X regiert ein Element Y, wenn X Y (direkt oder indirekt) dominiert und X mit Y hinsichtlich bestimmter Subkategorien übereinstimmt. Rektion ist also asymmetrische Kookkurrenz von Subkategorien zwischen Mutter und Tochter bzw. Enkel. Im Beispiel (Heringer 1996, 40): (5)
P _kas _
N
NM_kas _ Stemma (5) erfaßt die indirekte Rektionsbeziehung zwischen einer Präposition (mit der Kasusrektion α) und dem Nominalmorphem für den Kasus α. Nach der Heringerschen Fassung liegen also bei Engels Stemmata (2) und (3) jeweils Rektionsbeziehungen vor, jedoch keine in (4) zwischen immer und dem Verb. Auch das überhaupt keine Subkategorisierungen aufweisende Stemma (1) stellt keine Rektionsbeziehung dar, wenn auch eine detailliertere Erfassung der Verhältnisse in der deutschen Nominalphrase/Nominalgruppe zeigen würde, daß das Nomen den Artikel („Determinierer“) und das attributive Adjektiv im Genus regiert (siehe Heringer 1996, 93; vgl. auch Eisenberg 1994, 55). Valenz nun wird im Heringerschen Rahmen nicht eindeutig mit Rektion in Verbindung gebracht; er vertritt einen (einfachen) multikriterialen Valenzansatz, in dem quantitative, selektionale und qualitative Aspekte unterschieden werden (vgl. dazu unten). Wenn die qualitative Valenz darin besteht, „daß ein Verb als Lexem bestimmte Formen oder Anschlüsse der abhängigen N* (⫽ Nominalphrasen, G. Z.) verlangt“ (Heringer 1996, 64), dann ist im
Falle der Kasuskomplemente zwar Rektion im von ihm bestimmten Sinne gegeben. Man vergleiche folgendes Stemma: V _ nom _ akk sieht
N* _ nom der Kenner
N* _ akk die Probleme
Für den Anschluß präpositionaler oder äquationaler Phrasen (als/wie-Phrasen und mit einem anderen Nominale kasuskongruente Phrasen wie in Er gilt als Lügner, Mein Bruder heißt Hans, Man heißt/nennt ihn einen Lügner) wird eine rektionale Basis der Valenz nicht gezeigt, auch nicht für satzförmige Ergänzungen oder Infinitivkonstruktionen. Zur Problematik einer rektionalen Erfassung von Präpositional- und Äquationsphrasen vgl. Abschnitt 2.3. Läßt man diese Probleme beiseite, so zeigt sich, daß die engere Fassung des Rektionsbegriffs hier im Gegensatz zum weiten Rektionsbegriff Engels im Prinzip eine rektionale Scheidung von Ergänzungen und Angaben zuläßt: Angaben sind nicht in den „Valenz-Frames“ in Form von Subkategorisierungsmerkmalen vorgesehen. Die Möglichkeit asymmetrischer Kookkurrenz von Subkategorien/Merkmalen ⫺ das Kriterium für Rektion ⫺ ist also für Angaben nicht gegeben. Trotz dieser stärkeren Erklärungskraft von Rektion im Hinblick auf Valenz „verläßt“ sich Heringer nicht auf sie; es geht ihm um einen letztlich semantischen Valenzbegriff; „Valenz ist eine semantische Kraft, die syntaktische Auswahl bewirkt“ (Heringer 1996, 157). Dieser primär semantische Valenzbegriff bewirkt in diesem Ansatz eindeutig auch eine Auswahl aus der Menge aller Rektionsphänomene einer Sprache: Nur diejenigen Rektionsverhältnisse werden als Valenz gefaßt, die sich semantisch als PrädikatArgument-Strukturen fassen lassen. Bei Heringer liegt dann u. a. in folgenden Fällen Rektion, nicht aber Valenz vor: Rektion von Präpositionen, Genus-Rektion in der NP, Statusrektion von Auxiliarverben und Modalverben. 2.1.2.2 Die Variante ‘Absättigen von Subkategorien’ in kategorialgrammatischen und phrasenstrukturellen Ansätzen Eine Variante zum Modell der Übereinstimmung/Kookkurrenz von Subkategorien stellt das Modell der Sättigung oder Abtragung bei
358
IV. Valenz. Grundlagen und Grundfragen
gleichen Subkategorien dar. Es geht zurück auf den kategorialgrammatischen Formalismus, bei dem ein Element der Kategorie X/ Y mit einem Element der Kategorie Y zu X verrechnet („gekürzt“) werden kann. So kann etwa ein zweistelliges Nominativ-AkkusativVerb wie seh- (als Paradigma, also Menge aller zugehörigen Verbformen) als Element der Kategorie (S/NPnom)/NPakk gefaßt werden, das verknüpft mit entsprechend subkategorisierten NPen in zwei Stufen ein Element der Kategorie S ergibt. Wir können das wie folgt notieren (‘⫹’ repräsentiere die Verknüpfung, ‘⇒’ die Kürzung): (S/NPnom)/NPakk ⫹ NPakk ⇒ S/NPnom S/NPnom ⫹ NPnom ⇒ S Vgl. dazu GDS, Kapitel E2 1. Der kategorialgrammatische Formalismus kennt keine eigenen Regeln für den Aufbau syntaktischer Strukturen im Sinne der Konstituenz oder Dependenz, vielmehr „ergibt“ sich der Strukturaufbau aus den angedeuteten Prinzipien der Kategoriendefinition und -verrechnung. Bringt man diese hier zur Anwendung, so ergibt sich bei einem Strukturaufbau von unten her (Stichwort: Erkennungsgrammatik versus Erzeugungsgrammatik) etwa folgende Baumstruktur: der
Kenner
NP nom
sieht
die
(S/NPnom )/NPakk
Probleme
NP akk
S/NP nom
S
Mit dem Verrechnen der beiden NP-Ausdrücke werden auch die subkategorisierenden Merkmale bei der Kategorie des Verbs/der Verbgruppe abgetragen: Allerdings ist der reine Kategorienabgleich mit anschließender „Tilgung“ kein rektions- oder gar valenzspefizisches Verfahren. Auch z. B. Artikel/Determinierer und Nomen oder Adjektiv und Nomen werden durch Kategorienabgleich verrechnet; ein Beispiel für die Kombination Artikel, Adjektiv und Nomen (s. Abb.). An diesen Beispielen lassen sich drei Subtypen erkennen, von denen nur (c) als Explikation der Valenzbindung in Frage kommt:
der NPnom, sg/Nnom, sg
gute Nnom, sg/Nnom, sg
Kenner Nnom, sg
Nnom, sg
NPnom, sg'
a) modifikative (endozentrische) Verrechnung: Xindexfolge i / Xindexfolge i ⫹ Xindexfolge i ⇒ Xindexfolge i X / X ist Modifikator der Konstruktion (siehe gute) b) spezifizierende (exozentrische) Verrechnung: Xindexfolge i / Yindexfolge i ⫹ Yindexfolge i ⇒ Xindexfolge i X / Y ist Spezifikator der Konstruktion (siehe der) c) valenzbindende (exozentrische) Verrechnung: Xindexfolge i / Yindexfolge j ⫹ Yindexfolge j ⇒ Xindexfolge i X/Y ist Kopf der Konstruktion, oder eingeschränkt: Wenn X/Y ein lexikalischer Ausdruck ist (kein Syntagma), ist X/Y Kopf der Konstruktion (siehe sieht). (Zur Beschränkung der Valenzbindung auf kategorialgrammatische Köpfe vgl. auch Günther 1978, 136 f.; allgemeiner auch Ballweg 1978, Frosch 1978.) In HPSG, einer modernen unifikationsbasierten Phrasenstrukturgrammatik (vgl. Pollard/Sag 1994), wird das Konzept des Abtragens oder Sättigens im Gegensatz zur Kategorialgrammatik in der Tat eingeschränkt auf Valenzphänomene. Die Valenz eines WortZeichens erscheint als Wert des dem Zeichen zugeordneten Merkmals SUBCAT innerhalb seines als komplexe Merkmalsstruktur dargestellten Lexikoneintrags. Der Sättigungsmechanismus kommt in phrasalen Strukturen zum Tragen: Hier werden die Merkmalswerte der Komplemente (einschließlich des Subjekts) mit den einzelnen Merkmalswerten aus der SUBCAT-Liste des valenzfordernden Ausdrucks abgeglichen und bei Übereinstimmung aus der SUBCAT-Liste gestrichen. 2.1.2.3 Rektion und Valenz im Rahmen von GB In der GB-Theorie spielt der Rektionsbegriff in verschiedenen definitorischen Abwandlungen für den Aufbau syntaktischer Strukturen
359
29. Grundlagen der Valenz
eine bedeutsame Rolle. Rektion („government“) ist ihrem begrifflichen Kern nach eine lokale Variante von C-Kommando („K-Herrschaft“ Stechow/Sternefeld 1988). Ein Knoten α regiert einen Knoten β, wenn α β ckommandiert und β nicht durch einen Knoten γ, der als Barriere (oder intervenierender Knoten) fungiert, gegenüber α geschützt ist (Chomsky/Lasnik 1993, 540). Barrieren werden dabei durch sogenannte „maximale Projektionen“ (XP) gebildet. Durch die Barriereneinschränkung wird u. a. das Hineinregieren in Phrasen verhindert, m. a. W. es wird sichergestellt, daß z. B. bei daß der Kenner die Probleme bei der Verbvalenz sieht folgende Rektionsverhältnisse gegegeben sind:
male des Verbs) regiert wird. Wichtig für unseren Zusammenhang ist, daß ⫺ mit der Ausnahme des Subjekts ⫺ die Komplemente zu einem lexikalischen Kopf, zu einem Verb, einem Nomen oder einer Präposition, als von diesem regiert (in diesem strukturellen Sinne) analysiert werden. Dabei ist für mehr als zweistellige Verben (also z. B. das dreistellige geben) eine Erweiterung des Rektionskonzeptes auch auf Nicht-Schwestern des lexikalischen Kopfes vorzusehen. Die „verbferneren“ Komplemente sind dann Schwestern von „Extensionen“ des verbalen Kopfs (von V0) und gelten (vgl. z. B. Haider 1993, 144 f.) ebenfalls als V-regiert. Die rein strukturelle Rektionsdefinition soll eine Anwendung des
CP
C
IP
NP
I'
I0
VP
NP Det
V N'
N
PP P
dass der
Kenner 3.Sg Präs
die
Probleme
P, die Präposition bei, regiert NP, die Nominalphrase der Verbvalenz. V, der Verbstamm seh-, regiert NP, die Nominalphrase die Probleme bei der Verbvalenz. Der Verbstamm regiert aber nicht die durch die maximale Projektion PP geschützte NP (der Verbvalenz); der Verbstamm regiert ⫺ zumindest in den meisten GB-Vorschlägen für die deutsche Satzstruktur ⫺ auch nicht das Subjekt. Vielmehr wird angenommen, daß das Subjekt, das ja nur in Sätzen mit finitem Verb als phonetisch realisierte Einheit erscheint, von dem Kopf der IP, einem funktionalen Kopf I0 (Flexionsmerk-
bei
NP Det
N
der
Verbalenz
seh-
Konzepts auch auf Sprachen ohne morphologische Mittel der Rektionskodierung ermöglichen. Bindeglied zwischen dem nur für flektierende Sprachen möglichen Mittel der morphologischen Kasuskodierung und der allgemeinen strukturellen Rektionsbedingung ist das Konzept der „abstrakten“ Kasus, die in den entsprechenden Rektionsdomänen sprachübergreifend immer präsent sind: Rektionsdomäne von I0 ist der Nominativ als abstrakter Kasus, unmittelbare Rektionsdomäne von V0 der Objektiv als abstrakter Kasus usw. Auch Sprachen ohne overte Kasusmarkierungen wie partiell das Englische oder das
360 Chinesische haben demnach abstrakte „regierte“ Kasus; flektierende Sprachen wie Sanskrit, Latein, Russisch oder Deutsch haben neben der strukturellen Realisierung abstrakter Kasus als morphologischer Nominativ bzw. Akkusativ auch noch lexikalisch zugewiesene inhärente Kasus (Dativ, Genitiv, zweiter nicht-struktureller Akkusativ usw.). Eine explizite Beziehung zwischen Rektion und Valenz wird im GB-Rahmen nicht hergestellt; vielmehr wird der Begriff ‘Valenz’ weitgehend ausgeklammert. Es läßt sich jedoch zeigen, daß Rektion und Kasuszuweisung die oberflächennahen (morpho)syntaktischen Aspekte in einem Mehr-Ebenen-„Valenz“konzept auf der Basis lexikalischer Subkategorisierung darstellen (vgl. Abschnitt 4.1.1). 2.1.3. Die möglichen Fundierungsverhältnisse zwischen Rektion und Valenz Zusammenfassend gilt für die dargestellten Positionen: a1) Rektion ist eine Formbestimmungsrelation; sie tritt innerhalb von syntaktischen Strukturen auf, setzt aber keine bestimmten strukturellen Relationen voraus (Eisenberg). a2) Rektion ist eine Formbestimmungsrelation; sie wird benutzt, um strukturelle Relationen aufzubauen (GDS, HPSG). a3) Rektion ist eine strukturelle Relation, mögliche korrespondierende Formbestimmungsrelationen setzen die strukturelle Relation voraus, aber nicht umgekehrt (GB). b1) Rektion ist notwendig für Valenz, aber grundsätzlich nicht hinreichend, da nicht zur Abgrenzung gegenüber Angaben geeignet (Engel). b2) Rektion ist weder notwendig noch hinreichend für Valenz, liegt aber im Kernbereich von Valenzbeziehungen vor (Heringer). b3) Rektion ist hinreichend und notwendig für Valenz (Eisenberg). Eine all diesen diametral entgegengesetzte Position nehmen Stepanova/Helbig (1978, 188 f.) ein, wenn sie erwägen, den Rektionsbegriff zugunsten des Valenzbegriffs aufzugeben, da letzterer sowohl eine quantitative Erweiterung (Bindung auch von Präpositionalobjekten, Infinitivkonstruktionen und Nebensätzen; Unterscheidung von obligatorischer und fakultativer Bindung) als auch eine
IV. Valenz. Grundlagen und Grundfragen
qualitative Erweiterung (Adverbialbestimmungen als nicht-regierte Valenzglieder) gegenüber dem Rektionsbegriff bringe. Aus heutiger Sicht ist wohl festzustellen, daß es der Valenzbegriff ist, der erklärungsbedürftig ist, nicht der zumindest in bestimmten Fassungen wohl begründete Rektionsbegriff. 2.2. Valenz als Subklassenspezifik Im dependentiellen Ansatz von Engel ist Valenz subklassenspezifische Rektion: Glieder, die von allen Elementen einer Wortklasse abhängen (können), sind Angaben. Glieder, die nur von bestimmten Elementen einer Wortklasse abhängen (können), sind Ergänzungen. Oder: Ergänzungen sind subklassenspezifische Glieder. (Engel 1994, 99).
Nach dieser Bestimmung ist immer in Beispiel (4) oben eine Angabe; es kann von allen Elementen der Wortklasse Verb abhängen; dagegen sind die Leute, ihn und den Vorstadt-Playboy Ergänzungen, da sie jeweils nur von einer Subklasse von Verben abhängen können: die Leute von Verben, die ein Subjekt regieren ⫺ dies sind nach Engel keineswegs alle Verben des Deutschen, Gegenbeispiele: mich friert, hungert, schaudert ⫺ ihn von Verben, die eine Akkusativergänzung regieren und den Vorstadt-Playboy von Verben, die eine Nominalergänzung (im Akkusativ) regieren. Dabei werden, wie sich zeigt, die einzelnen „Glieder“ oder „Satelliten“ für sich auf Subklassenspezifik untersucht, nicht etwa das Tripel (allgemeiner: n-tupel) von Gliedern, die jeweils der Rektion des Valenzträgers genügen. Bereits dies führt im Fall der beiden Akkusativphrasen in ein Dilemma, da jede von ihnen auch der jeweils anderen Subklassenanforderung an eine Valenzstelle genügt. Grundproblem dieser Konzeption ist, daß syntaktische Glieder, also (Folgen von) Wortformen, aus ihren syntaktischen Umgebungen gelöst, ‘dekontextualisiert’, werden und für diese dekontextualisierten syntaktischen Einheiten „von Natur aus“ (Vater 1978, 20) ihr Status in möglichen syntaktischen Strukturen (als Ergänzung oder Angabe) bestimmt werden soll (zur Kritik vgl. Vater 1978, 20 f., Eisenberg 1994, 296 f., implizit auch Helbig 1992, 81). Für alle (Folgen von) Wortformen, die mehr als eine syntaktische Funktion haben können, ist diese Zuordnung notwendigerweise ein-mehrdeutig (wie schon bei ihn, den Vorstadt-Playboy). Bei Einheiten wie in der Stadt, die einerseits regiert werden (im Engelschen Sinne) von Verben wie wohnen,
361
29. Grundlagen der Valenz
leben, sich aufhalten, anderererseits aber auch von Verben wie nennen, sein, tun, trinken, schlicht von beliebigen Verben, kann natürlich die Rektion durch die lokativen Verben nicht als subklassenspezifisch von der Rektion durch alle anderen Verben unterschieden werden, weil alle Subklassen von Verben dieselbe Rektion haben: Die Intuition, daß in der Stadt im einen Fall valenzbedingt, im anderen Falle nicht valenzbedingt ist, daß in der Stadt sowohl Ergänzung als auch Angabe sein kann, kann nicht über dasjenige Kriterium abgesichert werden, das notwendig ihre Gleichbehandlung fordert, nämlich ihre fehlende Subklassenspezifik. Die grundsätzliche Inadäquatheit des Verfahrens, die auf einer Vermischung kategorialer und relationaler Kriterien beruht, wird nur überdeckt, wenn im Falle der Situativergänzungen (z. B. in der Stadt) ersatzweise auf das Kriterium der Nicht-Weglassbarkeit ausgewichen wird (vgl. Engel 1994, 161; zu einer Kritik der Annahme der Nicht-Weglassbarkeit als Eigenschaft bestimmter Lokationsverben vgl. Steinitz 1992, 39 f.). In Zifonun (1972) wird mit einer Verfeinerung des Subklassenkriteriums gearbeitet (Bildung von ETypen und A-Typen über Kommutation und Exklusion); aber auch dies erscheint nicht zureichend. *Er sieht
dem Herrn Meier.
kommen von Angaben wiederum eine Stipulation ist. Es ist zutreffend, daß instrumentale Angaben in der Regel nur bei Handlungsverben vorkommen, daß modale Angaben in Kopulakonstruktionen mit sein in der Regel ausgeschlossen sind (*Er ist traurig Bäcker) usw. (vgl. zu diesen Beschränkungen Vater 1978, 16 f., Breindl 1989, 46 ff.); aber dies zeigt einerseits in positiver wie in negativer Richtung nur die Unzuverlässigkeit distributioneller Verfahren überhaupt: Je spezieller (z. B. durch attributive Zusätze usw.) die einzusetzenden Einheiten werden, desto stärker ist ihr Vorkommen eingeschränkt. Je mehr ich andererseits den (verbalen und nicht-verbalen) Kontext anreichere, desto größer kann die Chance auf Verträglichkeit mit der einzusetzenden Einheit werden. Andererseits kann man mit Jacobs (1994, 26, 72) annehmen, daß Adverbiale (also valenzgrammatische Angaben) ihren verbalen Kopfkonstituenten bestimmte inhaltliche Merkmalsforderungen auferlegen, während umgekehrt Verben an ihre Ergänzungen, nicht aber an ihre Angaben inhaltliche Forderungen stellen. Da beide Selektionsrichtungen an der sprachlichen Oberfläche zum identischen Resultat der Unverträglichkeit/Ungrammatikalität führen, ist die theoretische Konfusion zwischen ihnen erwartbar: nicht:
Selektion durch Verb
*Er ist
traurig
Bäcker.
dem Herrn Meier.
nicht: Selektion durch Begleiter
nicht:
*Er ist
traurig
Bäcker.
nicht: Selektion durch Verb + Prädikativ
Selektion durch Begleiter
Der Schritt von der syntagmatischen Bestimmung von Valenzgebundenheit (durch Subklassenspezifik) zur Valenz wird in Engel (1988, 24) formal korrekt vollzogen, wenn er von einer „Eigenschaft“ der jeweiligen Valenzträger spricht, die sie „als geeignet für die Kombination mit den Ergänzungen“ ausweist; das Defizit einer Bestimmbarkeit bestimmter (paradigmatischer) Ergänzungsklassen mit den gegebenen Mitteln bleibt aber auch auf dieser Abstraktionsebene erhalten. Demgegenüber ordne ich es als einen weniger schwerwiegenden Einwand ein, daß das vermeintlich nicht-subklassenspezifische Vor-
*Er sieht
2.3.
Problemfälle für rektionale und subklassenspezifische Valenz 2.3.1. Präpositionalphrasen Präpositionale Phrasen als mögliche Valenzpartner stellen rektionale und subklassenspezifische Ansätze vor gravierende Probleme: Subklassenspezifik scheitert, wie in Abschnitt 2.2 gezeigt, an den per se nicht-subklassenspezifischen lokalen Phrasen, die als Valenzpartner statischer Verben betrachtet werden sollen. Dieser Phrasentyp, bei dem die Präposition selbst ja kommutieren kann, ist auch im rektionalen Ansatz nicht als Valenzpart-
362 ner (von wohnen, leben, stattfinden; live, stay; vivre, se trouver usw.) erfaßbar. Darüber hinaus sind aber auch die intuitiv unstrittigen Präpositional„objekte“ als Rektionsphänomen problematisch: Die Idee, bei Präpositionalphrasen wie den fett gesetzten in She was waiting for her friend, Inge is arguing with her friend, An dem schönen Garten erkannte man sein Haus, Il pense a` son pe`re handle es sich um Rektion, die Präposition sei also vom Verb als dem Valenzträger „festgelegt“ und insofern nicht austauschbar, führt a) in theoretische und b) in operationale Schwierigkeiten: a) Im Eisenbergschen Ansatz ist Rektion Konstituentenformfestlegung; da aber Form im Sinne von morphologischer Form zu verstehen ist (vgl. Eisenberg 1994, 44 ff.), wäre die Präposition (die ja selbst keine Formdifferenzierung aufweist und in ihrer Form nicht regiert werden kann) als eine besondere Art der morphologischen Formmarkierung der Präpositionalgruppe zu betrachten, was ihrem Wortstatus (kein Affix, kein klitisches Element) widerspricht (vgl. dazu auch Wiegand 1996, 124 f.). b) Anders als bei kasusregierten Phrasen ist das „Festgelegtsein“ der Präposition, wenn die Präpositionalphrasen nicht obligatorisch sind, nicht klar über Grammatikalitätsverletzungen abprüfbar (*Man stimmte ihn zu versus An/bei/hinter dem schönen Garten erkannte man sein Haus). Es wurden daher eine Reihe stützender Eigenschaften geltend gemacht: ⫺ die „Bedeutungslosigkeit“ der Präposition, Status als Translativ ⫺ die Austauschbarkeit mit einer kasusregierten Phrase: Sie schrieb an ihren Freund versus Sie schrieb ihrem Freund ⫺ die Setzung von Pronominaladverbien: Sie wartete darauf, daß … ⫺ die mangelnde ⫺ bzw. nur zeugmatische ⫺ Koordinierbarkeit mit Phrasen, die die Präposition nicht als regierte enthalten: *She was waiting for his friend and (for) hours (vgl. Somers 1987, 16). Alle diese Zusatzkriterien können nicht darüber hinwegtäuschen, daß die Grammatikalisierung von Präpositionen als selbständigen Relationsträgern in Phrasen, die das Verb modifizieren, zu reinen Relationsmarkierern im Hinblick auf das Verb ein gradueller Prozeß ist, der nur an seinem absoluten End-
IV. Valenz. Grundlagen und Grundfragen
punkt durch die Formbeziehung Rektion korrekt erfaßt ist, nicht aber in Fällen wie argumentieren mit, sprechen mit/zu, sich freuen auf/an/über usw. (Vgl. dazu die Behandlung in der GDS, Abschnitt 4.2.3. und die Darstellungen in Matthews 1981, 154 f., bzw. Lehmann 1985, 85 f.) 2.3.2. Prädikative/Äquationsphrasen Prädikative wie in Alles ist gut/ein Problem/ umsonst/auf der Straße sind bis auf das unflektierte prädikative Adjektiv nicht subklassenspezifisch: nominativisch markierte NPen kommen weitgehend unbeschränkt als Subjekte vor, Adverbien und präpositionale Phrasen bei beliebigen Verben als Adverbialia. Vergleichbares gilt für als-/wie-Phrasen, die man bei manchen Verben als Ergänzungen einordnen möchte: Er ist/verhält sich wie ein Freund, Er gilt als Mann von Welt, Man bezeichnet ihn als Playboy, die jedoch formgleich auch als freie Satzglieder erscheinen: Er stand mir zur Seite wie ein Freund/als Freund. Für die rektionale Valenzkonzeption ist die formale Unbestimmtheit der Prädikative ein Problem; bei Eisenberg wird es dadurch „gelöst“, daß nur das unflektierte Adjektiv und das nominativische Nominale als Prädikativergänzungen eingeordnet werden. Eine weitere Komplikation entsteht dadurch, daß die Form (wie auch die semantische „Sorte“) des Subjekts bei Prädikativkonstruktionen nicht vom (Kopula-)Verb als dem Valenzträger, sondern vom Prädikativ bestimmt wird. 2.4. Valenz als Vorgabe für Argumente Bei einer logisch-semantischen Begründung des Valenzbegriffs wird an Frege (1986a) angeknüpft, der ein Prädikat (ein ‘Charakteristikum’, eine ‘Eigenschaft’) wie ‘eroberte Gallien’ als ungesättigtes Zeichen verstand, das zusammen mit einem es sättigenden Argumentzeichen wie ‘Cäsar’ ein selbständiges Zeichen, den Satz ‘Cäsar eroberte Gallien’ ergebe. Die natürlichsprachlichen Beispiele Freges sind so angelegt, daß als Funktionszeichen einerseits wie im genannten Fall die (erweiterten) Prädikate von Behauptungssätzen auftreten, die mit einem Gegenstandszeichen als Argument als Funktionswert einen Wahrheitswert bezeichnen, andererseits aber auch nominale Prädikate wie ‘Hauptstadt von’, die zusammen mit einem Gegensstandszeichen, z. B. ‘deutsches Reich’ als Funktionswert einen Gegenstand, z. B. Berlin, bezeichnen. Beide Fälle sind jedoch Instanzen
363
29. Grundlagen der Valenz
des Aussageschemas der Prädikatenlogik erster Stufe: ‘Eroberte-Gallien’ (‘Cäsar’) ‘Hauptstadt-von’ (‘deutsches-Reich’, ‘Berlin’) mit dem Unterschied, daß im zweiten Fall erst die Hinzufügung des Ausdrucks für den Funktionswert (‘Berlin’) ein wahrheitsfähiges Zeichen, einen Satz, ergibt. Nimmt man nun die Differenzierung zwischen Bedeutung und Sinn, also im Satzbereich zwischen Wahrheitswert und Gedanke (Sachverhalt, Proposition) hinzu, so ergibt sich, daß nach Frege Ungesättigtheit und Status als Prädikat im Sinne der Prädikatenlogik erster Stufe mit der Fähigkeit zur Ausbildung eines elementaren Sachverhaltsausdrucks gleichzusetzen ist. Dieser Grundgedanke, Valenz als „potentialite´ d’une relation d’eˆtre le cas“ (Bossong 1988, 193), war für die semantische Valenztheorie prägend. Er führt in letzter Konsequenz dazu, nur Ausdrücke dieser Art, also Vollverben, bestimmte Nomina und Adjektive, als Valenzträger zu betrachten. Diese insgesamt dominante Linie ist besonders explizit erkennbar bei Welke (1988), Stepanova/ Helbig (1978), wo u. a. gegen Modalverben, Präpositionen, Adverbien und Konjunktionen als Valenzträger argumentiert wird; ich spreche hier von semantischem oder argumentbezogenem Valenzbegriff Variante 1. Frege hat allerdings im Bereich der Mathematik neben solchen „Funktionen erster Stufe“, also Funktionen, deren Argumente Gegenstände sind, durchaus „Funktionen zweiter Stufe“ im Auge, also Funktionen, deren Argumente wiederum Funktionen sind. Eine Übertragung dieser Vorstellung auf die Sprachanalyse fand in der Folge in den formallogischen Ansätzen statt, die ⫺ meist kategorialgrammatisch fundiert ⫺ den Funktionsbegriff generalisierten und mit Ausnahme der elementaren Bedeutungs- bzw. Denotatkategorien ‘Wahrheitswert’ und ‘Gegenstand’ nur abgeleitete Denotatkategorien funktionalen Zuschnitts zuließen, so daß z. B. die Bedeutung von Satzadverbialen wie freitags, leider gefaßt wird als Funktion von Satzbedeutungen in Satzbedeutungen (Lewis, Cresswell, Montague). Im Rahmen dieser erweiterten Ansätze wird dabei auch die Zuordnung ‘Gegenstands-Ausdruck ⫽ Argument-Ausdruck’ ⫺ ‘Eigenschafts-Ausdruck ⫽ FunktorAusdruck’ aufgehoben; so sind in der Montague-Grammatik die letztlich gegenstandsbezeichnenden Nominalausdrücke als Funkti-
onszeichen gefaßt, die die verbalen Eigenschaftsbezeichnungen als Argumente zu sich nehmen. Hier ergeben sich nun folgende Möglichkeiten: Argumentbezogener Valenzbegriff Variante 2: Trotz des Übergangs zu erweiterten Formalismen wird an den ursprünglichen prädikatenlogischen Valenzvorstellungen festgehalten: Semantische Valenz kommt dann denjenigen Ausdrücken zu, die Stellen für Sachverhaltsbeteiligte/Ereignisbeteiligte eröffnen und die zusammen mit diesen Argumenten einen elementaren Sachverhalt/ein elementares Ereignis denotieren können. Dies ist die Position der GDS. Argumentbezogener Valenzbegriff Variante 3: Hier wird der erweiterte Funktions- und Argumentbegriff auch auf die Valenz ausgedehnt. Valenzträger sind dann beliebige Ausdrücke, sofern sie nur in der entsprechenden logischen Repräsentation ein oder mehrere Argumente zu sich nehmen bzw. sofern ihnen n-stellige Begriffe entsprechen (so in Lieb 1993, 448). Ein Problem ist dabei, daß Prädikatsausdrücke einer Logiksprache samt ihrer Stelligkeit wie alle logischen Konstanten im Rahmen eben dieses „künstlichen“ Sprachsystems festgelegt werden und die Verhältnisse in der natürlichen Sprache in keinem vernünftigen Sinne „widerspiegeln“. So argumentiert Jacobs (1994, 17), daß ein Satz wie Er trägt das Fahrrad in den Keller sowohl eine Repräsentation mit „konventioneller“ Prädikat-Argument-Struktur wie (1) als auch eine wie (2) zulasse: Die Entscheidung zwischen den beiden Alternativen ist theorieintern zu treffen. (1) (2)
TRÄGT (ER, DAS FAHRRAD, IN DEN KELLER) IN DEN KELLER (TRÄGT (ER, DAS FAHRRAD))
In (2) ist in den Keller als höherstufiges Prädikat interpretiert, das über den vom Verb zusammen mit seinen Begleitern bezeichneten Vorgang oder Zustand, also allgemeiner: den bezeichneten elementaren Sachverhalt, prädiziere. Noch deutlicher ist die Entfernung vom Argumentbegriff der Prädikatenlogik erster Stufe, wenn Leider singt Peter in einer Struktur wie (3)
LEIDER (SINGT(PETER))
dargestellt wird, in der leider eine (aus Sprechersicht wertende) Prädikation über den vom Restsatz bezeichneten Sachverhalt
364
IV. Valenz. Grundlagen und Grundfragen
ausdrückt (vgl. Jacobs 1994, 59). Mit diesem Gedanken, alle „Adverbien“, also adverbialen Bestimmungen zum Verb oder zum Satz als höhere Prädikate aufzufassen, sympathisiert u. a. Bondzio (1971, 91); Bondzio (1974, 247): „Valenz zweiter Stufe“. Die weitgehende Ablehnung des Valenzbegriffs für solche Fälle (vgl. Pasch 1977, besonders explizit Stepanova/Helbig 1978, 185 f.) ist nach Jacobs auf die implizite Forderung zurückzuführen, das valenzbindende Element müsse der Kopf der Konstruktion sein. Diese Bedingung ist für unsere Zwecke gleichsetzbar mit der Bedingung c) (Abschnitt 2.1.2.2) und ist hier nicht erfüllt: leider (Kategorie S/S) ist modifikativ mit dem Restsatz (Kategorie S) zu verrechnen. Ein weiteres Problem ist, daß bei Adverbialen die Valenz nicht, wie üblich, an ein Wort (Wortform oder Paradigma) zu binden ist, sondern an Wortgruppen (Nebensätze, Infinitivkonstruktionen, PPen), die insgesamt Adverbialfunktion haben (vgl. Welke 1988, 79).
3.
Monokriteriale Valenzkonzepte
War Tesnie`res Valenzbegriff selbst holistisch, so entwickelten sich ab Mitte der 60er Jahre Valenzkonzepte, die entweder ⫺ weitgehend monokriterial ⫺ formal-syntaktisch ausgerichtet waren (z. B. Heringer 1967, 1968, Helbig 1966) oder aber begrifflich-übereinzelsprachlich (z. B. Bondzio 1969, Heger 1966). Diese sind vor allem in der linguistischen Tradition der DDR in den 70er und 80er Jahren weitgehend Ebenenmodellen gewichen (dazu: Helbig/Schenkel 1982, 63 f., Welke 1988, 98). Monokriterial sind im gegenwärtigen Entwicklungsstand u. a. noch die Valenzkonzepte von Eisenberg (1994), Engel (1988, 1994). Beide vertreten einen syntaktischen Valenzbegriff, der jedoch jeweils unterschiedlich und mit expliziterer Fundierung auf einem Grundkonzept als die frühen syntaktischen Modelle ausgelegt ist (vgl. 2.1.1 und 2.2). Einen im wesentlichen semantischen Valenzbegriff (Variante 1) vertreten Projektgruppe Verbvalenz (1981) und das Valenzwörterbuch Schumacher (1986). Semantisch ist auch die Valenzkonzeption in Lieb (1993) und Eroms (2000).
4.
Polykriteriale Valenzkonzepte
Valenzkonzepte, bei denen mehrere Aspekte oder Kriterien von Valenz unterschieden werden, kann man grob in zwei Typen einteilen:
Ebenenmodelle (vgl. 4.1) sind durch die Vorstellung gekennzeichnet, daß eine sprachliche „Oberflächen“-Struktur herzuleiten ist, aus einer nicht direkt manifesten und beobachtbaren zugrundeliegenden Struktur („Tiefenstruktur“), wobei möglicherweise noch mehrere Zwischenebenen durchlaufen werden müssen. Die diesem Typ zugeordneten Modelle können sich hinsichtlich der Natur und dem angenommenen „Sitz“ dieser Ebenen beträchtlich unterscheiden, und ich betrachte es als in diesem Zusammenhang weniger relevant, ob die Ebenenunterscheidung als eine der Sprachkompetenz (internal language) begriffen wird, also als Abbildung zwischen mehreren mental existierenden Repräsentationen, oder als eine der rekonstruierenden Sprachbeschreibung. Entscheidend für die Zuordnung ist vielmehr, daß hier gerichtete Abhängigkeiten zwischen den Ebenen angenommen werden und daß in der Regel eine begrifflich-logische oder nicht- bzw. vorsprachlich kognitive oder konzeptuelle Ebene als Ausgangsebene postuliert wird. Multidimensionale Modelle nehmen statt des Nacheinanders von Valenzebenen ein Nebeneinander von Valenzaspekten an. Vorbild ist hier eher die strukturalistische Konzeption von Sprache, nach der ein Zeichen aufgrund seiner (nicht in ein zeitliches Nacheinander auflösbaren) Bilateralität formbezogene und inhaltsbezogene Eigenschaften hat, und sich daher auch im Hinblick auf seine „Bindungsfähigkeit“ zumindest syntaktisch-formbezogenes und semantisches Verhalten unterscheiden lassen. 4.1. Ebenenmodelle 4.1.1. Modelle in der valenzgrammatischen Tradition der DDR Unter dem Einfluß der generativen Grammatik, insbesondere generativ-semantischer Modelle (vgl. McCawley 1968, Lakoff 1970) wurden in der Grammatikographie und Lexikographie der DDR Ebenenmodelle der Valenz vorgelegt, deren Unterschiede ⫺ durchaus Anlaß zu intensiv geführten Kontroversen (vgl. Helbig 1989, Welke 1990) ⫺ hier nicht diskutiert werden sollen. Charakteristisch sind folgende gemeinsame Züge: ⫺ Es werden mindestens drei Ebenen unterschieden: logische/logisch-begriffliche Valenz, semantische Valenz, syntaktische Valenz. ⫺ Die Ebene der logischen ⫺ besser: logisch-begrifflichen ⫺ Valenz ist geprägt von der marxistischen Vorstellung, Sachverhalte der objektiven Realität würden im Bewußtsein in Form von be-
29. Grundlagen der Valenz grifflichen Strukturen abgebildet, die ihrerseits, meist im Modus dekompositionaler Analyse von Wortbedeutungen (so u. a. in Vieweger/al. 1977, Grundzüge 1981; zur Kritik Welke 1988, 105) im Format der Prädikatenlogik als Prädikat/Funktor-Argument-Strukturen dargestellt werden können. Auf dieser Ebene herrscht also eine Spielart des Grundkonzeptes ‘Valenz als Vorgabe für Argumente’ (vgl. Abschnitt 2.4), wobei überwiegend der argumentbezogene Valenzbegriff Variante 1 (so bei Helbig), aber auch bei Bondzio und in seiner Nachfolge Variante 3 vertreten wird. Zur Kritik an der Annahme der Universalität und Außereinzelsprachlichkeit (nach der Formel „logisch“ ⫽ „gedanklich“ ⫽ „Abbild der Realität“) vgl. Welke (1988, 99, 103). ⫺ Auf der Ebene der semantischen Valenz werden mit einem Valenzträger inhaltsspezifische Vorgaben für die Valenzpartner assoziiert. Diese betreffen zunächst „inhärente“ Merkmale (semantische Selektionsrestriktionen) wie ⫹/⫺Hum oder ⫹/⫺Abstr, später, nach Rezeption des Fillmoreschen Kasuskonzeptes, auch die jeweils zugelassenen semantischen Rollen wie AGENS, PATIENS usw. (Zur Kontroverse einer eher „denotativen“ oder „signifikativen“ Auslegung der semantischen Valenz und der Kasusrollen vgl. Helbig 1992, 41 ff., Welke 1988, 188 ff.). ⫺ Mit der Ebene der syntaktischen Valenz ist „die obligatorische oder fakultative Besetzung von Leerstellen in einer bestimmten vom Valenzträger her geforderten Zahl und Art, differenziert nach den Einzelsprachen“ (Helbig 1992, 9) gemeint. Auf das syntaktische Grundkonzept der Rektion wird nicht explizit abgehoben, vielmehr wird (man vergleiche auch die Angaben in den Valenzwörterbüchern, z. B. Helbig/Schenkel 1982) von „Wortklassen in bestimmten Kasus“, z. B. Substantiv im Nominativ, Akkusativ, Dativ, Präpositionalkasus oder auch von „Oberflächensatzgliedern“ (Subjekt, Objekt) Gebrauch gemacht.
Zwischen den Ebenen besteht keine Isomorphie, insbesondere können identische begrifflich-logische und semantische Strukturen in Verben mit unterschiedlicher syntaktischer Valenz ihren Ausdruck finden (helfen ⫺ unterstützen, warten auf ⫺ erwarten). Im Zuge der kommunikativ-pragmatischen Wende wurden weitere Ebenen der Valenz erwogen: pragmatische Valenz: Wahl von Valenzpartnern in Abhängigkeit von der Kommunikationssituation oder Textsorte, kognitive Valenz, teilweise, vgl. Welke (1988, 85 ff.), auch der pragmatischen Valenz zugeordnet: Bindung der Valenz an prototypische, im enzyklopädischen Wissen verankerte Szenen (Kaufszene), die gegebenenfalls von einer Reihe teilsynonymer Verben in „Perspektive
365 gebracht werden“ (vgl. dazu auch den Ansatz von Storrer in Abschnitt 4.1.4). Eine vergleichbare Mehr-Ebenen-Konzeption weisen auch die in der GB-Theorie vertretenen Valenzvorstellungen auf, die hier, da kaum dem Kern der Valenzentwicklung zuzuordnen, nur kurz erwähnt werden sollen (vgl. dazu Steinitz 1992). ⫺ Verben und andere prädizierende Ausdrücke verfügen als Elemente des Lexikons (Abbild des mentalen Lexikons) über eine Argumentstruktur (⬵ semantische Valenz). Sie sind in der Regel in elementare Bausteine dekomponiert (wie CAUSE, GO, vgl. Bierwisch 1988, Jackendoff 1991). Variablen markieren die Leerstellen in solchen prädikativen lexikalischen Strukturen. ⫺ Alternativ (vgl. z. B. Chomsky 1981) oder ergänzend zur Zerlegung wird für jedes Verb ein Theta-Raster angesetzt, also eine Folge von semantischen Rollen (AGENS, GOAL, usw.), die im Verlauf der Einbettung in eine syntaktische Tiefenstruktur mit entsprechenden Elementen aus dem das Verb enthaltenden Satz zu belegen sind. ⫺ Die Beziehung zwischen Argumentstruktur (Theta-Struktur) und syntaktischer Tiefenstruktur ist regelgeleitet („linking“-Mechanismus). Es wird angenommen, daß die Hierarchie der Theta-Rollen (z. B. in der Version ‘AGENS ⬎ GOAL ⬎ EXPERIENCER ⬎ THEME ⬎ LOCATION’, vgl. Büring 1992, 63) auf eine Hierarchie von linking-Positionen (z. B. ‘Subjekt ⬎ indirektes Objekt ⬎ direktes Objekt ⬎ präpositionales Objekt) abgebildet wird. Die Inhaber dieser Positionen stehen zum Verb, dessen Extensionen oder zu I0 in struktureller Rektionsbeziehung (vgl. 2.1.2.3)
4.1.2. Das Modell von Lehmann Lehmann (1992) faßt Valenz allgemein als eine „Erscheinungsform von Relationalität“ bei sprachlichen Zeichen, im Sinne von syntagmatischer Relationalität (vgl. Abschnitt 2.1.1). Er verweist im Anschluß an Frege darauf, daß sprachliche Relationalität einerseits eine außereinzelsprachliche begriffliche bzw. kognitive Basis habe, insofern als bestimmte Konzepte, etwa Verwandtschaftsbegriffe wie ‘Nichte’, ‘Tochter’ oder auch ein Begriff wie ‘Rückseite’, nicht anders als relational konzipierbar seien. Andererseits ist syntagmatische Relationalität auch notwendige Folge der Strukturprinzipien von Sprache als semiotischem System. Komplexe Zeichen sind nur dann aus einfacheren Zeichen herstellbar, wenn bestimmte einfache Zeichen (die relationalen Zeichen) bereits relational angelegt sind, also „slots“ oder Leerstellen für die Einfügung von anderen (absoluten) Zeichen ent-
366 halten. Auf die kognitive Basis stützt sich die einzelsprachliche semantische Relationalität, die semiotisch begründete Relationalität findet ihren einzelsprachlichen Ausdruck auf der Ebene grammatischer Relationalität. Grammatische Relationalität zwischen x und y wird bei Lehmann auf ein Funktor-Argument-Verhältnis zwischen dem Funktor x und seiner Leerstelle y zurückgeführt. Dieses allgemeine Funktor-Argument-Verhältnis faßt Lehmann als Dependenzrelation. Ähnlich wie im dependentiellen Ansatz Tesnie`res (und Engels) stehen sowohl die Ergänzungen als auch die Angaben zu einem Zeichen in einer Dependenzrelation zu ihm; Lehmann (1991, 14) spricht jeweils von „complements“ und „modifiers“. Weist das dependentiell übergeordnete Zeichen x eine Leerstelle auf, die durch das abhängige Zeichen y zu füllen ist, so liegt „government“, also Rektion eines Komplementes vor, weist das dependentiell abhängige Zeichen y eine Leerstelle auf, die durch das dependentiell übergeordnete Zeichen x zu füllen ist, so liegt Modifikation vor. Beide Dependenzrelationen werden ⫺ aufgrund der Leerstellenhaltigkeit eines der beiden Zeichen ⫺ als Valenz gefaßt, wenn auch Lehmann mehrfach auf den engeren Begriff der nur ‘rektionalen’ Valenz verweist. Klare Fälle von government, markiert durch Kasusrektion, sind die Beziehungen zwischen Verb und Objekt, Verb und präpositionalem Komplement, Adposition und Komplement. Klare Fälle von Modifikation, markiert durch Kasuskongruenz, sind die Beziehungen zwischen Nominal und Determinator, Nominal und adjektivischem Attribut, Verb und Adjunkt. Nach Lehmann (1983, 1992) sprechen u. a. folgende Fälle für eine Annahme der Valenz als „zwischen Rektion und Modifikation“ befindlich (1992, 447): die modifikative, für den nominalen Kopf reservierte Leerstelle von Adjektiven, das Subjekt bei Sätzen mit Prädikatsnomen, die Maß- und Behälterkonstruktionen (ein Pfund Zucker). Man beachte jedoch, daß nur im Falle von Rektion das leerstellenhaltige Element (der Funktor) x auch das dominierende ist, bei Modifikation ist das dominierende Element x Argument eines dominierten leerstellenhaltigen y. Ein Verb ist also ⫺ ganz anders als bei Tesnie`re, aber ähnlich wie in Bondzio (1971, 1974) ⫺ Valenzträger in Bezug auf seine Objekte/Komplemente, aber valenzgebunden von seinen Adjunkten. Diese Tatsache scheint unverträglich mit Lehmanns Annahme einer Übergänglichkeit von rektiven und modifika-
IV. Valenz. Grundlagen und Grundfragen
tiven Anteilen an der Valenz, da notwendigerweise die Valenzträgerschaft zwischen x und y wechselt. 4.1.3. Ebenen der Valenz in der Sprachtypologie In sprachvergleichendem und typologischem Rahmen fand das Konzept der Valenz, möglicherweise unter dem Eindruck einer stark germanistisch dominierten Valenzforschung in den 60er bis 80er Jahren, zunächst nur marginales Interesse; sieht man von der Erarbeitung kontrastiver Verbvalenzwörterbücher oder valenz-orientierter kontrastiver Grammatiken oder der maschinellen Sprachverarbeitung (EUROTRA-Projekt) einmal ab. Aber auch immanente Gründe wie das Vorherrschen einer rein verbzentrierten und auf den flektierenden Sprachtyp ausgerichteten Betrachtungsweise standen einer sprachübergreifenden Analyse im Wege. Verstärktes Interesse für das Valenzkonzept kam erst im Gefolge der Untersuchungen zur Typologie der „Partizipation“ auf, also zur sprachlichen Erfassung von Sachverhalten, wie sie im Rahmen des UNITYP-Projekts der Universität Köln, geleitet von H. Seiler, seit Mitte der 80er Jahre durchgeführt wurden (vgl. Seiler/ Premper 1991). In diesem Modell wird der sprachlichen Kodierung eine kognitive Ebene der Repräsentation (elementarer) Sachverhalte zugrundegelegt, die auf dem grundsätzlichen Gegenüber der Größen Partizipant und Partizipatum beruht. Ob und in welchem Maße diese Beziehung formal (auf der lexikalischen, morphologischen oder syntaktischen Ebene) ausgedrückt wird, ist extrem variabel. Das gilt schon innerhalb der Einzelsprachen, wo als Grenzfall auch Äußerungen zugelassen sein können, die sich einer Aufspaltung in Partizipant- und Partizipatumausdruck formal und/oder semantisch widersetzen (Feuer! Hilfe! es regnet versus ital. piove). Vor allem aber sind die unterschiedlichen „Techniken“ der Kodierung der Sachverhaltsbeteiligung an die strukturellen Möglichkeiten der Sprachen und Sprachgruppen geknüpft. Eine erste solche Differenzierung ist die Verb-Nomen-Unterscheidung, deren universale Gültigkeit angezweifelt wird, die aber als prototypische Möglichkeit zur differenzierenden Kodierung von jeweils Partizipatum und Partizipant zu betrachten ist. Die Unterscheidung verschiedener Prädikatsklassen im Hinblick auf den jeweiligen Situationstyp (dynamisch versus statisch, Zustand versus Prozeß, atelisch versus telisch usw.), den Typ der in-
29. Grundlagen der Valenz
volvierten Partizipanten (propositionale versus nicht-propositionale P.s) und die Art oder den Grad ihrer Involvierung (Aktanten versus Circumstanten, kontrollierte versus nichtkontrollierte usw.) kann eine weitergehende Basis für die sprachvergleichende Analyse der sprachspezifischen Valenzeigenschaften liefern (vgl. Lehmann 1991, 1992). Insbesondere läßt die Verbklassifikation entlang der Dimension der Transitivität Schlüsse auf die Zahl und die Art der bei einem Sachverhalt „generell implizierten Partizipanten“ zu, ohne daß damit eine syntaktische Valenzforderung im einzelnen bereits gegeben ist. Einzelsprachen können sich, was die Realisierung von Partizipanten angeht, u. a. in folgenden Aspekten unterscheiden: a) die Weglaßbarkeit von Partizipanten kann in unterschiedlich starkem Maße grammatikalisiert sein. Nach Mosel (1991, 247) sind in Tolai, einer melanesischen Sprache des aktivischen Typs, fast alle Verben entweder strikt intransitiv oder strikt transitiv. D. h. die Patiens-NP eines transitiven Verbs ist nicht weglassbar ⫺ es sei denn, daß Intransitivierung morphologisch manifest gekennzeichnet wird. (Entsprechendes gilt für die Transitivierung intransitiver Verben.) b) Im Hinblick auf die Kodierung von Partizipanten können Verbmorphologie und Satzsyntax u. U. gegenläufige Informationen kodieren: Broschart (1991, 39) weist z. B. auf Beispiele aus dem Tonganischen hin, wo das Verb (in der Bedeutung ‘entscheiden’) durch ein transitives Suffix markiert ist, somit die Anwesenheit einer Patiens-Rolle angezeigt wird, aber eine ensprechende syntaktische Valenzforderung nach Belegung einer syntaktischen Leerstelle nicht notwendigerweise besteht. In den europäischen Sprachen ist (vgl. a) die Weglaßbarkeit von Partizipanten nicht strikt grammatikalisiert; vielmehr haben wir mit verschiedenen Formen der Optionalität/Fakultativität/Ellipse zu rechnen, die teilweise sprachübergreifend gelten dürften, zum Teil jedoch sprachspezifisch sind. So ist im Englischen die Möglichkeit zur Reflexivellipse stärker ausgeprägt als im Deutschen: He is shaving (himself) ⫺ *Er rasiert. Hinsichtlich b) gilt, daß z. B. im Englischen, Deutschen, Französischen „generell implizierte Partizipanten“ lexikalisch inkorporiert erscheinen (er speiste/dinierte ⫺ he dined ⫺ il dinait), wobei eine syntaktische Realisierung dann im
367 allgemeinen ausgeschlossen ist (*er speiste es ⫺ *he dined it ⫺ *il le dinait) oder aber bei fakultativer Realisierung einer Valenzstelle aus der Verbbedeutung zu erschließen sind (er aß (etwas)); eine morphologische Markierung unterbleibt. Wichtig im Hinblick auf Valenzrealisierungen in unterschiedlichen Typen von Einzelsprachen ist vor allem noch Punkt c): c) Einzelsprachen variieren hinsichtlich der Möglichkeit und des Umfangs valenzverändernder grammatischer (morphologischer, syntaktischer) Verfahren. Zu diesen Diathesen oder Valenzalternationen werden u. a. die Passivierung, Antipassivierung, Transitivierung, Intransitivierung, Kausativierung gerechnet (vgl. auch Wunderlich 1993 und unter typologischem Aspekt besonders Behrens 1994, Haspelmath 1993). Der Ansatz, der den typologischen Studien zur Valenz in den europäischen Sprachen zugrunde gelegt wird (vgl. Feuillet 1998), ist primär morphosyntaktisch fundiert und kennt keine expliziten Ebenen der Valenz. 4.1.4. Das Modell der Situationsvalenz von Storrer Im Modell von Storrer (1992, 1996) werden zwei Ebenen, bzw. aus der Sicht der Sprachproduktion gesehen: zwei Schritte, unterschieden: Konzeptualisierung und Verbalisierung (Storrer 1996, 235). Der erste Schritt umfaßt die mentale/kognitive Bereitstellung einer Situationsrepräsentation auf der Basis eines kognitiven Schemas für den einschlägigen Situationstyp. Solche Situationstypen repräsentieren das von den Sprachteilhabern geteilte (enzyklopädische) Wissen über in Sitationen/Ereignissen etwa vom Typ des Kaufens, des Lügens usw. involvierte Entitäten, über die erwartbaren Ereignisverläufe usw. Kognitive Schemata dieser Art wurden unter der Bezeichnung ‘frames’ (für sequentielle Muster auch ‘scripts’) im Anschluß an Fillmore (1977) vor allem in der Künstlichen-Intelligenz-Forschung postuliert und modelliert. Storrer unterscheidet im Rahmen des Sprachgenerierungs- (wie auch des Analyse-) Modells zwischen ‘Rekurssituation’, der Situation, über die gesprochen wird, und ‘Äußerungssituation’, der Situation, in der gesprochen wird. Mit der Einbeziehung der Äußerungssituation in das Modell ist Storrer in der Lage, Faktoren der Äußerungssituation ⫺ neben Zeit und Ort der Äußerung
368 auch den jeweiligen Informationsstand des Sprechers und seine Hypothesen über den Informationsstand des Hörers, seinen Aufmerksamkeitsbereich (Fokus) sowie seine jeweilige Interessenlage ⫺ als steuernde Parameter für die Verbalisierung der Rekurssituation einzusetzen. Das bedeutet, die Festlegung sogenannter ‘Situationsrollen’, von Anzahl und Art der beteiligten Entitäten, erfolgt nach den „welt“-orientierten Vorgaben des allgemeinen frames, des Situationstyps für die Rekurssituation, die sprachliche Bezugnahme auf eine spezifische Rekurssituation richtet sich hingegen auch nach den kommunikativen Bedürfnissen in der Äußerungssituation. Gemäß Storrer (1992, 286 ff.) ist der allgemeine Situationsframe für den Situationstyp Lügen mit 8 „Slots“ (Lügner, Belogener, Lüge, Frequenz des Lügens, Grund der Lüge, Art und Weise der Lüge, Ort der Lüge, Zeitpunkt der Lüge) auf Maximalität ausgelegt; eine Unterscheidung in „lügenspezifische“ und allgemeine Situationsrollen, die die Unterscheidung zwischen Ergänzung/Komplement und Angabe/Adjunkt auf der kognitiven Ebene präfigurieren könnte, wird nicht vorgenommen. In der spezifischen Konzeptualisierungsphase für eine Äußerung wählt der Sprecher die (unter den o. g. Aspekten) wünschenswerten Situationsrollen aus (‘Rollenperspektivierung’); darüber hinaus muß er sich entscheiden, welche Aspekte des Situationsverlaufs (z. B. Resultativität, Iterativität) er betonen möchte (‘Verlaufsperspektivierung’). Diese Wahl beschränkt die im zweiten Schritt erfolgende Verbalisierung in folgender Weise: Es kommen nur diejenigen verbalen Ausdrücke (aus dem Wortfeld des Lügens, also aus der Gruppe lügen, belügen, anlügen, erlügen, vorlügen, rumlügen, sich durchlügen, zusammenlügen) in Frage, die a) alle gewählten Situationsrollen als syntaktische Komplemente anschließen können, b) keine nicht gewählten Situationsrollen syntaktisch anschließen müssen. Die einzelnen Verben weisen jeweils ein partiell unterschiedliches ⫺ durch Diathesen noch variierbares ⫺ Rollenpotential (z. B. belügen: obligatorisches Nominativ- und Akkusativkomplement gegenüber lügen: obligatorisches Nominativkomplement) auf, das dem geforderten Rollenprofil genügt oder nicht genügt, wobei keine eineindeutige Abbildung von Situationsrollen auf jeweils Verben vorliegen muß. Der Ansatz von Storrer stellt eine besonders explizite und mit kommunikativen Gesichtspunkten angereicherte Variante der seit
IV. Valenz. Grundlagen und Grundfragen
Mitte der 80-er Jahre formulierten Valenzmodelle mit einer übereinzelsprachlichen/kognitiven an Fillmoreschen Rollen- und SzenenKonzepten orientierten Basis dar. Ein vergleichbares Konzept haben u. a. Wotjak/Wotjak (1983) vorgelegt. Das grundsätzliche Problem dieser Modelle besteht darin, daß sie eine nicht-sprachliche kognitive Repräsentationsebene fordern, deren Eigenschaften sich als aus der vorgeblich erst aus ihr abgeleiteten sprachlichen Ebene rückprojiziert erklären lassen: So ist das Postulat von drei allgemeinen Situationsrollen für das Konzept Lügen auf die mit drei Stellen maximale Stellenzahl der Lügen-Verben rückführbar: Lügner, Belogener, Inhalt der Lüge (wobei der „Lügeninhalt“ nur unter bestimmten Bedingen, z. B. im Zustandspassiv von lügen, ausgedrückt wird: Es ist gelogen, daß Hans ein notorischer Lügner ist). (Zu einer allgemeinen Kritik an kognitiven Repräsentationsebenen vgl. Keller 1995, auch Helbig 1995). An dieser Stelle seien nur zwei ⫺ für alle frame-orientierten Ansätze geltenden ⫺ Gesichtspunkte genannt, an denen die Projektion vom sprachlichen Befund auf die kognitive Ebene erwiesen werden kann: ⫺ Das Verhältnis zwischen Situation, Situationstyp und Szene bleibt in kognitiven Ansätzen unscharf. Für Szenen gibt es per se keine Komplexitätsbeschränkung: Eine Szene ist zwar ortsgebunden, umfaßt aber n x 1, gegebenenfalls sich zeitlich überlappende oder sukzessive Einzel„Situationen“. Wenn nun z. B. für alle lügenVerben nur ein Situationstyp als generische Verallgemeinerung individueller Einzelsituationen angesetzt wird, nicht etwa eine Folge von zwei oder mehr Situationstypen, so zeigt sich, daß offenbar auch im kognitiven Ansatz von der sprachbezogenen Intuition Gebrauch gemacht wird, daß Verbrahmen im allgemeinen zur szenischen Minimalität tendieren, sie entwerfen in der Regel eine Situation. Für das Verb erlügen in z. B. sich einen Kredit erlügen wäre auch eine Konzeptualisierung mit zwei aufeinanderfolgenden Situationen ‘lügen (s1) und sich durch s1 etwas/einen Vorteil verschaffen (s2)’ denkbar. Die Orientierung an dem sprachbezogenen Standardfall ‘eine Situation pro Verb’ zeigt, daß wir über kein sicheres sprachunabhängiges Kriterium für die Abgrenzung und Identifikation von Situationen/Ereignissen verfügen (Problem der Situationsidentität). ⫺ Wenn alle Verben eines z. B. durch Derivationsbeziehungen zu einer Basis zusammengehaltenen Wortfeldes, wie es das lügen-Beispiel nahelegt, auf denselben ⫺ mit maximaler Stellenzahl ausgestatteten ⫺ Situationsrahmen zurückgeführt werden, dann müssen wir z. B. annehmen,
29. Grundlagen der Valenz daß lachen, lächeln, weinen, klagen ebenso wie über etwas lachen/lächeln/weinen, etwas belachen/belächeln/beweinen/beklagen einen Gegenstand des Lachens, Lächelns, Weinens usw. voraussetzen. Besonders im Fall von Lächeln ist klar, daß man möglicherweise nicht ohne Grund lächelt, aber daß die Aktivität nicht notwendig an einen Gegenstand gebunden ist (vgl. dazu auch Kamp/Rossdeutscher 1994, 104, Problem der Argument-/Situationsrollenanzahl).
4.2. Multidimensionale Modelle 4.2.1. Korrespondenz und Widerspruch Multidimensionale Modelle gehen von der Existenz mehrerer zumindest partiell voneinander unabhängiger Valenzrelationen aus. Ihr Hauptaugenmerk muß deren gegenseitigem Verhältnis (als Korrespondenz und Widerspruch zwischen ihnen) gelten: Sind keine systematischen Korrespondenzen nachweisbar, so erübrigt sich das übergreifende Konzept. Bei überwiegender Korrespondenz hingegen erweist sich der multidimensionale Ansatz selbst als überzogen. 4.2.2. Das Modell von Jacobs Grundidee des (auf eine erste unveröffentlichte Arbeit 1986 zurückgehenden, mit Ergänzungen (Vorwort, Nachschrift) publiziert als Jacobs 1994) Jacobsschen Ansatzes ist, daß es entgegen den Annahmen der Forschung nicht eine, sondern mehrere voneinander unabhängige Relationen gibt, die das Phänomen Valenz zu explizieren geeignet sind. Dabei handelt es sich nach Jacobs (1994) um sieben Relationen auf der syntagmatischen Beziehungsebene zwischen einem Valenzträger, z. B. dem Vorkommen V1 einer Verbform, und einer Kokonstituente K1 zu diesem Valenzträger (einem Begleiter). Diesen sogenannten Valenzbindungsrelationen entsprechen auf der paradigmatischen Ebene ebensoviele verallgemeinerte ‘Valenzrelationen’ (vgl. Abschnitt 2.1.1). Es handelt sich um die folgenden Bindungsrelationen: Notwendigkeit (NOT), Beteiligtheit (BET), Exozentrizität (EXO), Formale Spezifizität (FOSP), inhaltliche Spezifizität (INSP), Assoziiertheit (ASSOZ). Die Interpretationsvorgabe wird stellvertretend an NOT erläutert: Notwendigkeit: NOT(K1,V1) ‘ein Begleiter K1 ist notwendig in einem Satz S, wenn K1 aufgrund der lexikalischen Füllung des Valenzträgers V1 in S nicht weggelassen werden kann, ohne daß die dadurch entstehende
369 Struktur bei gleichbleibender Interpretation von V1 ungrammatisch wird’ (vgl. Jacobs 1994, 14) Mit diesen sieben Relationen nimmt Jacobs Gedanken aus den verschiedenen Richtungen und aktuellen Strömungen der Valenzforschung auf: Mit ‘Notwendigkeit’ das klassische (im allgemeinen hinreichende aber nicht notwendige) Kriterium der Obligatorität: Alle obligatorischen Begleiter sind valenzgebunden (Ergänzungen), nicht alle valenzgebundenen Begleiter sind notwendig. Mit Beteiligtheit knüpft Jacobs an den semantischen Valenzbegriff (in Form der Variante 1) an, nach dem valenzgebundene Elemente Partizipanten (Aktanten) denotieren und daher geeignet sind, ein Verb (oder ein Nomen) zum Ausdruck für einen Sachverhalt, z. B. einen Vorgang oder Zustand, zu ergänzen. Jacobs verbindet die Idee der Partizipanz mit der der semantischen Rolle (im Sinne oder im Anschluß an die Fillmoresche Theorie), nach folgender Maßgabe: Beteiligtheit eines Aktanten heißt Beteiligtheit in einer bestimmten Rolle (z. B. als AGENS, als PATIENS), und es gibt in der Menge der semantischen Rollen eine besondere Teilmenge, die als Partizipantenrollen gegenüber Cirkumstantenrollen (z. B. TEMPORATIV, LOKATIV) ausgezeichnet sind. Mit Argumenthaftigkeit nimmt Jacobs demgegenüber den semantischen Valenzbegriff in Variante 3 auf: Nach dieser Konzeption haben valenzgebundene Elemente im Rahmen bestimmter semantischer Beschreibungssprachen den Status von Argumenten zu Prädikaten beliebigen (auch höherstufigen, i. e. über die Prädikatenlogik erster Stufe hinausgehenden) Typs. Mit Exozentrizität wird auf eine ⫺ wiederum stark theorieabhängige ⫺ strukturelle Bedingung für Valenzgebundenheit Bezug genommen; sie wurde in Abschnitt 2.1.2.2 erläutert. Formale Spezifizität entspricht im wesentlichen der Rektion (im Sinne einer syntagmatischen Relation, vgl. 2.1.1), während inhaltliche Spezifizität auf jenen Aspekt der semantischen Valenz abhebt, der in der individuellen ⫺ nicht durch Regeln vorhersehbaren Wahl ⫺ von Begleitern mit bestimmten Rollen und bestimmten inhärenten semantischen Merkmalen oder ‘Sorten’ (z. B. [⫹/⫺belebt] besteht. Mit Assoziiertheit schließlich knüpft Jacobs an psycholinguistisch orientierte Untersuchungen von Heringer (Heringer 1984, 1986) an, nach denen Untersuchungspersonen Begleiter unterschiedlich stark mit einem
370
IV. Valenz. Grundlagen und Grundfragen
gegebenen Verb assoziieren. Klassische „Ergänzungen“ werden dabei tendenziell stärker mit einem Verb assoziiert als klassische „Angaben“. Drei der sieben Bindungsrelationen werden in Jacobs (1992 und 1994a) nicht mehr genannt, nämlich BET, EXO und ASSOZ. Jacobs zeigt im Detail, daß die genannten Relationen voneinander unabhängig sind, d. h. nicht notwendigerweise miteinander auftreten. Allerdings impliziert das Vorkommen bestimmter Valenzbindungen (hinsichtlich eines Begleiters) das Vorkommen anderer Valenzbindungen. In der bereinigten Version (d. h. unter Auslasssung der später verworfenen Bindungsrelationen) lautet die entsprechende Implikation: NOT FOSP
> INSP > ARG
(Jacobs 1994, 71) Damit ist gesagt, daß notwendige und formspezifische Begleiter immer in ihren semantischen (bzw. „sortalen“) Merkmalen festgelegt sind und daß sie Argumentstatus haben müssen. Es gilt jedoch insbesondere nicht, daß Elemente mit Argumentstatus formspezifisch sein müssen (z. B. ist die Subjekt-NP im Englischen nicht formspezifisch bei eindeutigem Argumentstatus) oder daß sie gar notwendigerweise realisiert werden müssen (dies gilt für die Fälle ‘fakultativer Valenz’). Als Fazit aus dieser deutlichen Verbundenheit der Phänomene ⫺ bei aller grundsätzlichen Unterschiedlichkeit und Unabhängigkeit ⫺ deutet sich bereits in der Nachschrift zu Jacobs (1994) eine gewisse Abschwächung des ursprünglichen Impetus an: Zwar beschreiben die einzelnen Valenzrelationen unterschiedliche sprachliche Sachverhalte, aber zwischen diesen besteht ein empirischer Zusammenhang. Jacobs (1994) deutet diesen Zusammenhang als „verschiedene Stufen der Grammatikalisierung der Argumentbeziehung“ (Jacobs 1994, 71). In Jacobs (1994a) werden die verbliebenen vier Valenzrelationen gebündelt: FOSP und NOT konstituieren die ‘syntaktische Valenz’ eines Valenzträgers, INSP und ARG die ‘semantische Valenz’. Beide sind als Teile des Lexikoneintrags zu der entsprechenden Einheit zu formulieren. Die Valenz von Flexionsformen eines Verbs, die als Elemente des Lexikons betrachtet werden, steht in einer systematischen Beziehung zur Lexem-Valenz, sie ist in allen finiten Aktivformen mit dieser
identisch und ist z. B. im Passiv oder Imperativ aus dieser regelhaft herleitbar. Die syntaktische Valenz wird, in etwa vergleichbar mit dem Ansatz der HPSG, vgl. Abschnitt 2.1.2.2., durch ein syntaktisches Merkmal, hier SYNVAL, kodiert. Die syntaktische Valenz von aufweckt ⫺ sie entspricht der für aufwecken anzunehmenden Lexemvalenz ⫺ ist dann z. B. so dargestellt: SYN-VAL: ⬍{KASUS: nom}, {KASUS: akk}⬎ Abkürzung: /nom/akk (Jacobs 1994a, 288) Die Repräsentation semantischer Valenz ist auf den kompositionalen Aufbau von Satzbedeutungen hin orientiert und wird in einer lambda-kategorialen logischen Beschreibungssprache formuliert. Eine entsprechende Repräsentation für aufweckt (bzw. das gesamte Lexem/Paradigma aufwecken) lautet: λx2[bew] λy1[AUFWECK(x)(y)] (Jacobs 1994a, 289) Das Lambda-Präfix zeigt, daß das Verb semantisch zweiwertig ist (vgl. dazu bereits Projektgruppe Verbvalenz 1981) und darüber hinaus, daß „die Bedeutung von aufweckt ein Prädikat mit zwei für Individuenbedeutungen reservierten Stellen ist, die dem logischen Objekt bzw. dem logischen Subjekt des Aufweckens entsprechen, wobei der Füller der ersten dieser Stellen das Merkmal [bew] haben muß, das die Fähigkeit des Individuums, Bewußtsein zu haben, bezeichnet“ (Jacobs 1994a, 289). Dabei zeigt sich, daß auch in dieser neueren Version die Orientierung am logiksprachlichen Prädikat-Argument-Konzept und somit an Variante 3 der semantischen Valenz festgehalten wird. Sachverhaltsbeteiligung/ Partizipanz (im Sinne der nun nicht mehr genannten Relation Beteiligung) ist nur eine der empirischen Erscheinungsformen der Argumentbeziehung; sie liegt ⫺ wie ich schließe ⫺ im allgemeinen bei der semantischen Valenz von Vollverben wie eben aufwecken vor. Da aber auch Hilfsverben und Modalverben syntaktische Valenz haben ⫺ Modalverben wie z. B. muß in aufwecken muß fordern nach Jacobs (1994a) einen Infinitiv ⫺ muß aufgrund der oben angegebenen Implikation auch semantische Valenz vorliegen: Der Argumentstatus des Infinitivs ist somit präjudiziert. Hier ist die Argumentrelation aber nicht als Sachverhaltsbeteiligung zu deuten: Weder entwirft das Denotat des Hilfsverbs muß selbst ein Partizipatum (im Sinne von Seiler/
29. Grundlagen der Valenz
Premper), noch ist das Infinitivdenotat von aufwecken ein möglicher Partizipant. Kennzeichnend auch für diese verschlankte Version des multidimensionalen Ansatzes ist: ⫺ Die einzelnen Valenzeigenschaften sind voneinander unabhängig, aber aufeinander bezogen. ⫺ Die Beziehung wird nicht als sukzessivdynamische Abbildung zwischen Ebenen der Valenz gesehen, sondern als Implikation zwischen gleichzeitig (oder atemporal) geltenden Aussagen über den Valenzträger. Zu einem an Jacobs anknüpfenden Ansatz mit drei Valenzkriterien, der zusätzlich die generative Unterscheidung von strukturellen ´ gel und lexikalischen Kasus integriert, vgl. A (1995, 20 ff.). 4.2.3. Das Modell der „Grammatik der deutschen Sprache“ (GDS) Das Valenzmodell der Grammatik der deutschen Sprache ist teilweise unter dem Einfluß von Jacobs (1994) (in der Version von 1986) und Jacobs (1992) entstanden. Es gibt daher Übereinstimmungen, jedoch auch klare Unterschiede. Leitmotiv des Valenzmodells der GDS ist der Wunsch, zu einer tragfähigen Unterscheidung zwischen ‘Komplementen’ (Ergänzungen) und ‘Supplementen’ (Angaben) zu gelangen, wie dies für die Zwecke der Grammatikschreibung notwendig erschien. Daher steht der Gesichtspunkt der Bündelung und der Gewichtung der einzelnen Valenzrelationen im Hinblick auf die angezielte Unterscheidung im Vordergrund. Entsprechend der Ausrichtung der Grammatik, die grundsätzlich form- und funktionsbezogen vorgeht, werden die Bindungsrelationen in die Guppe der ‘Formrelationen’ und der ‘Bedeutungsrelationen’ unterteilt. Dies entspricht in etwa der später von Jacobs (1994a) vorgenommenen Unterscheidung zwischen syntaktischer und semantischer Valenz. Bei der Gruppe der Formrelationen wird gegenüber allen Vorgängerkonzepten genauer differenziert: Formrelationen: Fixiertheit Rektion Konstanz Kasustransfer
rektionale Formrelationen
371 Alle Formrelationen sind zweistellig, sie bestehen ⫺ vergleichbar dem Vorgehen bei Jacobs (1994) ⫺ zwischen einem Komplementkandidaten X und einem Valenzträger Y (im Hinblick auf einen Satz S). Fixiertheit (Kurzform: FIX) nimmt das Jacobssche NOT auf; es wird jedoch zwischen stark, d. h. strukturell fixierten (nicht-weglaßbaren) Komplementkandidaten (Merkmalswert: ⫹⫹FIX), beschränkt fixierten Komplementkandidaten, die nur unter bestimmten kontextuellen (z. B. Vorerwähntheit) oder semantischen Bedingungen weglaßbar sind (Merkmalswert ⫹FIX) und nicht fixierten Komplementkandidaten (Merkmalswert ⫺FIX) unterschieden. Beispiele sind jeweils ⫺ neben dem Subjektsnominativ ⫺ der akkusativische Komplementkandidat von Präfixverben wie belügen, verarzten (⫹⫹FIX), die unter Vorerwähntheit weglaßbare Dativ-NP bzw. Präpositionalgruppe bei zustimmen bzw. verzichten (⫹FIX), die auch ohne Vorerwähntheit weglaßbaren Präpositionalgruppen bei denken (an), erkennen (an), warten (auf), sich rächen (an … für) (⫺FIX). Rektion (Kurzform: REKT) wird im Sinne des Eisenbergschen Rektionsbegriffs als Festlegung von Formmerkmalen (Kasus, Status, Einleitungselement von Untersätzen) durch eine Paradigmenkategorie des Valenzträgers verstanden. Regiert (⫹REKT) sind ⫺ neben dem Subjektsnominativ ⫺ die akkusativischen/dativischen Komplementkandidaten von belügen, verarzten, zustimmen usw. Im Hinblick auf den häufig problematischen Status von Präpositionalgruppen wird hier ⫺ statt sie mit unter das globalere Konzept der Rektion zu fassen ⫺ von zwei spezifischeren Formrelationen Gebrauch gemacht: Konstanz (Kurzform: KONST) und Kasustransfer (Kurzform: TRANSF). Konstanz (⫹KONST) einer vom Valenzträger „festgelegten“ Präposition wie an in denken an, erkennen an, auf in warten auf ist also in der GDS (vgl. die Einwände in 2.3.1.) ein Formmerkmal „unter Vorbehalt“; es setzt die semantische Idee einer Kodierungsleistung „nach Art von Komplementen“ voraus. Bei Wechselpräpositionen wie in, an, hinter, über, unter, vor entscheidet das Verb (oder das Kopf-Nomen), ob Dativ oder Akkusativ gesetzt wird. Diese Formeigenschaft ist mit Kasustransfer (Kurzform: TRANSF) gemeint. Mit diesem Terminus soll angedeutet werden, daß die Kasuswahl (aus den möglichen zwei Werten) von außen an die Präposition als das regierende Element der Präpositi-
372
IV. Valenz. Grundlagen und Grundfragen
onalgruppe weitergegeben wird. Der Kasus der präpositionalen Komplementkandidaten von denken an, erkennen an, warten auf usw. ist in diesem Sinne ‘durch die Präposition transferiert’ (⫹TRANSF), während Präpositionen wie aus, für, mit, z. B. in bestehen aus, kämpfen für, sprechen mit, keinen Kasus transferieren, weil sie ohnehin nur entweder Dativ oder Akkusativ zulassen (⫺TRANSF). Für jeden Komplementkandidaten eines Verbs (Verbform oder Paradigma) kann nun so ⫺ über die einschlägigen ⫹/⫺Werte ⫺ sein Profil an vorliegenden oder nicht-vorliegenden Formrelationen ermittelt werden. Im Hinblick auf die Unterscheidung von Komplementen und Supplementen sind die Belegungen ⫹REKT, ⫹KONST, ⫹TRANSF, ⫹⫹FIX/⫹FIX als Komplement-Fürsprecher, die jeweils negativen Belegungen als Komplement-Gegenspieler zu bewerten. Den vier Formrelationen stehen drei Bedeutungsrelationen und ein einstelliges ‘Bedeutungsprädikat’ gegenüber: Bedeutungsrelationen: Sachverhaltsbeteiligung Perspektivierung Sachverhaltskontextualisierung Autonome Kodierung
zweistellig einstellig
Die Bedeutungsrelationen bestehen jeweils zwischen dem Denotat des Komplementkandidaten und dem Denotat des Valenzträgers (im Hinblick auf den durch S entworfenen Sachverhalt). Sachverhaltsbeteiligung (Kurzform: BET) ist ein in gewisser Weise nicht hintergehbares semantisches Konzept. Sie liegt vor (⫹BET), wenn die vom Komplementkandidaten bezeichnete Entität in dem durch S entworfenen Sachverhalt aufgrund der prädizierenden Bedeutung des Valenzträgers als beteiligte einbezogen ist bzw. auch dann gedanklich einzubeziehen ist, wenn der entsprechende Ausdruck (wegen ⫹FIX/⫺FIX) fehlt. Bei sich erinnern z. B. in Man erinnerte sich nur ungern ist ein Erinnertes als beteiligte ⫺ wenn auch nicht genannte ⫺ Größe vorzusehen. Lokalund Direktionalbestimmungen (z. B. im Kontext von wohnen, sich aufhalten; stehen, liegen, stellen) sind für die Sachverhaltskonstitution selbst unverzichtbar; sie führen einen in der Verbbedeutung angelegten Parameter aus. Dies wird als Grenzfall der Sachverhaltsbeteiligung betrachtet. Nicht beteiligt (-BET) sind Entitäten, die durch die Verbbedeutung
(den „Verbrahmen“, „frame“) nicht in den Sachverhaltsentwurf einbezogen werden, etwa der ethische Dativ in Du bist mir ein Spinner! Mit dieser Bedeutungsrelation knüpft die GDS an das Partizipanz-Konzept von Seiler/ Premper bzw. die Bindungsrelation BET in Jacobs (1994) an, nicht an die ARG-Relation. Ausschlaggebend soll nicht die formalsprachliche Repräsentation als Argument sein, sondern das in Verbbedeutungen niedergelegte semantische Wissen über die Struktur jeweils mit ihnen bildbarer elementarer Sachverhaltsentwürfe. Abprüfbar ist dieses Wissen über den sogenannten Folgerungstest (vgl. GDS 1046 ff., Schumacher 1986, 21 f.). Damit ist gleichzeitig das semantische Valenzkonzept der GDS auf die Variante 1 von Abschnitt 2.4 festgelegt. Perspektivierung (Kurzform: PERSP) kann als semantisches Gegenstück zu Fixiertheit betrachtet werden: Stark fixierte Komplementkandidaten (etwa die Akk-NPen von beschenken, verschenken) gehören zu denjenigen, die semantisch/pragmatisch in den Vordergrund gerückt (⫹⫹PERSP) sind; schwach oder nicht fixierte Komplementkandidaten (die PPen von beschenken, verschenken) sind nur schwach perspektiviert (⫹PERSP) oder gehören dem Hintergrund an (⫺PERSP). Bei Verbgruppen wie schenken, beschenken, verschenken / lügen, belügen, anlügen usw. (vgl. die Ausführungen zu Storrer in Abschnitt 4.1.3) steht für die unterschiedlichen Möglichkeiten der Perspektivierung von Ereignisbeteiligten jeweils ein anderes Verb bereit. Verbinhärente Perspektivierung ist mit der Thema-Rhema-Struktur, allgemeiner der Fokusstruktur verbunden; andererseits ist sie aber auch an die morphologische Realisierung geknüpft. So scheint zu gelten: Präpositionale Komplemente dreiwertiger Verben sind in der Regel schwächer fixiert/perspektiviert als die obliquen Kasuskomplemente des Verbs (siehe die eben genannten Beispiele); sie können nur dann stark fixiert/perspektiviert sein, wenn auch die obliquen Kasuskomplemente dies sind (jemanden an etwas hindern, jemanden zu etwas verdammen). Sachverhaltskontextualisierung (Kurzform: KONT) liegt vor, wenn die vom Begleiter bezeichnete Entität zu dem von S entworfenen Sachverhalt kontextuelle Zusatzinformation liefert. Diese kann in einer Verankerung in Zeit und Raum bestehen oder in der Stiftung einer (z. B. kausalen, finalen) Beziehung zu anderen Ereignissen (Vorgänger- oder Folgeereignissen) oder deren Beteiligten. Kontex-
29. Grundlagen der Valenz
tualisierend (⫹KONT) sind daher die durch Fettsetzung markierten Begleiter in Infolge eines Verkehrsstaus verpaßten wir gestern in Mannheim zu unserer großen Verärgerung den Zug: Kontextualierung jeweils durch verursachendes Ereignis, Zeit, Ort und Folgeereignis. Die Bedeutungsrelationen sind im Gegensatz zu den Formrelationen nicht voneinander unabhängig. Beteiligung impliziert ⫺ zumindest schwache ⫺ Perspektivierung und schließt Kontextualisierung aus. Es gibt jedoch auch von Begleitern denotierte Größen, die im definierten Sinne nicht kontextualisierend sind (z. B. das Denotat des ethischen Dativs). Ein Komplementkandidat ‘kodiert autonom’, wenn aus der Art der Kodierung eine auch bei wechselndem Valenzträger konstante satzsemantisch-relationale Information herleitbar ist. So wird sowohl in Er arbeitet in London als auch in Er hält sich in London auf eine lokale (IN-)Relation ausgedrückt, bei Er floh aus Angst und Die Tat geschah aus Angst eine Kausalrelation und die markierten Begleiter sind daher autonom kodierend (⫹AUTOKOD). ⫺AUTOKOD sind Begleiter, die nur das Vorliegen einer Argumentoder Modifikatorrelation als solche kodieren. Man vergleiche auch die Unterscheidung zwischen „konkreten“ und „grammatischen Kasus“ und die Frage der Grammatikalisierung von Adpositionen in Lehmann (1983, 366). Die Belegungen ⫹BET, ⫹⫹/⫹PERSP, ⫺AUTOKOD eines Komplementkandidaten sind als Komplement-Fürsprecher zu werten, die umgekehrten Belegungen als Komplement-Gegenspieler. Zwischen Form- und Bedeutungsrelationen und innerhalb der Bedeutungsrelationen bestehen im prototypischen Fall folgende Zusammenhänge: ⫺ Formseitige Komplement-Fürsprecher konvergieren mit bedeutungsseitigen Komplement-Fürsprechern (und umgekehrt). Also: Fixierte oder regierte Begleiter und Begleiter mit konstanter oder kasustransferierender Präposition repräsentieren Sachverhaltsbeteiligte. ⫺ Autonom kodierende Begleiter kodieren keine Sachverhaltsbeteiligten (und umgekehrt). Ein formseitiges Bindungsmaximum konvergiert also mit einem inhaltsseitigen Bindungsmaximum bei gleichzeitigem Minimum an autonomer Begleiter-Semantik. Umgekehrt korrespondiert ein Minimum an form- und
373 inhaltsseitiger Bindung mit einem Maximum an autonomer Begleiter-Semantik. Zwischen den jeweiligen Maxima/Minima gibt es Übergänge. Eine ähnliche Sehweise deutet Hudson (1984, 20 f.) an. Diesem prototypischen Fall der Konvergenz, wo grammatikalisierte Mittel die einschlägige semantische Relation (BET) ausdrücken, stehen markierte Fälle der Divergenz gegenüber: ⫺ Regierte Begleiter kodieren keine Sachverhaltsbeteiligten, sondern Kontextualisierer. Dies trifft z. B. auf den Dativus commodi/incommodi zu, die denotierten Entitäten sind jeweils Beteiligte eines Folgeoder verursachenden Ereignisses: Ich trage ihm den Koffer zum Bahnhof / Mir ist eine kostbare Vase zerbrochen. Vgl. auch Hudson (1984, 120 f.), der das indirekte Objekt in He baked his students a cake als regiertes „circonstant“ einordnet. Beim possessiven Dativ (Er verletzte sich das Bein, Er schlug mir auf die Schultern) sind die beiden beteiligten Größen (ausgedrückt durch den possessiven Dativ und Akkusativ- oder Präpositionalobjekt) referentiell nicht voneinander unabhängig, somit keine ‘distinkten Beteiligten’; es besteht eine Teil-Ganzes- oder Zugehörigkeitsbeziehung. ⫺ Autonom kodierende Begleiter sind konstituierend für das Ereignis; sie stellen also einen Grenzfall von Sachverhaltsbeteiligung dar, vgl. Lokal-/Direktionalphrasen bei statischen Verben und Verben der Bewegung und des Transfers. Im ersten markierten Fall steht den Komplement-Fürsprechern ⫹REKT und ⫺AUTOKOD der bedeutungsseitige KomplementGegenspieler ⫺BET gegenüber; im zweiten markierten Fall den Komplement-Gegenspielern ⫺KONST und ⫹AUTOKOD der Komplement-Fürsprecher ⫹BET. Diese Fälle der Divergenz zwischen der „Richtung“ der einzelnen Valenzrelationen ⫺ insbesondere der Divergenz zwischen der Gerichtetheit von Form- und Inhaltsrelationen ⫺ machen die notorisch problematischen Fälle der Valenzdiskussion aus. Die in der GDS vorgenommene Diagnostik ⫺ sie wird durch die Testverfahren ‘Redukionstest’ (Abprüfung von FIX), ‘Folgerungstest’ (Abprüfung von BET) und ‘Anschlußtest’ (Abprüfung von AUTOKOD) ergänzt ⫺ erlaubt es, in den markierten Fällen der Divergenz bei der Abgrenzung von Komplementen und
374 Supplementen nach einer jeweils festzulegenden Ratio zu verfahren: z. B. rein formbezogen oder rein inhaltsbezogen oder nach einem bestimmten Mischungsverhältnis. In der GDS selbst wird zwischen Komplementen des Kernbereichs, bei denen die Komplement-Fürsprecher klar überwiegen, und Komplementen des Randbereichs unterschieden, bei denen eine Mischung von Fürsprechern und Gegenspielern vorliegt. Modelle mit einem Übergangsbereich zwischen Komplementen und Supplementen bzw. mit zentralen und peripheren Komplementen vertreten auch Matthews (1981), Somers (1987) und Feuillet (1998). 4.2.4. Problemfälle für multidimensionale Modelle In multidimensionalen Modellen werden Widersprüche zwischen den Befunden der unterschiedlichen Valenzeigenschaften bei einem Valenzträger deutlich manifest; man kann dies als ihre Stärke sehen. Während jedoch bei Vollverben, deren Valenzträgerschaft insgesamt unbestritten ist, Divergenzen allenfalls zu Unterschieden bezüglich einzelner Leerstellen führen (siehe z. B. die Erörterung in der GDS), können sie bei anderen Ausdrücken auch zu einer Negation der Valenzträgerschaft insgesamt führen. Das betrifft z. B. Präpositionen, die trotz ihrer Fähigkeit zur Rektion eines Nominales und ihrer semantischen Relationalität (Vorliegen der Argumentrelation) in der Regel nicht als selbständige Valenzträger eingeordnet werden (vgl. Eroms 1981, 389: „syntaktisch unselbständige Relatoren“), da sie nicht selbst einen Sachverhalt entwerfen, sondern der verbalen oder nominalen Stütze bedürfen. Schwieriger ist die Entscheidung im Hinblick auf die Valenz des Nomens (Adjektiv, Substantiv) und die anderer verbaler Subklassen neben den Vollverben. Hier wird ein nicht-gewichtendes multikriteriales Valenzkonzept wie das von Jacobs gegebenenfalls zu der Diagnose kommen, daß syntaktische Valenz vorliegt, nicht jedoch semantische Valenz und umgekehrt. 4.2.4.1 Valenz des Nomens Es werden nur die Grundprobleme angerissen: 1. das Problem der „externen“ Argumentstelle: Adjektive und Substantive haben, wenn und insofern als sie Prädikate im Sinne der Prädikatenlogik 1. Stufe sind, mindestens eine Argumentstelle (rot, Haus sind jeweils
IV. Valenz. Grundlagen und Grundfragen
wiederzugeben als λxROT(x) bzw. λxHAUS (x)); (vgl. dazu auch den generativen Ansatz in Steinitz 1992, 36). Diese tritt jedoch nicht als ihr syntaktischer Valenzpartner in Erscheinung, sondern beim Adjektiv als Kopf einer nominalen Konstituente (das rote Haus) oder bei Adjektiv oder Substantiv in der Funktion des Prädikativs als Subjekt der Kopulakonstruktion (Das Haus ist rot, dieses Gebilde dort hinten ist ein Haus). Die erstere Beziehung ist eindeutig modifikativ (im Sinne von a) Abschnitt 2.1.2.2); ihr Ausdruck ist Kasus/Numeruskongruenz; die letztere ist in ihrem Status zwischen Rektion (so in Eisenberg 1994, vgl. auch GDS „indirekte Subjektselektion“) und Modifikation/Kongruenz (Lehmann 1983) umstritten. 2. nicht-externe Argumente von Adjektiven: Neben dem externen Argument haben Adjektive wie treu, lieb; bewußt, würdig; frei, reich eine weitere Argumentstelle, die klar regiert ist (jeweils als Dativ-, Genitiv, Präpositionalergänzung). Solche Adjektive sind also unstrittig monovalent oder unter Anrechnung der externen Argumentstelle bivalent. 3. nicht-externe Argumente von Substantiven: Syntaktische Valenz von Substantiven läßt sich in den meisten Fällen nicht eindeutig belegen: Begleiter von Substantiven sind nicht obligatorisch (dagegen Sandberg 1979), für präpositional angeschlossene Ausdrücke gelten die im Zusammenhang der verbalen Valenz vorgebrachten Einwände (vgl. 2.3.1) daher noch verstärkt. Im Hinblick auf den adnominalen Genitiv liegt „kategoriale Rektion“ (Eisenberg 1994, 246) vor: Jedes Substantiv kann im Deutschen genau einen adnominalen Genitiv (und gegebenenfalls einen pränominalen) Genitiv zu sich nehmen, unabhängig von dessen Argumentstatus. Eine formale Unterscheidung von genitivischen Ergänzungen und genitivischen Angaben ist nicht möglich (so: Eisenberg, GDS). Jedoch können Genitivattribute deverbaler Substantive wie in Cäsars Eroberung der gallischen Provinzen Argumentstatus haben und die Argumentstruktur des zugrundeliegenden Verbs in abgewandelter Form widerspiegeln. Syntaktisch-rektionale und semantisch-argumentstrukturelle Valenz divergieren drastisch. Noch problematischer ist die Einschätzung bei nicht abgeleiteten relationalen Substantiven (Freund, Bild), wo selbst der Argumentstatus debattierbar ist. 4. Maß- und Behälterkonstruktionen stellen syntaktisch und semantisch einen Sonderfall
29. Grundlagen der Valenz
dar: Die Formbeziehung zwischen dem Maßoder Behälterausdruck und dem Stoffnomen in zwei Pfund Zucker, ein Liter guter Wein, fünf Glas Bier schwankt (siehe Eisenberg 1994, 254 ff., GDS, 1979 ff.) zwischen Rektion und Kasusidentität (Modifikation) ⫺ ungewöhnlich auch die obligatorische Forderung nach einem attributiven Zahladjektiv; semantisch liegt keine Sachverhaltsbeteiligung vor. Semantische Valenzkonzepte der Variante 1 und 2 sollten hier also keine Valenz annehmen. 4.2.4.2 Valenz von Hilfsverb, Kopulaverb und Modalverb Allen genannten verbalen Subklassen ist gemeinsam, daß der semantisch-argumentstrukturelle Valenzbegriff (in Variante 1 und 2) nicht zutrifft: Die Denotate von Hilfsverben, Kopulaverben und Modalverben bilden nicht das Zentrum eines Sachverhaltsentwurfs. Syntaktische Valenz in Form von ‘Notwendigkeit’/‘Fixiertheit’ liegt jedoch vor. Hilfsverben und Modalverben regieren auch eindeutig jeweils eine infinite Verbform (Statusrektion im Sinne von Bech 1983), Kopulaverben verhalten sich rektional weniger eindeutig (vgl. Abschnitt 2.3.2). Hilfsverben werden im allgemeinen aufgrund der Zugehörigkeit zum Paradigma der Vollverben nicht als Valenzträger eingeordnet, bei Modalverben wird gelegentlich zwischen der objektiven (als Valenzträger) und der subjektiven Lesart (nicht als Valenzträger) unterschieden; am meisten divergieren die Ansichten bei der Kopula. Im multikriterialen, doch gewichtenden Modell der GDS haben nur die Kopulaverben (als Subklasse der Vollverben) Valenz: Sie wirken semantisch mehr oder weniger stark mit am Sachverhaltsentwurf selbst (z. B. dadurch, daß sie wie werden, bleiben Veränderung oder Nicht-Veränderung denotieren), nicht an dessen zeitlicher oder modaler Einordnung.
5.
Literatur in Auswahl
´ gel, Vilmos (1995): Valenzrealisierung, GrammaA tik und Valenz. In: Zeitschrift für Germanistische Linguistik 23, 2⫺32. ´ gel, Vilmos (2000): Valenztheorie. Tübingen. A Abraham, Werner (Hg.) (1978): Valence, Semantic Case and Grammatical Relations (⫽ Studies in Language Companion Series 1). Amsterdam. Ballweg, Joachim (1978): A Reconstruction of the Notion of Valence within a Grammar with a cate-
375 gorial Base. In: Abraham, Werner (Hg.) (1978), 99⫺126. Baumgärtner, Klaus (1970): Dependenz und Konstituenz. Zur Integration der beiden grammatischen Prinzipien. In: Steger, Hugo (Hg.) (1970): Vorschläge für eine strukturale Grammatik des Deutschen. Darmstadt, 52⫺87. Bech, Gunnar (1983): Studien über das deutsche Verbum infinitum. Tübingen. Behrens, Leila (1994): Alternationen ⫺ ein Schlüssel für die Universalienforschung. In: Zeitschrift für Sprachwissenschaft 13/2, 149⫺200. Bierwisch, Manfred (1988): On the grammar of local prepositions. In: Bierwisch, Manfred/Motsch, Wolfgang/Zimmermann, Ilse (Hgg.) (1988): Syntax, Semantik und Lexikon (⫽ studia grammatica XXIX). Berlin, 1⫺65. Blume, Kerstin (1993): Valenz deutscher Verben und (Nicht-)Notwendigkeit. Arbeiten des SFB 282 Theorie des Lexikons, Nr. 48. Bergische Gesamthochschule Wuppertal. Bondzio, Wilhelm (1969): Das Wesen der Valenz im Rahmen der Satzstruktur. In: Wissenschaftliche Zeitschrift der Humboldt-Universität Berlin 18, 233⫺240. Bondzio, Wilhelm (1971): Valenz, Bedeutung und Satzmodelle. In: Helbig, Gerhard (Hg.) (1971): Beiträge zur Valenztheorie. The Hague, 85⫺103. Bondzio, Wilhelm (1974): Zu einigen Aufgaben der Bedeutungsforschung aus syntaktischer Sicht. In: Zeitschrift für Phonetik, Sprachwissenschaft und Kommunikationsforschung 27, 42⫺51. Bossong, Georg (1988): Le marque diffe´rentiel de l’objet dans les langues d’Europe. In: Feuillet, Jack (Hg.) (1988), 193⫺258. Breindl, Eva (1989): Präpositionalobjekte und Präpositionalobjektsätze im Deutschen. Tübingen. Broschart, Jürgen (1991): On the Sequence of the Techniques on the Dimension of PARTICIPATION. In: Seiler, Hansjakob/Premper, Waldfried (Hgg.) (1991), 29⫺61. Büring, Daniel (1992): Linking. Dekomposition ⫺ Theta-Rollen ⫺ Argumentstruktur (⫽ KLAGE 27). Hürth-Efferen. Chomsky, Noam (1981): Lectures on Government and Binding. Dordrecht. Chomsky, Noam/Lasnik, Howard (1993): The Theory of Principles and Parameters. In: Jacobs, Joachim et al. (Hgg.) (1993), 506⫺569. Eisenberg, Peter (1994): Grundriß der deutschen Grammatik. Stuttgart/Weimar. Engel, Ulrich (1988): Deutsche Grammatik. Heidelberg. Engel, Ulrich (1994): Syntax der deutschen Gegenwartssprache (⫽ Grundlagen der Germanistik 22). Berlin. Eroms, Hans-Werner (1981): Valenz, Kasus und Präpositionen. Untersuchungen zur Syntax und Se-
376 mantik präpositionaler Konstruktionen in der deutschen Gegenwartssprache. Heidelberg. Eroms, Hans-Werner (2000): Syntax der deutschen Sprache. Berlin/New York. Feuillet, Jack (Hg.) (1998): Actance et Valence dans les langues de l’Europe (⫽ Empirical Approaches to Language Typology Eurotyp 20⫺2). Berlin/New York. Feuillet, Jack (1998a): Introduction. In: Feuillet, Jack (Hg.) (1998), 1⫺9. Fillmore, Charles J. (1977): The Case for Case reopened. In: Cole, Peter/Saddock, J. M. (Hgg.) (1977): Syntax and Semantics 8: Grammatical Relations. New York/San Francisco, 59⫺82. Frege, Gottlob (1986): Funktion, Begriff, Bedeutung. Fünf logische Studien. Herausgegeben und eingeleitet von Günther Patzig. Göttingen (6. Aufl.). Frege, Gottlob (1986a): Funktion und Begriff. In: Frege, Gottlob (1986), 18⫺39. Frege, Gottlob (1986b): Über Sinn und Bedeutung. In: Frege, Gottlob (1986), 40⫺65. Frosch, Helmut (1978): On Valence-Binding Grammars. In: Abraham, Werner (Hg.) (1978), 157⫺175. Grundzüge (1981): Grundzüge einer deutschen Grammatik. Von einem Autorenteam unter der Leitung von Karl Erich Heidolph, Walter Flämig und Wolfgang Motsch. Berlin. Günther, Hartmut (1978): Valence in Categorial Syntax. In: Abraham, Werner (Hg.) (1978), 127⫺ 156. Haider, Hubert (1993): Deutsche Syntax ⫺ generativ: Vorstudien zur Theorie einer projektiven Grammatik (⫽ Tübinger Beiträge zur Linguistik 325).Tübingen. Haspelmath, Martin (1993): More on the typology of inchoative/causative verb alternations. In: Comrie, Bernard/Polinsky, Maria (Hgg.) (1993): Causatives and transitivity (⫽ Studies in language Series 23). Amsterdam, 87⫺120. Heger, Klaus (1966): Valenz, Diathese und Kasus. In: Zeitschrift für romanische Philologie 82, 138⫺ 170. Helbig, Gerhard (1966): Untersuchungen zur Valenz und Distribution deutscher Verben (Teil 1 und 2). In: Deutsch als Fremdsprache 3, 1⫺11; 12⫺19. Helbig, Gerhard (1989): Semantische Kasus und Perspektive. In: Deutsch als Fremdsprache 26, 71⫺ 78. Helbig, Gerhard (1992): Probleme der Valenz- und Kasustheorie (⫽ Konzepte der Sprach- und Literaturwissenschaft 51). Tübingen. Helbig, Gerhard (1995): Erweiterungen des Valenzmodells? In: Eichinger, Ludwig M./Eroms, HansWerner (Hgg.) (1995): Dependenz und Valenz (⫽ Beiträge zur germanistischen Sprachwissenschaft 10). Hamburg, 259⫺274.
IV. Valenz. Grundlagen und Grundfragen Helbig, Gerhard/Schenkel, Wolfgang (1982): Wörterbuch zur Valenz und Distribution deutscher Verben. Tübingen. Heringer, Hans-Jürgen (1967): Wertigkeiten und nullwertige Verben im Deutschen. In: Zeitschrift für deutsche Sprache 23, 13⫺34. Heringer, Hans-Jürgen (1968): Präpositionale Ergänzungsbestimmungen im Deutschen. In: Zeitschrift für deutsche Philologie 87, 462⫺457. Heringer, Hans-Jürgen (1984): Neues von der Verbszene. In: Stickel, Gerhard (Hg.) (1984): Pragmatik in der Grammatik. (⫽ Institut für deutsche Sprache Jahrbuch 1983). Düsseldorf, 34⫺64. Heringer, Hans-Jürgen (1986): The Verb and Its Semantic Power: Association as a Basis for Valence Theory. In: Journal of Semantics 4, 79⫺99. Heringer, Hans-Jürgen (1996): Deutsche Syntax ⫺ dependentiell. Tübingen. Heuer, Knut (1977): Untersuchung zur Abgrenzung der obligatorischen und fakultativen Valenz des Verbs. Frankfurt a. M. Hudson, Richard (1984): Word Grammar. Oxford. Jackendoff, Ray (1991): Semantic Structures. Cambridge, Mass. Jacobs, Joachim (1992): Syntax und Valenz. In: Hoffmann, Ludger (Hg.) (1992): Deutsche Syntax. Ansichten und Aussichten (⫽ Institut für deutsche Sprache Jahrbuch 1991). Berlin/New York, 94⫺ 127. Jacobs, Joachim (1994): Kontra Valenz (⫽ Fokus 12). Trier. Jacobs, Joachim (1994a): Das lexikalische Fundament der Unterscheidung von obligatorischen und fakultativen Ergänzungen. In: Zeitschrift für Germanistische Linguistik 22/3, 284⫺319. Jacobs, Joachim/Stechow, Arnim von/Sternefeld, Wolfgang/Vennemann, Theo (Hgg.) (1993): Syntax. Ein internationales Handbuch zeitgenössischer Forschung. 1. Halbbd. (⫽ HSK 9.1). Berlin/New York. Kamp, Hans/Rossdeutscher, Antje (1994): Remarks on lexical structure and DRS construction. In: Theoretical Linguistics 20/2,3, 97⫺164. Keller, Rudi (1995): Zeichentheorie. Zu einer Theorie semiotischen Wissens. Tübingen. Lakoff, George (1970): Linguistics and natural logic. reprod. from „Studies in generative semantics“, Nr. 1, Ann Arbor 1970. Lazard, Gilbert (1988): De´finition des actants dans les langues europe´ennes. In: Feuillet, Jack (Hg.) (1988), 11⫺146. Lehmann, Christian (1983): Rektion und syntaktische Relation. In: Folia linguistica 17, 339⫺378. Lehmann, Christian (1985): On grammatical relationality. In: Folia linguistica 19, 67⫺109. Lehmann, Christian (1991): Predicate classes and PARTICIPATION. In: Seiler, Hansjakob/Premper, Waldfried (Hgg.) (1991), 183⫺239.
29. Grundlagen der Valenz Lehmann, Christian (1992): Valenz. In: Anschütz, Susanne R. (Hg.) (1992): Texte, Sätze, Wörter und Moneme. Festschrift für Klaus Heger zum 65. Geburtstag. Heidelberg, 435⫺454. Lieb, Hans-Heinrich (1993): Integrational Linguistics. In: Jacobs, Joachim et al. (Hgg.) (1993), 430⫺468. Matthews, Peter (1981): Syntax. Edinburgh. McCawley, James D. (1968): Concerning the Base Component of a Transformational Grammar. In: Foundations of Language 4, 243⫺269. Moravcsik, Edith A. (1993): Government. In: Jacobs, Joachim et al. (Hgg.) (1993), 705⫺721. Mosel, Ulrike (1991): Towards a typology of valency. In: Seiler, Hansjakob/Premper, Waldfried (Hgg.) (1991), 240⫺270. Pasch, Renate (1977): Zum Status der Valenz. In: Linguistische Studien A 42, 1⫺50. Pollard, Carl/Sag, Iwan A. (1994): Head-DrivenPhrase-Structure Grammar. Stanford, Cal. Projektgruppe Verbvalenz (1981): Konzeption eines Wörterbuchs deutscher Verben. Zur Theorie und Praxis einer semantisch orientierten Valenzlexikographie. Tübingen. Sæbø, Kjell Johan (1984): Über fakultative Valenz. In: Deutsche Sprache 12, 97⫺109. Sandberg, Bengt (1979): Zur Repräsentation, Besetzung und Funktion einiger zentraler Leerstellen bei Substantiven. Göteborg. Schumacher, Helmut (Hg.) (1986): Verben in Feldern ⫺ Valenzwörterbuch zur Syntax und Semantik deutscher Verben. Berlin/New York. Seiler, Hansjakob/Premper, Waldfried (Hgg.) (1991): Partizipation. Das sprachliche Erfassen von Sachverhalten (⫽ Language Universal Series Vol. 6). Tübingen. Somers, Harold L. (1987): Valency and Case in Computational Linguistics. Edinburgh. Stechow, Arnim von/Sternefeld, Wolfgang (1988): Bausteine syntaktischen Wissens. Ein Lehrbuch der generativen Grammatik. Opladen. Steinitz, Renate (1992): „Modern“: Argumentstruktur, „Traditionell“: Valenz ⫺ Versuch eines Brückenschlags. In: Linguistische Berichte 137, 33⫺44. Stepanova, Maria D./Helbig, Gerhard (1978): Wortarten und das Problem der Valenz in der deutschen Gegenwartssprache. Leipzig.
377 Storrer, Angelika (1992): Verbvalenz: theoretische und methodische Grundlagen ihrer Beschreibung in Grammatikographie und Lexikographie. Tübingen. Storrer, Angelika (1996): Verbbedeutung und Situationsperspektivierung. In: Grabowski, Joachim/ Harras, Gisela/Hermann, Theo (Hgg.) (1996): Bedeutung ⫺ Konzepte ⫺ Bedeutungskonzepte. Theorie und Anwendung in Linguistik und Psychologie. Opladen, 231⫺255. Storrer, Angelika (1996a): Wie notwendig sind obligatorische Valenzstellen? ⫺ Faktoren der Weglassbarkeit von Valenzstellen im Text. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996): Lucien Tesnie`re ⫺ Syntaxe structurale et ope´rations mentales. Akten des deutsch-französischen Kolloquiums anläßlich der 100. Wiederkehr seines Geburtstages Strasbourg 1993. Tübingen, 225⫺238. Tesnie`re, Lucien (1959): Ele´ments de syntaxe structurale. Paris. Vater, Heinz (1978): Probleme der Verbvalenz. Trier. Vieweger, Dieter et al. (1977): Probleme der semantischen Analyse (⫽ studia grammatica XV). Berlin. Welke, Klaus M. (1988): Einführung in die Valenzund Kasustheorie. Leipzig. Welke, Klaus M. (1990): Kontroverses in der Valenztheorie. Eine Erwiderung auf Gerhard Helbig. In: Deutsch als Fremdsprache 1990, 153⫺159. Wiegand, Herbert Ernst (1996): Über primäre, von Substantiven ‘regierte’ Präpositionen. In: Harras, Gisela/Bierwisch, Manfred (Hgg.) (1996): Wenn die Semantik arbeitet. Klaus Baumgärtner zum 65. Geburtstag. Tübingen, 109⫺147. Wotjak, Barbara/Wotjak, Gerd (1983): Zur semantischen Mikrostruktur ausgewählter deutscher Verben. In: Deutsch als Fremdsprache 30, 144⫺151. Wunderlich, Dieter (1993): Diathesen. In: Jacobs, Joachim et al. (Hgg.) (1993), 730⫺747. Zifonun, Gisela (1972): Über die Unverträglichkeit verschiedener Valenzbegriffe und ihre Verwertbarkeit in semantischen Beschreibungen. In: Zeitschrift für Dialektologie und Linguistik, 171⫺205. Zifonun, Gisela/Hoffmann, Ludger/Strecker, Bruno et al. (1997): Grammatik der deutschen Sprache (GDS). Berlin/New York.
Gisela Zifonun, Mannheim (Deutschland)
378
IV. Valenz. Grundlagen und Grundfragen
30. Die Problematik der Valenzebenen
1. 2. 3. 4. 5. 6. 7.
Einführung Wozu Valenz? Kategoriale und semantische Valenz Dimensionen der Valenz Die Unabhängigkeit der Dimensionen Konsequenzen für Kernfragen der Valenztheorie Literatur in Auswahl
1.
Einführung
Die Frage, welche Ebenen der Sprachbeschreibung eine adäquate Valenztheorie berücksichtigen muss, ist nicht nur entscheidend für die Architektur einer solchen Theorie, sondern hängt auch eng zusammen mit anderen Kernproblemen der Valenzforschung, insbesondere mit der Klassifikation von Valenzphänomenen (z. B. Ergänzungen vs. Angaben) und mit der Ermittlung von sprachlichen Gesetzen, die auf dem Valenzbegriff beruhen. Im folgenden soll das Ebenenproblem nicht disziplinhistorisch, sondern systematisch diskutiert werden, und zwar aus der Perspektive der multidimensionalen Valenztheorie (MVT), die in Jacobs (1994a, geschrieben 1987) umrissen und u. a. in Blume (1993, 2000), Engelberg (2000), Jacobs (1992a, 1994b, 1995, 2002) weiterentwickelt wurde. (Weitere Arbeiten, die Ergebnisse der ´ gel 2000, Kap. 7.1, MVT aufgreifen, sind A Breindl 1989, Butulussi 1991, Storrer 1992, Primus 1999 und Zifonun et al. 1997, Kap. E2.2. Kritisches zur MVT in Zifonun 1995, Fischer 1999. Vgl. auch Art. 29 in diesem Band.) Zunächst wird ausführlich die Position der MVT zur Ebenenproblematik dargestellt. Danach werden einige Konsequenzen für die Klassifikation von Valenzphänomenen und für Valenzgesetze umrissen. Dabei wird von der zum Zeitpunkt der Niederschrift (2002) aktuellen Version der MVT ausgegangen, die sich von früheren Versionen zwar nicht in den Grundgedanken, aber in wichtigen Details unterscheidet.
2.
Wozu Valenz?
Eine Erörterung von Grundproblemen der Valenztheorie muss im Auge behalten, wozu das Valenzkonzept in der Sprachwissenschaft dient. Natürlich gibt es dazu verschiedene
Meinungen. Wenn man aber betrachtet, welche Forschung unter der Überschrift „Valenz“ tatsächlich betrieben wird, lässt sich durchaus ein gemeinsamer Nenner erkennen: Mit dem Valenzkonzept sollen bestimmte mit einzelnen Wörtern verbundene und für sie spezifische Informationen darüber erfasst werden, in welchen Satzumgebungen sie unter welchen inhaltlichen Bedingungen vorkommen können. Diese wortspezifischen Informationen über mögliche Satzumgebungen manifestieren sich z. B. in Sprecherurteilen darüber, welche der Verben öffnet, erblickt, schnarcht unter welchen semantischen Voraussetzungen in die folgenden Umgebungen eingesetzt werden können: (1)
a. b. c. d. e. f. g.
Er - - -. Ihm - - -. Er - - - die Tür. Er - - - der Tür. Er - - - die Tür mit einem Trick. Er - - - ihr die Tür. Die Tür - - - ihn.
Deutsche Sprecher identifizieren für öffnet a, c, e und f als mögliche Umgebungen, während sie gegen die anderen Umgebungen verschiedenartige und verschieden starke Einwände haben. Bei g. haben viele Sprecher zudem die Intuition, dass die Unmöglichkeit von öffnet am Inhalt liegt, nämlich daran, dass es nicht möglich ist, dass eine Tür jemanden öffnet. Dass diese Informationen für öffnet spezifisch sind, zeigt der Vergleich mit entsprechenden Urteilen für andere Verben. So erhält man bei erblickt eine ganz andere Verteilung: c möglich, alle anderen nicht möglich. Bei schnarcht ergibt sich: a möglich, alle anderen unmöglich. Auch die inhaltlichen Begleiterscheinungen der Einsetzung in die Satzrahmen werden für jedes dieser Verben anders beurteilt. Die sich in solchen Urteilen manifestierenden wortspezifischen Informationen über mögliche Satzumgebungen sind es also, die mit dem Begriff „Valenz“ (bzw. mit ungefähr synonymen Termini, wie „Selektion“ in der Generativen Grammatik) anvisiert werden. Damit ergibt sich schon eine erste Weichenstellung für die sprachtheoretische Lokalisierung der Valenz: Wie alle wortspezifischen
379
30. Die Problematik der Valenzebenen
Informationen gehört Valenz ins Lexikon. Die an (1) illustrierten Eigenschaften von öffnet, erblickt und schnarcht beziehen sich zwar auf Satzumgebungen und werden sicher auch von syntaktischen Regeln ⫺ also Regeln des Aufbaus von Sätzen und komplexen Satzteilen ⫺ berücksichtigt, sie können aber nicht durch syntaktische Regeln vorausgesagt werden. Deshalb müssen sie in dem Teil der Grammatik untergebracht werden, der die für syntaktische Regeln relevanten, aber nicht durch sie voraussagbaren Eigenschaften von Ausdrücken erfasst, also im Lexikon. (Dabei wird hier von einer syntaxnahen Stufe des Lexikons ausgegangen, auf der Wörter in voll flektierter Form verzeichnet sind.) Damit ist jedoch noch keine Vorentscheidung im Hinblick auf die Ebenenproblematik getroffen, denn das Lexikon (wie die Syntax) umfasst ja mehrere Repräsentationsebenen: Lexikoneinträge bestehen (mindestens) aus einer phonologischen Repräsentation (PR), die relevante Aspekte der lautlichen Form, z. B. die Segmentfolge, festhält, einer kategorialen Repräsentation (KR), die über nichtlautliche Aspekte der Form informiert, z. B. über Wortart- und Flexionsmerkmale, gegebenenfalls auch über die interne Konstituentenstruktur des Ausdrucks, sowie aus einer semantischen Repräsentation (SR), die die grammatisch festgelegte Bedeutung des Wortes charakterisiert. Auf welcher dieser lexikalischen Ebenen die Valenz angesiedelt werden muss, ist zunächst nicht klar. Klar ist jedoch schon vor einer genaueren Untersuchung, dass sich die Valenz nicht aus den traditionell auf der kategorialen Ebene verzeichneten Wortart- und Flexionsangaben ergibt. Zwar schließt auch die Kennzeichnung von öffnet als Verb in der dritten Person, Präsens, Singular, Indikativ bestimmte Satzumgebungen aus (etwa Er will die Tür - - -), sie lässt jedoch alle unter (1) aufgeführten Umgebungen zu, hat also mit den dort wirksamen Restriktionen nichts zu tun. Auch die Unterscheidung transitiv vs. intransitiv, mit der man traditionell Umgebungsrestriktionen erfasst, die nicht durch Wortart- und Flexionsangaben erfasst werden (sowie andere Informationen, etwa Passivierbarkeit), versagt vor den Verhältnissen in (1). So kann sie die ganz unterschiedlichen Einsetzungsmöglichkeiten von öffnet und erblickt in (1) (s. o.) nicht erklären, da ja beide Verben transitiv sind. Valenz muss also zusätzlich zur Wortart und Flexionsangabe im Lexikoneintrag verzeichnet werden und ersetzt die traditionelle
Angabe der Transitivitätsstufe in dem Umfang, in dem diese die möglichen Satzumgebungen zu ungenau identifiziert.
3.
Kategoriale und semantische Valenz
Wenn man auf dieser Grundlage auszuloten beginnt, wie die Valenz von Wörtern expliziert werden kann, wie also die fraglichen wortspezifischen Informationen über Satzumgebungen in Lexikoneinträgen festgehalten werden können, erkennt man schnell, dass Valenz auf mehreren Repräsentationsebenen des Lexikons angesiedelt werden muss. Betrachten wir zunächst erblickt. Viele der an (1) illustrierten Umgebungsrestriktionen für dieses Wort kann man erfassen, wenn man annimmt, dass es ein Dependens (s. 4.1) im Nominativ und eines im Akkusativ fordert. So folgt aus dieser Forderung die Unmöglichkeit der Einsetzung in a, b und d, während die mögliche Umgebung c die Forderung erfüllt. Symbolisieren wir diese Forderung durch „/nom/akk“. Da /nom/akk aus den KR-Merkmalen Nominativ und Akkusativ aufgebaut ist, liegt es nahe, /nom/akk ebenfalls als KR-Merkmal zu betrachten. Dann kann man dieses Merkmal der KR von erblickt, also [V,3pers,präs, …], hinzufügen und erhält [V,3pers,präs, …, /nom/akk]. Die Entscheidung für diese Form der Einbeziehung von Valenzinformationen in die KR-Ebene der lexikalischen Repräsentation muss natürlich weiter gerechtfertigt werden. So sollten sich wortspezifische Forderungen nach Dependentien mit bestimmten Merkmalen, wenn ihre Explikation als KR-Merkmal adäquat ist, hinsichtlich relevanter Generalisierungen nicht von anderen KR-Merkmalen unterscheiden. Dazu wurde in Jacobs (1992a,b) gezeigt, dass KR-Valenzmerkmale genau wie andere KR-Merkmale dem Prinzip gehorchen, dass in ihnen enthaltene Informationen im Satz nur dann von einer Konstituente X zur Mutterkonstituente von X transferiert werden können, wenn X ein syntaktisches Haupt (‘head’) ist, es sei denn, es liegt eine die Asymmetrie zwischen Haupt- und NichtHaupt nivellierende Integration von X in die Schwesterkonstituente vor (vgl. Jacobs 1993). Die Unterwerfung unter dieses für KRMerkmale typische Haupt-Prinzip wird dagegen durch andere Formate der Repräsentation entsprechender wortspezifischer Forderungen nicht erfasst, so durch die Subkatego-
380
IV. Valenz. Grundlagen und Grundfragen
risierungsrahmen der Generativen Grammatik (vgl. z. B. Haegeman 1994). Doch auch, wenn sich diese Form der lexikalischen Repräsentation von Valenzinformationen rechtfertigen lässt, werden mit ihr die spezifischen Umgebungsbeschränkungen von erblickt nicht vollständig erfasst. So erklärt /nom/akk nicht, warum das Verb in (1g) nicht möglich ist, vgl. *Die Tür erblickt ihn. Auch intuitiv liegt hier eine andere Art von Problem vor als etwa in (1d): Die Einsetzung in (1g) ist seltsam, weil eine Entität, die etwas erblickt, belebt sein muss, Türen jedoch nicht belebt sind; deshalb führt die Einsetzung von erblickt in (1g) zu keinem Satz, der Situationen, die mit unserem Wissen über Türen übereinstimmen, zutreffend beschreiben kann. (Natürlich können wir unser Wissen über Türen ändern oder erblickt metaphorisch verwenden. Dann kann *Die Tür erblickt ihn akzeptabel werden, vgl. 4.2.2.1) Wie können wir diese Erklärung der Effekte der Einsetzung von erblickt in (1g) auf eine lexikalische Valenzinformation zurückführen? Dass eine Entität, die etwas erblickt, belebt sein muss, ist sicher kein Zusammenhang, der die PR oder die KR (s. o.) des Verbs betrifft, ja auf diesen Ebenen, auf denen es ja um Formaspekte geht, steht nicht einmal ein Vokabular zur Formulierung dieser Restriktion zur Verfügung. Dagegen kann sie ohne weiteres an der semantischen Repräsentation von erblickt festgemacht werden. Diese SR muss ⫺ ganz unabhängig von der Frage der Valenz (vgl. 4.2.1) ⫺ zum Ausdruck bringen, dass man mit dem Verb über Situationen spricht, in denen ein Individuum zu einem anderen in eine bestimmte Beziehung tritt, nämlich eben in die Erblicken-Beziehung. Eine SR, die das leistet, kann so aussehen: ERBLICKT[s](x)(y) Diese SR besagt, dass die grammatische Bedeutung von erblickt ein dreistelliges Prädikat ist, das auf eine Situation s und zwei Individuen x, y genau dann zutrifft, wenn s eine Situation ist, die darin besteht, dass y von x erblickt wird. Die Variablen in den Klammerpaaren hinter ERBLICKT markieren also die Relate der durch das Prädikat denotierten Beziehung, wobei „x“, „y“ für Individuen stehen, „s“ für die jeweilige Situation. (Eckige Klammern markieren referentielle Relatpositionen, vgl. 4.2.1) Bei der Äußerung von Sätzen, in denen das Verb vorkommt, werden die Relatvariablen mit passenden Entitäten belegt, d. h. es wird festgelegt, von welchen
konkreten Relaten die Rede ist, wobei die Spezifikationen der Relate durch die das Verb begleitenden Argumente (vgl. 4.2.1) zu beachten sind. (Das auf Davidson 1967 zurückgehende Verfahren, auch die jeweils beschriebene Situation als Relat des Verbs aufzufassen, wird in Engelberg 2000 ausführlich begründet.) ⫺ Die Restriktion, die die Blockade von erblickt in (1g) erklärt (s. o.), kann man nun leicht als eine auf die SR dieses Verbs bezogene Bedeutungsregel formulieren: (BR1) ∀x∀y∀s[ERBLICKT[s](x)(y) ⇒ BELEBT[x]] BR1 besagt, dass Individuen, die andere Individuen erblicken, belebt sein müssen (bei wörtlicher Verwendung des Verbs, vgl. 4.2.2.1). ⫺ Damit haben wir die fragliche Restriktion an der lexikalisch zugewiesenen SR des Verbs festgemacht. Durch das Subskript ⫹BEL an der entsprechenden Relatposition können wir in der SR auf die Bedeutungsregel hinweisen: ERBLICKT[s](⫹BELx)(y) Ein weiteres Beispiel für einen Zusammenhang, der durch eine auf KR beschränkte Valenzexplikation nicht erfasst wird, ist die Unmöglichkeit von schnarcht in (1c), vgl. *Er schnarcht die Tür. Man könnte zunächst annehmen, sie sei darauf zurückzuführen, dass schnarcht nur ein Nominativ-Dependens im Satz fordert, also das KR-Merkmal /nom hat. Aber daraus folgt nicht, dass schnarcht kein Akkusativ-Dependens zulässt, und das darf angesichts von Er schnarcht den ganzen Tag auch nicht folgen. Außerdem würde ein solcher auf KR bezogener Erklärungsansatz der Intuition nicht Rechnung tragen, dass *Er schnarcht die Tür in Konflikt damit steht, dass schnarcht keine Situationen beschreibt, in denen Individuen in eine Beziehung treten. In schnarcht-Situationen ist vielmehr stets nur ein Individuum (eben der Schnarcher) involviert. Das geht aber wieder aus der SR hervor, wenn sie elementare Bedeutungsintuitionen über dieses Wort erfasst: SCHNARCHT[s](x) Diese SR erklärt die Inakzeptabilität von (1c), denn nach einem generellen Gesetz der Valenzrealisierung können Dependentien, die unterschiedlichen KR-Kasusforderungen unterliegen (s. o.), nicht auf dasselbe SR-Relat bezogen werden. (Genaueres in 4.2.1) *Er schnarcht die Tür verstößt gegen dieses Gesetz, da die unterschiedlichen Kasus auf unterschiedlichen KR-Forderungen beruhen
30. Die Problematik der Valenzebenen
müssen, aber nach Aufweis der SR von schnarcht nur ein zur Bedeutung der beiden Nominale passendes (nämlich Individuen-) Relat zur Verfügung steht. ⫺ Dagegen geht der Akkusativ in Er schnarcht den ganzen Tag nicht auf eine KR-Forderung des Verbs zurück, sondern ist eine inhärente Markierung der semantischen Funktion Maßbestimmung. (Einen Konflikt mit dem fraglichen Gesetz gibt es aber auch schon deshalb nicht, weil das Akkusativ-Nominal nicht auf das Individuen-, sondern auf das Situationsrelat bezogen wird, s. u.) Wie eben illustriert, kann man also einige der Umgebungsrestriktionen, die nach 2. die Valenz eines Wortes ausmachen, an der SR, genauer: an den Relatpositionen in dieser SR, festmachen. Ich bezeichne deshalb im folgenden die Gesamtheit der Relatpositionen in der SR eines Ausdrucks X als semantische (oder SR-)Valenz von X. Die Verteilung von Valenzinformationen auf die SR- und die KR-Ebene, deren Notwendigkeit eben illustriert wurde, muss einhergehen mit der Erfassung der Entsprechung zwischen den beiden Valenzebenen. So entspricht die erste Individuenrelatposition der SR-Valenz von erblickt der Stelle /nom in der KR-Valenz /nom/akk des Verbs (s. o.), die zweite Individuenrelatposition der Stelle /akk. Die Situationsrelatposition entspricht keiner KR-Valenzstelle. Diese Korrespondenz kann man durch eine entsprechende Indizierung der KR-Valenz sichtbar machen: /nomx/akky (Diese Indizierung wird im folgenden nur angegeben, wenn sie relevant ist.) Valenz muss also auf mehreren Ebenen des Lexikons angesiedelt werden, nämlich außer in KR auch in SR. Die Beschränkung auf nur eine Ebene würde entweder einen Teil der an (1) illustrierten Kombinationsrestriktionen von Verben nicht erfassen ⫺ und damit einen Teil dessen, was üblicherweise als ihre Valenz verstanden wird ⫺ oder sie würde in Konflikt geraten mit dem für die Ebenen zur Verfügung stehenden Analyseinstrumentarium. Die Notwendigkeit der Unterscheidung zwischen KR- und SR-Valenz ergibt sich demnach aus zwei Faktoren: (i) (ii)
Annahmen über die Art der zu erfassenden sprachlichen Daten sprachtheoretische Differenzierung der grammatischen Teilebenen
Wenn bezüglich (i) andere Vorentscheidungen getroffen worden wären, wenn z. B. Ef-
381 fekte wie der der Einsetzung von erblickt in (1g) als irrelevant für die Frage der Valenz betrachtet worden wären, wäre damit vielleicht auch die Notwendigkeit der Verteilung von Valenzinformationen auf mehrere Beschreibungsebenen entfallen. Aber eine solche Einengung des Datenbereichs ist in der Valenzforschung nicht erfolgt und wäre im Lichte der Überlegungen, die in 6.1 angestellt werden, auch nicht sinnvoll. Dass dennoch nicht von Anfang an (und schon gar nicht bei Tesnie`re 1969, vgl. Storrer 1992, 4.1.1) eine Mehrebenen-Theorie der Valenz anvisiert wurde, dass vielmehr die systematische Abgrenzung kategorialer und semantischer Valenzaspekte eine relativ späte Entwicklung innerhalb der in Tesnie`res Tradition stehenden Valenzforschung war ⫺ die „semantische Wende“ (vgl. ebd., 4.1.6), die in Deutschland mit Arbeiten von Helbig (z. B. 1982) und der IDS-Projektgruppe Verbvalenz (1981) einsetzte ⫺, hängt viel mehr mit Faktor (ii) zusammen, ist nämlich im wesentlichen ein Ergebnis der zunehmenden technischen Ausdifferenzierung und modularen Abgrenzung der semantischen von der kategorialen Ebene, die einer der wichtigsten Entwicklungstrends der Sprachwissenschaft der letzten Jahrzehnte war. Allerdings hat man sich auch nach der „semantischen Wende“ selten klar gemacht, dass die Unterscheidung kategorialer und semantischer Valenzaspekte sich nicht nur als Differenzierung der lexikalischen Repräsentation von Valenz auswirkt, sondern auch als eine der einschlägigen grammatischen Gesetze. Das gilt für die lexikalischen Valenzgesetze, s. 6.2, aber auch für solche, die die Verarbeitung von Valenzinformationen im Satz steuern. Die diesbezüglich für KR- und für SRValenzen geltenden Mechanismen unterscheiden sich erheblich: Während KR-Valenzmerkmale dem allgemein für KR-Merkmale geltenden Haupt-Prinzip folgen (s. o.), ist dieses für die Verarbeitung von SR-Valenzen irrelevant (auf der SR-Ebene steht nicht einmal der Begriff „Haupt“ zur Verfügung). Die Ausbreitung der in den SR-Relatstellen enthaltenen Valenzinformationen im Satz folgt vielmehr Prinzipien der Komposition lexikalischer Bedeutungen zu Satzbedeutungen (vgl. Jacobs 1995), die wiederum für KRMerkmale irrelevant sind. Die Abgrenzung der SR- von der KR-Valenzebene ermöglicht im übrigen auch eine Erklärung für die zunächst rätselhafte Unmöglichkeit von erblickt in (1e), vgl. *Er erblickt die Tür mit einem Trick. Die Erklärung
382
IV. Valenz. Grundlagen und Grundfragen
ist analog zu der für (1g) vorgeschlagenen: Das Adverbial mit einem Trick widerspricht einer sortalen Forderung, die erblickt seinem Situationsrelat auferlegt, das im Satz durch das Adverbial spezifiziert wird (vgl. 4.2.1): Situationen, die man mit erblickt beschreibt, sind keine Handlungen, denn ihr Eintreten wird vom jeweiligen Subjekt nicht aktiv und intentional herbeigeführt. In der SR für erblickt können wir das wieder durch ein entsprechendes Subskript an der die Relatposition markierenden Klammer festhalten (als Verweis auf eine entsprechende Bedeutungsregel, s. o.): ERBLICKT[⫺HDLs](⫹BELx)(y) Ein Art-und-Weise-Adverbial wie mit einem Trick kann nun aber sinnvoll nur auf Situationen angewandt werden, die Handlungen sind, vgl. Er öffnete die Tür mit einem Trick. Damit kann *Er erblickt die Tür mit einem Trick durch einen Konflikt zwischen der SR von erblickt und den inhaltlichen Anwendungsbedingungen des Adverbials (die ebenfalls als sortale Restriktion expliziert werden können) erklärt werden.
4.
Dimensionen der Valenz
Damit jedoch die Ebenendifferenzierung als Fundament der Valenztheorie dienen kann, muss sie weiter präzisiert werden. Zusätzlich zu den zwei Valenzebenen KR und SR müssen auf jeder dieser Ebenen verschiedene Teilphänomene unterschieden werden, die hier als Dimensionen der Valenz bezeichnet werden sollen. Betrachten wir zunächst die Dimensionen der kategorialen Valenz. 4.1. Kategoriale Valenzdimensionen Auf der KR-Ebene notierten wir die Valenz von erblickt durch „/nom/akk“. Die dadurch symbolisierte Forderung an die syntaktischen Umgebungen des Verbs hat zwei verschiedene Aspekte, beinhaltet nämlich sowohl Realisierungsforderungen als auch Merkmalsforderungen. 4.1.1. Realisierungsforderungen Wenn erblickt das Merkmal /nom/akk hat, sollte sich das syntaktisch so auswirken, dass Sätze, in denen das Verb vorkommt, ohne dass ein Nominativ- und ein Akkusativdependens realisiert werden, ungrammatisch sind. Dazu gehören Sätze wie (2). (Ich nehme an, dass Sätze die Kategorie [V,…, /] haben, also verbale Syntagmen ohne Valenzforde-
rungen ⫺ ‘gesättigte Verbalphrasen’ ⫺ sind. Zudem betrachte ich nur Nebensätze, um die Verbstellungsproblematik auszublenden.) (2)
* [V, …, /]
[N, nom, …] [V, …, /nom/akk]
(dass) er
erblickt
Dass solche Strukturen, in denen zu wenige Verbdependentien realisiert werden, tatsächlich ausgeschlossen werden, sichert eine Bedingung für die syntaktische Verarbeitung von KR-Valenzmerkmalen, die in Jacobs (1992a, b) expliziert wurde: Jede der im KRValenzmerkmal /m1/…/mn einer valenztragenden Konstituente VT enthaltenen Forderungen /mi muss entweder a) durch eine Schwesterkonstituente von VT erfüllt und dann gelöscht oder b) zur Mutterkonstituente von VT transferiert werden (unter Beachtung des Haupt-Prinzips, s. 3). Das läuft darauf hinaus, dass es zu jeder KR-Valenzforderung /mi ein Dependens von VT geben muss, das die Forderung erfüllt, vorausgesetzt man betrachtet als Dependentien von VT jene Konstituenten, die mit VT oder einer Projektion von VT eine VT-Phrase (also eine komplexe Konstituente der Kategorie von VT) bilden. Diese Bedingung wird in (2) offensichtlich verletzt, denn es gibt kein Dependens des Verbs, das die Forderung /akk erfüllt. Die Bedingung klärt auch die für die Realisierung in Frage kommenden strukturellen Positionen, schließt also z. B. auch (3) aus, wo zwar ein Akkusativ-Nominal realisiert wird, aber, weil es kein Dependens des Verbs (also nicht mit dem Verb oder einer Projektion des Verbs verschwestert) ist, für dessen Forderung /akk nicht greifbar ist:
(3)
* [V, …, /] [V, …, /nom] [P, …]
[N, nom, …] [P, …] [N, akk, …] [V, …, /nom/akk] (dass) er
auf
die Tür
erblickt
383
30. Die Problematik der Valenzebenen
Die von der Bedingung vorausgesetzte Möglichkeit des Transfers von KR-Valenzforderungen zu einer Projektion des Valenzträgers wird durch (4) illustriert, wo /akk von erblickt zu jetzt erblickt und /nom von erblickt zu die Tür jetzt erblickt projiziert wird. Hier sind alle einschlägigen Gesetze erfüllt: (4)
[V, …, /] [V, …, /nom] [V, …, /nom/akk]
[N, nom, …] [N, akk, …] [ADV, …] [V, …, /nom/akk] (dass) er
die Tür
jetzt
muss also auch in der elliptischen Version von (5) unhörbar vorhanden sein, vgl. Jacobs 1993.) ⫺ Auch die Nicht-Weglassbarkeit des Lokaladverbials in (6) hat mit Valenz nichts zu tun, liegt vielmehr daran, dass das negativ-polare jemals die Anwesenheit der im Adverbial enthaltenen Negation voraussetzt. Solche Beispiele (und andere, vgl. Blume 1993, Jacobs 1994b) zeigen, dass für den Weglasstest das gleiche gilt wie für andere Diagnoseverfahren in der Linguistik: Sie geben nur dann Aufschluss über das zu testende Phänomen ⫺ hier: valenzbedingte Realisierungsforderungen ⫺, wenn sie unter Beachtung einer vorangehenden theoretischen Eingrenzung des Phänomens angewandt werden.
erblickt
Solche Gesetzmäßigkeiten der syntaktischen Ausbreitung lexikalischer Realisierungsforderungen spielten in der bisherigen Valenzforschung allerdings kaum eine Rolle. Im Mittelpunkt der Forschung zu Realisierungsforderungen stand vielmehr die empirische Ermittlung obligatorischer Dependentien, also solcher, die infolge einer Valenzforderung nicht weglassbar sind. (Genaueres in 5.2.2) Dabei wurde die bekannte Weglassprobe nicht selten so angewandt, dass die (Nicht-) Weglassbarkeit einer Konstituente X ohne weitere Prüfung als Beleg dafür gewertet wurde, dass X für einen Valenzträger VT im Satz obligatorisch bzw. fakultativ ist (mit entsprechenden Rückschlüssen auf die Valenz von VT). Das ist problematisch, denn (Nicht-) Weglassbarkeit kann viele Ursachen haben, die mit Valenz gar nichts zu tun haben. So lässt weder die Weglassbarkeit des Objekts in (5) noch die Nicht-Weglassbarkeit des Lokaladverbials in (6) Rückschlüsse auf die Valenz des Hauptverbs zu: (5)
Das hab’ ich gesehen. J Hab’ ich gesehen.
(6)
Angeblich wurden in keiner Universität jemals Fahrkurse angeboten J *Angeblich wurden jemals Fahrkurse angeboten
Die Weglassung von das in (5) wird nicht durch die KR-Valenz von gesehen lizenziert, sondern durch die Vorfeldposition (unter Voraussetzung inhaltlicher Rekonstruierbarkeit aus dem Kontext). Das zeigt sich darin, dass das Objekt in anderen syntaktische Positionen nicht weglassbar ist, vgl. *dass ich gesehen hab’. (Das Objekt unterliegt demnach einer Realisierungsforderung durch das Verb,
4.1.2. Merkmalsforderungen Wenn /nom/akk besagt, dass der Valenzträger ein Nominativ- und ein Akkusativdependens fordert, beinhaltet das nicht nur, dass eine entsprechende Anzahl von Dependentien realisiert werden muss, sondern auch, dass diese die richtigen Merkmale haben müssen, hier die Kasus Nominativ bzw. Akkusativ. Ausgeschlossen sollten also neben Fällen wie (2) auch solche wie (7) sein: (7)
* [V, …, /] [V, …, /nom] [N, nom, …] [N, dat, …] [V, …, /nom/akk] (dass) er
der Tür
erblickt
Auch dieser Effekt muss durch die Bedingungen gesichert werden, die ausbuchstabieren, wie sich KR-Valenzmerkmale im Satz auswirken: Eine Konstituente X erfüllt nur dann die in der Stelle /mi des Merkmals /m1/…/mn enthaltene Forderung, wenn mi in der Kategorie von X enthalten ist. Diese Bedingung wird in (7) verletzt, da die Kategorie von der Tür das Merkmal akk(usativ) nicht enthält. Wenn dagegen in derselben Position ein Ausdruck im Akkusativ gewählt wird, ist die Forderung erfüllt, vgl. dass er die Tür erblickt. Da Konstituenten, die solchen Merkmalsforderungen gehorchen, stets auch eine Realisierungsforderung erfüllen, unterliegen sie den für diese geltenden strukturellen Restriktionen, vgl. 4.1.1. Daraus ergeben sich wich-
384
IV. Valenz. Grundlagen und Grundfragen
tige Unterscheidungskriterien zu anderen Formen der Merkmalsbeeinflussung im Satz: (8)
[V, …] [V, …] [N, …, fem, …] [N, …] […, neut, …] [N, …, fem, …] [V, ...]
(dass) Gold
seine
Farbe
verändert
Prima facie stellt hier das Subjekt Gold an das Possessivpronomen seine genauso eine Merkmalsforderung wie das Verb an das Objekt in dass er die Tür erblickt. Es fordert nämlich das Genus Neutrum am Pronomen(-Stamm), vgl. *dass Gold ihre Farbe verändert (bei Koreferenz von Subjekt und Pronomen). Wenn man aber die strukturellen Bedingungen der Sättigung von KR-Valenzen berücksichtigt, erkennt man, dass es sich hier um ein anderes Phänomen handelt: Eine KRValenzforderung /mi eines Valenzträgers VT kann nur durch ein Dependens von VT erfüllt werden, also durch eine Schwester (einer Projektion) von X, vgl. 4.1.1. In (8) ist seine aber kein Dependens von Gold. Also muss die von Substantiven ausgehende Genussteuerung von der Merkmalsbeeinflussung durch KR-Valenzen theoretisch unterschieden werden. Gegen die Beschränkung des Einflusses von KR-Merkmalsforderungen auf Dependentien des Valenzträgers könnte man Beispiele wie dass er an ihn denkt anführen. Warum muss ihn im Akkusativ sein (vgl. *dass er an ihm denkt), obwohl die Präposition an auch mit Dativ-Komplementen kompatibel ist? Man könnte versuchen, das auf eine KRKasusforderung des Verbs und damit auf eine Struktur, die die fragliche Beschränkung verletzt, zurückzuführen:
(9)
[V, ..., /] [V, …, /nom] [P, ...]
[N, nom, …] [P, ...] [N, akk, …] [V, …, /nom/akk] (dass) er
an
ihn
denkt
(9) ist aber u. a. deshalb problematisch, weil die syntaktische Rolle der Präposition offen bleibt. Eine alternative Struktur, die der intuitiven Abhängigkeit des Akkusativs vom gewählten Verb Rechnung trägt, aber die Rolle der Präposition klärt und auch nicht in Konflikt mit der diskutierten Beschränkung (d. h. mit der Erklärung für Daten wie (3)) steht, ist (10). Hier wird vom Verb in der Objektposition kein Kasus, sondern eine Präposition gefordert, nämlich die Variante von an (genannt „an1“), die selbst per KR-Valenz ein Akkusativ-Komplement fordert. Man muss hierzu allerdings eine Kennzeichnung der jeweils gewählten Präposition(svariante) als Merkmal in ihre eigene Kategorie aufnehmen, damit KR-Valenzen von Verben ein solches Merkmal (das nach dem Haupt-Prinzip auf die Präpositionalphrase übertragen wird) fordern können. Eine solche KR für Präpositionen erscheint generell erforderlich, um das Phänomen der valenzgeforderten Präpositionen zu erfassen, vgl. *dass er über ihn denkt. ⫺ Die an (10) illustrierte Analyse klärt nicht nur die Rolle der Präposition und löst den scheinbaren Konflikt von Sätzen dieser Art mit unserer syntaktischen Beschränkung für die Erfüllung von KR-Valenzforderungen, sondern macht auch einige offenbar zutreffende Voraussagen, nämlich dass diese Art der Abhängigkeit des Kasus eines Präpositionskomplements vom Verb nur auftritt, wenn die Präposition selbst vom Verb festgelegt wird, und dass sie nicht auftritt, wenn die Präposition keine alternativen KR-Valenzen hat, also z. B. nur Dativ- oder nur AkkusativKomplemente (wie mit bzw. für) zulässt (vgl. auch Artikel 29, 4.2.3). In diesem Zusammenhang stellt sich die Frage nach generellen Beschränkungen für die Merkmale, die qua KR-Valenz gefordert werden. Dass Kasus und Adpositionen valenzgefordert sein können, kann als sicher gelten. Ebenso sicher ist, dass der Status eines nicht-finiten Verbs durch die KR-Valenz des jeweils übergeordneten Verbs festgelegt sein kann, vgl. Er braucht nicht {zu kommen, *kommen}, Er will {kommen, *zu kommen}, He wants {to come, *come}. Auch die Realisierung eines Verbdependens als Satz oder als Nominal scheint manchmal von der KR-Valenz des Verbs abzuhängen, vgl. Er hofft {dass er einen Gewinn macht, *einen Gewinn}, Er erhofft {einen Gewinn, ?dass er einen Gewinn macht}, wobei auch der Einfluss sortaler Forderungen (vgl. 4.2.2.1) zu erwägen
385
30. Die Problematik der Valenzebenen
(10)
[V, ..., /] [V, …, /nom] [P, an1 , …, /] [N, nom, …] [P, an1, …, /akk] [N, akk, …] [V, …, /nom/an1] (dass) er
an
ihn
wäre. ⫺ Dagegen erweist sich generell für Person-, Genus- und Numerusmerkmale, dass sie, auch wenn sie durch eine andere Konstituente X beeinflusst werden, nicht von der KR-Valenz von X abhängen (vgl. die Bemerkungen zu (8)), sondern über verschiedene Formen der Kongruenz mit X (manchmal auch durch sortale Restriktionen) festgelegt werden. Entsprechend könnte man folgende Generalisierung wagen: KR-Valenzforderungen beziehen sich nur auf solche Merkmale eines Dependens X, die nicht der näheren Charakterisierung des Denotats von X dienen, etwa seiner Anzahl, seines Geschlechts usw. (In der Terminologie des generativen Minimalismus: KR-Valenzforderungen beziehen sich nur auf uninterpretierbare Merkmale, vgl. Radford 1997.) Das steht nicht in Konflikt mit der Möglichkeit, dass Präpositionen gefordert werden (s. o.), da diese gerade dann, wenn sie KR-valenzgefordert sind, bedeutungslos sind, also (wie Kasus) das Denotat der entsprechenden Phrase nicht beeinflussen.Übrigens wird auch Kasus nicht immer über KR-Valenz festgelegt. Es gibt auch Kasusfestlegung über Kongruenz, z. B. bei appositiven Nominalen (Er half Peter, seinem alten Freund), über die Position in der Konstituentenstruktur, z. B. beim Genitiv postnominaler Attribute (das Haus der Begegnung), über die semantische Funktion, z. B. beim Akkusativ von Maßbestimmungen (Er schnarcht den ganzen Tag), oder über Defaults, z. B. beim Nominativ aller nicht durch andere Mechanismen kasusfixierten deutschen Nominale (Oh Gott, der Geburtstag des Chefs! Ich habe noch gar kein Geschenk). Die Abgrenzung dieser Formen der Kasusfestlegung von der über KR-Valenz ist manchmal schwierig. So könnte man, da der Nominativ der Default-Kasus des Deutschen ist, annehmen, dass die hier als valenzgefordert behandelten Nominative tatsächlich Default-Kasus sind, dass also z. B. erblickt nicht die KR-Va-
denkt
lenz /nom/akk, sondern /N/akk hat, wobei /N ein beliebiges Nominal fordert, das dann per Default im Nominativ realisiert wird. Erst weitergehende Überlegungen über lexikalische Wohlgeformtheitsbedingungen für KRValenzen (vgl. 6.2) zeigen, dass das Merkmal nom(inativ) bereits auf der Ebene der KRValenz präsent ist. Wie bei den Realisierungsforderungen ging es in der traditionellen Valenzforschung auch bei den Merkmalsforderungen vor allem um die empirische Diagnose, wobei die Testmethodik mit Problemen verbunden war, die den in 4.1.1 erwähnten ähnelten: Die verwendeten Austauschproben lassen zwar erkennen, ob die Realisierung bestimmter Merkmale in einer Satzposition X von der Besetzung einer anderen Position Y abhängt, aber sie lassen, wenn sie nicht in weitergehende theoretische Überlegungen eingebettet werden, die Gründe für solche Abhängigkeiten unklar, können also z. B. nicht unterscheiden, ob X durch die Valenz von Y oder über Kongruenz mit Y beeinflusst wird. (Bei naiver Anwendung solcher Proben kann man nicht einmal feststellen, ob X von Y oder Y von X beeinflusst wird.) 4.2. Semantische Valenzdimensionen Nach den Überlegungen in 3. besteht die semantische Valenz von erblickt aus dem Ensemble der Relatpositionen in der semantischen Repräsentation ERBLICKT [⫺HDLs] (⫹BELx) (y). Auch hierbei kann man noch weitere Aspekte unterscheiden, nämlich Relatforderungen und verschiedene Arten von inhaltlichen Forderungen an Relate. 4.2.1. Relatforderungen Die semantische Valenz von erblickt enthält eine bestimmte Anzahl von Relatpositionen bestimmter semantischer Typen, nämlich zwei für Individuen und eine für eine Situation. Dies wirkt sich insofern als Forderung
386 an die möglichen syntaktischen Umgebungen des Verbs aus, als in Sätzen, in denen das Verb vorkommt, Zahl und Art der Argumente des Verbs zu diesem Ensemble von Relatpositionen passen müssen. Die Argumente eines Valenzträgers VT in einem Satz S sind jene Dependentien von VT, die ein Relat in der semantischen Valenz von VT spezifizieren, indem sie eine zusätzliche Information über das Relat geben. So sind Peter, die Tür und jetzt in (11a) Argumente von erblickt, weil sie Informationen zu den Relaten x, y bzw. s geben, vgl. die SR (11b): (11) a. (dass) Peter jetzt die Tür erblickt b. PETER[x] & JETZT(s) & DIETÜR[y] & ERBLICKT[⫺HDLs] (⫹BELx) (y) Das Dependens Peter informiert darüber, dass das Verbrelat x eine Entität namens Peter ist, die Tür sagt uns, dass das Verbrelat y eine (den Gesprächsteilnehmern bekannte) Tür ist, und jetzt qualifiziert die vom Verb beschriebene Situation s als eine jetzt eintretende. Andere Argumente informieren über Relate des Verbs, indem sie über sie quantifizieren, wie das Subjekt in (12): (12) a. (dass) jeder jetzt die Tür erblickt b. ∀x[PERSON[x] ⇒ [JETZT(s) & DIE-TÜR[y] & ERBLICKT[⫺HDLs] (⫹BELx) (y)] Dass Zahl und Art der Argumente eines Valenzträger VT zu den Relatforderungen von VT passen müssen, heißt nun nicht, dass es zu jeder Relatposition genau ein Argument im Satz geben muss (wie es das Theta-Kriterium der Generativen Grammatik nahe legt, vgl. Haegeman 1994). Die Bedingungen, die die Argumente mit den Relatpositionen verknüpfen, sind liberaler, wirken sich aber doch beschränkend auf die Satzumgebungen für VT aus. Eine von ihnen wurde schon in 2. am Beispiel *Er schnarcht die Tür illustriert: Für n (n ⬎ 1) durch die KR-Valenz geforderte Argumente mit unterschiedlichem Kasus müssen mindestens n Relate in der semantischen Valenz zur Verfügung stehen. (Weiteres zu Valenzgesetzen in 6.) Diese Bedingung lässt durchaus zu, dass Relatpositionen manchmal nicht durch Argumente spezifiziert werden, wie z. B. in (13): (13) a. (dass) Peter zuschlägt b. PETER[x] & ZUSCHLÄGT[s](x)(y) (13a) beschreibt in der relevanten Lesart eine Relation zwischen einem Individuum, das
IV. Valenz. Grundlagen und Grundfragen
schlägt, und einem, dem der Schlag gilt. Während aber der Schlagende durch ein Argument spezifiziert wird, bleibt der Geschlagene ungenannt. Um wen es sich handelt, ergibt sich ausschließlich aus dem Äußerungskontext. In (13b) kommt das dadurch zum Ausdruck, dass es kein das Relat y näher kennzeichnendes Prädikat gibt. Das unterscheidet (13) von (11)⫺(12). Da die Möglichkeit eines solchen impliziten (d. h. nicht durch ein Argument spezifizierten) Relats offensichtlich vom gewählten Valenzträger VT abhängt, muss sie im Lexikoneintrag von VT festgehalten werden, nämlich dadurch, dass es zu der fraglichen SR-Valenzstelle keine entsprechende KR-Valenzstelle gibt, vgl. 5.2.2. Die erwähnte Bedingung lässt auch zu, dass ein Relat durch mehrere Argumente spezifiziert wird, vorausgesetzt, sie haben nicht verschiedenen valenzgeforderten Kasus. Das liegt z. B. in Konstruktionen mit prädikativen Adverbialen vor: (14) a. (dass) Peter müde nach Hause kam b. PETER[x] & MÜDE[x] & NACHHAUSE-KAM[s](x) Doch wie kann man feststellen, welche Relatpositionen ein Wort hat? Das ist eine Grundfrage der lexikalischen Semantik, sind doch die mit Wörtern verbundenen Relatpositionen ein zentraler Aspekt ihrer Bedeutung. So muss, ganz unabhängig von den Belangen der Valenztheorie, jede vernünftige Explikation der Bedeutung der Nomina Kleinkind und Tochter erfassen, dass Tochter eine Relatposition mehr als Kleinkind hat, also keine Eigenschaft, sondern eine Beziehung bezeichnet: ‘x ist ein Kleinkind’ vs. ‘x ist Tochter von y’. Dabei kann man sich hier auf eine klare Intuition stützen, die durch verschiedene Testverfahren bestätigt wird, etwa dadurch, dass sich aus Sätzen, in denen Tochter ohne ein das yRelat spezifizierendes Argument vorkommt, die Existenz eines solchen Relats folgern lässt, während entsprechendes bei Kleinkind nicht der Fall ist: Petra ist die Tochter ⇒ Es gibt jemanden, dessen Tochter Petra ist vs. Petra ist ein Kleinkind ⇒ / Es gibt jemanden, dessen Kleinkind Petra ist. Auch Assoziationstests, wie sie in Heringer 1986 vorgeschlagen wurden, sind sensitiv für diesen Unterschied. Wie andere Diagnoseverfahren der Valenztheorie (s. o.) führen jedoch auch Tests für Relatpositionen leicht in die Irre, wenn sie nicht durch theoriebezogene Überlegungen
30. Die Problematik der Valenzebenen
gestützt werden. So ergibt eine naive Anwendung des Folgerungstests, dass das Verb trägt keine Relatposition für den Nutznießer der Handlung hat, vgl. Er trägt den Koffer ⇒ / Es gibt jemanden, dem er den Koffer trägt, und dass folglich in Er trägt ihr den Koffer das Dativdependens des Verbs kein Argument ist. In anderen Zusammenhängen verhalten sich benefaktive Dative jedoch wie Argumente. Z. B. kann man sie keinem schon vorhandenen Dativ-Argument hinzufügen, vgl. *Seinem Freund schrieb er dem Finanzamt einen Brief. Das wäre nach einschlägigen lexikalischen Valenzgesetzen nur dann zu erwarten, wenn der Benefaktiv ein Argument ist (vgl. Engelberg 2000, 3.1.2). Die Auflösung des Widerspruchs liegt in der Annahme einer Polysemie. Transitive Handlungsverben haben (mindestens) zwei Lesarten: eine ohne, eine mit einer durch einen Dativ zu spezifizierenden Relatposition für den Nutznießer. In Abwesenheit des Dativs ⫺ also auch beim Folgerungstest ⫺ wird stets die erste Lesart realisiert, weil sie weniger markiert ist. (Die zweite Lesart entsteht durch einen produktiven Valenzerweiterungsprozess.) Besondere Vorsicht ist bei der Anwendung des Folgerungstests auf Adverbiale geboten. So darf man daraus, dass aus Peter mähte das Gras nicht folgt, dass Peter das Gras mit der Hilfe einer anderen Person mähte, nicht schließen, dass die PP in Peter mähte das Gras mit Gerdas Hilfe kein Relat des Verbs spezifiziert, also kein Argument ist. Die Existenz eines passenden Relats folgt ja aus Peter mähte das Gras, aber natürlich in unspezifischer Form: Peter mähte das Gras ⇒ Es gab eine Situation, die darin bestand, dass Peter das Gras mähte. Genau dieses Situationsrelat ist es, das von mit Gerdas Hilfe spezifiziert wird. Bei anderen in der Literatur vorgeschlagenen Tests für Argumente vs. Nicht-Argumente ist zu bezweifeln, ob sie diesen Unterschied überhaupt erfassen. Das gilt z. B. für die Auslagerung eines Verbdependens in einen koordinativ angeschlossenen, mit geschehen gebildeten Satz, die nach verbreiteter (auch in Jacobs 1994a vertretener) Auffassung nur bei Nicht-Argumenten möglich ist, vgl. Er schrieb ihr einen Brief J ??Er schrieb einen Brief, und das geschah ihr vs. Er schrieb für Petra einen Brief J Er schrieb einen Brief, und das geschah für Petra. Abgesehen davon, dass dieser Test auf viele Fälle gar nicht anwendbar ist (z. B. auf obligatorische Dependentien), hat Engelberg (2000) gezeigt, dass
387 er nicht Argumente von Nicht-Argumenten unterscheidet, sondern Argumente, die das Situationsrelat spezifizieren, von anderen Verbdependentien: Das pronominale Subjekt von geschehen bezieht sich anaphorisch auf die vom Verb im vorangehenden Teilsatz beschriebene Situation, und das ausgelagerte Verbdependens wird durch geschehen über diese Situation prädiziert ⫺ wozu es natürlich als Situationsprädikat fungieren können muss. Er darf also weder ein Individuenargument sein, wie ihr im obigen Beispiel, noch sich auf die ganze Proposition beziehen, wie leider in Er schrieb leider einen Brief J ??Er schrieb einen Brief, und das geschah leider. Solche Probleme bei der Anwendung von Tests für Relatpositionen bzw. Argumente sprechen natürlich nicht gegen die Einbeziehung dieser Faktoren in die Valenzanalyse (wie manchmal behauptet wurde), genauso wenig, wie vergleichbare Diagnoseprobleme gegen die Berücksichtigung von Realisierungs- oder Merkmalsforderungen sprechen, vgl. 4.1.1. Sie machen aber deutlich, dass sich die Valenzforschung mehr als bisher der Tatsache stellen muss, dass sich ihr Gegenstand nicht durch theoriefrei anwendbare operationale Verfahren ermitteln lässt (was für anderen Teile der linguistischen Forschung, etwa für die zu syntaktischen Konstituentenstrukturen, längst selbstverständlich geworden ist). Theorieabhängig ist auch die noch nicht erläuterte Unterscheidung zwischen referentiellen (R-)Relatpositionen und nicht-referentiellen (Non-R-)Relatpositionen. R-Relatpositionen nehmen die Entitäten auf, auf die man sich mit dem Valenzträger bezieht und die man durch ihn zumindest teilweise identifiziert. Die Entitäten in Non-R-Relatpositionen werden dagegen (wenn überhaupt) erst durch hinzukommende Argumente des Valenzträgers identifiziert. Z. B. hat Tochter zwei Relatpositionen: ‘x ist Tochter von y’ (s. o.). Dabei besetzt x die R-Relatposition, denn x ist das Individuum, auf das man sich mit Tochter bezieht, vgl. etwa Die Tochter freut sich (was bedeutet ‘Das Individuum, das Tochter von jemand ist, freut sich’, und nicht ‘Das Individuum, von dem jemand eine Tochter ist, freut sich’). Das Relat y ist dagegen in einer Non-R-Position und wird entsprechend erst durch ein eventuell hinzukommendes Argument identifiziert, wie in Die Tochter von Gerda freut sich. Wir kennzeichnen R-Relatpositionen durch eckige, Non-RRelatpositionen durch runde Klammern, also z. B. TOCHTER[x](y). Entsprechend gibt es
388 zwei Arten von Argumenten, nämlich Identifizierer, d. h. solche, die Non-R-Relate des Valenzträgers spezifizieren, und Modifizierer, d. h. solche, die R-Relate spezifizieren. In Die Tochter von Gerda freut sich ist von Gerda demnach Identifizierer. Ein Modifizierer wäre in der Küche in Die Tochter in der Küche freut sich, denn die Präpositionalphrase bezieht sich auf das R-Relat x. Bei Verben ist die Situationsstelle als RRelatposition zu betrachten, die Individuenrelate von Verben sind dagegen stets in NonR-Positionen, z. B. SCHNARCHT[s](x). In Peter schnarcht seit zwei Stunden wäre Peter also Identifizierer, seit zwei Stunden Modifizierer, denn Peter bezieht sich auf das Non-RRelat x, seit zwei Stunden auf das R-Relat s. Die Unterscheidung von R- und Non-RRelatpositionen bzw. von Modifizierern und Identifizierern ist für viele grammatische und lexikalische Generalisierungen relevant. So sind R- im Gegensatz zu Non-R-Positionen in Sprachen wie dem Deutschen weder mit KR-Valenzforderungen noch mit Rollenforderungen verbunden, vgl. 5.1 bzw. 5.3. Entsprechend unterliegen Modifizierer im Gegensatz zu Identifizierern in diesen Sprachen keinen Realisierungs- oder KR-Merkmalsforderungen und haben keine vom Verb zugewiesenen semantischen Rollen. Solche Unterschiede zwischen Identifizierern und Modifizierern nimmt die Valenzforschung bis heute zum Anlass, Modifizierer als Angaben, also als nicht valenzabhängig zu betrachten. Dagegen werden sie hier, wohl zur Überraschung mancher Leser, als Argumente klassifiziert, also als Ausdrücke, die auf die semantische Valenz des jeweiligen Haupts bezogen sind. Begründen lässt sich diese Neuklassifikation einerseits damit, dass nach dem heutigen Stand der Forschung Modifizierer in der semantischen Struktur den gleichen Status haben wie Identifizierer, indem sie vom Valenzträger eingeführte Relate spezifizieren, andererseits damit, dass sich Modifizierer bezüglich einer Reihe von grammatischen Generalisierungen wie Identifizierer verhalten und nicht wie jene Dependentien, die tatsächlich keine Argumente sind, die also, wie epistemische, evaluative oder Sprechakt-Adverbiale (z. B. vermutlich, leider, offen gesagt), keine Relate eines Valenzträgers spezifizieren, sondern Operationen auf der Proposition oder der Illokution zum Ausdruck bringen, vgl. 6. Eine dieser Generalisierungen ist, dass Modifizierer und Identifizie-
IV. Valenz. Grundlagen und Grundfragen
rer im Gegensatz zu Nicht-Argumenten sortale Forderungen des jeweiligen Valenzträgers beachten müssen. 4.2.2. Inhaltliche Forderungen an Relate 4.2.2.1. Sortale Forderungen Die semantische Repräsentation ERBLICKT [⫺HDLs] (⫹BELx) (y) spezifiziert nicht nur die nach ihrem groben semantischen Typ (Situation vs. Individuum) klassifizierten Relatpositionen des Verbs, sondern auch weitere Bedingungen für die Relate: Die x-Relatstelle kann nur durch belebte Individuen gefüllt werden, und die s-Stelle ist für Situationen reserviert, die keine Handlungen sind. Die Subskripte ⫹BEL und ⫺HDL an den Relatklammern, die diese Bedingungen repräsentieren, sind als Abkürzungen entsprechender Bedeutungsregeln zu lesen, vgl. 3. Solche sortalen Forderungen wirken sich insofern als Beschränkungen für die möglichen syntaktischen Umgebungen des Verbs aus, als die Prädikate, die zur Formulierung der Argumente dienen, keine mit den Forderungen in Konflikt stehenden Folgerungen beinhalten dürfen: (15) a. *(dass) das Auto den Polizisten erblickt b. DAS-AUTO [⫺BELx] & DEN-POLIZISTEN [y] & ERBLICKT [⫺HDLs] (⫹BELx) (y) Hier besteht ein Widerspruch zwischen der vom Verb an x gestellten Forderung nach Belebtheit und der Folgerung aus dem Argument-Prädikat DAS-AUTO, dass x unbelebt ist. Das führt dazu, dass der Satz (bei normaler Interpretation der involvierten Prädikate, s. u.) semantisch abweichend ist. Deshalb kommt als Subjekt-Argument von erblickt nur ein Nominal in Frage, das belebte Denotate nicht ausschließt, wie der Mann, Fido, jemand oder sie. Sortale Forderungen haben allerdings unter den mit natürlichsprachlichen Prädikaten verbundenen Folgerungen in mancher Hinsicht einen Sonderstatus. So sind sie keine Implikationen, sondern Präsuppositionen, d. h. sie grenzen ein, für welche Entitäten man überhaupt sinnvoll die Frage nach dem Zutreffen des Prädikats stellen kann. Das manifestiert sich u. a. darin, dass sortale Forderungen von normaler Satznegation nicht berührt werden: Sowohl aus Er erblickt die Tür als auch aus Er erblickt die Tür nicht folgt die Belebtheit des Subjekts.
389
30. Die Problematik der Valenzebenen
Die problematischste Besonderheit sortaler Forderungen ist, dass Verletzungen wie in (15a) nicht notwendigerweise zu inakzeptablen Äußerungen führen. Dadurch unterscheiden sich sortale Forderungen u. a. von den mit Relatpositionen verbundenen groben Typ-Festlegungen, wie Individuum vs. Situation. Eine Äußerung von Die Abreise erblickt den Polizisten, wo statt eines Individuums eine Situation die Subjekt-Relatposition füllt, ist stets inakzeptabel bzw. uninterpretierbar. Eine von Das Auto erblickt den Polizisten ist es nicht: Einerseits gibt es denkbare Bezugssituationen, in denen die mit DAS-AUTO verbundene Folgerung der Unbelebtheit aufgehoben ist, etwa wenn es um ein anthropomorphisiertes Auto in einem Comic geht. Andererseits sind wir u. U. auch dann, wenn keine die Deutung von Prädikaten verändernde Bezugssituation vorliegt, bereit, Äußerungen mit verletzten sortalen Restriktionen wie (15a) zu akzeptieren, wenn wir ihnen einen metaphorischen oder metonymischen Sinn geben können. Dieses Phänomen ist für die lexikalische Semantik besonders da problematisch, wo es nicht als punktuelle NichtEinhaltung sprachlicher Regeln (etwa zur Erzielung ästhetischer Effekte) abgetan werden kann, sondern gängigen Mustern folgt, etwa in Fällen wie Der Schweinebraten an Tisch sieben möchte noch ein Bier oder Deutschland trauert um seinen größten Rennfahrer. Wie solche routinemäßigen Verletzungen einer vom Verb ausgehenden sortalen Forderung zu explizieren sind, ist noch umstritten. Fälle wie der erste der eben genannten könnten auf standardisierte, vom syntaktischen Kontext ausgelöste Uminterpretationen des jeweiligen Arguments („coercions“, vgl. Pustejovsky 1995) zurückgeführt werden. In Fällen wie dem zweiten könnte eine lexikalische Polysemie des Subjekt-Nomens vorliegen (im Beispiel etwa ‘geographische Region’ vs. ‘Bevölkerung dieser Region’), vielleicht auch ein diesbezüglich unterspezifizierter Lexikoneintrag für das Verb (vgl. Dölling 1997). Wie in 4.2.1 schon angedeutet, unterliegen nicht nur Identifizierer, sondern auch Modifizierer sortalen Restriktionen. Auch diese sind also keineswegs frei hinzufügbar (wie es ihre traditionelle Einstufung als Angaben suggeriert), sondern müssen die sortalen Forderungen des Valenzträgers an das Relat, das sie spezifizieren, berücksichtigen. Das wurde schon in 3. mit dem Beispiel *Er erblickt die Tür mit einem Trick illustriert, dessen Seltsamkeit auf einen Konflikt zwischen der mit
dem Situationsrelat des Verbs verbundenen Forderung ⫺HDL und der Beschränkung des Adverbials auf ⫹HDL-Situationen zurückgeführt und in der (vereinfachten) semantischen Repräsentation (16) veranschaulicht werden kann: (16)
ER[x] & DIE-TÜR [⫺BELy] & MITEINEM-TRICK (⫹HDLs) & ERBLICKT [⫺HDLs] (⫹BELx) (y)
Sortalem Einfluss unterliegen natürlich auch Modifizierer nominaler Valenzträger, was altbekannte Beispiele wie *grüne Ideen belegen, die auf einen Konflikt zwischen einer mit dem referentiellen Relat des Nomens verbundenen Sortenfestlegung (hier in etwa: ⫺KONKRET) und der Sortenforderung des dieses Relat spezifizierenden Adjektivs in seiner wörtlichen Lesart (⫹KONKRET) zurückgeführt werden können, ein Konflikt, der genau wie der in (15) unter bestimmten Bedingungen (etwa bei metaphorischer Interpretation) nicht zu einer inakzeptablen Äußerung führen muss. 4.2.2.2. Rollenforderungen Relatpositionen sind außer mit Sortenforderungen oft auch mit Rollenforderungen verbunden, d. h. mit Festlegungen der Weise, wie das Relat in die vom jeweiligen Ausdruck beschriebene Situation involviert ist. So fordert die Subjekt-Relatposition von öffnet (in nicht-übertragener Lesart) von der entsprechenden Entität nicht nur Belebtheit, sondern unter anderem auch, dass es die beschriebene Situation kontrolliert, d. h. aus eigenem Antrieb initiiert und ihren Verlauf beeinflusst (Primus 1999, Blume 2000). Kontrolle ist eine der Forderungen, die für die gemeinhin als „Agens“ bezeichnete semantische Rolle charakteristisch sind. Weitere Agenscharakteristika sind (nach Blume 2000) Verursachung und Wahrnehmung/Empfindung. Diese Charakteristika sind allerdings nicht als notwendige Bedingungen für das Vorliegen eines Agens zu betrachten. Nach einer Idee Dowtys (1991) ist „Agens“ vielmehr ein Prototypen-Begriff, der in dem Maß zutrifft, in dem die einzelnen für ihn charakteristischen Eigenschaften vorliegen. Entsprechendes gilt für die Patiens-Rolle und ihre Charakteristika, die (nach Primus und Blume) Konversen von Agenscharakteristika sind, z. B. das Betroffen-Sein von einer Verursachung. Valenzrelevant sind Rollenforderungen wieder dadurch, dass sie den syntaktischen Umgebungen des Valenzträgers inhaltliche
390 Restriktionen auferlegen, vgl. z. B. *Der schlafende Polizist öffnet die Tür. Die zentrale Bedeutung der Rollenforderungen für die Valenztheorie ergibt sich aber daraus, dass die lexikalischen Regeln, die die semantische mit der kategorialen Valenz verknüpfen, wesentlich auf solche Forderungen Bezug nehmen. Vor allem werden die Kasusforderungen an die Argumente durch die entsprechenden Rollenforderungen gesteuert, vgl. 6.2. Um diese Zusammenhänge zu explizieren, muss man die Rollenforderungen geeignet repräsentieren. Hierzu bietet sich, analog zu den sortalen Forderungen, ein Vermerk an der Relatposition an, z. B. ÖFFNET[s](⫹BEL, ⫹KONTR, ⫹KAUSx)(y). Dabei können Rollensubskripte wie ⫹KONTR und ⫹KAUS wie die sortalen Subskripte als Abkürzung entsprechender Bedeutungsregeln aufgefasst werden: (BR2) ∀x∀y∀s [ÖFFNET [s] (x) (y) ⇒ KONTROLLIERT (x) (s)] Rollenforderungen sind allerdings im Gegensatz zu sortalen Forderungen in der Regel keine Präsuppositionen, sondern Implikationen, werden also von Negation betroffen: Aus Er öffnet die Tür folgt, dass das Subjekt im erläuterten Sinn die Situation kontrolliert, aus Er öffnet die Tür nicht folgt das nicht. Dass die Negation dennoch die Kasuszuweisung an die Argumente nicht beeinflusst, zeigt, dass es bei der Steuerung der Kasusdurch die Rollenforderungen nicht darauf ankommt, ob die letzteren erfüllt sind, sondern ob sie in der jeweiligen lexikalischen SR als Forderungen enthalten sind. Problematisch bleibt auch nach der Wende zu einer flexibleren Analyse, bei der Agens und Patiens als Proto-Rollen aufgefasst werden, die Frage, mit welchem Inventar konkreter Rollenforderungen (wie Kontrolle, Verursachung, Wahrnehmung) man die Zusammenhänge zwischen semantischer und kategorialer Valenz in natürlichen Sprachen am besten erfasst. (Dowty 1991, Primus 1999 und Blume 2000 nehmen, obwohl sie alle von Proto-Rollen ausgehen, verschiedene Inventare an.) Die Lösung dieses Problems hängt z. T. von der eines anderen ab, nämlich von der präzisen Festlegung der Deutung der angenommenen Rollenbegriffe, ohne die nicht gewährleistet ist, dass die mit diesen Begriffen formulierten Hypothesen empirischen Gehalt haben. Darauf weist Engelberg (2000) hin, der am Beispiel von Wahrnehmung und Kontrolle (bzw. Intention) auch vorführt, wie eine
IV. Valenz. Grundlagen und Grundfragen
Präzisierung von Rollenbegriffen durch Einbeziehung psychologischer und neurologischer Erkenntnisse geleistet werden kann.
5.
Die Unabhängigkeit der Dimensionen
Die theoretische Brisanz der Zerlegung der Valenz in verschiedene Dimensionen liegt darin, dass diese Dimensionen unabhängig voneinander sind. Es handelt sich also nicht um verschiedene Aspekte ein und desselben Phänomens, die immer zusammen vorliegen müssen, sondern um verschiedene Phänomene, die zusammen vorliegen können, aber nicht müssen. Entsprechend muss Valenz als die (nicht-ausschließende) Oder-Verknüpfung dieser Phänomene gedeutet werden. Diese Tatsache hat u. a. zur Folge, dass Klassifikationen von Valenzphänomenen und Valenzgesetze nach den verschiedenen Dimensionen differenziert werden müssen, vgl. 6. ⫺ Im folgenden soll die Unabhängigkeit der Valenzdimensionen durch Beispiele belegt werden, in denen sie sich voneinander trennen. Dabei gibt es sowohl Fälle, in denen es zu einer globalen Divergenz von kategorialer und semantischer Valenz kommt, als auch solche, in denen Dimensionen der jeweils gleichen Valenzebene nicht konvergieren. Die Unabhängigkeit der Valenzdimensionen überträgt sich auf die ihnen entsprechenden syntagmatischen Beziehungen, die z. T. en passant schon oben eingeführt wurden (S: ein Satz in einer bestimmten Lesart, X, Y: Konstituenten von S, wobei X Dependens von Y ist, vgl. 4.1.1): X ist in S für Y notwendig gdw. X in S einer Realisierungsforderung in der KR-Valenz von Y unterliegt; X wird in S von Y formregiert gdw. X in S einer Merkmalsforderung in der KRValenz von Y unterliegt; X ist in S Argument von Y gdw. X in S ein Relat in der SR-Valenz von Y spezifiziert (wobei Argumente Identifizierer oder Modifizierer sein können, je nachdem, ob es sich um ein Non-R- oder ein R-Relat in der SR-Valenz von Y handelt); X wird in S von Y sortal regiert gdw. X in S einer in der SR-Valenz von Y enthaltenen sortalen Forderung unterliegt; X ist in S Partizipant von Y gdw. X in S einer in der SR-Valenz von Y ausgehenden Rollenforderung unterliegt.
391
30. Die Problematik der Valenzebenen
Zusammen bezeichne ich diese Beziehungen als Valenzbindungsrelationen und eine Konstituente X, die in einer dieser Relationen zu einer Konstituente Y steht, als von Y valenzgebunden oder als Ergänzung von Y. Wenn X notwendig für Y oder von Y formregiert ist, bezeichne ich X auch als Komplement von Y. 5.1. Divergenz von kategorialer und semantischer Valenz Dass valenzgebundene Konstituenten nicht immer Komplemente sind, belegen Adverbiale wie jetzt oder mit einem Trick in (11) bzw. (16) oben. Die jeweiligen SRen zeigen, dass die Adverbiale das Situationsrelat des Verbs spezifizieren und damit per definitionem Argumente des Verbs sind, die zudem sortal regiert sind, da sie die mit der Relatposition verbundene Forderung ⫺HDL (‘keine Handlung’) respektieren müssen (wogegen mit einem Trick in (16) verstößt, vgl. 4.2.2.1). Gleichzeitig unterliegen die Adverbiale aber keiner KR-Realisierungsforderung, können also weggelassen werden, und auch ihre kategorialen Merkmale sind vom Verb nicht vorgegeben. Z. B. muss eine Zeitpunkt-Bestimmung wie jetzt kein Adverb sein, sondern kann auch als Präpositionalphrase (um zwei Uhr) realisiert werden, wobei beliebige Präpositionen gewählt werden können, die zur Funktion ‘Zeitpunkt-Bestimmung’ passen (vgl. nach dem Mittagessen). Im Lexikoneintrag von erblickt kommt diese Nicht-Konvergenz von KR- und SR-Valenz darin zum Ausdruck, dass es im KR-Valenzmerkmal /nom/akk keine Stelle gibt, die der Situationsstelle in ERBLICKT[⫺HDLs](⫹BELx)(y) entspricht. All das ist typisch für Modifikatoren, also für Argumente, die das referentielle Relat des Valenzträgers spezifizieren. Auch Modifikatoren von Nomina oder Adjektiven stehen in vielen Sprachen nicht unter KR-Valenzeinfluss. Allerdings haben Nomina und Adjektive gelegentlich (aber seltener als Verben) auch Non-R-Relatpositionen, die dann mit KR-Valenzforderungen verknüpft sein können, vgl. die Valenzen von Suche (in die Suche nach dem Gral) und ähnlich (in ein ihm ähnlicher Schauspieler): (17) a. /nachx b. SUCHE[s](x)
auftreten, steht also außer Zweifel. Ob das auch sprachübergreifend gilt, ob also Modifizierer niemals KR-Valenzforderungen ausgesetzt sind, ist jedoch fraglich. Zu prüfen wäre hier u. a. der Status von Modifizierern mit lokalen oder instrumentalen Kasus (die es in vielen Sprachen gibt, vgl. Blake 1994, 5.6 ⫺ 5.7). Soweit diese Kasus durch die KR-Valenz des Verbs gefordert werden (also keine inhärente Markierung der semantischen Funktion sind, wie der Akkusativ deutscher Maßbestimmungen), sprechen sie gegen eine generelle Divergenz von SR- und KR-Valenz bei R-Relaten. Ebenso ist noch nicht völlig klar, ob kategoriale auch ohne semantische Valenzforderungen auftreten können. Mögliche Beispiele findet man unter Expletiv-Dependentien. So könnte die Nicht-Weglassbarkeit und die kategoriale Beschränktheit des expletiven Subjekts deutscher Witterungsverben auf eine entsprechende KR-Forderung im Lexikoneintrag der Verben zurückgeführt werden. Wenn dann angenommen wird, dass solche Subjekte nichts bezeichnen, resultieren Lexikoneinträge, in denen einer KR-Forderung keine SR-Forderung entspricht: (19) a. /expl b. REGNET[s] Diese Analyse ist aber umstritten. Engelberg (2000, 122 ff.) hat mit Blick auf die Verhältnisse in anderen Sprachen vorgeschlagen, das Expletivum in Sätzen wie Es regnet als eine (inhaltlich leere) Spezifizierung der vom Verb beschriebenen Situation zu deuten, also /expl auf die s-Relatposition zu beziehen. Damit läge keine KR-Valenz ohne SR-Valenz mehr vor. ⫺ Ob sich andere inhaltsleere Komplemente, etwa die Reflexiva in Er {ärgert, schämt, fürchtet} sich, analog analysieren lassen, ist offen. 5.2. Divergenz von KR-Forderungen 5.2.1. Realisierungs- ohne Merkmalsforderungen Die Formen der Kopula sein fordern die Realisierung eines prädikativen Dependens, vgl. (20a), ohne diesem kategoriale Restriktionen aufzuerlegen, vgl. (20b):
(18) a. /daty b. ÄHNLICH[x](y)
(20) a. dass Peter *(klug) ist b. dass Peter {ein Student, klug, im Garten, weg} ist
Dass im Deutschen bei R-Relaten semantische ohne kategoriale Valenzforderungen
Das erfasst man, wenn man den Formen von sein das KR-Valenzmerkmal /nom/Ø zuord-
392
IV. Valenz. Grundlagen und Grundfragen
net, wobei „/Ø“ bedeutet ‘fordert die Realisierung eines Dependens mit beliebiger Kategorie’: (21) a.
* [V, ..., /]
IST(x)(P)
[N, nom, …] [V, ..., /nom/Ø] (dass) Peter
b.
(dass) Peter
(BR3) ∀xP[IST(x)(P) ⇒ P[x]]
ist
[V, …, /]
[N, nom ,…]
[V, …, /nom]
[ein Studend]N klugAdj [im Garten]P wegAdv
Die Verstöße in (22b) können auf semantische Konflikte zurückgeführt werden, wenn man für ist die folgende SR und die Bedeutungsregel (BR3) annimmt (P: eine Variable für einstellige Individuenprädikate):
[V, …, /nom/Ø]
ist
Dass (21a) unzulässig ist, folgt aus dem Prinzip (vgl. 4.1.1), dass jede Forderung in einem KR-Valenzmerkmal von der Schwester erfüllt oder zur Mutter transferiert werden muss. Für /Ø geschieht in (21a) weder das eine noch das andere. Die Zulässigkeit aller Varianten von (21b) ergibt sich daraus, dass /Ø durch Dependentien beliebiger Kategorien erfüllt werden kann. (Natürlich könnte damit /Ø in (21a) als von Peter erfüllt betrachtet werden. Doch dann müsste /nom nach oben transferiert werden; auch in diesem Fall wäre also die Kategorisierung von Peter ist als [V,…,/] ⫺ d. h. als Satz ⫺ unzulässig.) Doch wie kann bei dieser Analyse erfasst werden, dass die Kopula nicht beliebige Ausdrücke als Prädikativkomplement zulässt, vgl. (22)? (22) a. dass Peter {ein Student, *einen Student} ist b. *dass Peter {neulich, auf jeden Fall, nicht} ist Bei (22a) ist daran zu erinnern, dass Kasus, wenn sie nicht valenzgefordert sind, über andere Mechanismen festgelegt werden, vgl. 4.1.2. Beim Kasus nominaler Prädikative im Deutschen liegt wahrscheinlich Kasuskongruenz mit dem Nominal vor, das das semantische Subjekt des Prädikativs spezifiziert: Wenn dieses Nominal im Nominativ ist, muss auch das Prädikativ im Nominativ sein, vgl. (22a), wenn das Nominal im Akkusativ ist, ist das Prädikativ in der Regel im Akkusativ, vgl. dass er ihn {*ein Faschist, einen Faschisten} nannte.
Die Bedeutung der Kopula wird damit als Beziehung zwischen einem Individuum x und einem Prädikat P expliziert, die darin besteht, dass P auf x zutrifft. Als Spezifizierungen des zweiten Relats von IST kommen also nur Ausdrücke in Frage, die sich auf das die erste Relatposition füllende Invidividuum als Prädikat anwenden lassen ⫺ und damit keiner der Ausdrücke in (22b): neulich lässt sich über Ereignisse, aber nicht über Personen prädizieren, auf jeden Fall und nicht sind Prädikate über Propositionen. ⫺ Aus (BR3) folgt auch die Unmöglichkeit, Verben als Prädikative zu verwenden, vgl. *dass Peter {schläft, schlafen, geschlafen} ist, da x die R-Stelle von P füllen muss und Verben keine R-Stelle für Individuen haben, vgl. 4.2.1. (Die vorgeschlagene Repräsentation der Kopula ist aber noch mit vielen offenen Fragen verbunden, etwa im Hinblick auf den Situationsbezug von Prädikativkonstruktionen, vgl. Maienborn 2001.) Im übrigen ist ausbleibende Formrektion auch bei obligatorischen Komplementen anderer Verbarten zu konstatieren, etwa bei den adverbialen Ergänzungen von Verben wie wohnen: (23) a. dass Peter *(in München) wohnt b. dass Peter {in München, weit weg, schön} wohnt Wenn man hierfür eine Analyse in Betracht zieht, die analog zu der für die Kopula skizzierten ist, muss man klären, worüber die adverbialen Komplemente in der Bedeutung der jeweiligen Sätze prädizieren. Zifonun (1995) nimmt eine Prädikation über das Subjekt an, während Kaufmann (1995) und Engelberg (2000) eine Prädikation über die beschriebene Situation vorschlagen. 5.2.2. Merkmals- ohne Realisierungsforderungen? Der Fall der fakultativen Ergänzungen Die in 5.1 diskutierten Modifizierer belegen mit der Möglichkeit der Divergenz von KRund SR-Valenz, dass valenzgebundene Konstituenten nicht immer notwendig sind. Die ausufernde Diskussion über fakultative Er-
393
30. Die Problematik der Valenzebenen
gänzungen beschäftigte sich jedoch nicht mit Modifizierern (da sie nicht als Ergänzungen betrachtet wurden), sondern mit weglassbaren Identifizierer, also mit Argumenten, die ein Non-R-Relat spezifizieren, aber unter geeigneten pragmatischen Bedingungen unrealisiert bleiben können: (24) dass er (den Vertrag) unterschreibt In unserem Rahmen kann allerdings die Weglassbarkeit des Objekts nicht auf fehlende Notwendigkeit im Sinn der Definition in 5. zurückgeführt werden, denn das Objekt unterliegt einer KR-Merkmalsforderung und damit notwendigerweise auch einer Realisierungsforderung, vgl. (25a, b): (25) a.
[V, …, /] [V, …, /nom]
[N, nom, …] [N, akk, …] [V, …, /nom/akk] (dass) er
b.
den Vertrag
unterschreibt
* [V, …, /]
[N, nom, …] [V, …, /nom/akk] (dass) er
unterschreibt
(25b) verletzt für /akk das Prinzip, dass KRValenzstellen gesättigt oder nach oben transferiert werden müssen. Und tatsächlich wäre es unlogisch anzunehmen, eine Merkmalsforderung könne ohne Realisierung einer Konstituente, die das Merkmal hat, erfüllt werden. Eine mit diesen Überlegungen kompatible Erklärung der Weglassbarkeit des Objekts in (24) ergibt sich, wenn wir für die objektlose Fassung dieses Satzes die Struktur (26) annehmen: (26)
[V, …, /] [N, nom, …] [V, …, /nom] (dass) er
unterschreibt
Mit dem Wegfall der Merkmalsforderung /akk wird hier auch die Realisierung eines Akkusativdependens nicht mehr gefordert.
Damit erfüllt die Struktur alle unsere Prinzipien. Sie setzt aber voraus, dass das Lexikon dem Verb unterschreibt neben der in (25a) realisierten KR-Valenz /nom/akk eine weitere, um eine Stelle reduzierte KR-Valenz /nom zuordnet, dass es also zwei durch ihre KRValenz unterschiedene lexikalische Varianten des Verbs gibt. Nach Jacobs (1994b) liegt bei fakultativen Ergänzungen generell eine solche lexikalische Variantenbildung bezüglich der KR-Valenzen vor (und nicht, wie manchmal behauptet wurde, eine rein pragmatische Annullierung von Valenzforderungen). Dass auch in der objektlosen Variante von (24) eine Objekt mitverstanden wird, kann man mit dem schon in 4.2.1 angedeuteten Format der Repräsentation impliziter Relate erfassen, d. h. dadurch, dass in der entsprechenden SR eine Objekt-Position angenommen wird, der keine Position in der KR-Valenz entspricht: UNTERSCHREIBT’[s](x)(⫹DEFy) Das Subskript ⫹DEF zeigt an, dass das implizite Objekt-Relat definit, also in der Äußerungssituation bekannt sein muss (vgl. ?Er unterschrieb, aber ich weiß nicht was). Damit wird die Annahme, in der objektlosen Version von (26) liege eine eigene Variante des Verbs vor, auch semantisch gestützt, denn für explizite Objekte von unterschreibt gilt keine Definitheitsforderung (vgl. Er unterschreibt irgendetwas). Nicht nur die KR-Valenz der Verbvariante in (26) weicht also von der der Variante in (25a) ab, sondern auch die lexikalische SR, nämlich durch die Definitheitsforderung. In Jacobs (1994b) wird gezeigt, dass Verben mit fakultativen Ergänzungen in den objektlosen Varianten stets mit spezifischen Bedeutungen verbunden sind, besonders deutlich, wenn den impliziten Relaten sortale Forderungen auferlegt werden, die für entsprechende explizite Argumente nicht gelten, z. B. Er gibt ‘Er gibt den Mitspielern Karten’ ´ gel 1991). (vgl. auch A Die entscheidende Evidenz für diese Analyse fakultativer Ergänzungen als Ergebnis einer lexikalischen Valenzvariation kommt jedoch aus lexikalischen Valenzregeln, die auf der Basis dieser Analyse bestimmte Beschränkungen für die Fakultativisierung von Verbdependentien erklären, vgl. 6.2. Fassen wir zusammen: Formregierte Konstituenten, die nicht notwendig (im Sinn der Definitionen in 5.) sind, gibt es nicht. Traditionelle fakultative Ergänzungen sind für das Verb (oder eine andere Konstituente) not-
394
IV. Valenz. Grundlagen und Grundfragen
wendige Identifizierer, die in einer durch lexikalische Valenzvariation ermöglichten alternativen Satzstruktur unrealisiert bleiben. Entsprechend sind obligatorische Ergänzungen notwendige Dependentien, für die es keine solche Alternativstruktur gibt, wie das direkte Objekt in Peter überreicht ihr *(den Pokal). 5.3. Divergenz von SR-Forderungen Auch die Dimensionen der SR-Valenz ⫺ Relat-, Sorten- und Rollenforderungen ⫺ müssen nicht konvergieren. So folgt aus unserer Definition von „Rollenforderung“ als Festlegung der Weise, wie ein Relat in die vom Ausdruck beschriebene Situation involviert ist (vgl. 4.2.2.2), dass die Relate eines Ausdrucks, der keine Situation beschreibt, keiner Rollenforderung durch diesen Ausdruck unterliegen. Zu diesen nicht-rollenzuweisenden Ausdrücken gehören Funktionswörter, etwa das Modalverb muss (p: eine Variable für Propositionen): (27) a. /inf p b. MUSS(p) Muss fordert eine durch eine infinitivische Verbprojektion ausgedrückte Proposition und charakterisiert sie als in einem durch den Kontext festgelegten Sinn notwendig. (Wenn die Verbprojektion offene Valenzstellen hat, werden diese nach in Jacobs 1992a, b, 1995 explizierten Prinzipien übernommen.) Das Modalverb beschreibt aber keine Situation und weist deshalb seinem infinitivischen Dependens auch keine Rolle in einer Situation zu. Die Infinitiv-Ergänzung ist also Argument und Komplement, aber nicht Partizipant des Modalverbs (s. 5). Außerdem ist sie auch nicht sortal regiert, denn das Relat unterliegt auch keiner Sortenforderung. Bei Vollwörtern können nicht-rollenzuweisende Relatpositionen allerdings durchaus mit sortalen Forderungen verknüpft sein. Z. B. verbinden Nomina und Adjektive mit ihrem R-Relat (das mangels Situationsbezug keine semantische Rolle trägt) oft sehr spezifische sortale Beschränkungen, z. B. Kitz (nur Rehe, Gemsen oder Ziegen), kaputt (nur Artefakte).
6.
Konsequenzen für Kernfragen der Valenztheorie
6.1. Klassifikation von Valenzphänomenen Wenn die Valenzdimensionen unabhängig sind, muss man die Repräsentation der Valenz im Lexikon und die der Valenzbindung
im Satz hinsichtlich der einzelnen Dimensionen differenzieren, denn dann kann ja aus Valenz(bindung) in einer Dimension nicht auf Valenz(bindung) in allen Dimensionen geschlossen werden. Wie die lexikalische Differenzierung aussehen kann, wurde schon an mehreren Beispielen für KR- und SR-Valenzen einzelner Wörter vorgeführt. Die syntaktische Differenzierung der Valenzbindung kann man an den entsprechenden Satz-KRn und -SRn ablesen. Übersichtlicher ist aber die folgende Notation, die für jede Dimension das (Nicht-)Vorliegen von Valenzbindung direkt anzeigt (zu „not(wendig)“, „form(regiert)“, „arg(ument)“, „sort(al regiert)“, „part(izipant)“ vgl. 5., zu „obl(igatorisch)“ vgl. 5.2.2): (28) a. dass Peter seinem ehemaligen Lehrer begegnete +obl, +not, +form, +arg, +sort, +part
(28) zeigt, wie weit das traditionelle Klassifikationsschema im Bereich der Valenzbindung, also Ergänzungen vs. fakultative Ergänzungen vs. Angaben, hinter den tatsächlichen Differenzierungen zurückbleibt. Andererseits scheint unsere multidimensionale Analyse den Begriff „Valenz(bindung)“ selbst überflüssig zu machen, indem sie ihn zu einer praktischen, aber sprachtheoretisch verzichtbaren Sammelbezeichnung für eine Reihe von Phänomenen degradiert, denen nur gemeinsam ist, dass sie sich in wortspezifischen Umgebungsrestriktionen manifestieren (vgl. 2.). Doch die Phänomene hängen durch mehr als das zusammen. Unsere Darstellung der Unabhängigkeit der Dimensionen enthielt schon Hinweise auf Implikationen zwischen ihnen. Bezogen auf die Valenzbindung fasst (DI) diese Implikationen zusammen. Dabei zeigt jeder der Pfeilrichtung folgende Weg von Dimension D1 zu Dimension D2 an, dass D1 D2 impliziert (wobei es zur Verbindung von not und arg vielleicht Ausnahmen gibt, vgl. (19)). Mit (DI) werden bestimmte Dimensionskombinationen ausgeschlossen, z. B. *[⫹obl, ⫺arg], *[⫹form, ⫺not], *[⫹part, ⫺sort], *[⫹sort, ⫺arg]. Darüber hinaus lässt (DI) einen generellen Zusammenhang erkennen: Alle Implikationsketten in (DI) münden in arg, also in der Beziehung, die zwischen X
395
30. Die Problematik der Valenzebenen
(29) b. dass Peter seine langjährige Freundin heiratete – obl, +not, +form, +arg, +sort, +part c. dass Peter ein begeisterter Segler ist +obl, +not, – form, +arg, – sort, – part
d. dass Peter abreisen muß +obl, +not, +form, +arg, – sort, – part
e. dass Peter die Tür jetzt erblickt – obl, – not, – form, +arg, +sort, – part f. dass Peter leider abreist
– obl, – not, – form, – arg, – sort, – part
(DI)
obl form
not
arg part
sort
und Y besteht, wenn X die Füllung einer Relatposition von Y spezifiziert. Damit erweisen sich die in (DI) links von arg angesiedelten Dimensionen als verschiedene Ausprägungen von Relatforderungen. Der Begriff „Valenz(bindung)“ ist damit auch in der multidimensionalen Sichtweise mehr als ein Etikett für eine arbiträr zusammengestellte Gruppe von Umgebungsrestriktionen: Er bezeichnet vielmehr genau die Umgebungsrestriktionen eines Ausdrucks, die Ausprägungen seiner semantischen Relationalität sind. (Ähnlich wird Valenz auch von Lehmann 1992 gedeutet. Man erinnere sich im übrigen, dass es auch andere Umgebungsrestriktionen gibt, etwa jene, die durch Wortart oder Flexion bedingt sind, vgl. 2.) Dennoch scheinen die Begriffe „Valenz“ und „Valenzbindung“, so wie sie in der multidimensionalen Theorie expliziert werden, keine Bedeutung für die Formulierung empi-
risch gehaltvoller sprachlicher Generalisierungen zu haben. Wir verstehen diese Begriffe ja als nicht-ausschließende Oder-Verknüpfung der einzelnen Dimensionen. Die vielen sprachlichen Erscheinungen, die damit unter „Valenz(bindung)“ fallen, bilden anscheinend trotz ihrer gemeinsamen Fundierung in der semantischen Relationalität im Hinblick auf lexikalische bzw. syntaktische Gesetze keine natürliche Klasse. So gibt es meines Wissens für das Deutsche keine zutreffende syntaktische Generalisierung der Form „Wenn X von Y valenzgebunden ist, dann hat X die Eigenschaft P“ (es sei denn, P folgt per definitionem aus der Valenzbindung, aber dann ist die Generalisierung ohne empirischen Gehalt). Im Kontrast dazu nehmen zahlreiche nicht-triviale sprachliche Gesetze auf die einzelnen Dimensionen der Valenz(bindung) Bezug, vgl. 6.2. Und natürlich wurden die Dimensionen im Vorangehenden schon so konzipiert, dass auf ihrer Basis interessante Generalisierungen formuliert werden können. Mit Blick auf solche Generalisierungen wurde auch der Argumentbegriff weiter gefasst als üblich. Er trifft nun auf viele Dependentien zu, die traditionell als Angaben (bzw. in generativen Arbeiten als Adjunkte) betrachtet wurden. Wie wir gleich sehen werden, bestätigen zahlreiche Gesetzmäßigkeiten diese begriffliche Verschiebung. In der traditionellen Valenzforschung wurde die Frage der Relevanz der zentralen Begriffe (wie „Ergänzung“ und „Angabe“) für grammatische Generalisierungen kaum ernsthaft geprüft. Stattdessen hat sie sich in eine langwierige und fruchtlose Debatte über Diagnoseverfahren für diese Begriffe verheddert. Nach Jacobs 1994a ist der unglückliche Verlauf dieser Debatte weitgehend darauf zurückzuführen, dass die Multidimensionalität der Valenz(bindung), insbesondere die Unabhängigkeit der Dimensionen, verkannt wurde. 6.2. Valenzgesetze Als Valenzgesetze bezeichne ich alle Generalisierungen über natürliche Sprachen, die wesentlichen Gebrauch von Begriffen der Valenztheorie machen. Da diese Begriffe, so wie sie hier eingeführt wurden, zwischen den Dimensionen der Valenz differenzieren, tun dies auch die mit ihnen formulierten Gesetze. Dabei können entsprechend differenzierte Valenzgesetze (a) nur eine Dimension betreffen oder (b) einen Zusammenhang zwischen mehreren Dimensionen herstellen. Beide Ar-
396 ten von Gesetzen können auf das Lexikon, also auf die Valenz i. e. S., oder auf die Syntax, also auf die Valenzbindung, bezogen sein. Unter den syntaktischen Gesetzen des Typs (a) sind z. B. solche, die von dem Begriff „Argument“ Gebrauch machen. Wenn unsere Einstufung von Modifizierern als Argumenten korrekt ist, sollte sie darauf beruhen, dass sich Modifizierer hinsichtlich bestimmter sprachlicher Phänomene wie Identifizierer und anders als zweifelsfreie Nicht-Argumente, etwa epistemische, evaluatorische oder Sprechakt-Adverbiale, verhalten. In Jacobs 2002 wird eine Reihe von solchen Phänomenen aufgelistet: Wie Identifizierer und anders als zweifelsfreie Nicht-Argumente sind Modifizierer pronominalisierbar, erfragbar, in Cleft-Sätzen abspaltbar, links- und rechtsversetzbar (vgl. auch Jacobs 2001), als postnominale Attribute verwendbar, und wie bei Identifizierern werden ihre Grundpositionen im deutschen Mittelfeld (vgl. Frey/Pittner 1998) von denen der Nicht-Argumente ckommandiert. Entsprechend können diese Phänomene durch Argument-Gesetze erfasst werden: Nur Argumente sind pronominalisierbar, nur Argumente sind erfragbar, nur Argumente können abgespalten werden usw. Außerdem wurde schon in 4.2.2.1 darauf hingewiesen, dass Modifizierer wie Identifizierer sortalen Restriktionen unterliegen können, im Gegensatz zu zweifelsfreien Nicht-Argumenten, die tatsächlich, wie es traditionell für Angaben postuliert wurde, stets frei hinzufügbar sind. Es gilt also, dass nur Argumente sortal regiert sein können. ⫺ Im übrigen können wir Gesetze, die auf dem enger gefassten Argumentbegriff bisheriger Arbeiten beruhen, in der Regel durch Ersetzung von „Argument“ durch „Identifizierer“ adaptieren, etwa das Gesetz (aus Jacobs 1993), dass nur Argumente ins Verb integriert (und damit z. B. fokusprojektiv) werden können. In unserem begrifflichen Rahmen gilt: Nur Identifizierer können ins Verb integriert werden. Bei dem Gesetz, dass nur Argumente sortal regiert sein können handelt es sich im übrigen nicht um ein (a)-, sondern um ein (b)Gesetz, da es mehrere Valenzbindungsdimensionen miteinander verknüpft. Es folgt aus der Dimensionenhierarchie (DI) in 6.1, genau wie eine Reihe weiterer syntaktischer Gesetze dieser Art, etwa dass nur Argumente notwendig oder formregiert sein können. Diese Restriktion wird allerdings von Modifizierern trivial erfüllt, da sie, wie schon angedeutet, nie-
IV. Valenz. Grundlagen und Grundfragen
mals einer KR-Valenzforderung des jeweiligen Haupts unterliegen (ein weiteres (b)-Gesetz). Zentral für die Valenzforschung der letzten Jahre waren allerdings weniger solche syntaktischen Gesetze, sondern lexikalische Gesetze, die festlegen, welche Ausdrücke mit welchen KR-Valenzen, vor allem mit welchen Kasusforderungen, auftreten können. Auch hier gibt es (a)- und (b)-Gesetze. Die ersteren haben die Form von Wohlgeformtheitsbedingungen für KR-Valenzmerkmale. Z. B. gilt für KR-Valenzmerkmale von Verben sprachübergreifend folgende Bedingung (vgl. Primus 1999, Blume 2000; vorausgesetzt ist, dass die Verben in der Grundform vorliegen, ihre Valenz also nicht durch flexivische Diathesen, wie Passivierung oder Imperativisierung, verändert wurde): (KR-G) Falls der Kasus ki höher in der Kasushierarchie liegt als der Kasus kj und ein KR-Valenzmerkmal eine Stelle /kj enthält, enthält es auch eine Stelle /ki. (Kasushierarchie für Akkusativsprachen: nom ⬎ akk ⬎ dat ⬎ gen). (KR-G) ist ein Präferenzgesetz, d. h. KR-Valenzen, die dagegen verstoßen, sind möglich, aber markiert, was sich u. a. darin manifestiert, dass sie besonderen semantischen Bedingungen unterliegen und relativ selten vorkommen. In Akkusativsprachen wie dem Deutschen sind in diesem Sinn markierte KR-Valenzen z. B. /dat, /nom/dat, /nom/gen, während /nom, /nom/akk, /nom/akk/dat unmarkiert sind. Das erklärt, warum Valenzen der ersten Gruppe durch eine viel kleinere Zahl von Verben instantiiert werden als die der zweiten und wieso sie, im Gegensatz zu letzteren, nur bei Verben aus bestimmten Bedeutungsklassen vorkommen (s. u.). Im Mittelpunkt der in den letzten Jahren intensiv betriebenen Kasusforschung standen aber lexikalische Gesetze vom Typ (b), nämlich solche, die das ‘Linking’ von KR-Kasusforderungen mit SR-Valenzfaktoren steuern. Ein Strang dieser Forschung macht diese Gesetze an den hierarchischen Verhältnissen innerhalb einer als SR fungierenden Dekompositionsstruktur fest, z. B. Kaufmann 1995, Wunderlich 1997. (Zu Problemen dieses Ansatzes s. Engelberg 2000, 1.2.2) Hier wird dagegen davon ausgegangen, dass es beim Linking auf die Rollenforderungen im Sinn von 4.2.2.2 ankommt, also auf jene mit Relatpositionen verbundenen, durch Bedeutungsregeln explizierbaren Implikationen der
30. Die Problematik der Valenzebenen
jeweiligen Verb(lesart)en, die charakteristisch für die als Prototypen verstandenen Konzepte Agens bzw. Patiens sind, z. B. Verursachung, Kontrolle bzw. Betroffen-Sein von Verursachung, Betroffen-Sein von Kontrolle usw. Die Klassifizierung dieser Forderungen in Proto-Agens- bzw. Proto-Patiens-Implikationen ist entscheidend für die Gesetze, die die fraglichen KR-SR-Zusammenhänge erfassen, z. B. für das folgende, das für (die Grundform von)Verben V und für nach (KRG) unmarkierte KR-Valenzmerkmale gilt: (KR-SR-G) 1. Wenn eine Stelle /nom in der KR-Valenz von V einer Relatposition Ri in der SRValenz von V entspricht, dann gibt es keine Relatposition Rj in der SR-Valenz von V, die mit mehr Proto-Agens-Implikationen verbunden ist als Ri. 2. Wenn eine Stelle /akk in der KR-Valenz von V einer Relatposition Ri in der SRValenz von V entspricht, dann gibt es keine Relatposition Rj in der SR-Valenz von V, die mit mehr Proto-Patiens-Implikationen verbunden ist als Ri. Dieses (vereinfachte, vgl. Blume 2000) Gesetz linkt in Akkusativsprachen die Stellen /nom und /akk von unmarkierten verbalen KR-Valenzen mit den SR-Relatpositionen, die mit dem jeweiligen Maximum von Proto-Agensbzw. Proto-Patiens-Implikationen verbunden sind. Für Ergativsprachen gilt (KR-SR-G) entsprechend für /erg(ativ) bzw. /abs(olutus). ⫺ Dass dieses Gesetz zweistellige kausative Verben wie öffnen oder töten erfasst, ist offensichtlich, ebenso, dass der /dat-Stelle von Besitztransferverben mit der Valenz /nom/akk/dat, z. B. schenken oder übergeben, zutreffend eine hinsichtlich der Proto-Rollen mittlere Relatposition zugewiesen wird. Aber auch weniger klassische Verben, die für andere Linking-Ansätze problematisch sind, entsprechen (KR-SR-G). So erfüllt ein statisches Verhältnisverb wie betrifft (in Der Vorschlag betrifft das nächste Haushaltsjahr) das Gesetz trivialerweise, da keine seiner Relatpositionen mit Proto-Agens- oder -PatiensImplikationen verbunden ist. Schließlich lizenziert (KR-SR-G) die Zuweisung der KRValenz /nom an einstellige Verben auch dann, wenn sie, wie hinfallen oder ankommen, keine Agens-Subjekte haben: Die entsprechende SR-Relatposition hat zwar keine ProtoAgens-Implikationen, aber es gibt auch keine
397 andere Relatposition mit mehr Proto-AgensImplikationen. Markierte KR-Valenzen im Sinn von (KRG) unterliegen, wie gesagt, strengeren Linking-Bedingungen. So gilt nach Blume (2000) für zweistellige markierte Verbvalenzen wie /nom/dat sprachübergreifend, dass sie nur auftreten, wenn es kein zu großes, aber auch kein zu kleines Agens-Patiens-Gefälle zwischen den entsprechenden Relatpositionen gibt. Diese eingeschränkte semantische Transitivität ist nach Blume (2000) im wesentlichen in zwei Konstellationen gewährleistet: (i) Eine Relatposition hat nur wenige, die andere überhaupt keine Proto-Rollen-Implikationen; (ii) beide Relatpositionen haben Proto-Agens-Implikationen oder beide haben Proto-Patiens-Implikationen. (i) liegt z. B. bei Verben der unkontrollierten Wahrnehmung vor, wie schmecken, gefallen, (ii) bei Interaktionsverben wie helfen, folgen. Solche auf Rollenforderungen Bezug nehmenden Linking-Gesetze sichern, dass KR-Valenzen die relevanten Eigenschaften der jeweiligen SR-Valenzen transparent machen und letztlich, dass in der Kommunikation die den KR-Valenzstellen entsprechenden Argumente im Satz den ‘richtigen’ SRStellen zugeordnet werden können. Diesem Zweck dienen auch allgemeinere Gesetze des KR-SR-Verhältnisses, so das in 4.2.1 erwähnte Prinzip, dass für n (n ⬎ 1) KR-Stellen mit unterschiedlichem Kasus mindestens n Relate in der SR-Valenz zur Verfügung stehen müssen. Diese lexikalischen Gesetze des Zusammenhangs zwischen der KR- und der SR-Valenz restringieren bei Verben mit mehreren Lesarten oder morphologisch verwandten Verben auch die lexikalische Valenzvariation, da die möglichen Valenzvarianten in dem von den Gesetzen eingegrenzten Spielraum bleiben müssen. Damit ergeben sich u. a. überraschende Erklärungen für Erscheinungen im Umkreis der fakultativen Ergänzungen, die ja nach 5.2.2 ein Fall von lexikalischer Valenzvariation sind. Auch die stellenreduzierten Valenzen, die bei Weglassung der jeweiligen Komplemente anzunehmen sind (vgl. ebd.), müssen nämlich, da sie vom Lexikon zugewiesen sind, den lexikalischen Valenzgesetzen gehorchen. Damit wird z. B. richtig vorausgesagt, dass in (29)⫺(30) jeweils nur das indirekte, nicht das direkte Objekt weggelassen werden kann: (29) a. dass er (dem Boten) das Paket übergibt
398
IV. Valenz. Grundlagen und Grundfragen
b. dass er dem Boten *(das Paket) übergibt (30) a. dass er (seinem Nachbarn) das Haus renoviert b. dass er seinem Nachbarn *(das Haus) renoviert c. dass er (seinem Nachbarn das Haus) renoviert Für die Version mit weggelassenem direktem Objekt wäre ja jeweils die KR-Valenz /nom/dat anzunehmen, vgl. 5.2.2. Diese ist aber nach (KR-G) markiert, das Verb muss deshalb semantisch eingeschränkt transitiv im Sinne obiger Erläuterungen sein. Das trifft aber auf übergibt und renoviert nicht zu: Übergibt hat für /nom/dat einen zu hohen Transitivitätsgrad, denn die /nom-Position ist agentivisch und die /dat-Relatposition ist mit einer Proto-Patiens-Implikation verbunden: Die Kontrolle des Übergebers über die beschriebene Situation betrifft auch das Verhalten des Rezipienten in dieser Situation. Dagegen ist renoviert für /nom/dat zu wenig transitiv: Die /nom-Relatposition ist agentivisch, aber die /dat-Position bleibt ganz ohne ProtoRollen-Implikationen: Der Nutznießer muss in der beschriebenen Situation weder etwas tun oder wahrnehmen noch etwas ‘erleiden’. (Eine ähnliche Darstellung, die noch nicht auf Blumes Linking-Gesetze rekurriert, gibt Jacobs 1994b. Auch Rapp 1997 führt Beschränkungen für Fakultativität auf SR-Faktoren zurück. Dagegen bleiben solche Beschränkungen völlig rätselhaft, wenn man Fakultativität rein pragmatisch erklärt oder, wie die Generative Grammatik, die weggelassenen Argumente durch unhörbare, aber in der syntaktischen Struktur dennoch vorhandene Pronomina repräsentiert.) Natürlich bleibt bei Valenzgesetzen noch viel zu tun. Es dürfte aber deutlich geworden sein, dass die hier propagierte Position zur Ebenenproblematik, die eine kategoriale und eine semantische Ebene der Valenz und auf beiden Ebenen verschiedene voneinander unabhängige Dimensionen unterscheidet, einen reich differenzierten Rahmen für die Formulierung solcher Gesetze und damit für die Einbindung von Valenzphänomenen in eine umfassende Sprachtheorie bereitstellt.
7.
Literatur in Auswahl
´ gel, Vilmos (1991): Lexikalische Ellipsen: Fragen A und Vorschläge. In: Zeitschrift für Germanistische Linguistik 19, 24⫺48.
´ gel, Vilmos (2000): Valenztheorie. Tübingen. A Blake, Barry J. (1994): Case. Cambridge. Blume, Kerstin (1993): Valenz und Nicht-Notwendigkeit (⫽ Arbeiten des SFB 282, Nr. 48). Wuppertal. Blume, Kerstin (2000): Markierte Valenzen im Sprachvergleich: Lizenzierungs- und Linkingbedingungen. Tübingen. Breindl, Eva (1989): Präpositionalobjekte und Präpositionalobjektsätze im Deutschen. Tübingen. Butulussi, Eleni (1991): Studien zur Valenz kognitiver Verben im Deutschen und Neugriechischen. Tübingen. Davidson, Donald (1967): The Logical Form of Action Sentences. In: Rescher, Nicholas (ed.): The Logic of Decision and Action. Pittsburgh, 81⫺95. Dölling, Johannes (1997): Semantic Form and Abductive Fixation of Parameters. In: van der Sandt, Rob, et al. (eds.): From Underspecification to Interpretation (⫽ Working Papers of the Institute for Logic and Linguistics, IBM Deutschland, Nr. 29). Heidelberg, 113⫺139. Dowty, David (1991): Thematic Proto-Roles and Argument Selection. In: Language 67, 547⫺619. Engelberg, Stefan (2000): Verben, Ereignisse und das Lexikon. Tübingen. Fischer, Klaus (1999): Verb valency ⫺ an attempt at conceptual clarification. In: Web Journal of Modern Language Linguistics 4⫺5/99-00. Frey, Werner/Pittner, Karin (1998): Zur Positionierung der Adverbiale im deutschen Mittelfeld. In: Linguistische Berichte 176, 489⫺534. Haegeman, Liliane (1994): Introduction to Government & Binding Theory. 2nd Edition. Oxford. Helbig, Gerhard (1982): Valenz ⫺ Satzglieder ⫺ semantische Kasus ⫺ Satzmodelle. Leipzig. Heringer, Hans-Jürgen (1986): The Verb and Its Semantic Power: Association as a Basis for Valence Theory. In: Journal of Semantics 4, 79⫺99. Jacobs, Joachim (1992a): Syntax und Valenz. In: Hoffmann, Ludger (Hg.): Deutsche Syntax. Ansichten und Aussichten (⫽ IDS Jahrbuch 1991). Berlin/ New York, 94⫺127. Jacobs, Joachim (1992b): Bewegung als Valenzvererbung. In: Linguistische Berichte 138, 85⫺122. Jacobs, Joachim (1993): Integration. In: Reis, Marga (Hg.): Wortstellung und Informationsstruktur. Tübingen, 63⫺116. Jacobs, Joachim (1994a): Kontra Valenz (⫽ Fokus. Linguistisch-Philologische Studien, Bd. 12). Trier. Jacobs, Joachim (1994b): Das lexikalische Fundament der Unterscheidung von fakultativen und obligatorischen Ergänzungen. In: Zeitschrift für Germanistische Linguistik 22.3, 284⫺319. Jacobs, Joachim (1995): Wieviel Syntax braucht die Semantik? Möglichkeiten und Grenzen einer sparsa-
399
30. Die Problematik der Valenzebenen men Theorie der Bedeutungskomposition (⫽ Arbeiten des SFB 282, Nr. 73). Wuppertal.
Projektgruppe Verbvalenz (1981): Konzeption eines Wörterbuchs deutscher Verben. Zur Theorie und Praxis einer semantisch orientierten Valenzlexikographie. Tübingen.
Pustejovski, James (1995): The Generative Lexicon. Cambridge/Mass. Radford, Andrew (1997): Syntax. A Minimalist Introduction. Cambridge. Rapp, Irene (1997): Fakultativität von Verbargumenten als Reflex der semantischen Struktur. In: Linguistische Berichte 172, 490⫺529. Storrer, Angelika (1992): Verbvalenz: theoretische und methodische Grundlagen ihrer Beschreibung in Grammatikographie und Lexikographie. Tübingen. Tesnie`re, Lucien (1969): E´le´ments de syntaxe structurale. Paris (2. Auflage). Wunderlich, Dieter (1997): Cause and the Structure of Verbs. In: Linguistic Inquiry 28, 27⫺68. Zifonun, Gisela (1995): Wieviele Valenzrelationen braucht eine Grammatik? In: Eichinger, Ludwig/ Eroms. Hans-Werner (Hgg.): Dependenz und Valenz. Hamburg, 177⫺190. Zifonun, Gisela, et al. (1997): Grammatik der deutschen Sprache (⫽ Schriften des Instituts für Deutsche Sprache, Bd. 7.1⫺7.3). Berlin/New York.
Primus, Beatrice (1999): Cases and Thematic Roles ⫺ Ergative, Accusative and Active. Tübingen.
Joachim Jacobs, Wuppertal (Deutschland)
Jacobs, Joachim (2001): The dimensions of topiccomment. In: Linguistics 39⫺4, 641⫺681. Jacobs, Joachim (2002): Zirkumstantien sind Argumente. Ms. Wuppertal. Kaufmann, Ingrid (1995): Konzeptuelle Grundlagen semantischer Dekompositionsstrukturen. Die Kombinatorik lokaler Verben und prädikativer Komplemente. Tübingen. Lehmann, Christian (1992): Valenz. In: Anschütz, Susanne (Hg.): Texte, Sätze, Wörter und Moneme. Festschrift für Klaus Heger zum 65. Geburtstag. Heidelberg, 435⫺454. Maienborn, Claudia (2001): Die logische Form von Kopula-Sätzen. Habilitationsschrift. HumboldtUniversität Berlin.
31. Ebenen der Valenzbeschreibung: Die logische und die semantische Ebene 1. 2. 3.
Entstehung des Sprachgebrauchs Logische Valenz als ein Aspekt semantischer Valenz Literatur in Auswahl
Die Grundidee des Konzepts der logischen und semantischen Valenz ist: (1) Der Inhalt von Satzbedeutungen besteht in der Beschreibung von Sachverhalten (oder von Situationen als Sachverhalten); (2) Sachverhaltsbeschreibungen haben die Struktur von Propositionen, die formallogisch als Prädikat-Argument-Strukturen darstellbar sind; (3) die logischen und semantischen Struktur- und Funktionseigenschaften von Propositionen werden prädeterminiert von strukturbildenden (logischen) und funktionalen (semantischen) Eigenschaften des Verbs als natürlichsprachliche Hauptklasse logischer Prädikate; (4) beschreibbar sind diese Eigenschaften von Verben (und Valenzträgern anderer Wortarten in Prädikatsfunktion) als logische und/ oder semantische Valenz. (5) Abhängig von den jeweiligen sprachtheoretischen Prämissen werden die logischen und semantischen Valenzeigenschaften sowie die der propositiona-
len Satzbedeutung entweder als unterschiedliche Aspekte der Valenz und Satzstruktur interpretiert oder verschiedenen Beschreibungsebenen zugeordnet.
1.
Entstehung des Sprachgebrauchs
Seit Beginn der 70er Jahre wurden auch in der Valenztheorie Ebenenmodelle favorisiert. Eine Äußerung Helbigs dazu findet sich in einem von Helbig herausgegebenen Sammelband (1971a, 42 f.) unter dem Stichwort „Ausbau der Valenztheorie“: „Am wesentlichsten ist wohl die Einsicht, dass innerhalb der Sprache mehrere Ebenen geschieden werden müssen, die zwar nicht unabhängig voneinander sind, aber zunächst unabhängig voneinander beschrieben werden müssen“ (ebd., 43). Vorbild war die generative Grammatik und das dort avisierte Verhältnis von Konstituentenstrukturebene und Transformationsebene bzw. seit Chomsky (1965) von einer Ebene der Tiefenstruktur und einer Ebene der Oberflächenstruktur. Die entstehenden Ebenenkonzepte sind wesentlich von
400 den Vorstellungen Chomskys (1965) geprägt. Insbesondere sollten die Ebenen als Beschreibungsebenen und nicht als Erzeugungsebenen verstanden werden, d. h. sie sollten nicht als Abbild der realen sprachlichen Tätigkeit aufgefasst werden, sondern nur in abstrakter Weise Strukturaspekte aufeinander beziehen. Ziel der Bemühungen war vor allem die Trennung und beschreibende Wiederzusammenführung einer syntaktischen und einer semantischen Ebene. Hinzu kommt meist eine kommunikativ-pragmatische Ebene. Eine gesonderte logische Ebene wird in der Regel nicht vorgesehen. Eine Valenzgrammatik, die ein ausgebautes Ebenenmodell darstellt, hat es jedoch nicht gegeben. Eine Grammatik, die auf einem Ebenenmodell basiert, aber auch den Gesichtspunkt der Valenz breit einbezieht, sind die „Grundzüge einer deutschen Grammatik“ (Heidolph/Flämig/Motsch 1981). Hier wird zwischen einer syntaktischen, einer semantischen und einer kommunikativ-pragmatischen Ebene unterschieden. Eine logische Ebene wird nicht angesetzt, obwohl oft von „Bewusstsein“ die Rede ist. Der erste Satz der Grundzüge lautet z. B. (ebd., 27): „In der Sprache sind Bewusstsein und lautliche (oder graphische) Äußerung zu einer Einheit verbunden.“ Ein detailliert entwickeltes und vielfach angewandtes Modell, in dem die Zuordnungen zwischen einer Ebene, die man logisch nennen kann, und einer semantischen Ebene beschrieben werden, ist die Zwei-Ebenen-Semantik von Bierwisch und Bierwisch/Lang, vgl. Bierwisch (1983), Bierwisch/Lang (1987). Dort geht es um die Zuordnung von konzeptuellen, semantischen und syntaktischen Strukturaspekten von Äußerungen. Die Bezeichnung als Ebene der Valenz hatte bei Helbig stets auch den Zweck, unterschiedliche valenztheoretische Ansätze zu integrieren. Die hauptsächliche Kontroverse bestand dabei zwischen einem autonom-syntaktischen Herangehen und Konzepten, nach denen die Valenz nicht nur syntaktisch, sondern auch semantisch aufzufassen sei und nach denen darüber hinaus die Syntax aus der Semantik zu erklären sei. In der DDR war das insbesondere die Kontroverse zwischen Helbig einerseits und Bondzio (1969; 1971) sowie Welke (1965) andererseits. Der Terminus der logischen Valenz verweist insbesondere auf Bondzio. Auch Bondzio begründet sein Anliegen in dem erwähnten Sammelband (Helbig 1971a)
IV. Valenz. Grundlagen und Grundfragen
durch den Verweis auf Ebenen (1971, 88): „Denn schon hier handelt es sich wieder um eine Vermischung von Ebenen, zwischen denen es zwar bestimmte und enge Beziehungen gibt, aber keine Identifikation. Während es bei den Kasuskonstituenten um Eigenschaften auf der linguistisch-grammatischen Ebene geht, handelt es sich bei Mitspielern eigentlich um semantisch-logische Größen.“ Seine Definition von Valenz lautet (ebd., 89): „Die Eigenschaft einer Bedeutung, Leerstellen in dem beschriebenen relationslogischen Sinne zu haben, soll mit dem Terminus ‘Valenz’ bezeichnet werden.“ Dass Bondzio hier mit Valenz einen Aspekt von Valenz im Auge hat, den man logische Valenz nennen kann, geht auch aus folgenden Äußerungen hervor (ebd., 88): „Tatsächlich gibt es eine prinzipielle Beziehung zwischen der Bedeutung eines Verbs und seinen Mitspielern. Diese Beziehung ist logischer Natur und spiegelt entsprechende Beziehungen in der Wirklichkeit wieder.“ Und an anderer Stelle (ebd., 89) heißt es: „Überhaupt ist hier die sprachliche Form irrelevant, in der die jeweilige Bedeutung auftritt. Dies gilt auch für die verschiedenen grammatisch-morphologischen Formen eines Wortes, z. B. für die Aktiv- und Passivform des transitiven Verbs. Gerade diese Konsequenz ermöglicht es, Beziehungen im Satz und zwischen Sätzen aufzudecken und ihre Interpretation zu vervollkommnen.“ Angemerkt sei die hier anklingende Identifizierung von logisch und ontologisch. In der Valenztheorie selbst ist ein Ebenenmodell, das eine logische Ebene enthält, nicht entwickelt worden. Es ist daher angemessener, wenn wir im Folgenden von logischer und semantischer Valenz nur als Aspekte von Valenz und nicht als einer logischen Ebene der Valenz sprechen. In der Einleitung (1971a, 8 f.) führt Helbig daher aus: „Nach den gegenwärtigen Einsichten ist es sicher unbestreitbar, daß man auch innerhalb des Valenzbegriffes mehrere Ebenen unterscheiden muß, die keine isomorphen Abbildungen voneinander sind: Obwohl die Diskussion noch im Fluß ist […], ist die Tatsache wohl nicht zu leugnen, dass die logische Valenz (als interlinguale Relation zwischen Begriffsinhalten) etwas anderes ist als die semantische Valenz (die sich aus der Verträglichkeit und Kombinierbarkeit der Bedeutungskomponenten ergibt), diese wieder etwas anderes als die syntaktische Valenz (als obligatorische oder fakultative Besetzung von Leerstellen in einer bestimmten Zahl und
31. Ebenen der Valenzbeschreibung: Die logische und die semantische Ebene
Art, differenziert nach den Einzelsprachen).“ Analog werden die Ebenen auch noch bei Helbig (1992, 7 ff.) begründet. Wesentlich für den Bezug, der durch den Terminus logisch angedeutet wird, war seinerzeit der Vergleich mit der Logik als wissenschaftlicher Disziplin. Insbesondere die Prädikatenlogik interessierte hier unter dem Aspekt, dass die traditionelle aristotelische Logik vor Frege und Russell nur einstellige Prädikate kannte, die moderne Prädikatenlogik seit Frege und Russell aber von Mehrstelligkeit der Prädikate als Grundfall ausging. Die Logik wurde damit zu einer wichtigen Instanz der Rechtfertigung der Valenztheorie gegenüber früheren sowie gegen konkurrierende Ansätze. Häufig wurde Bezug auf die „Relationslogik“ genommen, dem klassenlogischen Pendant der Prädikatenlogik, weil hier im Terminus das Anliegen zum Ausdruck kam, vgl. den Bezug in der oben erwähnten Valenzdefinition Bondzios. Auch Welke, der in (1965) meist von Abhängigkeit und nicht von Valenz spricht, definiert Valenz (1965, 28 ff.) unter Regress auf die Logik im allgemeinen und auf die Kategorialgrammatik bei Bochen´ski (1959) und Ajdukiewicz (1936) im besonderen. Die Opposition von traditionell nur einstelligen Prädikaten und mehrstelligen Prädikaten in der modernen Logik wurde ferner in Parallele gesetzt zur Opposition von traditioneller Subjekt-Prädikat-Struktur sowie Konstituentenstruktur einerseits und tesnie`rscher Valenzstruktur andererseits, in der die Sonderstellung des Subjekts (also die Konstituentenstruktur oder Konfigurativität) beseitigt sei.
2.
Logische Valenz als ein Aspekt semantischer Valenz
In der Folgezeit wurden ausgehend von den soeben geschilderten Voraussetzungen solche Aspekte der semantischen Valenz als logische Valenz bezeichnet, die besonders allgemein, abstrakt und daher auch unversell sind oder zu sein scheinen. Häufig wurde auch von logisch-semantischer Valenz gesprochen, wie Helbig (1992, 10) erwähnt. 2.1. Stelligkeit Hauptkandidat für den Begriff der logischen Valenz ist die Stelligkeit oder Wertigkeit von Valenzträgern (die Zahl der Ergänzungen bzw. Argumente). In einem Vorschlag Helbigs (1983; 1985) für ein sechsstufiges Modell
401
der Valenzeintragung (im Unterschied zum bisherigen dreistufigen) rangiert die allgemeine Stelligkeit auf der Stufe I der Eintragungen als Angaben zur logischen Struktur der Prädikate. Ein Widerspruch sei am Rande erwähnt. In Helbig/Schenkel (1978, 65) wird die logische Valenz als „außersprachlich und folglich universal“ charakterisiert. Wenn die logische Valenz jedoch außersprachlich ist, dann ist sie kein linguistischer Begriff. Bei logischer Valenz in einem linguistischen Sinne kann es sich nur um besonders abstrakte innersprachliche Strukturaspekte handeln. Das sind Aspekte, die so abstrakt sind, dass sie in der auf Extensionalität gerichteten Logik eine Rolle spielen, auch daher der Terminus logisch. Ein erster und vielfach der einzige Aspekt, der als logische Valenz interessiert, ist daher der Umstand, dass Verben oder Valenzträger im allgemeinen eine bestimmte Zahl von Leerstellen eröffnen, die von Argumenten zu besetzen sind. Dieser Umstand der Hinzufügung von Ergänzungen zu einem Valenzträger oder des Vorkommens eines Valenzträgers mit Ergänzungen hat einen syntaktischen und einen semantischen Aspekt. Die Indizierung als logisch gegenüber einer allgemeineren Bezeichnung als semantisch sagt darüber hinaus nichts Relevantes aus. Die Unterscheidung logisch ⫺ semantisch wird dann relevant, wenn sie wie bei Bierwisch (1983) mit einem darüber hinaus gehenden theoretischen Konzept verbunden wird. In diesem geht es um das Verhältnis von Invarianz und Varianz. In einem Semantik-Pragmatik-Ebenenkonzept wird Invarianz und Varianz von Bedeutungen durch das Verhältnis von invarianter Bedeutung und varianter pragmatischer Gebrauchsbedingung geregelt. Gegen ein solches Konzept hat Bierwisch (1979) polemisiert. In Bierwisch (1983) tritt das Zweiebenenmodell der Semantik an diese Stelle mit einer Ebene der semantischen und einer Ebene der konzeptuellen Struktur. Auf der Ebene der semantischen Struktur ist der invariante Kern der Bedeutung angesiedelt. Auf der Ebene der konzeptuellen Struktur ergeben sich die Variationen. Ein valenztheoretisches Konzept, das den Vorstellungen der Zweiebenensemantik annähernd entspricht und damit einer Unterscheidung von logisch und semantisch, ist die Valenztheorie Wotjaks (u. a. 1984). Hier wird in einer sogenannten Archisemformel ein maximales Argumentenpotential zu
402 Grunde gelegt. In einem zweiten Schritt wird die Realisierung von Argumenten als Aktantifizierung und Vertextung beschrieben. 2.2. Argumenthaftigkeit Ein weiterer Kandidat für logische Valenz ist das Merkmal der Argumenthaftigkeit in dem multidimensionalen Valenzkonzept bei Ja´ gel 2000, 176 f.). cobs (1994, 17 ff., vgl. auch A Allerdings gerät man dann bereits in das Problemfeld der Abgrenzung von Ergänzungen und Angaben (Argumenten und Modifikatoren). Das ist nicht nur ein Problem der syntaktischen, sondern auch der semantischen Valenz. Hier vermag der Terminus „logisch“ gegenüber dem Terminus „semantisch“ zwar die strukturelle Eigenschaft prototypischer Argumente zu reflektieren, in der Proposition von einem propositionsbildenden Prädikat 1. Stufe determiniert zu werden, während prototypische Modifikatoren als Prädikate 2. Stufe über einem propositionsbildenden Prädikat oder einer einfachen Proposition operieren. Soll aber die unerwünschte Konsequenz „obligatorischer Angaben“ wie in Welke (1988, 46) vermieden werden, dann sind neben den prototypischen strukturellen oder „logischen“ weitere, mehr oder weniger typische Eigenschaften notwendig wie ‘invariante Merkmale der Prädikats-/ Verbbedeutung versus variante Merkmale der Verb-/Prädikatsbedeutung spezifizierend’ (vgl. Welke 2002, 69 f., siehe auch Meinhard 1984). Dieses Problem existiert nicht in der ursprünglichen Kategorialgrammatik bei Ajdukiewicz (1936, vgl. Welke 2002, 39), in der es keine Modifikatoren, sondern nur Prädikate und Argumente gibt. 2.3. Reihenfolge der Argumente Oft wird in Grammatik und Semantik relativ undefiniert und unreflektiert von einer bestimmten Reihenfolge der Argumente eines Prädikats ausgegangen. Die Argumente werden abgezählt und als 1., 2., 3. Argument bezeichnet. Die Valenztheorie hat hierbei mit einem bemerkenswerten Widerspruch zu kämpfen, vgl. Welke (in diesem Band). Tesnie`re (1980), Erben (1958) oder Helbig wenden sich gegen die Sonderrolle des Subjekts. Dennoch sprechen sie von einer 1., 2., 3. Ergänzung. Bei Helbig taucht die Reihenfolge in der Reihenfolge der Ergänzungen im Lexikoneintrag auf (Helbig/Schenkel 1978). Im Unterschied zu Tesnie`re und Erben gibt er eine Begründung. Die Reihenfolge, so Helbig (in Helbig/Schenkel 1978, 28) resultiere aus
IV. Valenz. Grundlagen und Grundfragen
einer unterschiedlichen Bindungsfestigkeit. Was unter Bindungsfestigkeit zu verstehen ist und woraus diese zu erklären ist, bleibt offen. Unkommentiert sprechen auch andere von einem 1., 2. und 3. Argument, z. B. Bresnan (1982) oder Rapp (1997). Diese Indizien verweisen darauf, dass Reihenfolge ein grundlegendes und nicht zu umgehendes Phänomen ist. Auch in der Logik wird eine Reihenfolge als 1.,2.,3. Argument undefiniert zu Grunde gelegt. Auf ihr basieren so wichtige Kategorien wie die der symmetrischen versus asymmetrischen Relation und der Konversion. Welke (1988; 2002 und in diesem Band) nimmt daher an, dass das Verb nicht nur semantische Rollen wie Agens, Patiens usw. vergibt, sondern auch abstraktlogische Rollen. Welke spricht (1988, 217) von abstrakt-logischer Reihenfolge der Ergänzungen. Seine Grundthese ist, dass ein Verb abstrakt-logische Rollen als eine je Verb feststehende Reihenfolge vergibt und dass den abstrakt-logischen Rollen in einem zweiten Schritt semantische Rollen zugeordnet werden. Die semantischen Rollen sind, wie die zahlreichen vergeblichen Bemühungen um Definition und Festlegung zeigen, nur vage und prototypisch bestimmt. Da semantische Rollen nicht allein der Identifizierung und Unterscheidung der Argumente dienen, sondern auf der Grundlage einer abstrakt-logischen Reihenfolge festgelegt werden, wird erklärlich, dass sie vage und nur prototypisch bestimmt sein können. Dennoch hat die Zuordnung zwischen semantischen Rollen und logischen Rollen eine Funktion. Sie dient der Erlernbarkeit. In Welke (1997 und 2002) wird von logisch-pragmatischen Rollen gesprochen. Damit soll dem Umstand Rechnung getragen werden, dass die abstrakt-logische Reihenfolge sich mit einer subjektiven Auszeichnung verbindet, einer subjektiven (nicht individuellen) Blickrichtung von einem 1. zu einem 2. Argument oder zu einem 3. Argument über ein 2. Argument. Als verb- bzw. prädikatsinhärente semantische Perpektivierung interpretieren auch Zifonun/Hoffmann/ Strecker (1997, Bd. 1, 690) die Ordnung der Argumentstellen. In der Universal und Functional Grammar finden sich für diesen Umstand Termini wie Focus, Second Focus, Topic. Welke kann sich in der ungewöhnlichen Kombination der Termini logisch und pragmatisch auf Frege berufen, vgl. z. B. Frege (1971, 53): „Die Stelle des Subjekts in der Wortreihe hat für die Sprache die Bedeutung
31. Ebenen der Valenzbeschreibung: Die logische und die semantische Ebene
einer ausgezeichneten Stelle, an die man dasjenige bringt, worauf man die Aufmerksamkeit des Hörers besonders hinlenken will.“ 2.4. Zusammenfassung Die Termini „logische Valenz“ und „semantische Valenz“ werden in der Valenztheorie mit unterschiedlichem Begriffsinhalt verwendet. Anfangs oft als Eigenschaft von logischen Prädikaten als übereinzelsprachlich oder sogar außersprachlich verstanden, erfasst der Begriff einer innersprachlichen logischen Valenz die allgemeinsten strukturbildenden Eigenschaften von Verben, als logische Prädikate entsprechend ihrer Ergänzungsbedürftigkeit über eine bestimmte Anzahl (Stelligkeit) und Anordnung (Reihenfolge) von Leerstellen (Argumentstellen) als Argumentvariablen zu verfügen, die bei der Bildung einer Proposition durch konkrete Argumente besetzt und semantisch spezifiziert werden müssen oder können. Mit ihrer sogenannten logischen Valenz prädeterminieren Verben die logische Struktur der aktuellen propositionalen Satzbedeutung quantitativ hinsichtlich der Anzahl der notwendigen oder möglichen Argumente und qualitativ hinsichtlich deren Position als 1., 2., …, n. Argument. Als semantische Valenz im engeren Sinne werden dann die funktionalen Eigenschaften von Verben erfasst, als natürlichsprachliche Prädikate mit ihrer Bedeutung die einzelnen Argumentpositionen zu charakterisieren hinsichtlich des semantischen Bereichs der einsetzbaren konkreten Argumente (ihrer kategorialen Selektionsbeschränkungen) und ihrer semantischen Funktion (oder semantischen Rolle) in der Sachverhaltsbeschreibung.
3.
Literatur in Auswahl
´ gel, Vilmos (2000): Valenztheorie. Tübingen. A Ajdukiewicz, Kazimirz (1936): Die syntaktische Konnexität. In: Studia Philosophica I, 1⫺27. Bierwisch, Manfred (1979): Wörtliche Bedeutung ⫺ eine pragmatische Gretchenfrage. In: Grewendorf, Günther (Hg.) (1979): Sprechakttheorie und Semantik. Frankfurt/M., 119⫺148. Bierwisch, Manfred (1983): Semantische und konzeptuelle Repräsentation lexikalischer Einheiten. In: Ru˚zˇicˇka, Rudolf/Motsch, Wolfgang (Hgg.): Untersuchungen zur Semantik (⫽ Studia Grammatica 22). Berlin, 61⫺100. Bierwisch, Manfred/Lang, Ewald (1987): Grammatische und konzeptuelle Aspekte von Dimensionsadjektiven. Berlin.
403
Bochen´ski, Joseph M. (1959): Über syntaktische Kategorien. In: Bochen´ski, Joseph M.: Logischphilosophische Studien. Freiburg. Bondzio, Wilhelm (1969): Das Wesen der Valenz und ihre Rolle im Rahmen der Satzstruktur. In: Wissenschaftliche Zeitschrift der Humboldt-Universität Berlin 18, 233⫺240. Bondzio, Wilhelm (1971): Valenz, Bedeutung und Satzmodelle. In: Helbig, Gerhard (Hg.) (1971a), 85⫺104. Bresnan, Joan (1982): The Passive in Lexical Theory. In: Bresnan, Joan (ed.): The Mental Representation of Grammatical Relations. Cambridge/ London, 3⫺86. Chomsky, Noam (1965): Aspects of the Theory of Syntax. Cambridge. Erben, Johannes (1958): Abriß der deutschen Grammatik. Berlin. Frege, Gottlob (1971): Begriffsschrift, eine der arithmetischen nachgebildete Formelsprache des reinen Denkens. In: Berka, Karl/Kreiser, Lothar (Hgg.): Logiktexte. Berlin, 48⫺106. Heidolph, Karl Erich/Flämig, Walter/Motsch, Wolfgang (1981): Grundzüge einer deutschen Grammatik. Berlin. Helbig, Gerhard (Hg.) (1971a): Beiträge zur Valenztheorie. Halle. Helbig, Gerhard (1971b): Theoretische und praktische Aspekte eines Valenzmodells. In: Helbig, Gerhard (Hg.) (1971a), 31⫺49. Helbig, Gerhard (1983): Valenz und Lexikographie. In: Deutsch als Fremdsprache 20, 137⫺143. Helbig, Gerhard (1985): Zu einigen theoretischen und praktischen Problemen von Lexikoneintragungen für Verben (unter dem Aspekt der Beziehungen zwischen Syntax und Semantik). In: Linguistische Studien 127. Berlin, 43⫺63. Helbig, Gerhard (1992): Probleme der Valenz- und Kasustheorie. Tübingen. Jacobs, Joachim (1994): Kontra Valenz. Trier. Helbig, Gerhard/Schenkel, Wolfgang (1978): Wörterbuch zur Valenz und Distribution deutscher Verben. 2. Aufl., Leipzig. Meinhard, Hans-Joachim (1984): Invariante, variante und prototypische Merkmale der Wortbedeutung. In: Zeitschrift für Germanistik 5, 60⫺69. Rapp, Irene (1997): Partizipien und semantische Struktur. Zu passivischen Konstruktionen mit dem 3. Status. Tübingen. Tesnie`re, Lucien (1980): Grundzüge der strukturalen Syntax. Hg. und übersetzt von Ulrich Engel. Stuttgart. Welke, Klaus (1965): Untersuchungen zum System der Modalverben in der deutschen Sprache der Gegenwart. Ein Beitrag zur Erforschung funktionaler und syntaktischer Beziehungen. Berlin.
404
IV. Valenz. Grundlagen und Grundfragen
Welke, Klaus (1988): Einführung in die Valenz- und Kasustheorie. Leipzig. Welke, Klaus (2002): Deutsche Syntax funktional. Perspektiviertheit syntaktischer Strukturen (⫽ Stauffenberg Linguistik, Bd. 22). Tübingen. Welke, Klaus (2003): Valenz und semantische Rollen ⫺ das Konzept der Theta-Rollen. Art. 37 in diesem Band.
Wotjak, Gerd (1984): Zur Aktantifizierung von Argumenten ausgewählter deutscher Verben. In: Zeitschrift für Germanistik 5, 401⫺414. Zifonun, Gisela/Hoffmann, Ludger/Strecker, Bruno (1997): Grammatik der deutschen Sprache. 3 Bde. Berlin/New York.
Hans-Joachim Meinhard Berlin (Deutschland)
32. Ebenen der Valenzbeschreibung: Die syntaktische Ebene 1. 2. 3. 4. 5. 6.
Valenz Die Unterscheidung von Ergänzungen und Angaben Obligatorische und fakultative Ergänzungen Syntaktische Valenz Zusammenfassung Literatur in Auswahl
Die nachfolgenden Bemerkungen wollen nicht, auf einem ausführlichen Forschungsbericht basierend, das Phänomen der ‘syntaktischen Valenz’ vollständig beschreiben und die damit verbundenen Probleme erschöpfend erörtern, sondern sie versuchen vielmehr, eine vermutlich eigenwillige, dennoch zumindest tendenziell in sich schlüssige Antwort auf die Frage zu geben, was ‘syntaktische Valenz’ sei. Die Baumdiagramme sollen nur die syntaktisch relevanten Relationen (Konstituenz, Valenz, Dependenz) im Satz anschaulich machen, mehr wollen sie nicht leisten. Folgende Abkürzungen und Symbole werden verwendet: S ⫽ Satz, VK ⫽ Verbaler Kern, NK ⫽ Nominaler Kern, E ⫽ Ergänzung, A ⫽ Angabe, Adj ⫽ Adjunkt, Att ⫽ Attribut, ⫽ Konstituenzrelation, ¿¿¡ ⫽ Valenzrelation, ¡ ⫽ Dependenzrelation.
1.
Valenz
‘Valenz’ wird hier verstanden als die Fähigkeit eines Wortes, um sich Leerstellen zu eröffnen; die Fähigkeit ist semantisch motiviert, d. h. sie ist eine „Eigenschaft der Bedeutung“ (Bondzio 1978, 446) eines sprachlichen Zeichens. Mit anderen Worten, die Bedeutung eines Wortes bestimmt es, mit wie vielen ‘Mitspielern’ ein Zeichen eine grammatische Äußerungseinheit, die größer ist als ein Wort (bzw. ein Wortgruppenlexem), bilden kann resp. muss.
In diesem Verständnis ist ‘Valenz’ zu unterscheiden von ‘Dependenz’. Hiermit bezeichnet man die formal bedingte Abhängigkeit eines Wortes von einem anderen, oder anders formuliert, ein Wort B verdankt seine Existenz in einer bestimmten Weise der Existenz des Wortes A. In dem Satz Der Knabe geht mit dem Mädchen spazieren verdankt das dativische Substantiv dem Mädchen seine Existenz der Existenz der Präposition mit; würde man diese Präposition durch ohne ersetzen, dann müsste man auch den Dativ mit dem Akkusativ austauschen. Da auch die Valenzrelation die Abhängigkeit eines Dependens von einem Regens ist, kann man die Valenz als eine semantisch motivierte Spezialform der Dependenz bezeichnen. Diese Fähigkeit, die man auch „Fügungspotenz“ (Admoni 1982, 84) oder in Anlehnung an die Chemie „Wertigkeit“ (Erben 1972, 246) genannt hat, hat fundamentale syntaktische Auswirkungen: (1) Auf der Ebene des Satzes: Das Verb als strukturelles Zentrum des Satzes schart aufgrund seiner ‘Wertigkeit’ eine bestimmte Anzahl von ‘Satzgliedern’ um sich. Ohne diese Satzglieder oder ohne die vollständige Anzahl von Satzgliedern ist ein (Ideal-)Satz nicht komplett und somit ungrammatisch. Satzglieder, die also von der Valenz des Verbs bestimmt, wenn nicht gar gefordert sind, nennen wir im Deutschen ‘Ergänzungen’. Das Verb selbst nimmt die syntaktische Rolle des ‘verbalen Kerns’ ein. Auf diese Weise kommen wir auch zu einer (prototypischen) grammatisch fundierten Satzdefinition: Ein Satz ist eine sprachliche Einheit, deren minimale Realisationsform aus einem Verb (in der Funktion des ‘verbalen Kerns’) und der von der verbalen Valenz geforderten Anzahl von Satzgliedern besteht (vgl. auch Brinker 1973, 13).
405
32. Ebenen der Valenzbeschreibung: Die syntaktische Ebene
Zu solchen ‘Minimal-’ oder ‘Kernsätzen’ können weitere Satzglieder, die nicht von der Valenz des Verbs determiniert sind, treten: ‘Angaben’. Angaben hängen demnach nicht vom Verb ab, sondern sind eigenständige syntaktische Konstituenten. Ein Satz der auf diese Weise ausgebaut ist, besteht aus zwei oder mehr (unmittelbaren) Konstituenten: S
A1 … An
VK
E1
…
En
(1953, deutsch 1980) in die Grammatik zu übersetzen. (2) Auf der Ebene der Satzglieder: Sowohl Substantive als auch Adjektive können (nominaler) Kern eines Syntagmas sein. Hier sind sowohl Valenz- als auch Dependenzrelationen möglich: der Vater des Mädchens: es gehört zur Bedeutung der Verwandtschaftsbezeichnung Vater, dass ein Mann ‘Vater von jemandem’ ist; somit eröffnet dieses Substantiv eine Leerstelle, die in der Regel durch eine Bezeichnung für ein Lebewesen (Mensch oder Tier) ausgefüllt wird; die Genitivphrase des Mädchens realisiert die syntaktische Funktion eines ‘Adjunkts’. NK
Abb. 32.1: Baumdiagramm der unmittelbaren Konstituenten eines Satzes
Ergänzungen und Angaben sind also in der syntaktischen ‘Tiefe’, d. h. in ihren Leistungen für die Satzkonstitution ganz unterschiedliche Phänomene: Sie sind entweder Konstituenten des Kernsatzes (Ergänzungen) oder Konstituenten des Ganzsatzes (Angaben). Unter Gesichtspunkten der syntaktischen ‘Oberfläche’ können Ergänzungen und Angaben unter dem Oberbegriff ‘Satzglieder’ zusammengefasst werden: Sie verhalten sich positionell und distributionell gleich; sind im Satz (frei) verschiebbar; im Verbzweitsatz kann ein und nur ein Satzglied die Erstposition einnehmen, im Vorfeld stehen. Diese Oberflächen-Gemeinsamkeiten dürfte auch der Grund dafür sein, dass viele Autoren (z. B. Heringer 1972; Engel 1994; Eroms 2000; in einem wichtigen Aufsatz möchte Eroms 1985 die Dependenz als das fundamentale Konstitutionsprinzip der deutschen Syntax erklären) die Auffassung vertreten, Angaben seien vom Verb dependent. Wenn man allerdings die Angaben als eigene Propositionen (darüber s. u.) ansieht, die in die ‘Kernproposition’ eingebettet werden, dann macht es Schwierigkeiten, auch noch eine Dependenzrelation anzunehmen. Zudem könnte man formulieren, dass von einer ‘Modalitätsangabe’ (s. u.) eher die Kernproposition abhängt als umgekehrt. Es erscheint daher angemessen, neben der Dependenz auch die Konstituenz als ein Prinzip der Satzbildung anzunehmen. Andere Autoren wie Erben (1972) nehmen zu all dem nicht Stellung. Die terminologische Unterscheidung Ergänzung vs. Angabe ist der Versuch, die Theatermetaphern ‘Aktant’ (⫽ Schauspieler) vs. ‘Zirkumstant’ (⫽ Statist), die von Tesnie`re
Adj
Abb. 32.2: Diagramm der Adjunktrelation
der Hut des Mädchens: es gehört nicht zur Bedeutung des Substantivs Hut, dass das Kleidungsstück jemandem gehört. Die ausdrucksseitig völlig identische Genitivphrase ist vom Substantiv der Hut bloß dependent und verwirklicht die syntaktische Funktion eines ‘Attributs’. NK
Att
Abb. 32.3: Diagramm der Attributrelation
Adjunkte und Attribute sind (nicht die einzigen) Subklassen der ‘Satzgliedteile’. Diese Terminologie wurde von Wolf (1982) vorgeschlagen, wird aber kaum von anderen Autoren angewendet; zahlreiche Grammatiker unterscheiden nicht zwischen derartigen Typen. Neben den Substantiven sind auch Adjektive Valenzträger; dies fällt besonders auf bei homonymen bzw. polysemen Adjektiven: (1)
Monika ist hungrig: nullwertiges Adjektiv mit der Bedeutung ‘Hunger habend’;
(2)
Monika ist hungrig nach Valenztheorie: einwertiges Adjektiv mit der Bedeutung ‘heftiges Verlangen habend’. Die Präpositionalphrase nach Valenztheorie realisiert ebenfalls ein Adjunkt.
406
IV. Valenz. Grundlagen und Grundfragen
Zusammenfassend lässt sich festhalten: Die verbale Valenz wirkt Satz konstituierend, die nominale Valenz hingegen Satzglied konstituierend. Da die verbale Valenz aufgrund ihrer wichtigen Funktion häufig als die ‘prototypische’ syntaktische Relation angesehen wird, soll im Nachfolgenden die Verbvalenz für die Grundzüge der syntaktischen Valenz, und zwar am Beispiel des Deutschen, stehen.
2.
Die Unterscheidung von Ergänzungen und Angaben
Als Oberflächenphänomene sind Ergänzungen und Angaben nicht leicht zu unterscheiden. Da man Angaben als kondensierte Propositionen ansehen kann, die in die Kernproposition eingebettet worden sind, ist es möglich, Angaben wieder in eigene Prädikationen zurück zu transformieren; bei Ergänzungen ist dies demgemäß nicht möglich: Der Knabe küsst mit Begeisterung das Mädchen. J Der Knabe küsst das Mädchen; das tut er mit Begeisterung. J *Der Knabe küsst mit Begeisterung; das tut er das Mädchen. Dieser ‘Prädikationstest’ funktioniert mit Verben, die eine sehr allgemeine Bedeutung haben (tun, geschehen) und deshalb für speziellere Verben eintreten können. Allerdings können nicht alle Angaben oder Angabetypen auf diese Weise ermittelt werden: Hoffentlich scheint morgen die Sonne. J *Morgen scheint die Sonne; das tut sie hoffentlich. Der Widerspruch zwischen der Behauptung Morgen scheint die Sonne und dem Ausdruck der persönlichen Hoffnung des Sprechers ist allzu offensichtlich, um das Ergebnis eines solchen Prädikationstests als akzeptabel erscheinen zu lassen. Wir müssen vielmehr auch mehrere Angabeklassen annehmen, die sich aufgrund von unterschiedlichen Testrahmensätzen in den Prädikationstests unterscheiden lassen: (1) Adverbialangabe (Aadv): Monika fährt mit dem Auto nach Würzburg. J Monika fährt nach Würzburg; das tut sie mit dem Auto. Der Knabe entbrannte gestern in heftiger Liebe zum Mädchen. J Der Knabe entbrannte in heftiger Liebe zum Mädchen; dies geschah gestern; Prädikationstest: mit tun oder geschehen oder einem ähnlichen Verb.
(2) Prädikativangabe (Apräd): Der Kellner bringt die Suppe kalt. J Der Kellner bringt die Suppe, sie ist kalt. Der Kellner bringt die Suppe freundlich. J Der Kellner bringt die Suppe; er ist freundlich; Prädikationstest mit sein. Helbig/Buscha (1996, 554) nennen diesen Typus „prädikatives Attribut“; doch zeigen die Stellungseigenschaften, dass es sich nicht um ein Attribut handeln kann. (3) Limitativangabe (Alim): Gesundheitlich geht es ihr gut. J Was die Gesundheit betrifft, geht es ihr gut; Prädikationstest: Was … betrifft. Die Aussage der Kernproposition wird auf einen bestimmten (Sach-)Bereich bzw. ein bestimmtes Thema eingeschränkt. (4) Modalitätsangabe (Amod): Wahrscheinlich küsst morgen der Knabe das Mädchen. J Es ist wahrscheinlich, dass der Knabe morgen das Mädchen küsst. Modalitätsangaben sind kondensierte Einschätzungssätze, sodass der Prädikationstest mit einem übergeordneten Satz, der die ‘Gewissheitsmodalität’ ausdrückt, funktioniert. In einem Satz können mehrere unterschiedliche Angaben vorkommen; es kann dann sein, dass die Hierarchieebenen, auf denen die Angaben angesiedelt sind, unterschiedlich sind: Wahrscheinlich küsst morgen der Knabe das Mädchen. J *Wahrscheinlich küsst der Knabe das Mädchen; das tut er morgen. J Es ist wahrscheinlich, dass der Knabe morgen das Mädchen küsst. Auch solche Verhältnisse lassen sich in einem Baumdiagramm darstellen:
S
S´
Aadv morgen
Amod hoffentlich
VK scheint
Enom die Sonne
Abb. 32.4: Baumdiagramm des Satzes Hoffentlich scheint morgen die Sonne
32. Ebenen der Valenzbeschreibung: Die syntaktische Ebene
407
(2)
Einwertig: Das Kind schläft. Die Äpfel reifen. Es gibt frische Brötchen. Zweiwertig: Das Mädchen küsst den Knaben. Er sitzt im Zimmer. Die Angelegenheit bedarf keiner Erklärung. Das Haus ist blau. Das Wetter wird schön. Er hat ein Buch. Dreiwertig: Der Lehrer gibt den Schülern die Hefte. Er nennt Christian einen Faulpelz. Vierwertig: Er übersetzt das Buch aus dem Französischen ins Deutsche. Sie schickt ihn von Würzburg nach Passau. Unter Hinweis auf Heringer (1973) führt Erben (1972, 254) auch ein fünfwertiges Verb auf: x1 einigt x2 mit seinem Gegner in dieser Sache auf einen Vergleich. Doch stellt sich in diesem Fall die Frage, ob beim Verbum sich einigen das Reflexivum eine Ergänzung darstellt oder nicht doch Teil des Verbs ist.
3.
Obligatorische und fakultative Ergänzungen
Bestimmte Ergänzungen scheinen leichter weglassbar zu sein als andere: Monika raucht (Zigarren). Christian isst (Pudding). Derartige Beobachtungen haben dazu geführt, dass zwischen ‘obligatorischen’, d. h. nicht weglassbaren, und ‘fakultativen’ Ergänzungen unterschieden wird. Es lässt sich aber auch beobachten, dass, ausgenommen vielleicht die Nominativergänzung, nahezu jede Ergänzung in bestimmten Kontexten weglassbar ist. Daraus aber kann gefolgert werden, dass alle Ergänzungen im syntaktischen Programm des Verbs vorgesehen sind, aber aus Gründen des Kontextes oder der Situation nicht realisiert werden. „Eine fakultative Valenz entsteht erst in der Oberflächenstruktur durch eine Eliminierungstransformation aufgrund bestimmter kontextueller Merkmale (Vorerwähntheit, Kontrastivität, Emphase, Ellipse usw.)“ (Helbig/Schenkel 1978, 36), sodass es sinnvoller erscheint, nicht von ‘fakultativer Valenz’, sondern nur von ‘fakultativer Weglassbarkeit’ von Ergänzungen (vgl. Pasch 1977) oder von „fakultativen Reduktionen (Modifikationen)“ (Flämig 1971, 111) zu sprechen. Wenn Ergänzungen weggelassen werden, dann wird der Verbalinhalt stärker fokussiert: Monika raucht. Christian isst. Des Weiteren sind Ergänzungen fakultativ, wenn ihr Denotat unbestimmt ist oder bleiben soll: Monika ist glücklich, denn sie liebt. Zudem werden in speziellen Situationen (etwa beim Kartenspiel: Wer gibt?), in speziellen Texten (Sportberichterstattung: Beckenbauer schießt. Fachsprachliches: Die Henne legt.) Verben oft ‘unterwertig’ verwendet, sodass sich ihre Bedeutung spezialisiert (vgl. Erben 1970; Simmler 1980; Schwitalla 1985).
4.
Syntaktische Valenz
4.1 Quantitativer Umfang der Verbvalenz Die Verben, aufgrund ihrer Bedeutung, eröffnen verschieden viele Leerstellen um sich, wobei die Skala in der Regel von null bis vier reicht, sehr selten sind auch mehr Ergänzungen denkbar. Wir können also in Analogie zur Chemie von verschiedenen Wertigkeiten des Verbs sprechen: (1)
Nullwertig: Es regnet. Es schneit. Es klopft. Es weihnachtet.
(3)
(4) (5) (6)
ad (1): Die Wortform es ist in all diesen und ähnlichen Fällen nur scheinbar Subjekt. Es ist kein Pronomen, denn es steht nicht für ein Substantiv. es ist hier wohl eine Partikel, die keine Leerstelle des verbalen Kerns ausfüllt, die vielmehr als Teil des Verbs anzusehen ist. Da es sich also nicht um eine ‘echte’ Leerstelle handelt, können wir von nullwertigen Verben sprechen. ad (2): es im unpersönlichen Verb es gibt ist wie es bei den nullwertigen Verben zu beurteilen. ad (5): Ob es Vierwertigkeit gibt, ist umstritten, vgl. Erben (1972, 254). Wenn überhaupt, dann kann man solche Verben als vierwertig klassifizieren, bei denen ein Ausgangs- und ein Zielpunkt eine Rolle spielen. Ganz anders verhält es sich mit bestimmten Verben, die ebenfalls als vierwertig aufgeführt werden: Der Ritter wirft ihm den Handschuh ins Gesicht. Sie legt ihm die Hand auf die Schulter. Er schüttet ihr den Kaffee über den Rock. Diese Fälle sind nicht unproblematisch. Bei den Dativphrasen handelt es sich nicht um Ergänzungen, die vom Verb regiert werden; dies zeigt sich bei einer Ersatzprobe, bei der wir das Substantiv, das als Präpositionalphrase realisiert wird, durch ein anderes ersetzen: Der Ritter wirft den Handschuh in die Menge. Sie legt ihre Hand auf den Tisch. Er schüttet den Kaffee über den Tisch. Der Dativ hängt also vom Substantiv ab, das in solchen Fällen meistens einen Körperteil oder ein Kleidungsstück bezeichnet, und ist in eine
408 Possessivbestimmung überführbar: in ihr Gesicht, auf seine Schulter, über ihren Rock. Sofern die Substantive, auf die sich dieser ‘Pertinenzdativ’ bezieht, diese semantische Bedingung nicht erfüllen, ist solch ein Dativ nicht möglich: *Der Hund springt dem Zaun durch die Lücke (Beispiel aus von Polenz 1969). 4.2 Qualitativer Aspekt: Ergänzungsklassen Der verbale Kern determiniert nicht nur die Zahl, sondern auch die Art der Ergänzungen, d. h. fürs Deutsche als eine flektierende Sprache in erster Linie deren (flexionsmorphologische) Form bzw. die Bindung durch Präpositionen oder die mögliche Realisierung durch Substantive oder Adjektive. Mit anderen Worten, im Gegensatz zu Angaben, die ja in der Regel nicht grammatisch obligatorisch, sondern „kommunikationswichtig“ (Erben 1972, 249) sind und deshalb nach semantischen Kriterien klassifiziert werden, werden bei Ergänzungen formale Klassifizierungskriterien herangezogen. Dennoch gelangen einzelne Grammatiker zu unterschiedlichen Ergebnissen (s. S. 409) Als Ergänzungsklassen werden hier angenommen: (1) Nominativergänzung: Der Knabe küsst das Mädchen. Schüler wollen während ihrer Ferien alten Menschen helfen. Herkömmlicherweise wird diese Ergänzung auch ‘Subjekt’ genannt. Allerdings ist dies kein valenztheoretischer, sondern ein logischer oder psychologischer Terminus; zudem muss das Subjekt in anderen Sprachen nicht nur nominativisch realisiert werden. Außerdem ist das Subjekt in Passivsätzen keine Nominativergänzung, da ja die Valenz der Verben von der Grundform des Aktivs definiert ist. Obwohl die Nominativergänzung, valenztheoretisch gesehen, valenzabhängig ist, kommt ihr, im Vergleich zu den übrigen Ergänzungen, eine Sonderstellung zu. (2) Akkusativergänzung: Der Knabe küsst das Mädchen. Vor der Badeanstalt haben zwei in der Stadt bekannte Rowdies etliche Fahrradreifen zerstochen. (3) Dativergänzung: Schüler wollen während ihrer Ferien alten Menschen helfen. (4) Genitivergänzung: Mit welcher Sehnsucht gedenke ich alter Zeiten. (5) Präpositionalergänzung: Er arbeitet an seinem Buch. Bei der Präpositionalergänzung ist die Präposition bedeutungsentleert, nicht
IV. Valenz. Grundlagen und Grundfragen
mehr Bedeutungsträger. In dem Satz Er arbeitet an seinem Buch ist an keine lokale Präposition (mehr) wie in Das Haus steht an einem Bach. Demgemäß ist die Präposition bei der Präpositionalergänzung vom Verb gefordert und deshalb nicht austauschbar wie bei der Adverbialergänzung: Das Haus steht an/ hinter/neben/über/unter/vor einem Bach. (6) Prädikativergänzung: Sie kann substantivisch (Das Haus ist ein Palast) oder adjektivisch (Das Haus ist schön) realisiert werden. Es handelt sich dabei stets um die zweite Ergänzung im Rahmen einer ist-Prädikation. Neben dem ‘Kopulaverb’ sein gibt es eine Reihe von weiteren Verben, die eine ist-Prädikation darstellen, z. B. werden, bleiben, scheinen (Das Haus wird/bleibt/scheint schön/ein Palast). Daneben sind auch Prädikative mit Fügewörtern möglich: Sie gilt als schön. Die Tasche ist aus Leder. Der Schnee zerschmilzt zu Wasser. In all diesen Fällen bezieht sich das Prädikativum (semantisch) auf das Subjekt (‘Subjektsprädikativum’). Bei einer Reihe von Verben ist ein ‘Objektsprädikativum’ möglich: Der Student nennt den Professor einen Esel. Die Studenten finden das Essen in der Mensa schlecht/halten es für schlecht. Die Deutschen machen Silvia zu ihrer Königin. Das Prädikativum bezieht sich hier auf das Objekt, wir können in diesen Fällen von einer kondensierten oder „verdeckten“ (Erben 1978) istPrädikation sprechen. (7) Adverbialergänzung: Monika wohnt in Würzburg. Das Verb fordert einen (lokalen, temporalen, modalen, …) ‘Umstand’, der u. a. durch eine Präpositionalphrase oder durch ein Adverb ausgedrückt werden kann. (8) Mensuralergänzung: Die Vorlesung dauert drei Stunden/lange. Das Paket wiegt einen Zentner/viel. Es handelt sich hier um Maßbestimmungen, die akkusativisch oder adjektivisch realisiert werden. (9) Propositionalergänzung: Bei einer Reihe von verba dicendi oder sentiendi kann der Inhalt des Sagens oder des Meinens nur in Form einer satzförmigen Struktur (Inhaltssatz, indirekte oder direkte Rede) wiedergegeben werden: Der Arzt denkt, dass alles gut geht (denken in der Bedeutung von ‘meinen, annehmen’). Er antwortet, dass er kommt. In all diesen Fällen ist eine Akkusativergänzung in Form eines Substantivs nicht möglich, höchstens ein Pronomen wie das oder etwas;
409
32. Ebenen der Valenzbeschreibung: Die syntaktische Ebene Sitta 1998
Helbig/ Buscha 1996
Heringer 1972 u. 1973
Engel 1994
Eisenberg 1999
Zifonun u. a. 1997
Eroms 2000
Subjekt
Subjekt
E1
Subjekt Esub
Subjekt
Subjektkomplement Ksubj
Subjekt Esub
Nominativergänzung Enom
Akkusativobjekt
Akkusativobjekt
E4
Akkusativergänzung Eakk
Akkusativobjekt
Akkusativkomplement Kakk
Akkusativobjekt Eakk
Akkusativergänzung Eakk
Dativobjekt
Dativobjekt
E3
Dativergänzung Edat
Dativobjekt
Dativkomplement Kddat
Dativobjekt Edat
Dativergänzug Eddat
Genitivobjekt
Genitivobjekt
E2
Genitivergänzung Egen
Genitivobjekt
Genitivkomplement Kgen
Genitivobjekt Egen
Genitivergänzung Egen
Präpositionalobjekt
Präpositionalobjekt
E5
Präpositivergänzung Eprp
Präpositionalobjekt
Präpositivkomplement Kprp
Präpositionalobjekt Epräp
Präpositionalergänzung Epräp
E6
Nominalergänzung Enom
Prädikatsnomen
Prädikativkomplement
Nominalergänzung Enom
Prädikativergänzung Epräd
Prädikativkomplement
Adjektivalergänzung Eadj
Prädikativergänzung Epräd
Situativkomplement Ksit
Situativergänzung Esit
Adverbialergänzung Eadv
Direktivergänzung Edir
Direktivkomplement Kdir
Direktionalergänzung Edir
Adverbialergänzung Eadv
Expansivergänzung
Dilativkomplement Kdil
Mensuralergänzung Emens
Mensuralergänzung Emens
Verbativergänzung Evrb
AcI- und Verbativkomplement Kvrb
Obligatorisch satzförmige Ergänzung Eprop
Propositionalergänzung Eprop
Gleichsetzungsnominativ/-akkusativ Artergänzung
Raum-/Zeit-/ Begründungsergänzung
Adjektivalergänzung adverbiale Bestimmung (Ergänzungen und Angaben)
Situativergänzung
adverbiale Ergänzung
Abb. 32.5: Klassifikation der Ergänzungen in ausgewählten Grammatiken (im Anschluss an Eroms 2000, 172)
dann handelt es sich nicht so sehr um ein ‘Pro-Nomen’, sondern viel mehr um ein ‘Pro-Sentential’.
eine wesentliche Rolle, die im Deutschen die Flexionsmorphologie übernimmt.
In Sprachen, die nicht mehr so deutlich flektieren wie das Deutsche, müssen teilweise andere Merkmale die syntaktische Funktion einer Nominalgruppe ausdrücken. Im Englischen z. B. spielt die Abfolge der Satzglieder
5.
Zusammenfassung
Die verbale Valenz ist ‘zuständig’ für die Erzeugung von (Minimal-/Kern-)Sätzen; diese entwickeln dann ihrerseits eine Fügungspo-
410
IV. Valenz. Grundlagen und Grundfragen
tenz, aufgrund derer weitere Propositionen in Form von Angaben eingebettet werden können. ‘Nebensätze’ bieten die Möglichkeit, komplexe Informationen satzförmig, also wiederum mit einer Kernproposition und zusätzlichen Angaben, zu realisieren.
6.
Literatur in Auswahl
Admoni, Wladimir (1982): Der deutsche Sprachbau. München 1982 (4. Aufl.). ´ gel, Vilmos (2000): Valenztheorie. Tübingen. A Bondzio, Wilhelm (1978): Lerntheoretische Aspekte eines valenzorietierten syntaktischen Modells. In: Wissenschaftliche Zeitschrift der Humboldt-Universität zu Berlin. Gesellschafts- und Sprachwissenschaftliche Reihe 27, 445⫺450. Brinker, Klaus (1973): Zum Textbegriff in der heutigen Linguistik. In: Studien zur Texttheorie und zur deutschen Grammatik. Festgabe Hans Glinz. Düsseldorf, 9⫺41. Eisenberg, Peter (1999): Grundriß der deutschen Grammatik. Bd. 2: Der Satz. Stuttgart/Weimar. Engel, Ulrich (1991): Deutsche Grammatik. Heidelberg (2. Aufl.). Engel, Ulrich (1994): Syntax der deutschen Gegenwartssprache. Berlin (3. Aufl.). Erben, Johannes (1970): ‘Er sitzt, weil er gestanden hat’ oder Über den Zusammenhang von Valenz und Mitteilungswert des Verbs. In: Studien zur Syntax des heutigen Deutsch. Festschrift Paul Grebe. Düsseldorf, 97⫺102. Erben, Johannes (1972): Deutsche Grammatik. Ein Abriß. München. Erben, Johannes (1978): Über „Kopula“-Verben und „verdeckte“ (kopulalose) Ist-Prädikationen, zugleich ein Beitrag zur Theorie der Valenz und ihrer Geschichte. In: Deutsche Sprache: Geschichte und Gegenwart. Festschrift Friedrich Maurer. Hg. von Hugo Moser/Heinz Rupp/Hugo Steger. Bern, 75⫺92. Erben, Johannes (1998): Grundzüge der deutschen Syntax. Berlin (2. Aufl.). Eroms, Hans-Werner (1985): Eine reine Dependenzgrammatik für das Deutsche. In: Deutsche Sprache 13, 306⫺326. Eroms, Hans-Werner (2000): Syntax der deutschen Sprache. Berlin/New York. Flämig, Walter (1971): Valenztheorie und Schulgrammatik. In: Beiträge zur Valenztheorie. Hg. von Gerhard Helbig. The Hague/Paris, S. 105⫺121. Helbig, Gerhard (1992): Probleme der Valenz- und Kasustheorie. Tübingen.
Helbig, Gerhard/Schenkel, Wolfgang (1978): Wörterbuch zur Valenz und Distribution deutscher Verben. Leipzig (4. Aufl.). Helbig, Gerhard/Buscha, Joachim (1996): Deutsche Grammatik. Ein Handbuch für den Ausländerunterricht. Leipzig/Berlin/München/Wien/Zürich/New York. Heringer, Hans Jürgen (1972): Deutsche Syntax. (⫽ Sammlung Göschen 5246) Berlin/New York (2. Aufl.). Heringer, Hans Jürgen (1973): Theorie der deutschen Syntax. München (2. Aufl.). Korhonen, Jarmo (1977): Studien zu Dependenz, Valenz und Satzmodell Tl. 1. Bern/Frankfurt/Las Vegas. Nikula, Henrik (1976): Verbvalenz. Untersuchungen am Beispiel des deutschen Verbs mit einer kontrastiven Analyse Deutsch ⫺ Schwedisch. Uppsala. Pasch, Renate (1977): Zum Status der Valenz. In: Beiträge zur semantischen Analyse. (⫽ Linguistische Studien. Reihe A: Arbeitsberichte 42). Berlin. von Polenz, Peter (1969): Der Pertinenzdativ und seine Satzbaupläne. In: Festschrift Hugo Moser zum 60. Geburtstag. Hg. von Ulrich Engel/Paul Grebe/Heinz Rupp. Düsseldorf, 146⫺171. Schwitalla, Johannes (1985): Verbvalenz und Text. In: Deutsch als Fremdsprache 22, 266⫺270. Simmler, Franz (1980): Die Valenz des Verbums werfen. In: Akten des VI. Internationalen Germanistenkongresses Basel 1980. Frankfurt (Main), 29⫺ 37. Sitta, Horst (1998): Der Satz. In: Duden. Grammatik der deutschen Gegenwartssprache. Mannheim/ Leipzig/Wien/Zürich (6. Aufl.), 609⫺858. Stepanowa, Marija D./Helbig, Gerhard (1978): Wortarten und das Problem der Valenz in der deutschen Gegenwartssprache. Leipzig/Moskau. Tarvainen, Kalevi (1981): Einführung in die Dependenzgrammatik. Tübingen. Tesnie`re, Lucien (1959): E´le´ments de syntaxe structurale. Paris. Tesnie`re, Lucien (1980): Grundzüge der strukuralen Syntax. Übers. von Ulrich Engel. Stuttgart. Welke, Klaus M. (1988): Einführung in die Valenzund Kasustheorie. Leipzig. Wolf, Norbert Richard (1982): Probleme einer Valenzgrammatik des Deutschen. (⫽ MISIN-Report 3). Innsbruck. Zifonun, Gisela/Hoffmann, Ludger/Strecker, Bruno (1997): Grammatik der deutschen Sprache Bd. 2. Berlin/New York.
Norbert Richard Wolf, Würzburg (Deutschland)
33. Ebenen der Valenzbeschreibung: die morphologische Ebene
411
33. Ebenen der Valenzbeschreibung: die morphologische Ebene 1. 2. 3. 4. 5. 6.
1.
Die morphologische Ebene in der Valenz-Hierarchie Verbabhängige Morphologie und Valenzmorphologie der Subjekt-VerbKongruenz Valenzmorphologie innerhalb der Nominalphrase Valenz-„Vererbung“, „innere“ Valenz und „Valenzwechsel“ Der Satz als Komplex morphologisch kodierter valenzieller Einzelbeziehungen Literatur in Auswahl
Die morphologische Ebene in der Valenz-Hierarchie
Eine ausgearbeitete morphologische Komponente einer „reinen“ Dependenz- bzw. Valenzgrammatik (Eroms 1985) gibt es noch nicht. Zwar gelangen Valenz-/DependenzGrammatiken in der Abarbeitung ihrer hierarchischen Ebenen auch bis zu flexionsmorphologischen „Valenz-“ oder „Relationsmarkern“ hinab (Helbig 1992, 155), am konsequentesten, wenn auch eher schematisch, Heringer (1973, 133 ff.), der in die terminale Kette des syntaktischen Stemmas alle Flexive einsetzt, wobei valenziell am ehesten sog. „Translative“ für Kasus usw. relevant sind. Auch sind Syntax und Flexionsmorphologie insofern eng verbunden, als sich die Syntax über grammatische Merkmale Zugang zum Endsymbol „Wort“ der Satz-Stemmata verschafft, in dem diese syntaktischen Kategorien dann durch kleinste Bedeutungsträger („Morpheme“, hier meist gebundener Art) ihren Ausdruck finden können. Daher kommt auch die häufige Redeweise von einer einheitlichen Ebene der „Morphosyntax“ in Valenzdarstellungen wie der von Korhonen (1979) oder Helbig (1992, 150) sowie das bisweilen anzutreffende Verfahren, syntaktische Einheiten („Ergänzung“, „Angabe“) und morphologische Einheiten („Prädikatsteil“, d. h. verbalen Stamm, und „Verbalmorphem“, d. h. verbales Suffix) auf ein und derselben stemmatischen Ebene anzusetzen (Heringer 1973, 152). Doch auch daran wird sichtbar, dass die Valenz-/Dependenzsyntax insgesamt nicht auf eine schon ausformulierte wortstrukturelle Teiltheorie der Gesamtgrammatik verweisen kann und die flexivischen Erscheinungen deshalb ⫺ meist unausgesprochen ⫺ vielfach nur „als bloße Wohlgeformt-
heitsbedingungen“ (Eroms 1988, 262) behandelt. Bei diesem Stand der Diskussion kann der vorliegende Artikel nur die bisher erkennbaren Ansätze für eine Integration der Morphologie in die Valenzgrammatik geordnet zusammenstellen und auf weitere mögliche Aspekte einer valenz-orientierten Morphologie hinweisen. Dabei wird von Valenz im engsten und engeren Sinne ausgegangen und zu Valenz im weiteren und weitesten Sinne fortgeschritten. Vom Kernbereich der Valenz zu peripher(er)en Bereichen werden zuerst verbabhängige Valenzmorphologie einschließlich Fragen der Kongruenzmorphologie von Verb und Subjekt behandelt (Kap. 2), dann nominale Valenz und Kongruenzmarker innerhalb von Nominalphrasen (Kap. 3). Anschließend kommen Erscheinungen zur Sprache, die von einer vornehmlich syntaktisch verstandenen Valenz schon weiter entfernt sind (Kap. 4): die sog. „innere“ Valenz in Wortbildungsprodukten, Fragen der Valenz- oder Argument-„Vererbung“ v. a. bei deverbalen Bildungen sowie sog. „Valenzwechsel“, d. h. Änderungen am Stellenplan des Verbs, die von (v. a. derivations-) morphologischen Prozessen verursacht sind. Am Ende wird auf allgemeinere Valenz-Konzepte eingegangen (Kap. 5), die mit Begriffen wie „Fügungspotenz“ (Admoni 1982, 9), „Kohäsionsqualitäten“ (Arbeitsgruppe Marburg 1973, 8) oder gar nur „Verbindbarkeit“ sprachlicher Einheiten (Stepanowa/Helbig 1978, 118) umschrieben sind. Im gegebenen grammatischen Modell „valenzrelevant“ können nur „syntaktische“ Kategorien sein, Gegenstand von „contextual inflection“ (Booij 2000a, 365; vgl. Spencer 2000, 313). Bei ihnen handelt es sich um ausschließlich der syntaktischen Verknüpfung dienende Kategorien wie v. a. Kasus (Domäne der „Rektion“) oder um solche, die zwar primär „semantisch“ sind (nach Booij Gegenstand von „inherent inflection“), aber, wie Numerus, sekundär syntaktisch „weiterverwendet“ werden können (Domäne der „Kongruenz“ etwa zwischen Subjekt und Verb oder zwischen Mitgliedern einer NP), aber nicht müssen, wie z. B. der verb-unabhängige Numerus eines Substantivs in Objektsfunktion (Harnisch 1987, 18 gegen Anderson 1982, 588; vgl. Plungian 2000, 30 ff.). „Syntaktische“/valenzrelevante Kategorien können miteinander und mit „semantischen“/
412
IV. Valenz. Grundlagen und Grundfragen
valenzirrelevanten grammatischen Kategorien ausdrucksseitig in einem Marker kumuliert/fusioniert/amalgamiert/zu einem „Port(e)manteau”-Morph(em) verschmolzen sein, z. B. wenn der valenzgeforderte Dativ und der frei gewählte Plural eines Objekts in nur einem (Kasus-Numerus-)Suffix ausgedrückt werden oder ein unteilbares verbales Suffix neben den syntaktisch relevanten Kongruenzkategorien Person und Numerus auch noch die semantischen Kategorien Tempus und Modus umfasst. In Valenz-Zusammenhängen gehen auf solche Phänomene Heringer (1973, ´ gel (1993, 35) 216), Korhonen (1979, 7 f.), A und Eroms (2000, 130) ein. In der Valenztheorie werden Fragen nach der Reichweite von Valenzen nicht einheitlich beantwortet. Morphologisch pointiert sind das die Fragen, ob nur die Marker von „geforderten“ Besetzern echter Leerstellen oder auch die von den lediglich „zugelassenen“ Dependentien Gegenstand sein sollen. Mit ´ gel (1993, 44), Rückhalt in Aussagen bei A Eroms (2000, 85/131) und Stepanowa/Helbig (1978, 119) wird hier der großzügigeren Auslegung gefolgt. Die in der Valenz-/Dependenzgrammatik noch diskutierten Fragen nach dem Status der Dependentien (ob also ein Element obligatorische oder fakultative Ergänzung ist; ob ein Element Ergänzung oder Angabe ist) sowie nach Hierarchien innerhalb der valenziellen/dependentiellen Stemmata, d. h. nach Über-, Gleich- oder Unterordnung etwa der Artikel im Verhältnis zum Substantiv (Eroms 1988) oder der affixischen Valenzmarker im Verhältnis zum Lexemstamm (Korhonen 1979, 23) bleiben so weit wie möglich ausgeklammert. Eine Abgrenzung von „Valenz“ und „Dependenz“ ist nicht immer scharf zu ziehen (zu „Abhängigkeiten“ generell und außerhalb der engeren Dependenzgrammatik Kunze 1975). ⫺ Objektsprache der Ausführungen ist im Wesentlichen das Deutsche, nicht zuletzt deswegen, weil das Valenzmodell in vielen rezenten Arbeiten zu dieser Sprache weiterentwickelt worden ist (vgl. die Arbeiten der Herausgeber des vorliegenden Handbuchs).
2.
Verbabhängige Morphologie und Valenzmorphologie der Subjekt-Verb-Kongruenz
Von den „Ergänzungsklassen“, die Korhonen (1979) in Abhängigkeit vom Valenzträger ‘finites Verb’ ansetzt, sind unmittelbar flexions-
relevant das Substantiv (in Kopula-Konstruktionen auch das Adjektiv) für die Kasusmorphologie und infinite Verbformen in mehrteiligen Prädikaten. Präpositionale Konstruktionen in Form von Ergänzungen (und die damit verbundenen Kasusforderungen) oder des Infinitivs mit zu kommen jeweils noch hinzu. „Das Infinitiv- und Partizipmorphem sind mit dem Kasus, zu wiederum mit der Präposition beim Nomen vergleichbar. Wie der Kasus am Nomen, so werden das Infinitiv- und Partizipmorphem am Verb realisiert und wie die Präposition den Kasus beim Nomen, so regieren zu und die Präposition beim Verb das Infinitiv- und Partizipmorphem“ (Korhonen 1985, 197 ff.). 2.1. Kasusmorphologie Die „Abhängigkeiten vom Prädikat (werden) zentral über die Flexion der Nominalgruppen signalisiert“ (Eichinger 1995b, 210). Vom Verb als dem „Organisationszentrum des Satzes“ (Eroms 2000, 85) ausgehend, ist Valenzmorphologie also zunächst und in erster Linie Kasusmorphologie. Sie wird aktualisiert, wenn die vom verbalen Lexem (schon in dessen Lexikoneintrag) geforderten/zugelassenen Ergänzungen, prototypisch realisiert in Substantiven, als „Ergänzungen/Substantive im Nominativ/Akkusativ/Dativ/…“ ausgewiesen werden (zur Sonderrolle von „Ergänzungen/Substantiven im Nominativ“, also zur Subjektposition, mehr in Kap. 2.3). In der Hierarchie der Valenzebenen handelt es sich um „Oberflächenkasus“, welche die „semantischen“ oder „Tiefen-Kasus“ zwar reflektieren, aber nicht direkt abbilden (helfen J Kinder-n Dat. vs. unterstützen J Kinder-Ø Akk.; schreiben J dem Lai-en Dat. ‘an den Laien’ Objekts-Dat. vs. ‘für den Laien’ freier Dativ; mit Präposition schreiben J an J Kinder-Ø Akk. vs. schreiben J Kinder-n Dat.). Der Charakterisierung der Ergänzungen „nach der Satzgliedschaft (z. B. als Subjekt, Objekt usw.)“ folgt diejenige „nach der morphologischen Repräsentation der Satzglieder“ (Helbig 1992, 155) etwa in der Notation der Valenzgrammatiken und Valenzwörterbücher als Sn/Sa/Sd/… (Helbig/Schenkel 1969 mit S für Substantiv, n für Nominativ usw.). Zu beachten ist, dass letztere Charakterisierung zwei Teilinformationen enthält, die valenzmorphologisch relevant sind: Kasus und „Wortklasse“/Wortart (Stepanowa/ Helbig 1978, 126). Bestimmmte syntaktische Funktionen können nur von bestimmten Wortklassen erfüllt werden. Von bestimmten
33. Ebenen der Valenzbeschreibung: die morphologische Ebene
Wortklassen sind valenzielle Beziehungen auf bestimmte andere Wortklassen gerichtet (Korhonen 1981, 39). Bestimmte Wortklassen weisen einen bestimmten Satz von flexivischen Kategorien auf, die jene valenziellen Beziehungen zwischen Wortklassen im Satz kennzeichnen (vgl. de Groot 1948, 444) und in Paradigmen geordnet sind. Der eigentliche Beitrag der Morphologiekomponente einer valenziellen Gesamtgrammatik besteht dann in der Selektion der im Kasus „passenden“ Wortform eines Wortklassen-Mitglieds aus dem betreffenden Paradigma (Forsgren 2000, 665). Das kann ein Paradigma aus Wörtern mit suffixisch realisierten Kasus sein wie beim Substantiv. Dessen morphologische Strukturiertheit ist Ausdruck einer funktionalen Arbeitsteilung: Das lexikalische Basismorphem repräsentiert die valenziell geforderte/zugelassene Wortklasse, die grammatischen Affixe signalisieren die Beziehungen zu den Mitgliedern anderer Wortklassen im Satz. Bei ihnen muss es sich nicht um ein reines Kasusmorphem handeln, z. B. wenn Kasus ausdrucksseitig in Fusion mit andern grammatischen Kategorien (z. B. des Numerus) gekennzeichnet wird. Das Paradigma kann auch aus alternierenden grammatischen Funktionswörtern („Morphemwörtern“; Eroms 1989, 119 mit Verweis auf Harnisch 1987, 72) wie Pronomina bestehen, die intern mehr, weniger oder gar nicht strukturiert sind (*d-er/d-en oder der/den, dagegen kaum *Ø-er/ih-n, sondern er/ihn und nur wir/uns). Auch sie müssen aber der ‘richtige’ Wortklassenrepräsentant sein und mit der ‘richtigen’ Form aus ihrem Paradigma der syntaktischen Beziehungskennzeichnung dienen. Bei präpositionalen Ergänzungen (Notation „pS“) ist zwischen Verb und nominale Ebene die Präposition geschaltet, die jedoch den Kasus nicht eigentlich regiert, da er vom Verb zumindest noch mit abhängt (wohnen in ein-em Haus Dat. vs. ziehen in ein-Ø Haus Akk.; beruhen auf einem Irrtum Dat. vs. warten auf ein-en Freund Akk.). Die Präposition eröffnet zwar die Leerstelle (quantitative Steuerung), das Verb bestimmt jedoch die Art der Ausfüllung, den Kasus (qualitative Steuerung) (vgl. Korhonen 1981, 195, und Eroms 1991b, 41). In pronominal-adverbialen Phrasen, die präpositionale ersetzen, kann sich die Forderung des Valenzträgers ebenfalls morphologisch niederschlagen. Vgl. stehen ⇒ hinter d-er Wand und stehen J hint-en mit sich stellen ⇒ hinter d-ie Wand und sich stellen J dahint-er (Dop-
413
pelpfeil ⇒ für doppelte Forderung des Verbs nach Präposition und Kasus). Neben diesen Formen morphologischer Kennzeichnung am „dependenten“ (leerstellen-füllenden) Element gibt es auch eine von ´ gel (1993) so genannte „mikrovalenzielle“ A Kennzeichnung am (leerstellen-eröffnenden) „Kopf“ der Konstruktion (zu „head-“ vs. „dependent-marking“ Nichols 1986). Tesnie`re (1966, 141) nennt als Beispiel das ungar. Verb, bei dem es eine paradigmatische Suffixalternation zwischen intransitivem e´n la´t-ok ‘ich sehe’ und transitivem e´n la´t-om ‘ich sehe ihn’ (mit affixisch ausgedrücktem pronominalem Objekt) bzw. e´n la´t-om a fa´t ‘ich sehe den Baum’, wörtlich „ich sehe ihn, den Baum“ (mit „makrovalenziell“ ausgedrücktem substantivischem Objekt) gibt. Solche morphologischen Objektkennzeichnungen am Valenzträger/verbalen Kopf kommen in den von der Valenzgrammatik beschriebenen Sprachen selten vor. Hinweisen kann man noch auf enklitische Objektspronomina wie ugs. sie will’s ‘sie will es’, die möglicherweise auf dem Weg zur „Suffigierung“ sind. An der häufigeren Suffigierung von Subjektspronomina lässt sich veranschaulichen, worauf bereits Tesnie`re (1966, 139) aufmerksam gemacht hatte: Viele Sprachen entwickeln aus diesen dem Verb postponierten Funktionswörtern ihr System der Konjugationsflexive. Dieser Entstehungsweg zeigt besonders deutlich, dass in der verbalen Flexion das Subjekt mitenthalten ist. Anzunehmen ist das jedoch für Sprachen mit affixmorphologischer Konjugation generell, also auch wenn die Verbalflexive diachron keine Subjekts-„Nomina“ reflektieren sollten. Es ist dann nicht nur so, dass die „Finitisierung“ des Verbs erst seine volle Valenz freisetzt und es ihm ermöglicht, auch „auf das Subjekt auszugreifen“ (Eichinger 1995a, 41), sondern dass in den Konjugationsmorphemen sogar stets eine „mikrovalenzielle“ Subjekts- oder Enom/subj-Kennzeichnung steckt. In Reinform verkörpern das „Pro-Drop-Sprachen“ wie das Lateinische mit Formen wie am-o/am-at, wo die gebundenen Morpheme nicht nur die grammatischen Merkmale ‘Person’ und ‘Numerus’ repräsentieren (zu ihnen unter Kongruenz-Aspekten mehr in 2.3.), sondern das ‘ganze’ Subjekt. In Sprachen mit obligatorischer auch „makrovalenzieller“ Erst-Aktanten-Realisierung (also solcher durch „selbständige Wörter“; Eroms 2000, 131) „regiert“ das Verb, nach Eroms (1991a, 227) genauer das Verbalflexiv und noch genauer dessen im Personalflexiv impli-
414 zit vertretener Kasus-Teil (sein „verbaler No´ gel 1993, 37) das Subjekt minativ“ nach A und „kongruiert“ das Verb, genauer dessen Verbalflexiv und noch genauer dessen Person-Numerus-Teil, gleichzeitig mit dem Subjekt. Auch in Nicht-Pro-Drop-Sprachen gibt es Spuren mikrovalenzieller Subjektsrealisierung im/am Verb allein, z. B. bei Imperativen (ess-t!, iss-Ø!) oder Formulierungen im Tele´ gel grammstil (ankomm-e 12 Uhr), die nach A (1993, 44) „nicht weniger ‘subjekthaltig’“ sind, sondern eben nur keine makrovalenzielle Nominativergänzung aufweisen. Auf einer Stufe zwischen Subjektslosigkeit und obligatorischer Setzung eines echten Subjekts stehen Konstruktionen wie die mit dem „Scheinsubjekt“ es (zu seiner valenziellen Be´ gel 1993, 57 ff.). ziehung zum Verbalflexiv -t A Ein Beispiel dafür, dass die makrovalenzielle Realisierung eines „Zwei-Ebenen-Aktants“ ´ gel 1993, 40) ein ganzer (Neben-)Satz sein (A kann, der mikrovalenziell am Leerstelleneröffner des Nebensatzes, der Subjunktion (Eroms 1991a, 223, und 1993, 28), noch einmal realisiert wird, sind Beispielsätze mit sog. „flektierten Nebensatzeinleitern“ wie dial. wenn-st du willst (Harnisch 1989). Dass an die Subjunktion das Verbalflexiv tritt, ist insofern erklärlich, als der Leerstellenbesetzer, der Nebensatz, erst durch die Finitisierung aktualisiert wird. Das -st am Verb ist dann selbst wieder die Realisierung eines „ZweiEbenen-Aktants“: die mikrovalenzielle, ‘verbale’ Repräsentation des Nominativs, der makrovalenziell noch einmal vom Subjektspronomen du vertreten wird. In mehrteiligen Prädikaten kommt es zwischen finiten und infiniten Teilen zu einer Arbeitsteilung in der Leerstelleneröffnung und Aktantenbindung: „der finite (bindet) das Subjekt, der infinite alle andern Ergänzungen“ (Eroms 1991a, 227). Gezählt werde aber die „Gesamtwertigkeit“ des Prädikats (anders Korhonen 1985, 194, der auch Esub ans Infinitum bindet). Der Satz Du sollst deinen Tesnie`re studieren wäre dann unter Berücksichtigung der obigen makro- und mikrovalenziellen Details so stemmatisiert: Du I -st; soll- J studieren J dein-en Tesnie`re. Vervollständigend müsste man sagen, dass der finite Teil (hier eines Modalverbs, in Frage kommen aber genauso Auxiliare) die Subjektsergänzung „abbindet“ und den infiniten Teil bindet, dieser wiederum erst die andern Ergänzungen bindet (Eroms 2000, 145, der mit der Redeweise von der „Abbindung“ des Subjekts dessen Sonderstellung auch in der Va-
IV. Valenz. Grundlagen und Grundfragen
lenzgrammatik deutlich macht). Die valenzabhängige Morphologie des Infinitums (oben studier-en) ist dann Gegenstand von Kap. 2.2. Unter morphologischem Gesichtspunkt ist noch erwähnenswert, dass Eichinger (1995a, 41 f.) die Finita mehrteiliger Prädikate als „Wortteiläquivalente“, also als in den Satz projizierte verselbständigte Flexionsmarker (‘Finitisierer’ des Gesamtprädikats) auffasst ⫺ in Analogie zu Artikeln als „Wortteiläquivalente“ von Substantiven bei Eroms (1985, 317; s. u. Kap. 3): vgl. (du) kauf-st mit ha-st gekauft oder wir-st kaufen und analog arch. „zu Regin-en hinzuziehen“ mit „neben der eilfjährigen Strößners Regina“ (Jean Paul). Die Besonderheit von Kopula-Konstruktionen ist unter Valenzaspekten die KasusIdentität der beiden „von der Kopula als dem Valenzträger“ abhängigen nominalen Ergänzungen (Korhonen 1981, 48; bei Eroms 2000, 206 differenziert nach Esub und Enom/Eadj). Man vergleiche die Redeweise von „Gleichsetzungs-Nominativ/Akkusativ“. Nach Admoni (1982, 216) handelt es sich dabei nicht um Rektion oder Kongruenz allein, sondern um eine syntaktische Fügung, „die die Anschließung des Prädikativs an das Verb und die Kongruenz des Prädikativs mit dem Subjekt überlagert“. Sie schlägt sich morphologisch in Sätzen wie Wilhelm-Ø ist ein- Ø großer Linguist-Ø oder (mit substantivischer Ellipse?) dies-e Frag-en sind linguistisch-e (ahd. auch noch der man ist blint-eˆr ‘der Mann ist blind’) nieder. Auch hier ist, bei aller „Gleichsetzung“ der nominalen Ergänzungen, das Subjekt in seiner Beziehung zum Verb privilegiert, was man an der Kongruenzrichtung personverschiedener Konstruktionen sieht: Du2.Sg. J bleib-st2.Sg. ⫺ ein guter Schüler, nicht *Du ⫺ bleib-t3.Sg. I ein guter Schüler3.Sg. (Helbig/Schenkel 1969, 27). 2.2. Valenzmorphologie infiniter Formen In mehrteiligen Prädikaten herrschen zwischen den beteiligten Verben dependente Beziehungen. Nach Eroms (1991a, 226) verfügen Hilfsverben „eindeutig“ über Valenzen. Zu nominalen Ergänzungen von Vollverben wie in seinen Beispielsätzen Er mag sie / Sie kann es / Er wird Lehrer lassen sich Auxiliarkonstruktionen parallel setzen wie Er mag heirat-en / Sie kann sing-en / Er wird studieren. „In auxiliarer Funktion ist die Valenz dieser Verben auf die Bindung anderer Verbformen (Partizipien und Infinitive) reduziert“, die nicht zufällig sog. „Verbal-Nomina“ sind. Auch Sätze wie Er geht auf d-en Markt und
415
33. Ebenen der Valenzbeschreibung: die morphologische Ebene
Er geht einkauf-en sind in diesem Sinne strukturähnlich. Ein „infinites Verbmorphem“ wie das -en obiger Beispiele zeigt an, dass „ein Verb regiert ist“ (ein finites umgekehrt, „dass es regiert“; Eroms 1991a, 227). Auch präpositionale Phrasen gehen hier parallel. Man vergleiche einen Satz wie Er hofft zu gewinn-en mit einem wie Er fährt zu Wettkämpf-en (nach Korhonen 1985, 197 f.). Die Sättigungsmöglichkeit auch durch Infinita gehört also mit in den Stellenplan bestimmter Verben. Auf diese Weise ergibt sich eine besondere, valenzbedingte Art von Paradigma(tik), wo z. B. EAkk und Inf. (ausdrucksseitig: die jeweiligen morphologischen Formen) alternieren können. Anders als Verben bestimmte Kasus oder Auxiliare wie die Modalverben Infinitivformen, solche wie haben bzw. sein Präteritalpartizipien fordern, kann werden mit beidem gesättigt werden: Sie wird fahr-en vs. Sie wird ge-fahr-en. Hier ist die Art der Leerstellenbesetzung durch ‘Inf.’ bzw. ‘P.P.’ frei gewählt, also von ‘ober- oder außerhalb V’ bestimmt, während das Hilfsverb selbst nur die Leerstelle an sich eröffnet. In mehr als zweiteiligen Prädikatsverbänden sind unterhalb des finiten Auxiliars infinite Verbformen an andere infinite Verbformen gebunden. Ein vierteiliges Prädikat nach einem Beispiel in Eroms (1993, 29: die Schrift hat gelesen werden können) wäre stemmatisch so darzustellen (die Pfeile deuten jeweils vom Regens zum Dependenten): die Schrift I hat J könn-en J werd-en J ge-les-en. Die hierarchische Abstufung der Prädikatsteile mit ihren charakteristischen Infinit-Morphologien ist invers zum Aufbau dieser komplexen Auxiliarkonstruktion: *jemand liest die Schrift J die Schrift wird ge-les-en (Passivierung) J … kann [ge-les-en werd-en] (Modalbildung) J … [hat [ge-les-en werd-en] könn-en] (Perfektbildung). Eine andere hierarchische Stemmatisierung schlägt Korhonen (1985, 200) für die Phrase (wir) haben gesungen vor. Die valenzmorphologisch relevante Zerlegung der betroffenen Prädikatsteile in Stämme (mit „Relatoren“-Funktion) und fle-
Otto-Ø Jen-er Toni-Ø Otto-Ø Ergänzungsklasse mit Valenzmarker
I Nom. I Nom. I Nom. ValenzartSelektor
xivische Affixe (mit der Aufgabe von „Relationsmarkern“) ist auch hier durchgeführt: -enfin; ge-/Ablaut/-eninf J hab-fin J -sing-inf. 2.3. Zusammenfassung und zur Sonderrolle des Subjekts „Will man die syntaktische Beziehung zwischen dem Valenzträger und der Ergänzung im Hinblick auf grammatische Morpheme explizit darstellen“, erscheint Korhonen (1979, 23) das folgende Stemma am günstigsten: S I n I V J a J S. Darin ist „V“ (das Verb) „Valenzträger“, „n“ und „a“ (für Nominativ bzw. Akkusativ) erscheinen als „Marker der Valenzbeziehung, d. h. der Teil für die morphosyntaktische Anschlussart“, und „S“ (Substantiv) steht für die „Klasse der Ergänzung“. Wenn man die Leerstellenbesetzung durch ein Infinitum unter Valenzgesichtspunkten als strukturäquivalent mit der Leerstellenbesetzung durch ein Substantiv mit direktem Objektskasus betrachtet und das obige Stemma erweitert (S I Nom. I V J Akk./Inf J S/V), stellen sich die Beispiele für die drei hier dargestellten Typen verbabhängiger Morphologie so dar. Dieses Diagramm wäre nach Korhonen (1979, 24) so zu lesen, dass vom Verb jeweils zwei Ergänzungen abhängen, von denen die eine durch Nominativsuffix, die andere durch Akkusativ- bzw. Infinitivsuffix „ans Verb angeschlossen wird.“ Nur würde er, wie aus seinem sonstigen Verfahren zu schließen ist, an Stelle von Nom., Akk. und Inf. gleich die Morpheme -Ø/-er, -enAkk. und -enInf. setzen und die Angehörigen der Ergänzungsklassen ohne Valenzmarker als Stämme notieren, doch ist das im hier nur interessierenden morphologischen Effekt einerlei. Das Spezifische an dieser Art, die (Flexions-)Morphologie in die Gesamtgrammatik zu integrieren, ist, dass die Exponenten (Morpheme) der betroffenen syntaktischen Kategorien als „Marker der Valenzbeziehungen“ (Korhonen 1979, 23; Hervorhebung R. H.) aufgefasst werden und nicht nur, wie in andern (konstituenziellen, generativen) Grammatikmodellen auch,
I kennt I ist I darf Valenzträger
Abb. 33.1: Typen verbabhängiger Morphologie
J Akk. J Nom. J Inf. ValenzartSelektor
J J J
dies-en Linguist-en dies-er Linguist-Ø vorsing-en Ergänzungsklasse mit Valenzmarker
416 als syntaktische Merkmale („syntactic features“) an sich. Aus den Ausführungen, die auf das Subjekt bezogen waren, ging zusätzlich hervor, dass beim Verb zwischen den ValenzträgerFunktionen des lexikalischen und des grammatischen Morphems (des Stamms und des Flexivs) zu unterscheiden ist. Während das Verblexem die obliquen Kasus lexikalisch fordert und bindet (siehe die Form von Lexikoneinträgen: geben, jemandemDat etwasAkk, aber ohne *jemandNom/Sub; Eroms 1985, 314, und 2000, 184), fordert und bindet das Verbflexiv den Casus rectus des Subjekts grammatisch (Eichinger 1995a, 41). Es enthält quasi einen „verbalen Nominativ“ mit, den es bei „Pro-Drop“ mikrovalenziell allein vertritt oder für den es andernfalls eine makrovalenzielle Realisierung durch ein selbständiges Wort fordert. Auch Eroms’ zitierte Redeweise von der „Abbindung“ des Subjekts vom Verb und der „Bindung“ der Objekte und anderer Ergänzungen ans Verb signalisiert den besonderen Status des Subjekts. Vor allem aber nimmt das Subjekt mit seiner Morphologie selbst in der Valenzgrammatik, die im Prinzip alle Ergänzungen als gleichwertig ansieht, insofern eine Sonderrolle ein, als gegen die sonstige kasus-relevante Abhängigkeitsrichtung (Corbett 2000, 192) die Person- und Numerusinformation, die nach Eroms (1985, 315) aus dem (Pro-)Nomen stammt, auf das Verb, genauer auf dessen Flexiv übertragen wird. Dieses Flexiv ist dadurch funktionell oft stark belastet und in seine Einzelfunktionen/grammatischen Merkmale kaum segmentierbar, sondern ein komplexes Amalgam ´ gel 1993, 35/45), das z. T. auch noch „frei (A wählbare“ verbalgrammatische Merkmale wie Tempus tragen muss: das -e in (er) wolle etwa Präsens, Indikativ, 3. Person, Singular, Aktiv und ⫺ als Finitisierungsmarker implizit eben auch ⫺ (Verbal-)Nominativ. Es ist der Sonderrolle des Subjekts geschuldet, dass die Dependenzgrammatik folgende morphologierelevante Entscheidung für den Valenzträger getroffen hat: „Das Finitum ist […] selber kein einfaches lexikalisches Element, sondern besteht aus dem Verblexem und einem wiederum komplexen grammatischen Morphem (‘INFL’)“ (Eroms 1988, 291, und 2000, 130) ⫺ Anklang an das Finitheitsmerkmal INFL[ection] der generativen Grammatik, in dessen AGR[eement]-Element die ´ gel Kongruenzmerkmale repräsentiert sind (A 1993, 46).
IV. Valenz. Grundlagen und Grundfragen
3.
Valenzmorphologie innerhalb der Nominalphrase
Morphologie in der Nominalphrase ist im Wesentlichen flexivische Kennzeichnung von Kongruenz. Valenzrelevant ist dabei, wie das vom Verb rektional in die NP gebrachte Kasusmerkmal sich auf die Glieder einer mehrteiligen nominalen Kette verteilt. Am einfachsten ist es, erst einmal der gesamten NP den betreffenden Kasus zuzuweisen, der dann an die einzelnen Vertreter der unterschiedlichen nominalen Wortklassen gleichmäßig weiterverteilt wird (d-emDat/bekannt-enDat/ Advokat-enDat I NPDat I geben J NPAkk J dies-esAkk/wichtig-eAkk/Mandat-ØAkk). Dieses Verfahren ist eher konstituenziell (vgl. Heringer 1973, 207 f. und seinen Knoten „kasα“) und ⫺ bei allen sonstigen Unterschieden ⫺ dem Vorgehen der Kasusgrammatik (Fillmore 1968; vgl. auch Arbeitsgruppe Marburg 1973, 23) verwandt, wo von der Proposition P die („Tiefen“-)Kasus Cn zugewiesen, diese dann an die gesamte NP und die Konstruktionsmittel K (wie Kasusmorpheme) verzweigt weitergewiesen werden (K/NP I C1 I P J C2 J K/NP). Die Auswahl der konkreten Flexionsmorpheme ist durch die Wortklassenangehörigkeit der Beteiligten mitbestimmt (s. o. Dat.-em beim Artikel vs. Dat.-en bei Adjektiv und Substantiv; oder Akk.-es beim Artikelwort vs. Akk.-e beim Adj. und Akk.-Ø beim Substantiv) und insofern jedoch auch intern NP-syntaktisch geregelt. Genus, Numerus und Deklinationsklassenzugehörigkeit steuern die Auswahl ebenfalls mit, so dass man es auch hier mit dem Problem kumulativer Morpheme zu tun hat (z. B. Advokat-en als ‘starkes’ ,singularisches’ ,Maskulinum’ im ‘Dativ’). Heringer (1973, 216) führt solche Morpheme mit „kumulierenden Bedeutungen“ zunächst tiefenstrukturell an zwei vom NP-Knoten abgezweigten Stellen der Satzstruktur: in der „Nominale“ (dies-en Büch-ern) nach ihrer „informativen“ (d. h. semantisch ‘frei wählbaren’) Bedeutung und als „Kasustranslative“ allein (-en -ern) nach ihrer „translativen“ Bedeutung (d. h. ihrer syntaktischen Leistung), welche „die Verwendbarkeit im Satz und die Zuordnung zu bestimmten Leerstellen ungesättigter Positionen bestimmt“. Letztere werden, nachdem sie die Argumente geordnet haben, getilgt, womit oberflächenstrukturell wieder kumulative Morpheme vorliegen. Die der Valenzgrammatik stärker entsprechende Art der Expansion des Kasus (und
33. Ebenen der Valenzbeschreibung: die morphologische Ebene
anderer mit ihm z. T. kumulierter grammatischer Kategorien) auf die gesamte NP ist es, auch deren Mitspieler nach valenziellen Kriterien zu hierarchisieren, wobei es durchaus unterschiedliche Meinungen darüber geben kann, was regierend, dependent oder interdependent ist. Zum substantivbezüglichen Status des Artikels äußern sich etwa Korhonen (1985, 196 ff.) und Eroms (1988 und 2000, 252), zu dem des Adjektivs Helbig/Schenkel (1969, 18) und Eroms (2000, 285), der das Problem darauf pointiert, ob die NP expandierte Substantiv- oder Determinatorphrase ist oder Züge von beidem trage (252). Gemeinsam ist allen Verfahren aber, dass zunächst nur ein „Kopf“ (oder auch nur ein „Kern“, Eroms 2000, 249) der Phrase flexivisch determiniert wird, dieser die grammatische Kategorisierung dem nächsten nominalen Dependenten zuweist usw. (bekannt-en I d-em Advokat(-en) I geben J dies-es Mandat- Ø J wichtig-e). Hier sind, dem Weg von Eroms (1988, 292, und 2000, 253) folgend, die Artikel(wörter) auf einer hierarchischen Stufe und als interdependent mit dem Substantiv angesetzt worden. Das Kasusflexiv -en bei Advokat ist als optional eingeklammert worden, um an der Phrase dem Advokat mit endungslosem Substantiv die „Wortteiläquivalenz“ des Artikels als Flexionsmarker (Eroms 1985, 317) in Funktion zu zeigen. Die Quelle der flexivischen Kennzeichnung (nach Kasus und andern damit fusionierten grammatischen Merkmalen) in der gesamten NP wird im Substantiv und als von dort auf andere Teilhaber an der NP übertragen gesehen (Eroms 2000, 255). Z. B. kann das ‘singularische’ ,Maskulinum’ Advokat vom verbalen Valenzträger als Esubj und damit als Substantiv im ‘Nominativ’ gefordert werden. Dieses Substantiv delegiert dann die Symbolisierung dieser Merkmale an seine nominalen Begleiter in der NP. Nach diesem Merkmalsbündel richtet sich die Selektion der passenden Flexionsform von Artikel und attributivem Adjektiv. Hier ist es das -er der sog. „starken“ Flexion. Dieser grammatische Anzeiger kann nun im bestimmten Artikel realisiert sein (d-er Advokat). ⫺ Hinweis auf eine innere morphologische Strukturiertheit des bestimmten Artikels selbst (mehr unten). Seine nochmalige ‘volle’ Realiserung in einem Adjektiv ist dann nicht nötig, sondern bei ihm genügt sog. „schwache“ Flexion (d-er bekannt-e Advokat). Das geforderte Morphem kann aber auch beim Adjektiv realisiert sein, wenn der unbestimmte Artikel, der im
417
Nom.Sg.msk. endungslos ist, die NP eröffnet (ein-Ø bekannt-er Advokat). In einem andern Kasus, etwa Dat., für den das „starke“ -em selegiert wird (ein-em bekannt-en Advokaten), ist der unbestimmte Artikel selber Träger des Flexivs und bedingt dann das „schwache“ adjektivische Flexiv, während das konkomitant auftretende substantivische Flexiv als schon im Zuge der verbvalenzbedingten Kasuskennzeichnung zugewiesen betrachtet werden kann (vgl. aber die Ausführungen zum nächsten sprachlichen Beispiel). Diese Verteilung der Flexionssignale in der NP ist unter Hervorhebung der nur einmaligen vollen flexivischen Kennzeichnung als „Monoflexion“ (Admoni 1982) beschrieben worden, die Bezeichnung „Gruppenflexion“ (Eroms 2000, 278) dagegen hebt auf das Zusammenspiel der Teilhaber an der NP bei der flexivischen Kennzeichnung ab, ohne dass übrigens ein diskontinuierliches Morphem mit Verteilung auf unterschiedliche NP-Angehörige vorliegen würde, denn es brauchen nicht alle gleichzeitig vertreten zu sein (Heringer 1973, 208). Immer erhellt aus der Steuerungsmacht der Artikel(wörter), dass sie Regensqualitäten aufweisen. Sie bestimmen Träger und Art der Flexion („stark/schwach“) innerhalb der NP, wobei ihre Reichweite über attributive Adjektive bis zu den Substantiven reichen kann: vgl. die dialektalen Varianten mid dan-Ø Kühne / mid dan-e Küh-Ø „mit den Küh-en“ / „mit den-en Küh“ (Bock 1965, 64). Die Frage, ob hier die Substantivflexion regressiv die Artikelflexion steuert oder umgekehrt die Artikelflexion progressiv die substantivische, wird offen gelassen. Jedenfalls ist diese Art von Steuerungen rein inner-morphologisch und insofern mit valenziellen/dependentiellen Bindungsregularitäten in der Phonologie (‘Phonotax’) vergleichbar (Anderson 1987). Trotzdem bleibt auch diese Bindungsleistung semantisch relevant, da hier eine syntaktischsemantische Gruppe als zusammengehörig und als gemeinsam vom Valenzträger Verb abhängig gekennzeichnet wird. Regens ist der Artikel über dieses nur ‘äußerliche’ morphosyntaktische Steuerungsvermögen hinaus auch insofern, als er (genauer sein „deiktischer“/„lexikalischer“ Teil d- bzw. ein-) am Beginn der NP eine Leerstelle eröffnet, die nominal weiter zu besetzen ist (Eroms 1989, 122), ein „Nominalsignal“ gibt (Eichinger 1995a, 110) und damit das Substantiv in weitem Sinne „determiniert“ (Eroms 2000, 248). Dependent vom substantivischen Kopf der NP ist der Artikel im Gegenzug dadurch,
418
IV. Valenz. Grundlagen und Grundfragen
dass die Kongruenzinformation aus dem Substantiv stammt und der Artikel die ausgelagerte flexivische Kennzeichnung des Substantivs übernimmt (Eroms 2000, 253). Das Adjektiv ist unter NP-internen Wertigkeitsaspekten „nicht erfordert“, steht also hier im Rang einer „Angabe“ (Eroms 2000, 285) und hängt von der Artikel-Substantiv-Gruppe (einem Syntagma interdependenter Elemente) ab. Morphemgenau sind die rektionalen Beziehungen in der NP (und die postulierbare morphologische Gegliedertheit auch des bestimmten Artikels) so zu denken:
bekannt-e
I
d-er -er
bekannt-er bekannt-en
I I
ein-Ø -em
J I I
Advokat -Ø Nom.Sg.msk. -Ø Nom.Sg.msk.
J I I
Advokat -Ø Nom.Sg.msk. -en Dat.Sg.msk.
Abb. 33.2: Morphemgenaue NP-interne rektionale Beziehungen
In artikellosen Nominalphrasen wie zweifach in Ø Blondin-en tragen Ø lang-es Haar können das Morphem -en der substantivischen Pluralform und das Adjektivsuffix -es als „mikrovalenzielle“ Kennzeichnung der Leistung der hier fehlenden Artikel (im Beispielsatz oben Ø) betrachtet werden (Eroms 2000, 248). Bei Verschmelzungen von Präpositionen mit Artikeln kann man zweierlei Flexion, immer aber innere morphologische Strukturiertheit annehmen. In einem Paradigma aus zu-m, zu-r könnten die Artikelausgänge als Definitheits- und Kasus-Flexive ihres substantivischen Kopfes angesehen werden, in einem Paradigma aus zu-m, vo-m, i-m, a-m könnten umgekehrt die Artikeleingänge als Marker für die Lokalkasus Allativ, Ablativ, Inessiv, Adessiv betrachtet werden, die ⫺ vom verbalen Valenzträger gefordert ⫺ ebenfalls „mikrovalenziell“ an den Artikeln realisiert werden (vgl. Haspelmath 2000).
4.
Valenz-„Vererbung“, „innere“ Valenz und „Valenzwechsel“
Bei der Frage nach Ähnlichkeiten zwischen verbaler und nominaler Valenz kommt das Phänomen der „Argument-“ oder „Valenzvererbung“ (Eroms 2000, 284) ins Spiel. Sie wird bei Derivation, die oft mit syntaktischer Transposition (Wortart-Wechsel) einhergeht, aktuell. Als prototypische Ableitungsrichtung
gilt die vom Verb mit seiner unbestrittenen valenziellen Potenz zu nominalen (darunter am Übergang vom Verb zum Nomen: partizipialen) Bildungen, die in valenzieller Hinsicht problematischer sind (Booij 2000b, 859). Auch Valenz nicht-deverbaler Nomina wird diskutiert, ist aber peripher (vgl. immerhin Sommerfeldt/Schreiber 1974 und 1977). Die fraglichen Valenzträger stehen als Angehörige unterschiedlicher Wortarten auch unterschiedlich im Satz, vgl. X I ähneltV J seinemDat Pat-enDat mit X I istKopula J ähnlichAdj(präd) J sein-emDat Pat-enDat und Y I V J der Bruder J ähnlicheAdj(attr) J seinemDat Pat-enDat (vgl. Korhonen 1981, 46). In ihrer Dependentenforderung/-zulassung und der Zuweisung des passenden morphologischen Kasus jedoch sind sie, wenn auch nicht völlig, äquivalent: Dativ fordern alle obigen Valenzträger, nur die substantivische Ableitung fordert eine präpositionale Ergänzung und damit nur indirekt und anders regiert einen Dativ: Ähnlichkeit J mit J Pat-en J sein-em. Eine weitere Art von morphologischer Relevanz kann sich bei Trägern ererbter Valenz ergeben, wenn sie ihre Argumente inkorporieren und dadurch Komposita bilden: gekleidet J blau ⬎ blau-gekleidet; tragend J Bedeutung ⬎ bedeutung-s-tragend (Eroms 2000, 272 f.), wobei das Fugenmorphem -s- Signal oder zumindest Reflex der ‘tiefen’ Syntaktizität der Bildung sein kann; (das) Schießen J Tontauben ⬎ Tontauben-Schießen. Das letzte Beispiel liegt als Fall von Konversion nahe am Typ eines direkt vom Verb inkorporierten Arguments (Ehe-brechen ⬍ brechen J Ehe), der aber selten ist oder gar nur Reverbalisierung des substantivischen Kompositums (Wurzel 1996, 504 f.): Ehe-brechen ⬍ EheBruch (⬍ Bruch J (der) Ehe ⬍ brechen J Ehe). Die hier „Inkorporation“ genannte Bildung von Komposita aus Valenzträger und Dependent hat zu der Annahme geführt, dass es „innere“ Valenz gebe. Die noch größte Nähe zu den zugrundeliegenden valenzsyntaktischen Strukturen weisen okkasionelle Komposita wie ritterburg-ähnlich auf, die aus ähnlich J (einer) Ritterburg gebildet sind. Die „innere“ Valenz dieser Bildungen fällt mit der „äußeren Valenz ihrer Komponenten in freier Verbindung zusammen“ (Stepanowa 1967, 338), nur dass die Struktur nicht mehr syntaktischer, sondern (wortbildungs)morphologischer Art ist. Stepanowa (1971, 136 ff.) definiert „innere Valenz“ aber noch viel weiter gehend „als Gesamtheit von Ge-
33. Ebenen der Valenzbeschreibung: die morphologische Ebene
setzmäßigkeiten der Zusammenfügung von Wortelementen“ im Sinne von unmittelbaren Konstituenten (134). Hier trifft sie sich mit Anschauungen, die de Groot (1948, 448) für die gesamte, auch flexivische, Morphologie hegte, als er definierte: „the morphological valence of stems, i. e. which stems can or can not be combined with which peripheral morphemes“. Damit läge zwar Valenzmorphologie im engsten Sinne und reinster Form vor: Lexikoneinträge müssen z. B. flexionsmorphologisch gesättigt werden, um in der konkreten satzförmigen Äußerung verwendet werden zu können. Vgl. die „muss-Relation“ zwischen Stamm und Flexiv bei „zieh-t“, die von der Arbeitsgruppe Marburg (1973, 8) postuliert wird: „Wenn ein komplexes Zeichen ‘Verbal’ gebildet werden soll, so impliziert das, dass mindestens ein Lexem mit mindestens einem Grammem verbunden wird.“ Doch führt eine solche radikale Sicht noch nicht zu den semantischen und syntaktischen Quellen der morphologisch zu symbolisierenden grammatischen Kategorien. Die Obligatorik der morphologischen Sättigung gibt erst den Anstoß für die Suche nach diesen Quellen, v. a. in der Syntax (de Groot 1948, 445). Ergebnisse dieser Suche sind in den vorausgehenden Kapiteln des vorliegenden Artikels zusammengetragen. Kennzeichnend für Stepanowas (1971, 136) Konzept innerer Valenzen ist ferner, dass sie es über die Komposition hinaus auf die Ableitungsmorphologie ausdehnt. In Bezug darauf spricht sie sogar von der „Kongruenz“ zwischen Affix und Stamm, sowohl in der Wortart-Vereinbarkeit als auch semantisch. Z. B. könne verneinendes un- nur an Stämme von Abstrakta mit positiver Bedeutung treten (-Dank). Hier geht es also nicht um die Eröffnung von Leerstellen durch das Lexem, die vom Derivationselement gefüllt werden, sondern um Restriktionen bei der Besetzung möglicher Stellen. Wenn davon gesprochen wird, dass nur „wenige Suffixe in ihrer Valenz morphologisch beschränkt“ seien, erscheinen die unselbständigen Wortbildungsmorpheme als Stifter der Abhängigkeitsbeziehungen ⫺ in ähnlicher Weise wie flexivische Affixe etwa bei Korhonen (1985). So selegiert dann z. B. adjektivisches -e(r)n ganz restriktiv ausschließlich Stämme von stoffbezeichnenden Substantiven (samt-en, stein-ern), anderseits sind die Selektionsmöglichkeiten etwa von verbalem be- zwar nicht unbeschränkt (als ‘Transitivierer’ z. B. nimmt es nur ‘intransitive’ Verben als Basis), doch
419
so breit, dass man im Zusammenhang von be-Konversen gleichsam von einem Verb ‘been’ sprechen könnte, also der Anhebung einer Affixbedeutung zu einer quasi-lexikalischen (zu be- Günther 1974, Eroms 1980, Kim 1983), was die Annahme der sonst problematischen Abhängigkeitsrichtung ‘Affix J Lexem’ erleichtert. Das Beispiel der be-Verben zeigt auch, dass man es bei solchen Wortbildungen mit Kategorisierungen zu tun hat, die ähnlich wie bei Diathesen semantischer Natur und ‘wählbar’ sind. Dazu passt der Befund von Bybee (1985, 30), dass Valenzwechsel zu über 90 Prozent von derivationeller Morphologie ausgelöst wird. Insofern also, als diese Derivationsprozesse nicht valenzsyntaktisch relevant sind, sind sie es auch nicht für eine Morphologie im valenzgrammatischen Rahmen. Gleichwohl haben diese Prozesse syntaktische Folgen: Die abgeleiteten Verben weisen gegenüber ihrer Ableitungsbasis eine geänderte Valenz auf. Erst dieser „Valenzwechsel“ (Bybee 1985) ist dann für eine Morphologie in valenzgrammatischem Kontext wieder relevant ⫺ eben dadurch, dass sich Ergänzungsart und Kasusforderung (bei gleichbleibendem „TIEFENKASUS“) verändern. Z. B. wird die OBJEKT-bezeichnende AkkusativErgänzung von pflanzen zur PräpositionalErgänzung von be-pflanzen, die LOKATIVbezeichnende Direktional-Ergänzung zur Akkusativ-Ergänzung (Eroms 2000, 433): rot-e Ros-en I pflanzen ⇒ auf J da-s Beet vs. rot-en Ros-en I mit ⇐ be-pflanzen J da-s Beet. Mit Naumann/Vogel (2000, 939) ist neben solchem Valenz-Wechsel (dienen J Dat. sein-em Herr-n vs. be-dienen J Akk. sein-en Herr-n) auch Valenz-Zuwachs zu berücksichtigen, z. B. wenn ⫺ von präpositionalen Ergänzungen/Angaben abgesehen ⫺ einwertiges herrschen durch be-Präfigierung zweiwertig wird: Subj. I herrscht vs. Subj. I be-herrscht J Akk.-Objekt (zu Typen von Valenzwechsel auch Sadler/Spencer 2000, 227).
5.
Der Satz als Komplex morphologisch kodierter valenzieller Einzelbeziehungen
Wenn Admoni (1982) von der „Fügungspotenz“ der Wörter spricht, ist ein ganz allgemeines valenzielles Prinzip gemeint, das man mit ‘gegenseitiger Durchdringung der Wörter im Satz’ bezeichnen kann. In den vorausgehenden Kapiteln wurden einzelne valenzge-
420
IV. Valenz. Grundlagen und Grundfragen seine
Enkelin
sein-e J
I Enkel-in Enkel-in J
hat
ihren
Paten
ihr-en J
Pat-en J I Pat-en
Akk. Sg.3.msk.
Akk. Sg.3.msk.
I ha-t ha-t J
gesehen
I ge-seh-en I ge-seh-en
Bezüge nach Kategorien: Nom.Sg.3. fem.
Nom.Sg.3. fem.
(Nom.)Sg.3. Verb
Verb (Akk.)
Abb. 33.3: Der Satz als valenzielles Beziehungsgeflecht
steuerte Teile des Satzes intensiv betrachtet. Hier soll abschließend, einem abgewandelten und vereinfachten Beispiel Admonis folgend, ein ganzer Satz extensiv unter dem Aspekt der Verzahnung seiner Wörter betrachtet werden: Seine Enkelin hat ihren Paten gesehen. Mit unterschiedlichen Pfeilen hatte Admoni (1982, 311 ff.) nach den Beziehungstypen „x richtet sich nach y“, „x spiegelt y wider“ und „x und y durchdringen sich wechselseitig“ differenziert. Auf die Darstellung dieser Bezügetypen kommt es i. F. nicht an, so dass nur ein Symbol verwendet wird. In dieser Zerlegung sind jeweils Zweierbezüge von Teilen des Satzes dargestellt, die, nach einem dominoartigen Prinzip aneinandergereiht, eine Kette mit vielen Verknüpfungspunkten ergeben. Meistens liegen die zusammengehörenden Teile direkt nebeneinander, einmal wird ⫺ vom mehrteiligen Prädikat (s. o. 2.2.) ⫺ eine Klammer gebildet, deren Zwischenfeld besetzt wird. An der Symbolisierung der valenziellen Beziehungen sind morphologische Mittel maßgeblich beteiligt. Gallmann (1990, Untertitel) hat aus generativer Perspektive „das Zusammenwirken von Morphologie und Syntax bei der Flexion“ (allerdings nur von Nomina) zum zentralen Gegenstand einer monographischen Untersuchung gemacht, wobei er in seinem Kapitel 2.4 auch generelle valenzielle Gesichtspunkte zur Sprache bringt. Eine solche Arbeit aus dezidiert valenzgrammatischer Sicht steht noch aus.
6.
Literatur in Auswahl
Admoni, Wladimir (1982): Der deutsche Sprachbau. München (4. Aufl.). ´ gel, Vilmos (1993): Ist die Dependenzgrammatik A wirklich am Ende? Valenzrealisierungsebenen,
Kongruenz, Subjekt und die Grenzen des syntaktischen Valenzmodells. In: Zeitschrift für Germanistische Linguistik 21, 20⫺70. Anderson, John (1987): Structural analogy and dependency phonology. In: Anderson, John/Durand, Jacques (Hgg.): Explorations in dependency phonology. Dordrecht, 15⫺48. Anderson, Stephen R. (1982): Where’s morphology? In: Linguistic Inquiry 13, 571⫺612. Arbeitsgruppe Marburg (1973): Aspekte der Valenztheorie. In: Deutsche Sprache 1, 3⫺48. Bock, Gudrun (1965): Die Mundart von Waldau bei Schleusingen. Köln. Booij, Geert (2000a): Inflection and derivation. In: Booij u. a. (Hgg.), 360⫺369. Booij, Geert (2000b): Inheritance. In: Booij u. a. (Hgg.), 857⫺865. Booij, Geert/Lehmann, Christian/Mugdan, Joachim (Hgg.) (2000): Morphologie. Ein internationales Handbuch zur Flexion und Wortbildung. Bd. 1. Berlin/New York. Bybee, Joan L. (1985): Morphology. A study of the relation between meaning and form. Amsterdam/ Philadelphia. Corbett, Greville G. (1998): Morphology and agreement. In: Spencer/Zwicky (Hgg.), 191⫺205. Eichinger, Ludwig M. (1995a): Von der Valenz des Verbs und den Abhängigkeiten in der Nominalgruppe. In: Eichinger, Ludwig M./Eroms, HansWerner (Hgg.): Dependenz und Valenz. Hamburg, 37⫺51. Eichinger, Ludwig M. (1995b): Unter anderem Abhängigkeiten. Texte, Sätze, Klammern und der Ort von Valenz und Dependenz in einer grammatischen Beschreibung des Deutschen. In: Jahrbuch Deutsch als Fremdsprache 21, 209⫺234. Eroms, Hans-Werner (1980): Be-Verb und Präpositionalphrase. Ein Beitrag zur Grammatik der deutschen Verbalpräfixe. Heidelberg.
33. Ebenen der Valenzbeschreibung: die morphologische Ebene Eroms, Hans-Werner (1985): Eine reine Dependenzgrammatik für das Deutsche. In: Deutsche Sprache 13, 306⫺326. Eroms, Hans-Werner (1988): Der Artikel im Deutschen und seine dependenzgrammatische Darstellung. In: Sprachwissenschaft 13, 257⫺308. Eroms, Hans-Werner (1989): Regionalsprachliche Artikelparadigmen und die grammatikalische Behandlung der Artikel im Deutschen. In: Eroms, Hans-Werner (Hg.): Probleme regionaler Sprachen. Hamburg, 103⫺123. Eroms, Hans-Werner (1991a): Valenzbindung und Valenzschichtung im Satz. In: Feldbusch, Elisabeth/Pogarell, Reiner/Weiß, Cornelia (Hgg.): Neue Fragen der Linguistik. Bd. 1. Tübingen, 219⫺231. Eroms, Hans-Werner (1991b): Valenzgebundene Präpositionalkonstruktionen im Deutschen. In: Harweg, Roland/Kishitani, Shoko/Scherner, Maximilian (Hgg.): Die deutsche Sprache ⫺ Gestalt und Leistung. Hennig Brinkmann in der Diskussion. Münster, 39⫺54. Eroms, Hans-Werner (1993): Hierarchien in der deutschen Satzklammer. In: Marillier, Jean-Franc¸ois (Hg.): Satzanfang ⫺ Satzende. Tübingen, 17⫺34. Eroms, Hans-Werner (2000): Syntax der deutschen Sprache. Berlin/New York. Fillmore, Charles J. (1968): The case for case. In: Bach, Emmon/Harms, Robert T. (Hgg.): Universals in linguistic theory. New York/London, 1⫺88. Gallmann, Peter (1990): Kategoriell komplexe Wortformen. Das Zusammenwirken von Morphologie und Syntax bei der Flexion von Nomen und Adjektiv. Tübingen. de Groot, Albert Willem (1948): Structural linguistics and word classes. In: Lingua 1, 427⫺500. Günther, Hartmut (1974): Das System der Verben mit BE- in der deutschen Sprache der Gegenwart. Ein Beitrag zur Struktur des Lexikons der deutschen Grammatik. Tübingen. Harnisch, Rüdiger (1987): Natürliche generative Morphologie und Phonologie des Dialekts von Ludwigsstadt. Tübingen. Harnisch, Rüdiger (1989): Die sogenannte ‘sogenannte Flexion der Konjunktionen’. Ein Paradigma aus der Bavaria thuringica. In: Koller, Erwin/Wegstein, Werner/Wolf, Norbert R. (Hgg.): Bayerisch-österreichische Dialektforschung. Würzburg, 283⫺290. Haspelmath, Martin (2000): Rezension von Ray Fabri u. a. (Hgg.). Models of inflection (Tübingen 1998). In: Linguistics 38, 821⫺826. Helbig, Gerhard (1992): Probleme der Valenz- und Kasustheorie. Tübingen. Helbig, Gerhard/Schenkel, Wolfgang (1969): Wörterbuch zur Valenz und Distribution deutscher Verben. Leipzig (6. Aufl. 1982). Heringer, Hans-Jürgen (1973): Theorie der deutschen Syntax. München (2. Aufl.).
421
Kim, Gyung-Uk (1983): Valenz und Wortbildung. Dargestellt am Beispiel der verbalen Präfixbildungen. Würzburg. Korhonen, Jarmo (1979): Zum morphosyntaktischen Markieren der Valenzbeziehungen im heutigen Deutsch. Oulu. Korhonen, Jarmo (1981): Zum Verhältnis von verbaler und nominaler Valenz am Beispiel des heutigen Deutsch. In: Neuphilologische Mitteilungen 82, 36⫺59. Korhonen, Jarmo (1985): Morpheme als Relatoren und Relationsmarker in der Syntax des heutigen Deutsch. In: Koller, Erwin/Moser, Hans (Hgg.): Studien zur deutschen Grammatik. Johannes Erben zum 60. Geburtstag. Innsbruck, 189⫺203. Kunze, Jürgen (1975): Abhängigkeitsgrammatik. Berlin. Naumann, Bernd/Vogel, Petra (2000): Derivation. In: Booij u. a. (Hgg.), 929⫺943. Nichols, Johanna (1986): Head-marking and dependent-marking grammar. In: Language 62, 56⫺ 119. Plungian, Vladimir A. (2000): Die Stellung der Morphologie im Sprachsystem (Übersetzung: Robert Hammel). In: Booij u. a. (Hgg.), 22⫺34. Sadler, Louisa/Spencer, Andrew (1998): Morphology and argument structure. In: Spencer/Zwicky (Hgg.), 206⫺236. Sommerfeldt, Karl-Ernst/Schreiber, Herbert (1974): Wörterbuch zur Valenz und Distribution deutscher Adjektive. Leipzig (3. Aufl. 1983). Sommerfeldt, Karl-Ernst/Schreiber, Herbert (1977): Wörterbuch zur Valenz und Distribution der Substantive. Leipzig (2. Aufl. 1980). Spencer, Andrew/Zwicky Arnold M. (Hgg.) (1998): The handbook of morphology. Oxford. Spencer, Andrew (2000): Morphology and syntax. In: Booij u. a. (Hgg.), 312⫺334. Stepanowa, Marija D. (1967): Die Zusammensetzung und die ‘innere Valenz’ des Wortes. In: Deutsch als Fremdsprache 4, 335⫺339. Stepanowa, Marija D. (1971): Die ‘innere Valenz’ des Wortes und das Problem der linguistischen Wahrscheinlichkeit. In: Helbig, Gerhard (Hg.): Beiträge zur Valenztheorie. Den Haag/Paris, 133⫺ 142. Stepanowa, Marija D./Helbig, Gerhard (1978): Wortarten und das Problem der Valenz in der deutschen Gegenwartssprache. Leipzig (2. Aufl. 1981). Tesnie`re, Lucien (1959): E´le´ments de syntaxe structurale. Paris (2. Aufl. 1966). Wurzel, Wolfgang U. (1996): Morphologischer Strukturwandel: Typologische Entwicklungen im Deutschen. In: Lang, Ewald/Zifonun, Gisela (Hgg.): Deutsch ⫺ typologisch. Berlin/New York, 492⫺524.
Rüdiger Harnisch, Bayreuth (Deutschland)
422
IV. Valenz. Grundlagen und Grundfragen
34. Valenz und Kognition 1. 2. 3.
5. 6.
Einleitung Valenzforschung und Interdisziplinarität Repräsentationsmodelle ⫺ Proposition und Assoziation Zur Reichweite der Modelle für die linguistische Valenzforschung Zusammenfassung und Schlussfolgerungen Literatur in Auswahl
1.
Einleitung
4.
Die Geschichte der Valenzforschung ist in starkem Maße durch die Diskussion der Ebenen der Valenz geprägt. Handelt es sich bei Valenz um eine primär syntaktische oder primär semantische Erscheinung? Was ist überhaupt unter logischer Valenz zu verstehen? Ist Valenz gar ein universelles kognitives Phänomen? Angesichts des dominanten Interes´ gel ses an der syntaktischen Valenz (vgl. A 1995, Jacobs 1992) kann der Eindruck entstehen, dass der semantische Hintergrund für Valenz verloren ist. Aber gerade die Betrachtung des semantisch-kognitiven Umfeldes des Phänomens der Valenz bietet ebenso Diskussionsstoff, z. B. zur Klärung des Begriffes der Valenzpotenz. Der folgende Beitrag konzentriert sich daher auf die Beziehungen zwischen Valenz und Kognition. Die Darstellung der Beziehungen zwischen Valenz und Kognition und damit auch die zwischen linguistischer Valenzforschung und Kognitiver Psychologie ist aufs engste mit Fragen nach einer Differenzierung von semantisch-sprachlichem und semantisch-begrifflichem Wissen, nach Wissensrepräsentationen und Gedächtnisprozessen verbunden. Die Nähe der Gegenstände von Valenzforschung und Kognition lässt sich in den Begriffen Proposition, Ereignisbegriff bzw. Geschehenstyp und Assoziation fixieren. Der Beitrag beschäftigt sich auch deshalb in seinem Kern mit der Entwicklung dieser Begriffe im wissenschaftlichen Diskurs der Kognitiven Psychologie und in ihren Überlegungen zu Modellen der Wissensrepräsentation im menschlichen Gedächtnis. Dabei soll zunächst auf die Notwendigkeit der Interdisziplinarität von linguistischer Valenzforschung und Kognitiver Psychologie eingegangen werden. Kurz umrissen werden dann wesentliche Auffassungen von Johann Werner Meiner (1781) und Charles Fillmore (1977), die von der sprachphilosophischen und der linguistischen Seite her
den Anstoß dazu gegeben haben, die Beschreibung des Valenzphänomens mit der Beschreibung von Begriffen und Begriffsbildung zu verbinden. Einen größeren Raum nimmt in Punkt 3. die Darstellung solcher kognitionspsychologischen Modelle der Wissensrepräsentation ein, in denen die Beziehungen zum linguistischen Valenzbegriff offensichtlich werden. Punkt 4. diskutiert die Reichweite der favorisierten kognitionspsychologischen Modelle und bezieht sich auf Vorschläge zur Nutzung eines Modells in der semantisch-kognitiven Beschreibung von Valenz. Dabei wird darauf einzugehen sein, wo die Grenze für die Beschäftigung mit dem Begriff der Valenz in der Kognitiven Psychologie liegen könnte und sich die Notwendigkeit für reine linguistische Valenzbeschreibungen stellt.
2.
Valenzforschung und Interdisziplinarität
Betrachtet man die Diskussion der vergangenen Jahre um den Valenzbegriff, so gilt es zu bedenken, ob nicht bei der Klärung bislang offener Fragen ein interdisziplinärer Ansatz hilfreich ist. Dies betrifft Fragen wie die nach den in den Valenzbegriff implizierten Bindungsbeziehungen, nach den Ebenen der Valenz, nach der primären Unterscheidung von Ergänzungen und Angaben sowie der sekundären von obligatorischen und fakultativen Ergänzungen. Der gemeinsame Gegenstand Sprache und ihre kommunikative und kognitive Funktion schafft Berührungspunkte zwischen linguistischer Valenzforschung und Kognitiver Psychologie. Beiden Wissenschaftsdisziplinen geht es um die Struktur von Sprache, um eine Erklärung der Beziehungen zwischen sprachlichem und begrifflichem Wissen, um das Sprachverstehen, um die Sprachverarbeitung und Sprachproduktion. Von daher nimmt es nicht wunder, wenn eine junge Wissenschaftsdisziplin wie die Kognitive Psychologie von Begriffen ausgeht, denen in der Linguistik eine entscheidende Rolle zukommt, die aber gleichwohl der weiteren Klärung durch die linguistische Valenzforschung bedürfen. Solche Termini wie der der Proposition, der Valenz und der semantischen Rollen nehmen in der Kognitiven Psychologie eine zentrale Stellung bei der Erklä-
423
34. Valenz und Kognition
rung der Zusammenhänge von Sprache und Denken ein. Dennoch hat sich im Rahmen der Kognitiven Psychologie gezeigt, dass einzig mit dem Rückgriff auf Beschreibungskategorien der Valenzforschung keine hinreichende Erklärung kognitionspsychologischer Phänomene zum Zusammenhang von Sprache und Denken möglich ist. Dies wird in einem Überblick zu Modellen der Wissensrepräsentation in der Kognitiven Psychologie deutlich. Während die gegenwärtige linguistische Valenzforschung um eine wissenschaftlich fundierte Erklärung des Phänomens der „Valenz“ sowie die Ermittlung empirisch valider Beschreibungsmethoden ringt, die sprachtypologischen und sprachhistorischen Gesichtspunkten genügen sollen, setzt sich die Psychologie zum Ziel, die Repräsentation von Wissen im menschlichen Gedächtnis zu modellieren, um von daher Aussagen zum Funktionieren des menschlichen Gedächtnisses zu treffen. Die Psychologie sucht dabei den Bezug zur Linguistik, indem sie Kenntnisse zu Wortklassen, zu Propositionen und logischen Prädikaten oder eben zur Valenz als Grundlage für Wissensrepräsentationsund Wissensverarbeitungsmodelle heranzieht und unter disziplineigenen und gegenstandsadäquaten Gesichtspunkten weiterentwickelt. Im Unterschied dazu kommt die Diskussion um die „Misere“ (Jacobs 1994) in der Valenztheorie der vergangenen Jahre jedoch augenscheinlich ohne einen Blick auf Erkenntnisse der Kognitiven Psychologie aus. Die Verweise Fillmores auf Szenen und semantische Rollen, der Bezug auf Skripts bei Schank und Abelson gehören in die 70er Jahre, Heringers (1984, 1985) Forschungsergebnisse zur graduellen Abgrenzung von Ergänzungen und Angaben, die aus Assoziationsexperimenten gewonnen wurden, stellen Erkenntnisse und theoretische Argumentationen der 80er Jahre dar. Eine gewisse Abwehr von Erkenntnissen der Psychologie ist sogar zu verzeichnen, wenn Jacobs (1994) und Storrer (1992) den von Heringer aufgenommenen Begriff der Assoziation als einen vermeintlichen psychologischen Hintergrund für Valenz sehen, der für die linguistische Debatte nicht von Belang wäre. Aber auch in der Linguistik ist der Begriff der Assoziation nicht ungebräuchlich. De Saussure hat den Terminus der reziproken Evokation in Bezug auf die beiden Seiten des sprachlichen Zeichens angewandt, paradigmatische Beziehungen zwischen Ausdrücken in Wortfeldern (Äquivalenzbeziehungen, Antonymie) wurden als assoziativ bestimmt. In
diesem Sinne wird Assoziation als Aktivation von Bewusstseinsinhalten, die durch den Reiz einer Zeichenform ausgelöst wird, gesehen. Mit der Begründung jedoch, Argumenthaftigkeit und Assoziativität würden nicht auf unterschiedliche Extensionen verweisen, wird eine angenommene Valenzbeziehung (vgl. Valenz(bindung), Jacobs 1994, 70) der Assoziativität wieder aus der Konfiguration der Valenzbeziehungen herausgenommen. Im Unterschied dazu misst die nachfolgende Darstellung dem Begriff der Assoziation eine fundamentale und natürliche Bedeutung zur Erklärung von Valenz bei. Die Betrachtung der Beziehungen von Valenz und Kognition ist vor diesem Hintergrund aufs engste mit der disziplineigenen Akzentuierung der Begriffe der Proposition, der Valenz und der Assoziation durch die Kognitive Psychologie verbunden, die wiederum diese Begriffe zur Erklärung von Gedächtnis, Wissen, Gedächtnisprozessen und Gedächtnisrepräsentationen nutzt. Für die Psychologie ist davon auszugehen, dass interdisziplinäre Impulse aus Neurobiologie, Psycholinguistik, Linguistik oder Computerwissenschaft und der Analyse formaler Sprachen zu einer Differenzierung der Vorstellungen über Funktion, Architektur und Vernetzung der Elemente des menschlichen Gedächtnisses geführt haben. Eine Diskussion innerhalb der Psychologie um Gedächtnis und Gedächtnisprozesse setzt beim Wissensbegriff ein. Opwis und Lüer (1996) verwenden den Wissensbegriff eher pragmatisch und verstehen ihn „als die Informationsbestände (Strukturen und Prozesse), die von einem informationsverarbeitenden System aufgenommen und gespeichert werden bzw. per Abruf und systeminterner Verarbeitung der weiteren Nutzung zugänglich sind“ (1996, 348). Die Unterscheidung von Wissensinhalten unabhängig von der Art ihrer Speicherung im menschlichen Gedächtnis und ihrer Funktionalität führt zu einer Taxonomie des Wissens, die eine Differenzierung menschlichen Wissens von der Welt vornimmt. Opwis und Lüer betonen, dass es sich bei den folgenden Wissensarten, die in der Psychologie neben weiteren Vorschlägen angenommen werden, um eine erste Annäherung an entsprechende Wissensarten handelt: (i) (ii)
sprachlich-begriffliches Wissen, das dem Sprechen und Sprachverstehen zugrunde liegt, episodisches Wissen als Summe erlebter Erfahrungen,
424 (iii) prozedurales Wissen als operative Fertigkeiten, (iv) bildhaft-anschauliches Wissen. (Vgl. Opwis/Lüer 1996, 349) Mit der Annahme der Möglichkeit einer Differenzierung von Wissensarten ist gleichzeitig die Vorstellung von einem fließenden Übergang zwischen dem semantischen und dem episodischen Wissen verbunden. Wessels spricht von einem Kontinuum episodischer und semantischer Informationen, „an dessen einem Pol sich kontextspezifische und am anderen relativ kontextfreie Informationen befinden“ (Wessels 1994, 251), so dass ein gradueller Unterschied zwischen beiden Wissensarten angenommen werden könnte. Unter Berücksichtigung kontroverser Diskussionen in Psychologie und Linguistik um eine Differenzierung bzw. Identifizierung episodischen und semantischen Wissens, sprachlichsemantischen und begrifflich-semantischen Wissens verdeutlichen die oben genannten Wissensarten die wesentliche Gegenüberstellung von stationärem und prozeduralem Wissen. Zur Repräsentation dieser Wissensarten werden in der Kognitiven Psychologie drei Hauptformen von Repräsentationen unterschieden: (i)
Propositionale Repräsentationssysteme werden in der psychologischen Literatur auch als „bedeutungsbasierte“ oder „quasi-linguistische“ Formen der Wissensrepräsentation bezeichnet und in Subklassen unterteilt (assoziative, strukturierte und formal-logische Repräsentationssysteme). Ihr Anwendungsbereich liegt in der Rekonstruktion sprachlichbegrifflichen (semantischen), aber auch episodischen Wissens. Propositionale Repräsentationssysteme arbeiten mit dem aus der Philosophie, Logik bzw. Linguistik entlehnten Begriff der Proposition, der den deklarativen Gehalt einer sprachlichen Äußerung als ihren Bedeutungsgehalt bezeichnet abstrahiert von der äußeren Form oder der illokutionären Rolle. Propositionen werden nicht nur in der Psychologie häufig mit Prädikat-Argument-Strukturen dargestellt. (Vgl. Opwis/Lüer 1996, 349 f.) (ii) Regelbasierte Repräsentationssysteme beziehen sich auf das sogenannte prozedurale Wissen, für das Regel- und Produktionssysteme formuliert werden. (iii) Analoge Repräsentationssysteme dienen zur Rekonstruktion des bildhaft-anschaulichen Wissens.
IV. Valenz. Grundlagen und Grundfragen
Von Interesse für eine Diskussion des Verhältnisses von Valenz und Kognition sind vor allem propositionale Repräsentationsmodelle, die auf sprachlich-begriffliches Wissen Bezug nehmen, wobei hervorzuheben ist, dass gerade die Modelle, die sich direkt auf den Begriff der Kasusrahmen von Fillmore oder den Begriff der Valenz beziehen, nicht eindeutig einer Repräsentationsform zuzuordnen sind. Semantische Netze, Frames oder Skripts werden von der Psychologie als hybride Repräsentationssysteme bezeichnet (vgl. Opwis/Lüer 1996, 351). Bei diesen Modellen handelt es sich in jedem Fall um Repräsentationsformen, die es ermöglichen, das semantische Wissen „im System der menschlichen Informationsverarbeitung (zu) bestimmen, zumal Übereinstimmung darüber besteht, dass das Wissen aus symbolischen Repräsentationen besteht“ (Wessels 1994, 251). Als Hauptziel der Kognitionspsychologie verstehen viele Psychologen „die Spezifizierung der Art, in der das semantische Wissen im Gedächtnis repräsentiert wird“ (Wessels 1994, 252). Die Begriffe Proposition, Valenz und Assoziation spielen dabei eine zentrale Rolle. Im Folgenden werden von daher jene Modelle der Kognitiven Psychologie und zum Teil der KI-Forschung betrachtet werden, die in dezidierter Weise in Zusammenhang mit der Erklärung von Gedächtnisrepräsentationen und Gedächtnisprozessen stehen und Beziehungen zu propositional- und valenzbasierten Repräsentationsmodellen herstellen.
3.
Repräsentationsmodelle ⫺ Proposition und Assoziation
In die Auswahl der kognitionspsychologischen, mit dem Begriff der Assoziation arbeitenden Modelle zum Text- und Sprachverstehen sowie zur Begriffsrepräsentation im menschlichen Gedächtnis werden im Folgenden einbezogen: das HAM (Human Associative Memory) Modell von Anderson und Bower (1979) und das Aktivationsmodell von Anderson (1983, 1996), die Theorie der Konzeptuellen Dependenz und der Skripts nach Schank und Abelson (1977), Vorstellungen zum Behalten von Verben bei Engelkamp (1991) sowie die Experimente und Ausarbeitungen von Klix und van der Meer zu Ereignisbegriffen (seit etwa 1984). Aus dem Vergleich der Modelle und aus der Betrachtung ihrer eigenständigen Entwicklung lässt sich
34. Valenz und Kognition
generell die Tendenz in der Kognitiven Psychologie ableiten, dass sich ausgehend von Analysen zu Sprach- und Textverstehensprozessen und ihrer Simulation am Computer, die durch linguistische Richtungen beeinflusst waren, Fragen nach Begriffsarten und Begriffsrepräsentationen aufdrängen. Gefragt wird danach, wie das Wissen, das der Mensch zum Verarbeiten und zum Verstehen von Sprache benötigt, im Gedächtnis repräsentiert ist. Eine Spezifizierung des Propositionsbegriffs und der Assoziation ist dabei im Zusammenhang mit der Darstellung von unterschiedlichen Begriffsklassifikationen zu beobachten. Bevor auf die benannten Modelle eingegangen wird, scheint es berechtigt, auf ausgewählte Gedanken Johann Werner Meiners und Charles Fillmores einzugehen. Meiner (1781) ist deshalb interessant, weil er sich in seinen vorvalenztheoretischen Theoremen mit der Bildung von Begriffen beschäftigt und diesen Prozess mit Benennungsprozessen in Beziehung bringt. In Fillmores Vorstellungen von Szenen und Frames finden sich Gedanken, die in die darzustellenden Modelle aufgenommen oder weitergeführt und präzisiert wurden. 3.1. Vorläufer und Anreger 3.1.1. Johann Werner Meiner ⫺ Begriffe und Prädikate Die sprachphilosophischen Auffassungen Johann Werner Meiners zum Verhältnis von Begriffen und Prädikaten, die Beziehungen, die Meiner zwischen Begriffen und Wörtern herstellt, wie auch seine Vorstellungen zum Zusammenhang von Sprache und Denken stehen modernen Auffassungen der Kognitiven Psychologie zu Begriffen und Begriffsbildung durchaus nahe. Das Werk Meiners ‘Versuch einer an der menschlichen Sprache abgebildeten Vernunftlehre oder Philosophische und allgemeine Sprachlehre’ (1781) gilt als einer der Vorläufer der Valenztheorie aus dem Zeitalter der späten Aufklärung. Meiner erkennt die zentrale Rolle des Prädikats im Satz und begründet diese konsequent von der inhaltlichen Seite her. Die zentrale inhaltliche Rolle des Prädikats im Satz ist es nun, zu der Meiner auf der Grundlage einer Auseinandersetzung mit Begriffen und der Funktion von Wörtern gelangt. Indem Meiner Begriffe und Wörter in Bezug zueinander setzt, verdeutlicht er eine Kette von Prozessen, und zwar (i) das
425 Wahrnehmen von Dingen, (ii) die Bildung von Begriffen über den wahrgenommenen Dingen und (iii) das Benennen dieser Begriffe mit Wörtern, wodurch in der Sprache eine bestimmte Sicht des Sprechers auf die Dinge aufgehoben ist. „Nach ihrem Begriffe müssen die Wörter einer Sprache so verschiedenartig seyn, so verschiedenartig die Begriffe sind. Wir müssen also zuvor die Verschiedenheit unserer Begriffe aussuchen, ehe wir die Verschiedenheit der Wörter zeigen können. Die Verschiedenheit der Begriffe aber beruht theils auf dem Unterschied der Dinge, die wir uns in unsern Gedanken vorstellen, theils auf unserer Betrachtungsart, wie wir sie uns bey unserm Denken und Reden vorstellen.“ (Meiner 1781, 75) Ausgehend vom Unterschied „der Dinge selber, von denen wir uns einen Begriff bilden können“ (Meiner 1781, 75), nennt Meiner selbständige (Individuativa, Klassenbezeichnungen) und unselbständige Begriffe („absolute“ und „relative Eigenschaften“, „Causal—Verhältnißbegriffe“, „comparativische Verhältnißbegriffe“) (vgl. Meiner 1781, 76 ff.). Um einen Satz richtig bilden zu können, benötigen wir „zweyerley Wörter“, und zwar „solche, die unselbständige Dinge bezeichnen und sie auch als unselbständig vorstellen und also zu Prädikaten gebraucht werden können …“ (1781, 80) (Verba, Adjectiua) sowie „solche Wörter, die die Dinge, so sie bezeichnen, in Absicht auf etwas unselbständigeres als selbständig vorstellen“ (1781, 88). Prädikate sind zunächst für Meiner unselbständige Teile, die jedoch die Potenz der Entfaltung einer vollständigen Struktur in sich bergen. „Das Prädikat ist der vornehmste Theil des Satzes; denn aus ihm entwickelt sich der ganze Satz. Es gleicht einer vollen Frühlingsknospe. Wie diese bey ihrer Entwicklung aus sich einen ganzen Zweig sammt Nebenzweigen und Blättern hervor treibet; also liegen auch in dem einzigen Prädikat nicht nur alle Haupttheile, sondern auch Nebentheile des Satzes verschlossen, die sich daraus herleiten lassen.“ (Meiner 1781, 127) Nicht nur Verben, sondern auch Adjektive zählt Meiner zu den Wortklassen, die unselbständig sind und von daher Prädikate bilden können. Das Merkmal der Unselbständigkeit bezieht Meiner sowohl auf Begriffe (als Kategorien des Denkens) als auch auf Wörter, die Prädikate (sprachliche Einheiten) bilden können. Eine Differenzierung von Denken und Sprache und ihre Wechselwirkung ist damit bereits angesprochen. Ausgehend vom Grad, in dem ein Prädikat un-
426 selbständig gedacht wird, unterscheidet Meiner einseitig—unselbständige, zwoseitig—unselbständige und dreyseitig—unselbständige Prädikate (vgl. Meiner 1781, 132). Zur Erklärung des Prädikats sind die folgenden selbständig gedachten Dinge, die in Substantiven ausgedrückt werden, erforderlich: das Subjekt des Satzes, der persönliche Gegenstand, der leidende Gegenstand, das Instrument und Werkzeug. „So lange man also dasjenige Ding noch nicht weiß, worauf sie ihre Beziehung haben, so lange sind sie selber noch unkenntlich.“ (Meiner 1781, 153) Das Subjekt ist nach Meiner an jedes absolute oder relativische Prädikat gebunden. „Der persönliche Gegenstand, d. i. derjenige oder dasjenige, welchem zu Gefallen sich das Prädikat … sich an dem Subjekte befindet.“ (Meiner 1781, 161) Eine Verbindung mit dem „leidenden Gegenstand“ geht das Prädikat ein, „wenn es aus der thätigen Form ist prädicirit worden“ (Meiner 1781, 161). Das Prädikat muss dann ein „thätiger Verhältnißbegriff“ sein. Instrument, Werkzeug oder Mittel treten dann auf, wenn das Prädikat ein „thätiger Verhältnißbegriff“ ist und der „thätige Verhältnißterminus zum Subjekt des Satzes gemacht worden ist“ (Meiner 1781, 161). Neben diesen vier Teilen, die zur Erklärung des Prädikats erforderlich sind, stellt Meiner den Verhältnis- bzw. Beziehungsbegriff als Erklärungsinstanz für Abhängigkeiten, die über die vom Prädikat ausgehenden Beziehungen hinausweisen. „Diese Erklärungsart kann also so vielmal im Satze vorkommen, so viele Verhältniß—und Beziehungsbegriffe darinnen enthalten sind. Es können aber alle die vier vorhergehenden Stücke, die das Prädikat zu seiner Erklärung erfordert, dergleichen Verhältniß—und Beziehungsbegriffe seyn.“ (Meiner 1781, 161) Mit dem Verhältniß—und Beziehungsbegriff lässt sich der Satz als ein Gebilde von Relationen zwischen seinen Teilen erklären. Die von Meiner aufgebaute Konfiguration um Prädikate und seine Verhältnisbegriffe sind auch in den kognitionspsychologischen Untersuchungen der 70er und 80er Jahre des 20. Jahrhunderts immer wieder von Relevanz und werden dem Kenntnisstand der Psychologie entsprechend modifiziert. Dies widerspiegelt sich in dem Bestreben, die Begrifflichkeiten von Szenen, Skripts, Ereignisbegriffen oder Frames exakter zu bestimmen und zu differenzieren. Wenn Meiner als Ausgangspunkt für eine Diskussion der wechselseitigen Beeinflussung von Valenz- und Kog-
IV. Valenz. Grundlagen und Grundfragen
nitionsforschung gewählt worden ist, erhält dieses Vorgehen seine Begründung in Folgendem: (i)
Meiners Betrachtungen innerhalb seiner philosophischen und harmonischen Sprachlehre lassen sich als Analyse universeller Denkabläufe und einzelsprachlich fixierter Vorstellungen über die Wirklichkeit, die in der Satzbildung eine Synthese erfährt, interpretieren. Denkbegriffe sind also bei Meiner nicht unbedingt mit Sprache gleichgesetzt. (ii) Mit der Markierung von Begriffen als unselbständige und selbständige sowie den Relationen zwischen ihnen ist bei Meiner bereits das Bild ⫺ wenn auch nicht explizit ⫺ von einer relationalen (und nicht linearen) Struktur angelegt, die der Satzbildung gedanklich zugrunde liegt und im Satzgebilde durch Mittel der Flexion entfaltet wird. (iii) Mit den zur Erklärung des Prädikats erforderlichen selbständig gedachten Substantiven Subjekt, persönlicher Gegenstand, leidender Gegenstand und Instrument bringt Meiner einen Rahmen ein, in dem sich Handlungen vollziehen und mit dem Ereignisse typisierend erfasst werden können. Natürlich sind diese Begrifflichkeiten noch vage und morphologisch-syntaktisch wie inhaltlich nicht hinreichend differenziert. Meiners Ausführungen bewegen sich in einem logisch-philosophischen Diskurs, der zwar über die Beziehungen von Denken und Sprache reflektiert, aber wohl kaum in einem psychologischen oder kognitiven. Dennoch finden sich in seiner Betrachtung implizit Probleme, die in einer modernen Diskussion der Beziehungen zwischen Sprache (Valenz) und Kognition zu Ereignisbegriffen und ihrer sprachlichen Realisierung sowie zum Verhältnis von Lexikon und Enzyklopädie führen. 3.1.2. Szenen und Kasusrahmen bei Fillmore In seinem Beitrag „Scenes- and frames semantic“ von 1977 setzt Fillmore markante Punkte sowohl für die linguistische als auch die psychologische Beschäftigung mit der Wort- und Textsemantik und betont die Notwendigkeit der interdisziplinären Forschung im semantischen Bereich (vgl. 1977, 55). In den Mittelpunkt seiner Überlegungen geraten dabei drei Punkte, die in der gegenwärtigen auf kognitive Prozesse orientierten linguisti-
34. Valenz und Kognition
schen und psychologischen Forschung von Relevanz sind: Es handelt sich erstens um die Differenzierung von Szenen und Kasusrahmen als Bestandteile des episodischen und lexikalisch-grammatischen Wissens. (ii) Zweitens geht Fillmore davon aus, dass sich Szenen und Kasusrahmen wechselseitig assoziieren. (iii) Fillmore operiert drittens mit dem Begriff der Perspektivierung von Szenen durch die Auswahl entsprechender lexikalischer und grammatischer Mittel.
(i)
Fillmore ist sich bei der Wahl des Begriffs des Frames durchaus der Tatsache bewusst, dass er in Psychologie und Linguistik nicht einheitlich verwendet wird. In der Psychologie steht er vor allem in Analogie zum Schemabegriff, der auf Bartlett (vgl. Wessels, 1994) zurückgeht und von Minsky weiter ausgearbeitet wurde. Um den Bezug zur Sprache herzustellen, verwendet Fillmore nun den Ausdruck „case frame“, „associated with a particular predicating word as the imposition of structure on an event (or on the conceptualization of an event) in a fixed way and with a given perspective“ (Fillmore 1977, 58). Fillmore hebt die Potenz der Kasusrahmen heraus, das Verständnis des gesamten Ereignisses zu präsupponieren. Durch den mit dem Verbeintrag verbundenen Kasusrahmen wird jedoch nur ein einzelner Aspekt des Ereignisses perspektiviert. Der Prozess des Perspektivierens ist mit der Selektion von Wahrnehmungen und Informationen aufs engste verbunden. Dabei handelt es sich um eine kognitive Fähigkeit, die sich mit dem Erwerb einer Sprache herausbildet. „… people, in learning a language, come to associate certain scenes with certain linguistic frames.“ (Fillmore 197, 63) Szenen bestimmt Fillmore in einem sehr weiten Sinne. Er schließt in diesen Begriff ein: „… not only visual scenes but familiar kinds of interpersonal transactions, standard scenarios, familiar layouts, institutional structures, enactive experiences, body image; and, in general, any kind of coherent segment, large or small, of human beliefs, actions, experiences, or imaginings.“ (Fillmore 1977, 63) Den Begriff des Frames bezieht Fillmore auf jedes System linguistischer Auswahl, die Auswahl von Wörtern, grammatischen Rollen und Kategorien, die aber immer darauf gerichtet sind, prototypische Instanzen von Szenen zu assoziieren (vgl. Fillmore 1977, 63). In späteren Arbeiten spricht Fillmore (1985) von der
427 Verbindung zwischen „conceptual frames“ und „linguistic description“, ohne genau zu kennzeichnen, welche Konzepte mit Frames zu verbinden sind. Den Anregungen, die Fillmore von der linguistischen Seite gegeben hat ⫺ die Unterscheidung von Konzepten und ihre Versprachlichung, ihre wechselseitige Assoziation und der Prozess des Perspektivierens ⫺ ist in stärkerem Maße in der kognitiven Psychologie nachgegangen worden. Dies betrifft insbesondere den Begriff der Assoziation und die Differenzierung der Auffassungen von Konzepten und kognitiven Prozessen. Dies sei nachfolgend an den einzelnen Modellen gezeigt. 3.2. Human Associative Memory (Anderson, Bower) und Aktivationsausbreitung (Anderson) Anderson und Bower haben seit 1972 Vorstellungen entwickelt, die das menschliche assoziative Gedächtnis modellieren. Mit HAM (Human Associative Memory, 1979) geht es nicht um eine einfache semantische netzwerkartige Struktur, die Begriffe und ihre Beziehungen (in der Art von is a; has a) zu anderen Begriffen zeigt, sondern mit HAM ist ein globales Modell angestrebt, das das Wissen expliziert, „auf das sämtliche kognitive Aktivitäten, selbst die hochkomplexer Art, zurückgehen“ (Wessels 1994, 272). Gleichzeitig soll dieses Modell spezifizieren, welche Mechanismen den Wissenseinsatz regulieren. Es geht hier um ein Modell der menschlichen Informationsverarbeitung, das das gesamte kognitive System erfassen und verdeutlichen möchte, welche kognitiven Aktivitäten in der menschlichen Informationsverarbeitung von Relevanz sind. Das HAM-Modell basiert auf einem propositionalen Repräsentationssystem. Verschiedene theoretische und methodische Beweggründe lassen Anderson und Bower die Proposition als Repräsentationsform wählen, denn sie sei in der Lage, jedes Konzept auszudrücken, das ein Mensch formulieren und verstehen kann. Als eine in starkem Maße assoziative Repräsentation im menschlichen Gedächtnis ermöglicht die Proposition weiterhin die Sicherung und Wiedererkennung von Informationen, das heißt, spezielle Informationen bleiben auch dann erhalten, wenn die Ausmaße des Weltwissens wachsen. Ein wesentlicher Aspekt, der zur Wahl der Proposition als Basisrepräsentation führt, ist die Auffassung, dass Propositionen nicht von den Merkmalen einer natürlichen Sprache, in der die Informationen übermittelt werden,
428 beeinflusst seien. Die Proposition wird als etwas allen Sprachen Invariantes interpretiert, das den Wunsch nach einer „universal interlingua“ eröffnet, aufgrund deren formaler Gestalt jedes Konzept in jeder Sprache ausgedrückt werden kann. Das meint: „… the system would provide a common currency in terms of which linguistic and perceptual information could be brought together to be compared, modified, combined, and coordinated in usage.“ (Anderson/Bower 1979, 151) Darüber hinaus sehen Anderson und Bower in der Struktur der Proposition, die unübersehbar auf der Syntax Chomskys und dem prädikatenlogischen Kalkül beruht, eine Struktur, die sich auf ein Minimum formaler Kategorien beschränken kann und von daher einfach und elegant erscheint. Die Proposition selbst wird in einer binären hierarchischen Struktur dargestellt. „Each propositional tree is divided into two subtrees ⫺ a context subtree and a fact subtree.“ (Anderson/Bower 1979, 139) Die Knoten innerhalb des Baumes der Proposition repräsentieren Ideen, die Pfeile zwischen den Knoten bilden Relationen oder Assoziationen zwischen den Ideen. Dabei werden fünf Formen von Assoziationen angenommen, die sich aus einer Satzäußerung ableiten lassen. Die Kontext-Ereignis-Assoziation, die OrtZeit-Assoziation, die Subjekt-Prädikat-Assoziation, die sich aus dem Prädikat herleitende Relation-Objekt-Assoziation und die BegriffBeispielwort-Assoziation. Assoziationen im HAM-Modell stehen, angeregt durch die GTG Chomskys, für Relationen unterschiedlicher Art, die die innere hierarchische Struktur des Satzes konstituieren. Sie erinnern von daher eher an syntaktische Relationen, wie Objekt- oder adverbiale Beziehungen. Das assoziative Element der Relationen ⫺ z. B. der Grad der gegenseitigen Evokation der Elemente ⫺ wird in keiner Weise herausgestellt. Dies lag sicher auch nicht in der Absicht des Modells. Gleichwohl wird der in der Psychologie tradierte Begriff der Assoziation in das Propositionsmodell eingeführt, jedoch mit Relation und vermutlich syntaktischer Relation gleichgesetzt. Es fehlt die psychologische Bestimmtheit des Begriffs der Assoziation. Gleichfalls erscheint die Erhebung der Proposition zu einer universellen Kategorie eher fraglich. Sicher sind Propositionen eine Kategorie, mit der wesentliche Inhalte von Satzbedeutungen zu beschreiben sind. Konfiguriert werden Propositionen jedoch durch
IV. Valenz. Grundlagen und Grundfragen
einzelsprachlich perspektivierte Prädikate und deren Argumentstruktur. Das Langzeitgedächtnis stellen sich Anderson und Bower als weitverzweigtes Netzwerk propositionaler Bäume vor, das sämtliche Wissensbestände repräsentieren kann. Zu dieser Auffassung gelangen sie, weil sich HAM am Computer simulieren lässt. HAM ist dazu entwickelt worden, Sätze in einer propositionalen Fassung zu repräsentieren und Fragen zu beantworten. „Our simulation program functions in a question-answering task domain. That is to say, we have programmed an interactive system to which we may assert facts and of which we may ask questions. The program accepts English sentences from a teletype, the sentences representing either assertions or questions. If it receives an assertion, it will type back a description of the memory structure it has formed in the course of encoding that assertion. If it receives a question, it will search its memory for an appropriate answer. This simulation program may be regarded as a test of the sufficiency of our Theory.“ (Anderson/Bower 1979, 143) Der Computer hat zahlreiche Sätze in der beschriebenen propositionalen Struktur repräsentiert und Fragen beantwortet, so dass sich mit dem HAM-Modell die Computer-Metapher von der menschlichen Kognition zu bestätigen scheint. Eine Überprüfung oder Relativierung der Computer-Metapher des menschlichen Denkens scheint vor dem Hintergrund von Andersons Annahmen zur Aktivationsausbreitung im Gedächtnis (ACT-Theorie) durchaus angemessen zu sein, da sie im Vergleich zu HAM eine konkretisierende Perspektive auf die Verbindung der Begriffe der Assoziation und der Proposition offenbaren. Während in HAM die Assoziationspfeile auf die interne Satzstruktur orientieren, den Satz in Konstituenten gliedern, führt Anderson in seiner ACT-Theorie das Konzept der Aktivation innerhalb des Langzeitgedächtnisses ein. Aktivationen werden bei der Frage relevant, wie Informationen aus dem Langzeitgedächtnis zur Lösung von solchen Aufgaben wie Kopfrechnen oder Sprachverstehen verfügbar gemacht werden. Anderson spricht in der Terminologie seiner ACT-Theorie davon, „daß Gedächtnisspuren durch die Darbietung assoziierter Konzepte aktiviert werden“ (1996, 178). Aktivationen breiten sich entlang der Pfade eines propositionalen Netzwerkes aus, dessen Ausprägung mit der folgenden Abbildung illustriert werden soll:
429
34. Valenz und Kognition kauen Prädikat Objekte
Agent HUND
Agent
KNOCHEN
Agent
Subjekt
Prädikat
Prädikat
jagen
Teil von
Objekt KATZE
Prädikat
Objekt fressen
Objekt FLEISCH
Abb. 34.1: (Vgl. Anderson 1996, 180)
In diesem Netzwerk verbinden sich Konzepte über Assoziationspfeile/Aktivationspfeile mit Konzepten und Prädikaten, so dass als Rahmen für die Gedächtnisrepräsentation nicht mehr die am geäußerten Satz orientierte Proposition herangezogen wird, sondern ein von einem Konzept aus aktiviertes Assoziationsnetzwerk, das mögliche Satzpropositionen einschließt. In Experimenten werden solche Assoziationsleistungen, z. B. Hund L Katze (Kontrast), Knochen L Fleisch (Teil von) nachgewiesen. Sie bestätigen wie auch andere zahlreiche Experimente in der Kognitiven Psychologie (vgl. den Punkt 3.5. zum Ereignistyp bei Klix), dass eine „unbewußte ‘Bahnung’ von Wissensstrukturen“ durch Aktivationsausbreitung erfolgt. Das bedeutet, dass die Assoziation im ACT-Modell einen völlig neuen Stellenwert bekommt. Es wird die Erkenntnis aufgegriffen, auf die Bartlett (1932) in seiner Auseinandersetzung mit dem Assoziationismus verwiesen hat, nämlich dass Bedeutungen für das Gedächtnis von zentraler Wichtigkeit sind und Assoziationen über gemeinsame Merkmale von Wörtern hervorgerufen werden. Die Aktivationsausbreitung nennt Anderson nun „assoziatives Priming“ (vgl. Anderson 1996, 181). Hörmann spricht seit dem Ende der 60er
Jahre davon, dass mit einem in einem Assoziations- oder Gedächtnisexperiment produzierten Wort auch jene Wörter in Bereitschaft gestellt oder „‘vorgewärmt’ werden, mit denen dieses Wort assoziative Beziehungen hat“ (Hörmann 1967, 149). Die Produktionsbereitschaft bestimmter Wörter kann auch als Folge der Aktivierung jener Bedeutungselemente interpretiert werden, die das produzierte Wort und die in Bereitschaft gestellten Wörter gemeinsam haben. Dabei wird eine maximale Bedeutungsgemeinsamkeit angenommen (vgl. Dorsch 1987, 504). Mit dem Begriff der Assoziation und des Primings haben auch Wortbedeutungen Einzug in den Gegenstandsbereich der Kognitiven Psychologie gehalten. Das Priming wird als ein semantischer Begriff entwickelt, weniger als einer der auf hierarchischen syntaktischen Strukturen basiert. Von linguistischer Seite ist hervorzuheben, dass solche Prime-Effekte über die Wortform ausgelöst und konventionalisiert werden. 3.3. Konzeptuelle Dependenz und Skripts (Schank/Abelson) Anderson und Bower hatten mit HAM ein Modell vorgelegt, das das Verstehen und Formulieren von Äußerungen auf der Grundlage
430 hierarchisch organisierter Propositionen repräsentiert. Die Proposition bildete dabei generell die Basiseinheit für die Repräsentation von Wissen im menschlichen Gedächtnis, womit die Verarbeitung ganzheitlicher Äußerungs- und Wissensstrukturen und deren Speicherung im menschlichen Gedächtnis in den Mittelpunkt ihrer theoretischen Überlegungen gestellt und die logisch-hierarchische Sprachverarbeitung syntaktischer Strukturen am Computer simuliert wurde. Schank und Abelson geht es ebenfalls um die Frage nach Wissensrepräsentationen. Ihre Ausarbeitungen zur Theorie der Konzeptuellen Dependenz und ihre Vorstellungen zu Skripts erweisen sich in diesem Sinne als Reflex von Überlegungen zum menschlichen Gedächtnis. Sie gehen davon aus, dass Sprache und Gedächtnis untrennbar miteinander verbunden sind und argumentieren für ein episodisches Gedächtnis. „An episodic view of meaning claims that memory is organized around personal experiences or episodes rather than around abstract semantic categories.“ (Schank/Abelson 1977, 17) Eine eher scholastische Sichtweise auf das semantische Gedächtnis, die eine Organisation von Wissen in hierarchischen Bäumen annimmt und die Klassenzugehörigkeit als grundlegende Verbindung (als is-a-Relationen) zwischen Wissenselementen sieht, erweist sich nach ihrer Auffassung als nicht geeignet, die episodische Verarbeitung von Wissen zu strukturieren. „… such an organization will not work for verbs, nor for nouns that are abstract nor for nouns that do not submit easily to standard categories (such as ‘teletype’).“ (Schank/ Abelson 1977, 18) Vor diesem Hintergrund führen ihre Überlegungen zum Gedächtnis zu differenzierbaren Repräsentationsformen für Verben und Zustände sowie für Nomen, die in der Theorie der Konzeptuellen Dependenz und in den Skripts ihre Ausprägung finden. Diese Unterscheidung ist meines Erachtens bei der doch starken Rezeption der Vorstellungen Schanks und Abelsons von Skripts zu wenig beachtet worden. Eine Orientierung an der Struktur von Handlungen liegt zugrunde, wenn die Theorie der Konzeptuellen Dependenz CD-Graphen zur internen Repräsentation sprachlicher Ausdrücke nutzt. Ein natürlichsprachlicher Ausdruck wird als CD-Form dargestellt (Conceptual-Dependency Notation). CD-Graphen orientieren sich an der Fillmoreschen Kasustheorie, die annimmt, dass Kasusrahmen im Lexikon mit einzelnen Verben assoziiert sind und der Steuerung der
IV. Valenz. Grundlagen und Grundfragen
Produktion und Verarbeitung von Satzäußerungen dienen. Schank und Abelson vermuten, dass sich semantische Kasusrahmen auf zwei Typen reduzieren lassen, die als Konzeptualisierungen den Bedeutungspropositionen der Sprache unterlegt sind. Eine Konzeptualisierung kann aktiv oder statisch sein, wobei die aktive Konzeptualisierung auf fünf semantischen Relationen beruht: auf der Handlung, dem Akteur, dem Objekt der Handlung, ihrer Richtung oder ihrem Instrument als Mittel der Handlungsdurchführung. Die Beteiligtheit der semantischen Relationen an Handlungen spielt eine Rolle dabei, wie Schank und Abelson primitive Handlungen (ACTs), aus denen sich jede Handlung konstituiert, bestimmen. Die ACTs stellen keineswegs Kategorienamen für Verben dar, sondern sie sind Elemente von Handlungen. Zunächst ist eine Gruppe von einfachsten Handlungen zu benennen, die Übertragungen implizieren. ATRANS bezeichnet den Transfer abstrakter Beziehungen (Besitz, Kontrolle). Es ist in den Verben give, take oder buy repräsentiert. PTRANS bezieht sich auf die physikalische Veränderung der Lokation, in der sich ein Objekt befinden kann. Ein Objekt kann seinen Platz selbst verändern (go), oder es wird an einen Ort gebracht (put). Transformationen können sich ebenfalls auf die Übertragung mentaler Informationen zwischen Lebewesen beziehen. Mit MTRANS sind dann solche Verben wie see oder tell verbunden. PROPEL meint die Anwendung einer physikalischen Kraft auf ein Objekt und ist Bestandteil der Verben push, pull, throw oder kick. MOVE ist als ACT fast immer enthalten in einer instrumentalen Konzeptualisierung. Bewegungen eines Körperteils oder eines Wesens kommen in den Verben kick, kiss, raise your hand oder scratch zum Ausdruck. Bestandteil solcher Verben wie hold, grab, let go oder throw ist die Handlung GRASP. Übliche Beispiele für das Vorhandensein des Handlungsmerkmals INGEST sind die Verben eat, drink, smoke, breathe. Ein Lebewesen nimmt etwas in sein Inneres auf. Gegensätzlich zum Inhalt von INGEST verhält sich das Handlungsmerkmal EXPEL. Die Konstruktion neuer Informationen aus alten Informationen durch ein Lebewesen wird mit dem Handlungsmerkmal MBUILD beschrieben und mit Verben wie decide, conclude, imagine, consider lexikalisiert. Die Handlung SPEAK orientiert auf die Produktion von Tönen (say, play music, purr, scream). Mit ATTEND wird ausge-
34. Valenz und Kognition
drückt, dass die Sinnesorgane sich einem bestimmten Reiz zuwenden (see, hear). Während es in der Notation der CD-Graphen um die Repräsentation von Verbbedeutungen geht, entwickeln Schank und Abelson mit ihren Skripts (1977) ein Schema, das episodisches Wissen um eine substantivische Benennung herum entfaltet. Sie gehen davon aus, dass in vielen Alltagssituationen stereotype Ereignissequenzen auftreten, die aus verschiedenen Komponenten bestehen und in Teil-Ganzes-Hierarchien beschrieben werden können. Schank beschäftigte sich seit dem Ende der 60er Jahre mit Fragen der Verarbeitung natürlicher Sprachen. Selbstverständlich galt auch für ihn die Erklärung des Textverstehens als Ziel seiner Forschungen. Es sollten die theoretischen Voraussetzungen für die Entwicklung von Computerprogrammen bereitgestellt werden, die Texte verstehen, Textzusammenfassungen generieren, Fragen zu Texten beantworten oder Textübersetzungen von einer Sprache in die andere liefern könnten, Ziele wie sie auch bei Anderson und Bower (1979) oder Kintsch und van Dijk (1978) zu finden sind, die ⫺ angeregt durch die Textlinguistik ⫺ zur Erklärung des Textverstehens mit propositionsbasierten Repräsentationen arbeiteten. Die Vorstellung, Skripts nicht nur als Ganzheiten zu beschreiben, sondern auch deren Komponenten zu analysieren, führte zu der Forderung, in differenzierter Weise auf sprachliche Einheiten einzugehen, und zwar auf dekomponierte Bedeutungen von Wörtern, Sätzen und Texten. In der Beschäftigung mit dem Phänomen Sprache wird den sprachlichen Bedeutungen damit eine angemessene Aufmerksamkeit zuteil. Auf der Grundlage der Verben eines Satzes werden lexikalische Bedeutungen komplexer sprachlicher Ausdrücke in eine kleine Menge wohldefinierter semantischer Primitive dekomponiert, die als Bestandteil in die Beschreibung von Skripts eingehen. Schank und Abelson definieren Skripts in folgender Weise: „A script is a structure that describes appropriate sequences of events in a particular context. […] Scripts handle stylized everyday situations. They are not subject to much change, nor do they provide the apparatus for handling totally novel situations. Thus a script is a predetermined, stereotyped sequence of actions that defines a well known situation.“ (1977, 41) Als Beispiele für Skripts kursiert auf der Grundlage von Schank und Abelson das Restaurant-Skript oder das Kauf-Skript. Ausgehend von der Definition
431 sind Skripts vorausbestimmte, stereotype Sequenzen von Handlungen, die eine bekannte Situation definieren. Einzelne Ereignisse werden zu einer kausalen Kette von Ereignissen verbunden, wobei die Fähigkeit, Ereignissequenzen, die nicht sprachlich gegeben sind, zu inferieren, als eine ausgeprägte Gedächtnisleistung in Erscheinung tritt. Jedes Teilereignis verfügt über einen Kern, der durch die oben aufgeführten einfachen ACTs gebildet wird. Die Vorstellungen von Schank und Abelson implizieren den Gedanken der Differenzierung begrifflicher Repräsentationen für unterschiedliche Entitäten. Hervorzuheben ist dabei die Hinwendung zum Verb und damit zur Repräsentation von Ereignissen im Gedächtnis. Propositionale Repräsentationen in der Form der Kasusrahmen (Konzeptuelle Dependenz) werden mit grundlegenden semantischen Basiseinheiten verbunden, die als Konfigurationen miteinander zu Ereignisfolgen (Skript) verknüpfbar sind. Die Handlungssequenzen innerhalb des Restaurantskripts werden in der Notation der semantischen Basiseinheiten ⫺ der ACTs ⫺ beschrieben, wobei aber die Beziehung zwischen dem Kern der Ereignisse, also den Verben, und den semantischen Kasusrollen nicht weiter hinterfragt wird. Diesen Beziehungen und der Rolle von Verben für Gedächtnisleistungen wenden sich in den 80er und in den 90er Jahren insbesondere Engelkamp sowie Klix und van der Meer zu. 3.4. Verben und Verb-Objekt-Phrasen ⫺ Behalten und Valenz (Engelkamp) Engelkamp leitet die Notwendigkeit der Beschäftigung mit Verben aus der Tatsache ab, dass die Wortklasse der Verben eine universale Kategorie bildet, die bisher in der psychologischen Forschung vernachlässigt wurde. Von Interesse ist für Engelkamp der Zusammenhang von Repräsentation und Gedächtnisleistung. Engelkamp verbindet Untersuchungen zum Behalten von Verben mit dem Valenzkonzept, wobei er sich in direkter Weise auf die Valenzwörterbücher von Helbig/Schenkel bezieht. Die multimodale Theorie Engelkamps geht davon aus, „daß die entscheidenden Unterschiede in der mentalen Repräsentation von Objekten und Handlungen auf Unterschiede in den sensumotorischen Erfahrungen mit Objekten bzw. bei Handlungen zurückgehen und sowohl auf der Ebene der Bildmarken und motorischen
432 Programme als auch der Konzepte zu suchen sind“ (1991, 441). Substantive und Verben verweisen auf unterschiedliche Gedächtnisrepräsentationen, so dass auch ihre Verarbeitung auf verschiedenen Wegen erfolgen sollte. Engelkamp sieht die Verschiedenheit der Repräsentation darin, dass Nomen auf zeitlich relativ stabile natürliche Wahrnehmungseinheiten referieren. Sie tragen natürlichen Charakter in dem Sinne, dass sie relativ sprachunabhängig und interkulturell konstant sind (z. B. Eiche). Dagegen erweisen sich die Einheiten, die auf Handlungsverben verweisen, als zeitlich instabil oder unscharf (z. B. frühstücken), interkulturell verschieden und damit sprachabhängig (vgl. Engelkamp 1991, 442). Engelkamps Aussage, dass „die Wahrnehmungseinheiten, auf die Verben verweisen, […] eher das Produkt kognitiver Prozesse [sind], die von den kulturellen Gewohnheiten innerhalb einer Sprachgemeinschaft abhängen“ (1991, 442), wird durch die Universalienforschung im lexikalisch-semantischen Bereich oder durch die Wortfeldforschung unterstützt und bestätigt. „Die Lage wird zum Teil dadurch geklärt, daß die Verben weniger auf Referenzereignisse als auf bestimmte Aspekte solcher Ereignisse referieren.“ (Engelkamp 1991, 443) Das heißt nichts anderes, als dass Verben Ereignisse perspektivierend benennen, indem sie z. B. die Ortsveränderung (zurückstellen) oder die Art und Weise der Einvernahme von Lebensmitteln (schlingen) oder die Lautstärke einer sprachlichen Äußerung (rufen) in Perspektive bringen. Damit die Perspektive nicht vage bleibt, müssen bestimmte Akteure, Handlungsgegenstände, Orte oder Instrumente instantiiert werden, oder sie sind impliziter Bestandteil der Verbsemstruktur (essen ⫺ Instrument Mund, werfen ⫺ Instrument Arm). Verbkonzepte unterscheiden sich von Nominalkonzepten, indem sie komplexe relationale Konzepte bilden, in denen sich ein Kern mit Teilkonzepten, entsprechenden Objektkonzepten, verbindet. Die Struktur von Verbkonzepten wird dann als Proposition dargestellt, in der die Handlung durch das Prädikat, die Mitspieler durch die Argumente repräsentiert werden. Engelkamp verfolgt nun den Zusammenhang von Behalten und der Tatsache, wie Verbkonzepte ihre Argumente festlegen. Reiten kann man nur wenige Tiere, essen dagegen kann man Verschiedenes. Für das Ausmaß, mit dem Verbkonzepte ihre Argumente festlegen, verwendet Engelkamp den Terminus „Implikationsstärke“. „Im Hinblick auf
IV. Valenz. Grundlagen und Grundfragen
das Behalten gilt, je größer die Implikationsstärke eines Verbkonzeptes bei gegebener Valenz, um so besser sollte das Verb behalten werden. Darüber hinaus sollten die Valenz und die Implikationsstärke von Verben so miteinander interagieren, daß die Valenz um so weniger das Behalten beeinflußt, je größer die Implikationsstärke des Verbums ist, da eine hohe Implikationsstärke bedeutet, daß die Argumentkonzepte mit dem Prädikatkonzept stark assoziiert sind.“ (Engelkamp 1991, 445) Mit der Hinzuziehung des Valenzkonzepts lässt sich gleichzeitig auf der Grundlage der Wertigkeit von Verben die unterschiedliche Komplexität von Verbalkonzepten zeigen. Engelkamp geht nun von der Hypothese aus, dass die Komplexität des Verbalkonzeptes, also die Anzahl der angelegten Argumente, für das Behalten der Verben relevant ist. „Im Hinblick auf die Enkodierung von Verben nehme ich an, daß die Effizienz ihrer Enkodierung davon abhängt, wie sehr ihre propositionale Struktur elaboriert wird und dass diese Elaborierung um so besser gelingt, je weniger valent ein Verbkonzept ist bzw. je einfacher seine propositionale Struktur ist. Diese Beziehung zwischen Verbvalenz und Behalten sollte allerdings durch die Implikationsstärke der Verben überlagert werden. Je mehr ein Verb die Bedeutung seiner Argumente festlegt, um so leichter sollte die Elaboration seiner propositionalen Struktur sein und um so weniger sollten sich Valenzunterschiede im Behalten niederschlagen. Man kann auch sagen, daß hoch implikative Verben ihre Argumente bereits automatisch aktivieren. Damit wird eine kontrollierte Aktivation hinfällig.“ (Engelkamp 1991, 451) Untersuchungen zum Einfluss der Valenz, der Implikationsstärke und des Satzkontextes sowie deren Zusammenspiel auf das Behalten von Verben haben die folgenden Ergebnisse gebracht. Verben mit einer hohen Implikationsstärke werden besser erinnert als solche, die niedrig implikativ sind. Gleichzeitig ergeben sich Zusammenhänge zwischen der Valenz und der Implikationsstärke. „Bei hoch implikativen Verben wirkt sich die Valenz wenig aus, bei niedrig implikativen fällt die Behaltensleistung mit zunehmender Wertigkeit. Im Satzkontext nivellieren sich alle Behaltensunterschiede.“ (Engelkamp 1991, 451) Niedrig implikative Verben mit steigender Wertigkeit sind nach Raue und Engelkamp (1977) z. B. einschlafen, ausbleiben (einwertig); erproben, beschädigen (zweiwertig); einflößen, verbinden (dreiwertig); als hoch impli-
34. Valenz und Kognition
kative Verben werden z. B. aufgeführt verjähren, kentern (einwertig); versiegeln, ernten (zweiwertig); abstatten, vermachen (dreiwertig). Festgestellt wird, dass das Behalten von Verben eine „Funktion ihrer Valenz“ darstellt, dies jedoch nur insofern die Verben niedrig implikativ sind und ohne Satzkontext angeboten werden. Verben mit hoher Implikationsstärke ihrer Argumente und die Darbietung der Verbalkonzepte in einem Satz führen zu einer automatischen Enkodierung der Argumente (vgl. Engelkamp 1991, 452). Auch bei Engelkamp wird also deutlich, dass Valenz etwas mit Assoziation zu tun hat und der Grad der Assoziation, d. h. die Implikationsstärke der Argumente, verbunden ist mit semantischer Implikation und obligatorischer bzw. fakultativer Gebundenheit. Die Differenzierung von hoch und niedrig implikativen Verben bleibt in der linguistischen Valenzforschung nicht unberücksichtigt. Helbig bringt z. B. die Einengung möglicher Objektbegriffe mit der Eliminierung von Ergänzungen in Zusammenhang. „Je enger der Bereich der möglichen Objekte ist, desto größer ist die Eliminierbarkeit; je weiter umgekehrt der Bereich der möglichen Objekte ist, desto geringer ist die Eliminierbarkeit. Deshalb besteht z. B. bei stricken und bügeln eine große Neigung zur Eliminierbarkeit, bei fabrizieren und ändern aber eine sehr geringe Neigung zur Eliminierbarkeit (nahezu nicht eliminierbar).“ (1992, 107) Für die von Helbig aufgeführten Beispiele trifft die Aussage zu, sie geht jedoch mit denen von Engelkamp nicht konform. Ein hoch implikatives Verb wie versiegeln ⫺ wie es auch bügeln und stricken sind ⫺ verbindet sich mit zwei obligatorischen Ergänzungen. Die Eliminierbarkeit ist also hier durchaus eingeschränkt, obwohl die Objektbegriffe Brief und Tür in starker assoziativer Beziehung zu versiegeln stehen. Es scheint erforderlich zu berücksichtigen, dass sich mit den genannten Beispielen bügeln und stricken auf der einen Seite sowie versiegeln auf der anderen Seite Simplexverben und ein Präfixverb gegenüberstehen. Die Bedeutung des Präfixes ver- eröffnet die obligatorische Bindung zu einem Objektiv (vgl. auch verschließen ⫺ Tür, vergraben ⫺ Schatz, verarbeiten ⫺ Mehl, verstopfen ⫺ Loch). So liegt der Schluss nahe, dass Perspektivierungen, die durch Präfixe in die Verbbedeutung eingebracht werden, in enger Verbindung mit der Obligatheit oder Fakultativität von Ergänzungen stehen können und damit der obligatorische oder fakultative Status der Ergänzungen als semantisch zu betrachten ist.
433 3.5. Ereignisbegriff und semantische Relationen (Klix, van der Meer) Die Forschungsgruppe kognitiver Psychologen um Friedhart Klix und Elke van der Meer an der Humboldt-Universität zu Berlin beschäftigt sich seit etwa Anfang der 80er Jahre mit Fragen nach dem Funktionieren von Gedächtnis und Gedächtnisleistungen, mit dem Begriff des Wissens und Wissensstrukturen sowie mit Repräsentationsformen menschlichen Wissens. Auf der Grundlage zahlreicher Assoziations- und Prime-Experimente und deren Interpretation erfolgte eine kognitionspsychologisch begründete Differenzierung von Objekt-, Ereignis- und Ereignisfolgebegriffen, die mit innerbegrifflichen und zwischenbegrifflichen Relationen oder Merkmalen beschrieben werden. Der Ereignisbegriff wurde in engem Zusammenhang mit der Wortklasse Verb elaboriert, wobei den Beziehungen zwischen Verben und semantischen Relationen größtes Interesse zukommt. Es sind Gesetzmäßigkeiten herausgearbeitet worden, nach denen Ereignisse zu Ereignisfolgen zusammengefügt werden können. In ihren Ausführungen zu Begriffstypen und insbesondere zu Ereignisbegriffen berufen sie sich ausdrücklich auf Szenen und semantische Kasus bei Fillmore, auf Verbbeschreibungen von Tesnie`re, Helbig und Schenkel sowie die Modelle Schanks und Abelsons. Es sei hervorgehoben, dass die Erkenntnisse von Klix, van der Meer u. a. wesentliche Erweiterungen und Präzisierungen der Auffassungen der bisher dargestellten Modelle vorweisen und zur vertieften Betrachtung des Verhältnisses von Valenz und Kognition in der Linguistik genutzt werden sollten. 3.5.1. Differenzierung von Begriffen Die Erklärung des Verhältnisses von sprachlicher Bedeutung und Begriff erfolgt in der Lexikonforschung, in Semantik- und Valenzforschung nach wie vor nicht einheitlich (Bedeutung ⫽ Begriff, Bedeutung ⫽ Begriff, Bedeutung Begriff), eine genauere Differenzierung von Begriffen durch die Kognitive Psychologie kann deshalb für die linguistische Klärung der Beziehung von Bedeutung und Begriff nur von größtem Interesse sein. In der Kognitiven Psychologie sind Begriffe „definierbar als kognitive Zusammenfassungen von Objekten und/oder Erscheinungen nach gemeinsamen Funktionen in der Realisierung von Verhaltenszielen“ (Hoffmann 1986,11).
434 Und bei Klix/van der Meer/Preuss/Wolf heißt es: „Die Verbindung (oder Assoziation) zwischen dem internen Wortbild und dem dazugehörigen Merkmalssatz für das Bezeichnete im Gedächtnis nennen wir einen natürlichen Begriff. Begriffe bilden die Daten- und damit die Entscheidungsbasis des menschlichen Erkennens und Verhaltens.“ (1987, 41) Sie werden als Klassenbildungen über Mengen von Objekten, Gegenständen des täglichen Wahrnehmens, Szenen, Ereignissen oder Vorgängen, aber auch über Mengen von Wörtern, Urteilen, Handlungen oder Denkwegen als Inhalte des Gedächtnisses gekennzeichnet. Die Begriffsbildung erfolgt auf der Grundlage invarianter Merkmale, die in Grenzen variabel sind und ein klassifizierendes Erkennen ermöglichen (vgl. Klix 1992, 228). „Die Bindung zwischen Wortmarke und Begriffsstruktur beruht auf der assoziativen Kapazität des Nervensystems.“ (Klix 1992, 231) Natürlich muss diese assoziative Beziehung im Spracherwerb ausgebildet worden sein. Auf der Grundlage einer Vielzahl von Experimenten ist die Erkenntnis gewonnen worden, dass Begriffe generell als quasi-stationäre Strukturbildungen des menschlichen Langzeitgedächtnisses gelten können, verschiedene Klassen von Begriffen jedoch zu differenzieren sind (vgl. Klix 1993, 395). Mit dem Zusatz „quasi“ gilt die Stationarität nur eingeschränkt, eben aus dem Grunde, dass Begriffe vor dem Hintergrund der Veränderung der Erfahrungen eines Individuums in der Ontogenese systematisch korrigiert bzw. adaptiert werden können. Zur Klassifikation von Begriffen wird der Grad ihrer Komplexität herangezogen, was zu einer Differenzierung in (i) Objektbegriffe, (ii) Ereignisbegriffe und (iii) Ereignisfolgebegriffe führt: (i)
Objektbegriffe beziehen sich auf eine Klassifikation von Objekten nach unterscheidbaren Merkmalen. Sie sind Ergebnis der durchschnittlichen sensorischen Einwirkung und werden auch als Primärbegriffe (Baum, Vogel) bezeichnet. (Vgl. van der Meer 1993, 377) (ii) Ereignisbegriffe klassifizieren Ereignisse. Klassen von Situationen, Beziehungen zwischen einem Subjekt des Geschehens und Dingen in Raum und Zeit werden zusammengefasst (Lernen, Essen). (iii) Ereignisfolgebegriffe oder logische Folgen von Ereignissen (Restaurantbesuch, Hochzeit) erfassen zielgerichtete Aktivi-
IV. Valenz. Grundlagen und Grundfragen
täten, die zu einer Ereigniskette verschmelzen. Sie „lassen sich auf die Verknüpfung von Ereignisbegriffen identischen Abstraktionsgrades vermittels unterschiedlicher Relationstypen (wie Kausalität, Finalität, Zeit, etc.) zurückführen“ (van der Meer 1993, 378). Um die über eine Wortmarke assoziierten variablen Merkmalskomplexe eines Begriffsknotens und assoziative Beziehungen zu anderen Begriffsknoten zu kennzeichnen, führt Klix die Familie der „innerbegrifflichen semantischen Relationen“ (IBR) und die der „zwischenbegrifflichen semantischen Relationen“ (ZBR) ein. Mit der ersten Sorte lassen sich interne Begriffseigenschaften fixieren, die zweite Sorte markiert Verbindungen zwischen Begriffen, d. h. sie bildet Relationen, die die eigentlichen Vernetzungen zwischen Wissensinhalten herstellen (vgl. Klix 1992, 235). Merkmalsbestimmte oder innerbegriffliche Relationen resultieren aus einem Vergleich relevanter Merkmalsproportionen der Begriffe. Klix nennt als solche Unter- und Oberbegriffe (Tanne ⫺ Nadelbaum), Nebenordnung (Linde ⫺ Birke), Synonym (Tresen ⫺ Theke), Antonym (Freund ⫺ Feind), Komparativ (warm ⫺ heiß) oder sinnleer (Kiesel ⫺ Pudding). Die zwischenbegrifflichen Relationen werden im folgenden Abschnitt im Zusammenhang mit den Ereignisbegriffen ausführlich beschrieben. 3.5.2. Ereignisbegriffe und „Geschehenstypen“ Klix geht wie Fillmore (1977), Schank und Abelson (1979) oder Barsalou (1992) davon aus, dass szenisches Wissen oder Ereigniswissen als in besonderer Weise strukturiertes Wissen in Ereignisbegriffen klassifiziert wird. Er definiert Ereignisbegriffe als „Klassenbildungen über raum-zeitlich kohärenten, einander ähnlichen Vorgängen oder Situationskonstellationen“ (Klix 1992, 239). Die Klassenbildung erfolgt hier nicht nur über die Merkmale von Objekten, sondern über die Rollen von Begriffen in einem netzartigen Ereignisbegriff. Konstitutiv für Ereignisbegriffe ist die Wechselwirkung zwischen Dingen und Personen in jeweils verschiedenen Rollen. Der Blick auf die Valenz ist bei dieser Art der Begriffsklassifikation unübersehbar. Ausgehend von linguistischen Kenntnissen zu einer Prädikats-Argument-Struktur und diese modifizierend bestimmt Klix die Struktur eines Ereignisbegriffes auf der Grundlage eines
34. Valenz und Kognition
semantischen Kerns (SK) (meist ein Verb) und einer wohlbestimmten Menge zwischenbegrifflicher semantischer Relationen (Ri), die die Rolle der durch den semantischen Kern gebundenen Objektbegriffe (Oj) kennzeichnen (vgl. Klix 1992, 241; 1993, 397). Die Struktur eines beliebigen Ereignisbegriffes (EB), der mit einer Wortmarke (WM) assoziiert ist, könnte dann in folgender Weise symbolisiert erscheinen: ‘EB ⫽ [(⬍WM⬎) L (SK J {Ri L Oj})]’ (Klix 1993, 397) Die Menge der assoziierten Objektbegriffe und semantischen Relationen hängt vom Typ des semantischen Kerns ab, unterschiedliche semantische Kerne lassen verschiedene Merkmale desselben Objektbegriffs hervortreten (z. B. füttern J Ente oder braten J Ente) (vgl. Klix 1992, 243). Klix hat den Nachweis erbracht, dass zu den semantischen Relationen, die einen allgemeinen Ereignisbegriff auf höchster Abstraktionsstufe konfigurieren und autonom aktiviert werden, die folgenden zu zählen sind: (i)
ein agierender Handlungsträger (Handlungsträgerrelation, HT 1); (ii) ein Objekt, auf das der Agierende mit seiner Handlung zielt (effiziert oder affiziert) (Objektrelation); (iii) ein Rezipient, der in die Handlung involviert ist oder sein kann (Adressat, Beteiligter) (Handlungsträgerrelation, HT 2); (iv) eine instrumentale Einordnung des Ereignisses, die aus der Beziehung zwischen Handlungsträger und Objekt (Intentionalität und Zielgerichtetheit) resultiert (Instrumentrelation); (v) eine lokale Einordnung des Ereignisses (Lokationsrelation) (vgl. dazu auch Klix 1991, 181); (vi) eine Finalitätsrelation. Die Finalitätsrelation erweist sich als eine Komponente von Ereignisbegriffen, die ebenfalls der Assoziationsbindung unterliegt (essen ⫺ satt, zerhacken ⫺ kaputt, säen ⫺ ernten) und in logischer Konsequenz auf ein zeitlich folgendes Ereignis verweist. Dieses kann durch eine neue oder andere Wortmarke markiert sein. Elemente des Lexikons ⫺ insbesondere Verben ⫺ stehen in solchen Beziehungen. Gleichfalls hat die durch die Wortform assoziierte und in die Semstruktur der Bedeutung eingehende Finalität etwas mit der zeitlichen Folge von Ereignissen zu tun.
435 „Im Ereignisbegriff ist offensichtlich eine Zeitinformation gespeichert. Sie schließt (latente) Prädikationen über mögliche oder wahrscheinliche Folgewirkungen ein. Diese ‘Zeitpfeile’ im Gedächtnis sind explizit gespeichert, denn die Priming-Effekte sind bereits bei 200 ms. SOA voll ausgeprägt.“ (Klix 1991, 180) Die hier genannten zwischenbegrifflichen Relationen werden mit der Verwendung einer verbalen Wortmarke, die ein Ereignis benennt, assoziativ gezündet. Die Reihenfolge der aufgeführten semantischen Relationen repräsentiert gleichzeitig die Erkennungszeiten, die dem internen Vernetzungsgrad der Begriffe folgen. Autonom assoziative Begriffsbeziehungen sind demzufolge charakteristisch für semantische Relationen in Ereignisbegriffen. 3.5.3. Semantische Relationen höherer Ordnung oder pragmatische Inferenzen „Ereignisfolgebegriffe lassen sich auf die Verknüpfung von Ereignisbegriffen identischen Abstraktionsgrades vermittels unterschiedlicher Relationstypen […] zurückführen.“ (van der Meer 1993, 378) Diese Relationstypen werden als semantische Relationen höherer Ordnung (vgl. Klix 1993, 399) oder als pragmatische Inferenzen bezeichnet, die zu der Gruppe effektiver Prädikationsmechanismen zählen (vgl. van der Meer/Schmidt 1991, 1995). FINALität, KONDitionalität, KAUSalität und KONSEKution werden als kognitive Prozesse betrachtet, „die auf der Grundlage von bestehendem Wissensbesitz bzw. aktuell gegebener Information neue Information erzeugen“ (van der Meer/Schmidt 1991, 167). Es handelt sich bei diesen semantischen Relationen um solche, „die zur semantischen Verbindung zwischen klassifizierten Ereignissen gesondert aktiviert und eingeführt werden können“ (Klix 1993, 398). Sie erweisen sich damit nicht als assoziiert, sondern unterliegen dem Entscheidungsprozess eines Individuums. Das machen auch die von van der Meer geordneten Verbpaare unter den Aspekten Finalität (tanken ⫺ fahren, mästen ⫺ schlachten, lernen ⫺ wissen, kochen ⫺ essen), Kausalität (altern ⫺ ergrauen, sterben ⫺ begraben, verlieren ⫺ suchen, hassen ⫺ töten) und Zeitfolge (blühen ⫺ verwelken, bohren ⫺ entgraten, drucken ⫺ binden, waschen ⫺ schleudern) deutlich. Es hat jedoch den Anschein, dass die Homogenität, die mit den Beispielen vermittelt werden soll, nicht eindeutig ist: Man muss nicht alt sein, um zu
436 ergrauen, in manchen Kulturkreisen wird man nicht begraben, wenn etwas zu Boden gefallen ist, muss es nicht zerbrechen, wer jemanden hasst, muss diesen nicht mit Kausalität töten. In den finalen Paaren stecken ebenso zeitliche Aufeinanderfolgen wie Finalitäten. Dies macht nochmals deutlich, dass eine „zeitliche Vorzugsrichtung im menschlichen Gedächtnis kodiert“ (van der Meer/Schmidt 1991, 167) ist. 3.5.4. Operationen und Prozeduren Mit der Differenzierung begrifflicher Beziehungen (autonom assoziative und prozedurale) verweist Klix auf die Notwendigkeit, den dynamischen Charakter des Ereigniswissens zu kennzeichnen. Nach dem Modell von Klix u. a. zeigt sich der dynamische Charakter von Ereigniswissen in den Wechselwirkungen zwischen stationären und prozeduralen Komponenten (vgl. Klix 1992, 325). Die durch den semantischen Kern und den Relationsrahmen gegebenen Strukturen werden auf der Grundlage ihrer assoziativen Gebundenheit als stationäre Eintragungen im Langzeitgedächtnis betrachtet. An diesen Strukturen können Operationen und Prozeduren wirksam werden. Sie sollen im Folgenden aufgeführt werden, zumal sie eine sehr starke Affinität zu dem besitzen, was in der linguistischen Literatur als Perspektivierung gefasst wird bzw. noch nicht klar gefasst wird. Der Vorschlag, von einer grundsätzlichen Perspektiviertheit der Verben auszugehen, geht auf Fillmore (1977) zurück. Welke sieht in der Perspektivierung eine „universelle Bedingung der Kognition“ (1994, 13). „Sprachlichkognitiv besteht aber keine andere Möglichkeit, als zu perspektivieren. Jedes relationale Zeichen, jedes Verb ist ein Vorschlag der Sprachgemeinschaft an den Sprecher, ein zu bezeichnendes Geschehen aus einer bestimmten subjektiven (nicht individuellen) Perspektive darzustellen.“ (Welke 1994, 13) Dies kann z. B. über die Reihenfolge der eingetragenen Argumente und den Grad ihrer Gebundenheit ⫺ also die Unterscheidung obligatorisch, fakultativ ⫺ erfolgen. Perspektivierungen sind das Resultat kognitiver Operationen und Prozeduren, das in einzelsprachlichen Fixierungen vorliegt. Unter einer kognitiven Operation versteht Klix „eine elementare Wirkungseinheit, die, angewandt auf eine kognitive Struktur, deren Änderung bewirkt. Eine kognitive Prozedur ist eine Folge von Operationen, die, mit-
IV. Valenz. Grundlagen und Grundfragen
einander verkettet, zusammenhängende Zustandsänderungen bewirken, von denen nur das Resultat greifbar ist.“ (1992, 262) Als Resultat greifbar ist die Benennung eines konzeptuellen Inhalts. Zu den elementaren kognitiven Operationen gehören: (i) die Aktivierung und ihr Gegenstück, (ii) die Inhibition, (iii) die Ersetzung oder Substitution, (iv) die (einfache) Zustandsänderung oder Transition, (v) die Projektion und (vi) die Inversion von Operationen (vgl. Klix 1992, 264). Zu den kognitiven Prozeduren zählt Klix Vergleichsprozeduren, Verkettungsprozeduren, die Verdichtung sowie die Verkürzung. Dabei handelt es sich um Prozeduren, die mit dem selektiven Charakter von Wahrnehmung und Informationsverarbeitung verbunden sind.
4.
Zur Reichweite der Modelle für die linguistische Valenzforschung
Um die Reichweite der beschriebenen Modelle der Wissensrepräsentation der Kognitiven Psychologie für die linguistische Valenzforschung zu diskutieren, ist zunächst die folgende Schlussfolgerung festzuhalten: Gegenstand der Kognitiven Psychologie ist die menschliche Kognition und damit der Zusammenhang von Sprache und Denken sowie die Repräsentation und Modellierung menschlicher Gedächtnis- und Sprachverstehensprozesse. Die Nähe zum Gegenstand Sprache erweist sich als Motivation dafür, dass die Psychologie zunächst für die Lösung disziplineigener Forschungsfragen auf logische und linguistische Kategorien oder Modelle wie die Prädikatenlogik, die Proposition oder die Valenz zurückgreift, die sich bis in die 70er Jahre hinein als produktive theoretische Ansätze in der Textlinguistik und der Grammatiktheorie erwiesen haben. Mit dem Blick auf die Entwicklung von Modellen und Theorien zum Textverstehen oder zur Gedächtnisrepräsentation und Informationsverarbeitung wird jedoch deutlich, dass Proposition und Valenz allein nicht zu einem Erklärungsmechanismus für psychologische Fragestellungen zum Zusammenhang von Sprache und Denken avancieren, sondern ihre anfängliche Erklärungsgewalt zur Hilfskonstruktion für die Psychologie wird. Im Prozess der Entwicklung kognitionspsychologischer Theorien mit eigenständigem psychologischem Instrumentarium wird die Potenz linguistischer Kategorien zur Generalisierung von Sprachverstehens- und Gedächtnisprozessen eher
34. Valenz und Kognition
zurückgedrängt. Die Perspektive der Kognitiven Psychologie verschiebt sich von der Betrachtung sprachlicher Äußerungen (Nähe der 70er Jahre in der Psychologie zu Textlinguistik und Generativer Transformationsgrammatik) auf die Erkundung von Gedächtnisleistungen und diese begleitende kognitive Prozesse. Solche Änderungen der Forschungsperspektive werden seit den 80er Jahren z. B. bei Anderson im Vergleich des HAM-Modells und der ACT-Theorie oder bei Klix ganz offensichtlich. Aspekte, die in der kognitionspsychologischen Forschung zu Gedächtnis, Repräsentation von Gedächtnisinhalten, zum Verhältnis von Sprache und Kognition diskutiert worden sind und werden, beziehen sich auf die (i) (ii)
Differenzierung von Wissensarten, die Repräsentation von Konzepten im menschlichen Gedächtnis, (iii) die Unterscheidung von stationärem und prozeduralem Wissen, (iv) die Art der Speicherung von Wissen im Gedächtnis, (v) die Rolle von Assoziationen oder (vi) die Gegenüberstellung von logischem vs. heuristischem Funktionieren der Kognition. Aber genau die Diskussion um diese Aspekte ist es, die in die Linguistik und z. B. auch in die Valenzforschung zurückwirken könnte. Welche Reichweite Erkenntnisse der Kognitiven Psychologie zu den oben genannten Problemkreisen für die Valenzforschung haben, soll im Folgenden überprüft werden. 4.1. Geschehenstyp, Satzmodell und Perspektivierung Die Betrachtung der von der Kognitiven Psychologie herausgehobenen Differenzierung zwischen stationärem und prozeduralem Wissen sowie die in der Linguistik durchaus übliche Differenzierung zwischen sprachlich-semantischem und begrifflich-semantischem (enzyklopädischem) Wissen sind aufs engste mit dem Begriff der Perspektivierung verbunden. Die Kognitive Psychologie hat mit solchen Operationen und Prozeduren wie Projizieren, Vergleichen, Inferieren, Addieren, Selektieren usw. wesentliche Prozesse genannt, die zur Perspektivierung einer Sache oder eines Ereignisses führen können. Der Begriff des Perspektivierens hat damit seine Grundlage in kognitiven Prozessen, also im prozeduralen Wissen. Genau zu untersuchen ist der Prozess des Perspektivierens jedoch nach
437 meinem Dafürhalten als Gegenstand der Linguistik und insbesondere der Valenz- und Semantikforschung. Denn das Resultat des Perspektivierens und Sinnstiftens zeigt sich in der Wahl und Kombination der sprachlichen Mittel. In dem Begriff der Perspektive fließen Prozedurales und Stationäres als konventionell Eingetragenes zusammen. Perspektivierungen können im Bereich der Wortbedeutung und in durch sie determinierten syntagmatischen Beziehungen angenommen werden, wenn Bedeutung als durch Sprache vermitteltes Wissen und durch die Anwendung perspektivierender Prozeduren über enzyklopädischem Wissen entsteht, das außersprachliche Zusammenhänge in konventionalisierter Form benennt. Dieser Zusammenhang lässt auch deutlich werden, dass der Prozess des Perspektivierens sich zunächst auf eine kognitive Struktur, z. B. den Ereignisbegriff beziehen muss, die Sichtweise des Sprechers auf das Ereignis gibt dann ein entsprechendes Verb frei (vgl. z. B. tanken ⫺ betanken; essen ⫺ schlingen, naschen; trinken ⫺ schlürfen; gehen ⫺ schlendern, spazieren usw.). Hier stehen sich Lexikon und Enzyklopädie als zwei autonome Kenntnissysteme gegenüber. „Das Lexikon beruht auf Konventionen über den Gebrauch von Wörtern und ordnet gewissen Lautformen Intensionen zu. Die Enzyklopädie beruht auf Erfahrung im Umgang mit der außersprachlichen Realität und trägt zur Ermittlung der Extensionen ebenso bei wie zur Differenzierung zwischen typischen und weniger typischen Instanzen einer Kategorie.“ (Blutner 1995, 250) Der strikten Unterscheidung von Enzyklopädie und Lexikon kann „die epistemische Dimension mit der Dichotomie durch Erfahrung korrigierbar ⫺ durch Erfahrung nicht korrigierbar“ (Blutner 1995, 251) zugrunde gelegt werden. Kenntnisse, die durch Erfahrung korrigierbar sind (Schemaadaption), gehören zum enzyklopädischen System, wesentliche Teile des Lexikons werden durch Kenntnisse gebildet, die nicht durch Erfahrung korrigierbar sind. Sie unterliegen der Konvention in Form von „Sinnoder Nominaldefinitionen“. Blutner spezifiziert die Wissenstypen dieser beiden Kenntnissysteme in treffender Weise: das Lexikon enthält Sinndefinitionen (Typ A), die Enzyklopädie Referenzdefinitionen als ontologisches Wissen (Typ B), Stereotypwissen (Typ C), physikalisch-technische Konventionen (Typ D) (vgl. Blutner 1995, 252). Das folgende Beispiel soll die genannten Zusammenhänge zwischen dem Ereignisbe-
438
IV. Valenz. Grundlagen und Grundfragen
griff (Geschehenstyp) als Bestandteil des enzyklopädischen Wissens und dem semantischen Satzmodell als Bestandteil des sprachlich-semantischen Wissens und dem Prozess des Perspektivierens illustrieren. Es sei dazu ein Ereignisbegriff (PFLEGEN) gewählt, wie er auch bei Klix in der folgenden Übersicht (vgl. 1998, 140) dargestellt wird. Die Darstellung des Ereignisbegriffes erfolgt auf einer mittleren kognitiven Abstraktionsebene, die in der kognitionspsychologischen Literatur auch als Geschehenstyp bezeichnet wird. Gleichzeitig wird die Einbettung in eine Ereignisfolge deutlich. Das semantische Valenzmodell des Verbs pflegen selektiert aus der Konfiguration des Geschehenstyps PFLEGEN die semantischen Relationen HT und REZ, so dass das semantische Valenzmodell die semantischen Rollen Agens und Benefaktiv einschließt (pflegen (Agens, Benefaktiv)). Dabei handelt es sich um die semantischen Relationen, die am schnellsten assoziiert werden. Mehr ist für die Satzproposition nicht erforderlich. Der Zweck des Pflegens (FIN) ist als Modifikatorsem in der semantischen Struktur des Verbs verankert, ebenso Medikamente (INSTR) oder der Ort (LOC), wo gepflegt wird. Die Modifikatorseme können in freien Angaben spezifiziert lexikalisiert werden. Diese Konfiguration erweist sich als im Lexikon konventionalisiert. Die Valenz des Verbs sowie die Differenzierung von Ergänzungen und Angaben wären danach „der Widerschein semantischer Gedächtnisbilder in der verbalen Beschreibungssprache sprachlicher Repräsentationen“ (Klix 1984, 68). Aus dem
Vergleich von Geschehenstyp und semantischem Satzmodell können einige Schlussfolgerungen gezogen werden. (i) Geschehenstypen erfassen in der Wirklichkeit vorkommende Ereignisse mit ihren prototypischen Merkmalen, die im Gedächtnis verallgemeinert gespeichert sind. Sie umfassen eine feste (wenn auch graduell unterschiedlich assoziierte) Konfiguration semantischer Relationen als das Kontextwissen, das für den gesamten Geschehenstyp und damit für die Orientierung in ähnlichen Verhaltenssituationen relevant ist. In diesem Sinne geht es hier um psychische Abstraktionen. (ii) Parallel dazu sind als sprachliche Abstraktionen semantische Satzmodelle anzunehmen, die ebenfalls, ausgehend von der gleichen Semantik der Prädikate, Typen von Ereignissen benennen. (iii) Geschehenstypen werden mit Hilfe von zwischenbegrifflichen (semantischen) Relationen, semantische Satzmodelle mit Hilfe von subklassenspezifischen semantischen Rollen beschrieben. (iv) Geschehenstypen implizieren eine größere Anzahl zwischenbegrifflicher Relationen, als sie in einem semantischen Satzmodell auf der Grundlage der Bedeutung des Valenzträgers in den semantischen Rollen perspektiviert werden. Der Unterschied zwischen der psychischen und der sprachlichen Abstraktion besteht darin, dass nicht alle zu einem Geschehenstyp gehörenden mental gespeicherten zwischenbegrifflichen Relationen auf der Stufe der sprachlichen Abstraktion im Sprachsystem konventionalisiert werden. (v) Der Prozess der sprachlichen Aktualisierung zwischenbegrifflicher Relationen ist von der Perspektive abhängig, aus der eine Kom-
HT (MUTTER) REZ (TOCHTER)
ERKRANKUNG Caus
Kaus INFEKTIO Kaus VERLETZUNG
(Cond) PFLEGEN
OBJ (KRANKHEIT(Fieber)) (Kaus) GENESUNG INST (MEDIKAMENT(Penicillin)) LOC (HEIM(Bett)) FIN (GESUNDUNG)
Abb. 34.2:
439
34. Valenz und Kognition
munikationsgemeinschaft generell oder der einzelne Sprecher in einer konkreten kommunikativen Situation das Geschehen betrachtet. Perspektivierungen sind prozedural in Bezug auf einen Geschehenstyp. Sie sind stationär konventionalisiert in der Bedeutung der Verben, die zur Aktivierung eines entsprechenden Satzmodells führt. Im Zusammenhang mit Perspektivierungen durch Verben spielen Wortbildungsmittel eine entscheidende Rolle. 4.2. Produktivität der Repräsentationsmodelle ⫺ Proposition und Netzwerkstruktur des Ereignisbegriffes Aus der intensiven Diskussion unterschiedlicher Wissensarten und ihrer Repräsentation in den Bereichen der Allgemeinen, Kognitiven und Sprachpsychologie und aus einer Vielzahl von Experimenten und damit aus einer breiten empirischen Basis leitet sich die gefestigte Vorstellung ab, dass von einer Differenzierung unterschiedlicher Begriffs- oder Konzepttypen auszugehen ist, mit denen das menschliche Gedächtnis operiert. Ein Konsens scheint sich hinsichtlich der Unterscheidung von Objektbegriffen, Ereignisbegriffen und Ereignisverkettungen herauszubilden (vgl. Klix 1998, Barsalou 1992). Barsalou z. B. nutzt den Begriff des Frames als Oberbegriff für mögliche Repräsentationen. Er sieht in Frames die fundamentale Organisationsform menschlichen Wissens in der Kognition. Frames sind durch solche grundsätzlichen Komponenten charakterisiert wie „attributevalue sets“, „structural invariants“ und „constraints“. „Because frames also represent the attributes, values, structural invariants, and constraints within a frame, the mechanism that constructs frames builds them recursively.“ (Barsalou 1992, 21) Von daher werden Frames als dynamische relationale Strukturen gesehen, deren Form flexibel und kontextabhängig ⫺ also für kognitive Prozeduren offen ⫺ erscheint. Frames stehen als Repräsentationen für Exemplare und Propositionen, für Prototypen, für Unterordnungen und Taxonomien, aber auch für konzeptuelle Kombinationen in Ereignissequenzen, Regeln und Plänen. Damit repräsentieren Frames in diesem weiten Sinne wahrgenommene oder vorgestellte Objekte, Ereignisse oder Ereignisverkettungen, die mit neuen Erfahrungen in Beziehung gesetzt und verglichen werden. Dieser Prozess bildet die Grundlage dafür, Wissen zu adaptieren und zu modellieren oder Bedeutungen zu generieren, wie dies
z. B. in Metaphorisierungs- und Metonymisierungsprozessen erfolgen kann. Frames bilden abstrakte Repräsentationen unseres Wissens und führen zur Organisation von Konzepten, wofür Sprache ebenso notwendig ist wie für das Erfassen und Verstehen von Konzepten. Indem Konzepte und Konzeptorganisationen bewusst gemacht werden, lassen sie sich auf die Einzelsprache in der Weise beziehen, dass danach gefragt wird, wie eine Einzelsprache Konzepte lexikalisiert. Ein deutsch-englischer Vergleich von einzelsprachlichen Lexikalisierungen des Ereignisbegriffes SAGEN zeigt z. B. folgende Gegenüberstellungen: (i) (ii) (iii) (iv) (v)
say : sagen write : schreiben speak : reden, sprechen talk : reden, sprechen, sich unterhalten tell, narrate, relate : erzählen
Die Erkenntnis, dass Ereigniskonzepte dynamische und relationale Strukturen bilden, führt Klix dazu, den Stellenwert der Proposition als psychologischen Erklärungsmechanismus für Gedächtnisrepräsentationen zu überprüfen. Die Ereignisbegriffe bei Klix und van der Meer sind durch einen Kern und Objektbegriffe gekennzeichnet, die in spezifischen bedeutungshaltigen Beziehungen zum semantischen Kern stehen. Die gesamte Konfiguration kann auf höherer und mittlerer Abstraktionsstufe (Geschehenstyp) betrachtet werden. Sie wird als eine merkmals- und relationsbestimmte Binnenstruktur gesehen, die in philosophisch-logischer Darstellungsweise als Prädikat-Argument-Struktur für die Beschreibung von sprachlichen Äußerungen genutzt wird. Indem Klix auf die Valenztheorie bei Tesnie`re, Helbig und Schenkel, auf das Textverstehensmodell bei Kintsch und van Dijk oder auf Schank verweist, sieht er in der weiten Verbreitung der Propositionen in linguistischer und psychologischer Literatur eine große Evidenz für die Struktur der Proposition als Gedächtniseintragung, die für Sprachproduktions- und Sprachverstehensprozesse relevant erscheinen. Zunehmend wird dennoch durch die Ergebnisse seiner Experimente deutlich, dass ihre als Repräsentationsmodell fungierende Struktur nicht mehr adäquat menschliche Gedächtnisleistungen, stationäres und prozedurales Wissen abbilden kann. Die Bevorzugung und Weiterentwicklung des ACT-Modells durch Anderson, indem er die Proposition mit Prime-Effekten ⫺ also auf der Grundlage von Assoziationen ⫺
440 zu einer propositionalen Netzwerkstruktur verbindet, lässt dies sehr augenscheinlich werden. Auch Klix hebt hervor, dass es sich bei seinen Ereignisbegriffen nicht mehr um Propositionen im strengen Sinne handelt. Er bewertet Propositionen in ihrer Zusammensetzung aus Prädikaten und Argumenten als eine statische Struktur, in der die Argumente unabhängig voneinander und gleichwertig sind. Der Propositionsbegriff wird deshalb als statisch bezeichnet, weil er nicht kennzeichnet, dass die enthaltenen Invarianzen der Objektbegriffe gegenüber Transformationen offener sind. So lässt sich mit dem herkömmlichen Begriff der Proposition nicht verdeutlichen, „daß Urteile über die Ähnlichkeiten von Ereignisbegriffen sowohl von den Merkmalseigenschaften der Objektbegriffe als auch von den Relationen zwischen Objektbegriffen und semantischem Kern abhängen. Dabei gehen die semantischen Relationen mit unterschiedlichen Gewichten in das Ähnlichkeitsurteil ein“ (Klix 1998, 184, Anm. 5). Vor diesem kognitionspsychologischen Hintergrund lassen sich z. B. Metaphorisierungen auf unterschiedlichen Wissensebenen verdeutlichen. Metaphorische Projektionen im verbalen Bereich sind weder als rein sprachliche Projektionen noch allein als Konzeptverschiebungen zu erklären. Vielmehr resultieren sie aus einem Zusammenwirken sprachlicher und konzeptueller Verschiebungen, die auf der Grundlage von Modellen funktionieren und erklärt werden können. Die folgenden Modelle sind dabei anzunehmen: (i)
der Geschehenstyp als Ereigniskonzept in seiner Funktion als kognitive Orientierung, (ii) die metaphorische Projektion als Vermittlerinstanz zwischen Konzepten und sprachlichen Strukturen, (iii) semantische und syntaktische Valenzmodelle als sprachlicher Realisierungsrahmen für verbale Metaphern. Die Erklärung von Dynamisierungsprozessen der Semantik verbaler Metaphern bewegt sich im Rahmen dieser drei Modelle und ihres Interagierens miteinander. Mit Coseriu ließe sich das Modell der metaphorischen Projektion in den Bereich des allgemeinsprachlichen, elokutionellen Wissens einordnen, als allgemeines Prinzip des Denkens, das bei der Produktion oder Interpretation von Äußerungen anzuwenden ist. Damit können metaphorische Projektionen in ihrer Mittlerfunk-
IV. Valenz. Grundlagen und Grundfragen
tion zwischen kognitiven und sprachlichen Strukturen deutlich werden. Mit dem metaphorischen kognitiven Modell (Denkmodell) setzt ein Operieren (Projizieren, Vergleichen, Selektieren, Inferieren) sowohl an Konzepten als auch an sprachlichen Modellen, wie den semantischen und syntaktischen Satzmodellen, an. Die Realisierung metaphorischer Projektionen in verbalen Metaphern ist dabei mit Perspektivierungen eines Geschehenstyps verbunden. Von Perspektivierungen mit Hilfe einzelsprachlicher Mittel sind also Ereignisbegriffe und ihre semantischen Relationen betroffen, die dann Voraussetzungen für eine Reflektion in Variationen der semantischen und syntaktischen Valenzmodelle bilden. Damit ist die Erklärung verbaler Metaphern auf das engste mit einer Beschreibung von Valenzrealisierungen im Kontext verbunden. Valenzrealisierungen einer verbalen Metapher werden schlüssiger sichtbar, wenn sie mit einer Größe in Beziehung gesetzt werden können. Dies erfolgt durch Vergleichsprozeduren: (i) (ii)
der metaphorischen Projektion zugrundeliegende konzeptuelle Modelle werden miteinander verglichen, valenzrealisierte Ergänzungen des Ausgangssemems werden mit valenzrealisierten Ergänzungen des metaphorischen Semems in Beziehung gesetzt, dies geht mit einer Überprüfung der sprachlichen Strukturen von Ausgangs- und metaphorischem Semem einher. Die folgenden Beispiele sollen diesen Zusammenhang untermauern. (i) einfahren1 ‘ein Fahrzeug bewegt sich in das Innere von etwas’ Der Zug fährt (in den Bahnhof) ein. R a (b) a (Patiens/Vorgangsträger, konkr; Sn) b (Lokativ [goal], konkr; Sp) Die Lokationsrelation des Geschehenstyps FAHREN ist in der Vernetzung der Verbsemantik von einfahren1 und semantisch-denotativer Ausprägung der semantischen Rolle Patiens (Schiff ⫺ Hafen, Zug ⫺ Bahnhof) stark präsupponiert, so dass die Ergänzung strukturell fakultativ realisierbar ist. Die semantisch hoch implikative Verbvariante bindet eine obligatorische und eine fakultative Ergänzung. (ii) einfahren2 ‘in das Erdinnere, in eine Höhle gelangen’
441
34. Valenz und Kognition
„Sie (die Füchsin) war froh, daß sie unangefochten zu ihren Welpen einfahren konnte.“ (Dathe, H.: Reinecke: Ein Tag im Leben eines Fuchses. Berlin, 1983, 15) Rab a (Agens, anim; Sn) b (Lokativ [direktiv], z. B. in die Höhle, oder [goal], z. B. zu ihren Welpen; Sp) Das t. c. ‘in etwas gelangen’, nämlich über eine Bewegung, ist durch den Geschehenstyp BEWEGEN determiniert, der in Ähnlichkeitsbeziehung zum Geschehenstyp FAHREN steht. Die metaphorische Projektion erfolgt bei diesem Beispiel innerhalb des Geschenstyps, sie setzt bei den semantischen Relationen Handlungsträgerrelation und Lokationsrelation an. Diese Perspektive bewirkt den Übergang des Verbs von einer hoch implikativen zu einer gering implikativen Variante, der sich in der Obligatheit der beiden Ergänzungen niederschlägt. Die semantischen Relationen bleiben erhalten, während eine Verschiebung der Objektkonzepte erfolgt, über die die semantischen Relationen mit dem semantischen Kern BEWEGEN zu inferieren sind (Handlungsträgerrelation: einfahren ⫺ Fuchs; Lokationsrelation [direktiv] einfahren ⫺ Höhle oder [goal] einfahren ⫺ zu den Welpen). Die Valenzrealisierung zeigt Alternativen in der semantisch-funktionellen Charakteristik des ersten Arguments, semantisch-denotativ spezifizierte Varianten für beide Argumente. Die starke Perspektive auf einen Lokativ, der obligatorischer Aktant ist, wird wahrscheinlich für eine Abgrenzung zu einfahren3 (ins Bergwerk) erforderlich. Die Kollokationen Mensch ⫺ einfahren oder Fahrzeug ⫺ einfahren präsupponieren demzufolge eine mit bestimmter semantisch-denotativer Spezifik ausgefüllte semantische Rolle Lokativ. Die Beispiele verdeutlichen, dass metaphorische Projektionen nicht erst auf der Ebene der Proposition erklärbar werden. Sie werden innerhalb eines Geschehenstyps wirksam und ziehen dann Projektionen in semantischen und syntaktischen Valenzmodellen nach sich. Geht die Projektion über die Variation der Handlungsträgerrelation hinaus, liegt eine Konzeptverschiebung zugrunde und das durch metaphorische Projektion entstandene Verbsemem wechselt die Subklasse mit der Konsequenz der Übernahme subklassenspezifischer semantischer und syntaktisch-morphologischer Merkmale. Ein Geschehenstyp-
wechsel liegt z. B. der metaphorischen Variante operieren2 (‘nach einem militärischen Plan vorgehen’) zugrunde. Der Wechsel des Geschehenstyps hat den subklassenspezifischen Wechsel des semantischen und des syntaktischen Valenzmodells zur Folge: operieren1: Agens, Benefaktiv, Objektiv; Sn, (Sa), (Sp) ⬎ operieren2: Agens, Lokativ; Sn, Sp. Auch metaphorische Projektionen dieser Art im verbalen Bereich unterstützen die Vorstellungen Klix’, dass Ereignisbegriffe statt Propositionen die Ausgangsstruktur für kognitive Prozesse und Operationen bilden und in den Ereignisbegriffen bzw. Geschehenstypen selbst semantische Valenzpotenzen ruhen.
5.
Zusammenfassung und Schlussfolgerungen
Nachfolgend geht es um die Formulierung von Schlussfolgerungen hinsichtlich der Frage, welche Aussagen und Erkenntnisse der Kognitiven Psychologie für die Valenzforschung ⫺ und dabei insbesondere für Fragen der semantischen Valenz ⫺ von Relevanz sind und wie die Valenzforschung Anregungen zum Zusammenhang von Denken und Sprache geben kann. Zunächst ist festzuhalten, dass die Kognitive Psychologie auf die Proposition, Valenz und semantische Rollen zurückgegriffen hat, um Gedächtnisprozesse beim Textverstehen und bei der Begriffsbildung zu erklären. Eine Modifizierung dieser Begrifflichkeiten für die Belange der Kognitiven Psychologie erwies sich als dringend notwendig. (1) Die Neubewertung der Assoziation in der Kognitiven Psychologie (Priming) kann dazu motivieren, assoziative Bindungen nicht als etwas Kognitives aus der Valenzforschung wegzudenken oder auszuschließen, vielmehr liegt der Schluss nahe, dass assoziative Beziehungen die natürlichen kognitiven Repräsentationsbeziehungen für das Phänomen der Valenz bilden. Über Primingeffekte und Grade der Assoziativität, wie sie in den 80er Jahren auch in der Linguistik von Heringer (1984, 1985) zur Abgrenzung von Ergänzungen und Angaben gezeigt wurden, kann angenommen werden, dass eine Differenzierung von Ergänzungen und Angaben auf graduellen Assoziationsunterschieden beruht, dass das graduelle Assoziieren als ein natürlicher Denkprozess eine exakte Unterscheidung bzw. das Finden exakter oder verifizierbarer
442 Kriterien zur Abgrenzung von Ergänzungen und Angaben aber auch äußerst erschwert. (2) Die Kognitive Psychologie liefert eine grundlegende Begründung für die Differenzierung von semantischen Relationen, die an einem Ereignisbegriff beteiligt sind, und semantischen Relationen höherer Ordnung, die von Ereignisbegriffen zu unterscheiden sind. Letztere gehören nicht zur Konfiguration des Ereignisbegriffes, sondern sie stellen „eigenständig verfügbare begriffliche Bildungen“ dar, „die als Bindungsoperatoren zum Aufbau komplexerer Ereignisfolgen herangezogen werden können. Sie bedingen ein gut Teil der narrativen Kompetenz eines Menschen.“ (Klix 1994, 139) Als semantische Relationen höherer Ordnung werden bei Klix und van der Meer die Kausalitätsbeziehung (UrsacheWirkungs-Beziehung), die Konditionalitätsbeziehung (Bedingungsbeziehung) sowie der Wissensbesitz über die bloße zeitliche Abfolge von Ereignissen durch eine Reihe von Prime-Experimenten nachgewiesen. Klix war davon ausgegangen, dass sich die PrädikatArgument-Struktur für psychologische Belange der semantischen Differenzierung als zu grob erweist. Die propositionale Struktur im starren Sinne wird durch den Ereignisbegriff ersetzt, der über einen semantischen Kern verfügt und die semantischen Relationen oder semantischen Rollen des Handlungsträgers, des Rezipienten, des Objekts, der Lokation und des Ziels eines Geschehens aufspannt. Bei diesen semantischen Relationen handelt es sich um am Geschehen beteiligte Größen. Ihre in Perspektive gebrachte Kombination und Konfiguration, die als relativ stabile vernetzte Wissensstruktur im Gedächtnis eingetragen ist, macht den semantischen Wert eines Verbs aus. Frühere Metaphern von der Valenz, wie die von Tesnie`re, der die Verbvalenz mit einem „petit drame“ verglich, oder von Heringer, der die Entfaltung einer Verbszene mit dem Anknipsen des Lichts beschrieb, oder von Meiner, der für die zentrale Rolle des Verbs im Satz das Bild von der Entfaltung einer Frühlingsknospe mit allen ihren Teilen prägte, erhalten mit den Erkenntnissen und Differenzierungen der Kognitiven Psychologie zwischen semantischen Relationen und semantischen Relationen höherer Ordnung und damit zwischen Beteiligtheit an einem Ereignis und Verknüpfung von Ereignisbegriffen eine psychologische Begründung. Sie leitet sich aus den Erkenntnissen zur Begriffsbildung und begrifflichen Re-
IV. Valenz. Grundlagen und Grundfragen
präsentation ab und insbesondere aus den Einsichten in die Struktur und Repräsentation von Ereignisbegriffen. (3) Die Struktur des Ereignisbegriffes wird als eine quasi-stationäre Eintragung im Langzeitgedächtnis angesehen, die ihre Dynamik durch das Wirken von Prozeduren und Operationen (Vergleichen, Selektieren, Inferieren, Projizieren) erreicht. Für die Valenz könnte dies bedeuten, dass Valenzrahmen über Variabilität als natürliches Merkmal verfügen. Klix zeigt diese Variabilität darin, dass nicht nur vom semantischen Kern eines Geschehenstyps semantische Relationen determiniert werden, sondern auch die Besetzung der Relationspartner zu einer Variation semantischer Relationen führen kann. Mit prototypischen Ansätzen in der Beschreibung und Aufstellung von Listen semantischer Rollen entsprechend der Subklassenspezifik von Verben (vgl. Welke 1988; Gansel 1992) ist in der Valenztheorie diese Vorstellung der Kognitiven Psychologie bereits vorweggenommen worden. (4) Aus Überlegungen und Diskussionen der Kognitiven Psychologie zu verschiedenen Wissensarten und Repräsentationsformen des Gedächtnisses, aus Überlegungen und Experimenten zu Assoziationen und Primeprozessen, zum Inferieren und insbesondere zu pragmatischen Inferenzen lassen sich eine Reihe von Evidenzen für die Annahme ableiten, dass es sich bei Valenz um eine sprachliche relationale Größe mit einem kognitiven Hintergrund handelt. Ausgehend von den Darstellungen der kognitiven Psychologie zu logischem und heuristischem Inferieren, das auf Informationsselektion beruht, ist allerdings zu überprüfen, ob tatsächlich von einer logischen Valenz bzw. von der Beziehung der logischen Argumenthaftigkeit ausgegangen werden muss. Ist nicht eine Erklärung von Valenz naheliegender, die von einer kognitiven Grundrepräsentation eines Ereignisbegriffes und daran ansetzenden Prozeduren und Operationen ausgeht, die zu dem führen, was wir als Beteiligtheit oder Argumenthaftigkeit bei Jacobs (1994) formuliert finden. Eine prototypische Struktur wie der Geschehenstyp (vgl. den Rekurssituationstyp in Bezug auf Sprechaktverben) könnte die logisch bzw. philosophisch geprägte Proposition als Satzäußerung mit einem bestimmten Wahrheitswert ersetzen, ihr aber zumindest als kognitive Orientierungsgröße vorangestellt werden. Ein typisierender Ereignis- oder Ge-
443
34. Valenz und Kognition
schehensbegriff ist offener für Variationen als die feste Struktur der Proposition, die als Ergebnis einer sprachlichen Äußerung vorliegt. Sie scheint nicht dazu prädestiniert, kognitive und sprachliche Perspektivierungsprozesse in Bezug auf ein Ereignis und daran beteiligten Objekten kenntlich zu machen. Im HAMModell findet sich die Proposition noch als universelle Größe. Als universelle Größe der Kognition erweist sich jedoch der Ereignisbegriff. Die Proposition als grundlegender Inhalt der Satzäußerung ist Ergebnis des einzelsprachlichen Ausdrucks. (5) Klix hebt als psychologisches Allgemeingut in Absetzung zu linguistischen Positionen hervor, „daß man große Teile des Wortschatzes einer Sprache als Benennungen für die Begriffsbildungen ansehen muß. Worte fixieren (wenigstens zeitweilig) die Struktur eines Begriffs. Sie wird durch jene invarianten Merkmale bestimmt, die klassifizierendes Wiedererkennen ermöglichen. Den Inhalt eines Begriffs bildet die Menge der Träger dieser Merkmale, und die mit der Struktur im Gedächtnis verbundenen Verhaltensantworten oder -einstellungen bilden die Bedeutung dieses Wissenselements.“ (Klix 1998, 137) Dem ist grundsätzlich zuzustimmen, obwohl ebenfalls die Tatsache Berücksichtigung finden sollte, dass Sprache über ein endliches Reservoir an lexikalischen und grammatischen Mitteln verfügt, mit dem in der Kommunikation perspektiviert werden kann. Perspektivierungen werden in lexikalischen Einheiten konventionalisiert. So ist gehen nicht gleich spazieren oder wandern, sagen nicht gleich übermitteln oder prophezeien. Die Wortmarke, die lexikalisch-semantische, morphologische und syntaktische Merkmale trägt, bringt über diese Sinnhaftigkeit als solche Perspektivierungen ein. Einzelsprachliche Perspektivierungen zu zeigen kann nur das ureigenste linguistische Anliegen sein. Dies wird auch darin sichtbar, dass die Kognitive Psychologie nicht klar ausweist, ob alle Verben einen Ereignis- oder Geschehenstyp etablieren. Wenn der Geschehenstyp auf einer mittleren Abstraktionsebene angesetzt wird, steht die Frage, ob nicht eher Feldinvarianten, also Archilexeme oder Archisememe, einen Geschehenstyp bilden (vgl. Wotjak 1989, Gansel 1996). Aus dem kognitiven Vergleich des Geschehenstyps mit einer aktuellen Situation erwächst dann eine den Geschehenstyp perspektivierende verbale Benennung, die einen entsprechenden Relationsrahmen eröffnet.
6.
Literatur in Auswahl
´ gel, Vilmos (1995): Valenzrealisierung, GrammaA tik und Valenz. In: Zeitschrift für Germanistische Linguistik 23, 2⫺32. Anderson, John R. (1996): Kognitive Psychologie. Heidelberg. Anderson, John R. (1983): The architecture of cognition. Cambridge, MA. Anderson, John/Bower, Gordon H. (1979): Human Associative Memory. Hillsdale, New Jersey. Barsalou, Lawrence W. (1992): Frames, Concepts, and Conceptual Fields. In: Lehrer, Adrienne/Federkittay, Eva (eds.) (1992): Frame, Fields, and Contrasts. New Essays in Semantic and Lexical Organization. Hillsdale etc., 21⫺74. Bartlett, Frederic C. (1932): Remembering: A study in experimental and social psychology. New York/ London. Blutner, Reinhard (1995): Prototypen und Kognitive Semantik. In: Harras, Gisela (Hg.): Die Ordnung der Wörter. Kognitive und lexikalische Strukturen (⫽ IDS Jahrbuch 1993). Berlin, 227⫺270. Dorsch, Hans (1987): Psychologisches Wörterbuch. Heidelberg. Engelkamp, Johannes (1991): Das menschliche Gedächtnis. Göttingen etc. Fillmore, Charles J. (1985): Frames and the Semantics of Understanding. In: Quaderni di Semantica VI, 2, 222⫺254. Fillmore, Charles J. (1977): Scenes-and-frames semantics. In: Zampolli, Antonio (ed.) (1977): Linguistics Structures Processing. Amsterdam, 55⫺81. Gansel, Christina (1992): Semantik deutscher Verben in kognitionspsychologischer Sicht (⫽ Sprache, System, Tätigkeit, Bd. 5). Frankfurt a. M. etc. Gansel, Christina (1996): Semantische Beschreibungen auf der Basis von Prototypen? In: Weigand, Edda/Hundsnurscher, Franz (Hgg.) (1996): Lexical Structures and Language Use. Proceedings of the International Conference on Lexicology and Lexical Semantics. Tübingen, 213⫺222. Helbig, Gerhard (1992): Probleme der Valenz- und Kasustheorie. Tübingen. Heringer, Hans Jürgen (1984): Neues von der Verbszene. In: Stickel, Gerd (Hg.) (1984): Pragmatik in der Grammatik. Düsseldorf, 34⫺63. Heringer, Hans Jürgen (1985): The Verb and its Semantic Power: Association as a Basis for Valence Theory. In: Journal of Semantics 4, 79⫺99. Hörmann, Hans (1967): Psychologie der Sprache. Heidelberg. Hoffmann, Joachim (1986): Die Welt der Begriffe. Berlin. Jacobs, Joachim (1994): Kontra Valenz. Trier.
444
IV. Valenz. Grundlagen und Grundfragen
Jacobs, Joachim (1992): Syntax und Valenz. In: Hoffmann, Ludger (Hg.) (1992): Deutsche Syntax: Ansichten und Aussichten. Berlin/New York, 94⫺127. Kintsch, Walter/van Dijk, Teun A. (1978): Toward a model of text comprehension and production. In: Psychological Review 85, 363⫺394. Klix, Friedhart (1993): Analytische Betrachtungen über Struktur und Funktion von Inferenzen. In: Zeitschrift für Psychologie 201, 393⫺414. Klix, Friedhart (1998): Begriffliches Wissen ⫺ episodisches Wissen. In: Klix, Friedhart/Spada, Hans (Hgg.) (1998): Enzyklopädie der Psychologie. Kognition, Bd. 6, Wissen. Göttingen, 167⫺206. Klix, Friedhart (1992): Die Natur des Verstandes. Göttingen etc. Klix, Friedhart (1991): Über notwendige Kriterien eines psychologisch relevanten Modells der Wissensrepräsentation. In: Zeitschrift für Psychologie, Suppl. 11, 175⫺186. Klix, Friedhart (1984): Über Wissensrepräsentationen im menschlichen Gedächtnis. In: Klix, Friedhart (Hg.) (1984): Gedächtnis, Wissen, Wissensnutzung. Berlin, 9⫺71. Klix, Friedhart (1994): Wissenselemente: Bausteine für Gedächtnis und Sprache. In: Kornadt, HansJoachim/Grabowski, Joachim/Mangold-Allwin, Roland (Hgg.) (1994): Sprache und Kognition. Heidelberg etc., 133⫺160. Klix, Friedhart/van der Meer, Elke/Preuß, Matthias/Wolf, M. (1987): Über Prozeß- und Strukturkomponenten der Wissensrepräsentation beim Menschen. In: Zeitschrift für Psychologie 195, 39⫺61. van der Meer, Elke (1995): Gedächtnis und Inferenzen. In: Dörner, Dietrich/van der Meer, Elke (Hgg.) (1995): Das Gedächtnis. Göttingen etc., 339⫺380.
van der Meer, Elke (1993): Mentale Repräsentationen von Alltagstexten. In: Zeitschrift für Psychologie 201, 375⫺391. van der Meer, Elke/Schmidt, B. (1991): Pragmatische Inferenzen: Eine kognitive Thematisierung von Vergangenheit und Zukunft. In: Zeitschrift für Psychologie, Suppl. 11, 165⫺174. Meiner, Johann Werner (1781): Versuch einer an der menschlichen Sprache abgebildeten Vernunftlehre oder Philosophische und allgemeine Sprachlehre. Brekle, Herbert (Hg.) (1971). Stuttgart-Bad Cannstadt. Opwis, Klaus/Lüer, Gerd (1996): Modelle der Repräsentation von Wissen. In: Albert, Dietrich/ Stapf, Kurt-Hermann (Hgg.) (1996): Enzyklopädie der Psychologie. Kognition, Bd. 4, Gedächtnis. Göttingen, 346⫺373. Raue, Burkhardt/Engelkamp, Johannes (1977): Gedächtnispsychologische Aspekte der Verbvalenz. In: Archiv für Psychologie 129, 157⫺174. Schank, Roger/Abelson, Robert (1977): Scripts, Plans, Goals and Understanding. An Inquiry to Human Knowledge Structures. Hillsdale, New Jersey. Storrer, Angelika (1992): Verbvalenz. Tübingen. Welke, Klaus (1988): Einführung in die Valenz- und Kasustheorie. Leipzig. Welke, Klaus (1994): Thematische Relationen. In: Deutsche Sprache 22, 1⫺18. Wessels, Michael G. (1994): Kognitive Psychologie. München. Wotjak, Gerd (1989): Bedeutung und Wissenskonfiguration ⫺ ein Vorschlag zur Güte. In: Zeitschrift für Germanistik 10, 459⫺468.
Christina Gansel, Greifswald (Deutschland)
35. Valenz und Sprachtypologie 1. 2. 3.
1.
Valenz: Geschichte des Terminus und heutiger Begriffsinhalt Typologisch relevante Veränderungen der Valenz von Verben Literatur in Auswahl
Valenz: Geschichte des Terminus und heutiger Begriffsinhalt
1.1. Die Konzeption Tesnie`res Bekanntlich wurde der aus dem Bereich der Chemie entlehnte Terminus „Valenz“ unabhängig voneinander und nahezu gleichzeitig
von S. D. Kacnel’son (1948) sowie A. W. de Groot (1949) in die Sprachwissenschaft eingeführt, doch einen größeren Bekanntheitsgrad erreichte der Begriff, den dieser Terminus bezeichnet, erst nach der posthumen Publikation des Buches von L. Tesnie`re „E´le´ments de syntaxe structurale“ (1959), wo er zu einem der Schlüsselbegriffe in der verbzentristischen Satzkonzeption dieses Autors wurde. Nach L. Tesnie`re nimmt das finite Verb im verbhaltigen Satz die absolut dominierende Stellung ein; es stellt den Satzkern dar. Das Verb bezeichnet einen Vorgang (i. w. S.). Die Partizipanten des Vorgangs sind syntaktisch vom Verb abhängige Substantive,
35. Valenz und Sprachtypologie
die Aktanten genannt werden. Valenz ist die Fähigkeit des Verbs, eine bestimmte Anzahl von Aktanten zu regieren. Insgesamt kann ein Verb bis zu drei Aktanten binden. Unter semantischem Gesichtspunkt vollzieht der erste Aktant (das „logische“ Subjekt) eine Handlung, der zweite Aktant (das „logische“ Objekt) „erfährt“ diese Handlung, und der dritte Aktant stellt denjenigen Partizipanten dar, zu dessen Gunsten oder zu dessen Lasten die Handlung erfolgt. Verben, die keine Aktanten binden können, sind valenzlose bzw. nullstellige Verben (vgl. lat. Pluit; frz. Il pleut). Verben mit einem Aktanten heißen einstellige Verben (vgl. frz. Alfred tombe). Verben mit zwei Aktanten werden zweistellig genannt (vgl. frz. Alfred frappe Bernard) und solche mit drei Aktanten entsprechend dreistellig (frz. Alfred donne le livre a` Charles). Der einzige Aktant eines einstelligen Verbs kann der erste sein (frz. L’arbre verdoie), der zweite (frz. Il faut une loi) oder der dritte (dt. Es ist mir warm). Neben dem Kern und den Aktanten können Zirkumstanten ausgegliedert werden, die syntaktisch ebenfalls vom finiten Verb abhängen, jedoch als freie Ergänzungen im Satz auftreten. In der Position der Zirkumstanten treten Adverbien auf oder Syntagmen, die Adverbien äquivalent sind. Es gibt so viele Zirkumstanten, wie es verschiedene Adverbien gibt: also Adverbien der Zeit, des Ortes, der Art und Weise usw. Ein Satz kann ganz ohne Zirkumstanten auskommen, er kann aber auch verschiedene Zirkumstanten umfassen, theoretisch in unbegrenzter Anzahl (frz. On le voit toujours beaucoup partout). Zwei gleichartige Zirkumstanten sind nur dann möglich, wenn sie einander nicht ausschließen (frz. Alfred part demain a` midi). Die Theorie L. Tesnie`res gibt auf den ersten Blick eine präzise Antwort auf die Frage, nach welchen Kriterien Aktanten von Zirkumstanten zu unterscheiden sind: 1) Aktanten sind Substantive (frz. Alfred frappe Bernard), Zirkumstanten sind Adverbien oder ihnen gleichwertige Syntagmen (frz. Alfred marche avec une canne); 2) ein Aktant füllt die Verbbedeutung aus bzw. wird von dieser gefordert und ist somit für den Sinn des Satzes notwendig (frz. Alfred frappe Bernard), Zirkumstanten sind demhingegen fakultative Elemente (frz. Alfred marche). Wie L. Tesnie`re selbst bemerkt, ist die Unterscheidung von Aktanten und Zirkumstanten allerdings nicht immer einfach, denn bereits der dritte Aktant verfügt über einige Eigenschaften der Zirkumstanten. L. Tesnie`re illustriert
445 dieses Verhältnis mit dem frz. Beispiel Alfred change de veste, in welchem das Element de veste, obschon es von seiner Bedeutung her eng mit dem Verb verbunden und auch nicht fakultativ ist, dennoch der semantischen Definition keines der drei Aktanten genügt und insofern als Zirkumstante gelten muß. ⫺ Die Valenzkonzeption L. Tesnie`res erfuhr ihre weitere Ausarbeitung in einer Reihe von Arbeiten vor allem deutscher, russischer, tschechischer und französischer Forscher (Helbig/ Stepanova 1981; Helbig 1971, 1982; Welke 1988; Mel’cˇuk 1964, 1974; Apresjan 1974; Panevova 1994; Boguslavskij 1996; Feuillet 1998; Paducˇeva 1998; Plungjan/Raxilina 1998; Muravenko 1998; Sˇmelev 1998). 1.2. Die moderne Valenztheorie Bevor die gegenwärtige Form der Valenztheorie erläutert werden soll, seien die beiden wichtigsten Tendenzen ihrer Weiterentwicklung seit der Zeit L. Tesnie`res vorgestellt. Zum einen wurde damit begonnen, den Begriff der Valenz zur Charakterisierung der semantisch-syntaktischen Eigenschaften eines jeden prädikativ funktionierenden Wortes zu nutzen (der Adjektive, Substantive, Adverbien und Präpositionen) ⫺ und nicht nur der Verben. Zum anderen wurde vorgeschlagen, semantische und syntaktische Valenzen zu unterscheiden: das Schema der Entsprechung von semantischen und syntaktischen Valenzen eines Wortes wurde das „Rektionsmodell“ des Wortes genannt. Bei der Beschreibung semantischer und syntaktischer Valenzen des Verbs sind eine denotative, eine semantische und eine syntaktische Analyseebene zu unterscheiden, wobei beim Verb im Wörterbuch nur die semantische Valenz verzeichnet wird, während die ihr entsprechenden syntaktischen Valenzen, die von den Aktanten ausgefüllt werden, nur im Satz zu realisieren sind. Die semantische Valenz eines Verbs ergibt sich aus der Analyse der von ihm bezeichneten denotativen Situation, welche durch einen bestimmten Komplex von Partizipanten charakterisiert ist. Grob gesagt stimmt die Anzahl der notwendigen Partizipanten eines Verbs mit der Stelligkeit seiner semantischen Valenz überein. In der Explikation entsprechen den Partizipanten Variable. Vgl. „X verursachte: Y liegt in Z“ als Explikation von „X legte Y in Z“. Den Eigenschaften der Partizipanten entsprechen fest definierte Explikationselemente, die Prädikate dieser Variablen. Die Partizipantenrollen ergeben sich durch die Komponenten der Ex-
446
IV. Valenz. Grundlagen und Grundfragen
plikation. Ein Verb in einer bestimmten Bedeutung verfügt immer über das gleiche Inventar an Rollen, wobei die konkreten Partizipanten jeder neuen Situation, die in Sätzen mit dem betreffenden Verb ausgedrückt wird, verschiedene sind. Vgl. in diesem Zusammenhang die Beispiele (1) und (2): (1)
Hans gab Inge einen Apfel
(2)
Maria gab Peter eine Birne
Im verbalen Satz entspricht jedem Partizipanten mit einer bestimmten Rolle prototypisch ein dem Verb untergeordneter Aktant, der die syntaktische Valenz realisiert. Die verschiedenen syntaktischen Aktanten heben sich auf die eine oder andere Weise formal voneinander ab. So tritt in (3) der Aktant, der dem Partizipanten mit der Rolle Agens entspricht, im Nominativ auf und der Aktant, der dem Partizipanten mit der Rolle Patiens entspricht, im Akkusativ: (3)
Peter aß die Birne (auf )
Es ist weiterhin akzeptiert, die jeweils möglichen Entsprechungen zwischen den Partizipantenrollen, d. h. den semantischen Aktanten und den syntaktischen Aktanten, als Diathesen des Verblexems zu bezeichnen. Verschiedene Genera verbi eines Verballexems (Aktiv und Passiv) können unterschiedliche Diathesen ausdrücken. Vgl. (4a) und (4b): (4)
a. Die Arbeiter bauen ein Haus b. Das Haus wird von den Arbeitern gebaut
Mit anderen Worten ist das Genus verbi die „grammatisch am Verb markierte Diathese“ (Mel’cˇuk/Xolodovicˇ 1970, 117). Als prototypisch kann eine eineindeutige Entsprechung zwischen semantischen und syntaktischen Aktanten des Verballexems gelten. Aber diese Eineindeutigkeit kann auch fehlen. Wesentlich ist die Einteilung der Partizipanten in obligatorische und fakultative. Z. B. kann man ein Haus nicht aus nichts heraus bauen (insofern ist der Partizipant mit der Rolle MITTEL obligatorisch), aber man kann (ein Haus) bauen entweder mit einem bestimmten Zweck oder ohne einen solchen (deshalb ist der Partizipant mit der Rolle ZIEL fakultativ). Das Fehlen fakultativer Partizipanten stört den Situationsaufbau nicht. Infolgedessen entspricht den fakultativen Partizipanten keine Variable in der Explikation. Was die obligatorischen Partizipanten anbetrifft, so entspricht vielen von ihnen eine
Variable in der Explikation. Allerdings gibt es auch solche obligatorischen Partizipanten, denen in der Explikation keine Variable entspricht. So besteht in einer Situation, die mit dem Verb gehen bezeichnet wird, ein obligatorischer Partizipant GESCHWINDIGKEIT, denn ohne eine bestimmte Geschwindigkeit ist eine Bewegung nicht möglich. Analog verfügt eine Situation, die mit dem Verb essen bezeichnet wird, über die obligatorischen Partizipanten ORT (denn man kann nicht nirgendwo essen) und ZEIT (denn man kann nicht ohne Zeit essen). Obwohl diese Partizipanten obligatorisch sind, haben sie keinen Anteil an der Bildung der Wortbedeutung und finden keinen Reflex in der Konstitution der Explikation. Insofern werden obligatorische Partizipanten eingeteilt in solche, die an der Bildung der Wortbedeutung beteiligt sind und solche, die nicht an der Bildung der Wortbedeutung mitwirken. Die ersteren finden Eingang in die Explikation, und die ihnen zuzuschreibenden Rollen stellen die semantischen Aktanten des Verballexems dar, welche mit dessen syntaktischen Aktanten in Beziehung stehen. Was die fakultativen Partizipanten anbetrifft, so entsprechen ihnen in der syntaktischen Satzstruktur die Zirkumstanten. Im Regelfall stellt ein Partizipant, der in die Explikation eingeht, eine Variable dar. Essen kann man z. B. beliebige Speisen: Suppe, Fleisch, Äpfel usw. Demgegenüber gibt es aber auch solche Partizipanten, die in der Explikation enthalten sind, die aber keine Variablen darstellen. Abbeißen z. B. kann man etwas nur mit den Zähnen, weinen kann man nur Tränen. Diese Art von Partizipanten wird „inkorporiert“ genannt (Birjulin 1984; Jackendoff 1993). Inkorporierten Partizipanten entsprechen im Normalfall keine Aktanten; allenfalls in bestimmten Fällen ist eine solche Entsprechung möglich. Vgl. (5a) und (5b): (5)
a. Die alte Frau biß das Stück vom Kuchen (?mit den Zähnen) ab b. Die alte Frau biß das Stück Kuchen mit (ihren) fürchterlichen gelben Zähnen ab
In der Standardtheorie der Valenz wird ausgesagt, daß Aktanten, die durch die semantischen Verbvalenzen determiniert sind, als obligatorisch zu gelten haben, während Zirkumstanten fakultativ sind, weil sie nicht als obligatorische Komponenten der Situation in Erscheinung treten. Ebenso wird postuliert, daß Aktanten verbspezifischen Ausdruck erhalten
447
35. Valenz und Sprachtypologie
und deshalb im Lexikon verzeichnet sein sollen, während Zirkumstanten einheitlich, d. h. unabhängig vom spezifischen Verb ausgedrückt werden und nicht bei diesem im Lexikon, sondern in der Grammatik zu beschreiben sind. Jedoch sind im allgemeinen beide Feststellungen inkorrekt. Erstens entsprechen zahlreiche Zirkumstanten obligatorischen Partizipanten. Z. B. ist es nicht möglich, aus Situationen, die mit den Verben essen und bauen bezeichnet werden, Zeit und Ort auszulassen; aus Situationen, die mit den Bewegungsverben gehen und laufen bezeichnet werden, kann man die Geschwindigkeit nicht herausnehmen. Zweitens werden zahlreiche Aktanten (z. B. der erste) nicht-verbspezifisch ausgedrückt, während zahlreiche Zirkumstanten nicht nur verbspezifisch ausgedrückt werden, sondern auch nur bei bestimmten Verben und in bestimmten Satzkonstruktionen der betreffenden Verben auftreten können. So wurde in der Arbeit Plungjan/Raxilina (1990) gezeigt, daß es Zirkumstanten gibt, die sich mit Verben des Ausdrucks sog. konkreter Situationen verbinden (wie laufen, schneiden), aber nicht mit Verben des Ausdrucks sog. nicht-konkreter Situationen (wie ruinieren, rächen). Vgl. die Sätze (6a) und (6b): (6)
a. Er lief mit einer Fackel in den Händen b. *Er rächte sich mit einer Tasche in den Händen
In der Arbeit Xrakovskij (1998) werden Fälle genannt, in denen ein und dieselben Zirkumstanten in bestimmten Konstruktionen mit einem konkreten Verb verwendbar sind und in anderen Konstruktionen nicht. Vgl. (7a), (7b) und (7c):
Möglich sind auch verschiedene Fälle, in denen einer semantischen Valenz des Verbs aus unterschiedlichen Gründen kein Aktant entspricht. Insbesonders tritt dies ein, wenn ein Partizipant im gegebenen Satz den Status eines inkorporierten Partizipanten erhält, d. h. die konkrete Referenz dabei verliert und der mit diesem Partizipanten korrelierende zu erwartende Aktant durch das Verb lexikalisch vorweggenommen wird. Vgl. (9a) und (9b): (9)
a. *Er heiratete eine Frau b. Er heiratete eine schöne Frau / seine Nachbarin / eine alte Frau
Ähnliches ist zu beobachten, wenn in einer der Diathesen eines Verbs sämtliche Partizipanten ausgedrückt werden, während der Ausdruck eines dieser Partizipanten in einer anderen Diathese unmöglich ist (Mel’cˇuk/ Xolodovicˇ 1970). Vgl. (10a) und (10b): (10) a. Ich habe Staub aus dem Teppich geklopft b. Ich habe den Teppich geklopft Wenn zwei unterschiedlichen Partizipanten formal einheitlich realisierte Aktanten entsprechen, dann wird einer dieser Partizipanten normalerweise nicht ausgedrückt. Vgl. (11a), (11b) und (11c), wo russ. babusˇkoj und sˇcˇami jeweils im Instrumental stehen: (11) a. Ja byl nakormlen babusˇkoj ⫺ ‘Ich habe von der Großmutter zu essen bekommen’ b. Ja byl nakormlen sˇcˇami ⫺ ‘Ich habe Kohlsuppe zu essen bekommen’ c. ?Ja byl nakormlen babusˇkoj sˇcˇami ⫺ ‘Ich habe von der Großmutter Kohlsuppe zu essen bekommen’
a. Ivan hob ohne Mühe / mit Mühe diesen schweren Koffer b. Ivan wird ohne Mühe / ?mit Mühe diesen schweren Koffer heben c. Hebe *ohne Mühe / *mit Mühe diesen schweren Koffer
Mit Ausnahme des Agens erhält in Situationen, die durch Verben wie russ. promachnut’sja ‘danebenschießen’ bezeichnet werden, kein einziger Partizipant syntaktischen Ausdruck (Mel’cˇuk/Xolodovicˇ 1970). Vgl. X schoß daneben ⫽ ‘X zielte auf Y aus der Position Z, schoß und traf nicht’. Vgl. russ. in (12):
Überdies sind Fälle bekannt, wo eine Zirkumstante bei einem nominalen Aktanten im Singular nicht stehen kann, wenn der Aktant jedoch im Plural gebraucht wird, ist dieselbe Zirkumstante möglich. Vgl. (8a) und (8b):
(12) Viktor podnjal kom snega, kinul i promachnulsja (A. N. Tolstoj) ⫺ ‘Viktor hob einen Schneeklumpen auf, warf und traf daneben’
(7)
(8)
a. Ich der b. Ich der
habe *allmählich eine Briefmarke neuen Serie gekauft habe allmählich die Briefmarken neuen Serie gekauft
Ebenso muß ein in die Explikation des Verbs eingehender Partizipant mit der Rolle des BEOBACHTERs nicht ausgedrückt werden. Im prototypischen Zusammenhang ist dieser Partizipant der Sprecher selbst. Die Existenz
448 eines solchen Partizipanten in der Explikation des Verbs pokazat’sja wurde bei Apresjan (1986) vermerkt. Vgl. russ. in (13): (13) Na doroge pokazalsja vsadnik ⫺ ‘Auf der Straße erschien ein Reiter’ Normalerweise wird ein Partizipant im Satz nicht ausgedrückt, wenn die entsprechende Variable mit einem Quantifikator verbunden ist. Vgl. russ in (14): (14) Sovest’ ne prodaetsja ⫺ ‘Das Gewissen ist nicht verkäuflich’ Ebensowenig wird ein Partizipant realisiert, wenn die entsprechende Variable deiktisch gebunden ist. Eine solche Variable mit der Rolle AUSGANGSPUNKT geht in die Explikation des russischen Verbs polozˇit’ ‘legen’ ein. Faktisch bedeutet dieses Wort ‘einen Gegenstand aus X weg an die Stelle Y verlagern’; es ist jedoch im Russischen unmöglich zu sagen *On polozˇil tetrad’ so stola v portfel’ ⫺ ‘Er legte das Heft vom Tisch in die Tasche’, weil der AUSGANGSPUNKT mit der Sprecherposition zusammenfällt; d. h. der im vorliegenden Fall ausgedrückte Sinn wäre ‘von sich weg (legen)’. Zur Charakterisierung der Partizipantenrollen ist anzuführen, daß sie grundsätzlich mit den Tiefenkasus identisch sind, die Fillmore (1968) ausgearbeitet hat. Ihrem Wesen nach sind die Rollen (z. B. AGENS, ADRESSAT, INSTRUMENT, MITTEL, ORT), die den semantischen Valenzen des Verbs zugeschrieben werden, Teile der lexikalischen Bedeutung des Worts. Insofern ist die Ermittlung der Explikation eines Verbs praktisch auf die Angabe seiner Partizipantenrollen zurückzuführen. Es sei betont, daß eine abschließende, d. h. endgültige Inventarisierung aller Rollen bisher noch nicht vorliegt. Die Rollen werden gemäß dem Grad an Unmittelbarkeit ihrer Beziehung zur Explikation geordnet, so daß konkrete Rollen und Hyperrollen unterschieden werden können (Paducˇeva 1998). Sämtliche konkreten Rollen (AGENS, ADRESSAT, INSTRUMENT, MITTEL, AUSGANGSPUNKT, ENDPUNKT usw.) verfügen über eine entsprechende Komponente oder über einen Komplex von Komponenten in der Explikation des Verbs. Z. B. ist AGENS ein solcher Partizipant X, dem eine Komponente ‘X handelt (mit dem ZIEL)’ entspricht. INSTRUMENT ist ein Partizipant Z, durch den auf PATIENS eingewirkt wird, wobei die durch Z handelnde Entität AGENS als in der Verfol-
IV. Valenz. Grundlagen und Grundfragen
gung ihres ZIELs begriffen dargestellt ist. Die Anzahl der Hyperrollen ist natürlich geringer als die der konkreten Rollen. Zu den ersteren zählt PATIENS. Die konkreten Komponenten von Explikationen solcher Verben, die eine semantische Valenz des PATIENS besitzen, können sich in Details unterscheiden. Ihnen ist jedoch gemein, daß jedes PATIENS einer Veränderung unterliegt. Ändern kann sich die Bedeutung eines bestimmten Parameters (X hat abgenommen), ein Zustand (X ärgerte sich) oder eine räumliche Lage (ich habe X gebracht). Ein PATIENS kann auftauchen oder verschwinden (X ist geschmolzen, ich habe X aufgegessen). Eine andere Hyperrolle ist die des VERURSACHERs, die AGENS (Vater veranlaßte mich zu gehen), KRAFT (Der Regen veranlaßte uns dazu, zu Hause zu bleiben) und URSACHE (Die Ankunft der Gäste veranlaßte uns, die Pläne zu ändern) umfaßt. Alle semantischen Valenzen eines prädikativ gebrauchten Wortes sind notwendig und hinreichend für den Ausdruck seiner Bedeutung, und unter diesem Gesichtspunkt sind sie alle gleichwertig. Sie sind allerdings nicht gleichwertig hinsichtlich ihres kommunikativen Gehalts. Benutzt man die traditionellen Termini (logisches) Subjekt und (logisches direktes) Objekt, so befinden sich diejenigen Partizipanten, denen diese Rollen zugeschrieben werden, im Fokus der Aufmerksamkeit des Sprechers, sozusagen im ZENTRUM, während die übrigen Partizipanten zur PERIPHERIE gehören. Bei solchen Partizipanten, die entweder überhaupt nicht bei einem gegebenen Verb ausgedrückt werden oder die in einer bestimmten Diathese des gegebenen Verbs keinen Ausdruck finden, liegt der kommunikative Gehalt bei Null, abgesehen von Fällen wie Made in Germany (als Aufschrift auf Warenetiketten), wo das OBJEKT aus situativen Gründen maximal ausgeblendet wird. Diese Überlegungen gestatten es, die Unterschiede zwischen lexikalischen Konversiven genauer zu formulieren. Grob gesagt sind Konversive solche Wörter, die sich voneinander im Rang ihrer semantischen Valenz und folglich im Rang ihres kommunikativen Gehalts unterscheiden. Vgl. die Beispiele (15a) und (15b), (16a) und (16b): (15) a. Der Meister verlor gegen Müller b. Müller gewann gegen den Meister (16) a. Meier verkaufte mir ein Auto b. Ich kaufte ein Auto von Meier
449
35. Valenz und Sprachtypologie
Tatsächlich funktioniert die Veränderung der Diathesen und der Genera verbi als ein reguläres Mittel der Erhöhung/Verminderung des kommunikativen Gehalts einzelner Partizipanten unter Beibehaltung der vorgegebenen Gradation semantischer Valenzen. Vgl. russ. in (17a) und (17b) sowie engl. in (18a) und (18b), (19a), (19b) und (19c): (17) a. Ja vyter pyl’ so stola ⫺ ‘Ich habe Staub vom Tisch gewischt’ b. Ja vyter stol ⫺ ‘Ich habe den Tisch abgewischt’ (18) a. He loaded bricks onto the truck b. He loaded the truck with bricks (19) a. He gave me a book b. A book was given to me (by him) c. I was given a book (by him) Zwei unterschiedliche semantische Valenzen eines Wortes können zusammenfallen. In diesem Fall entspricht ihnen nur ein syntaktischer Aktant (Apresjan 1974, 129; Jackendoff 1993, 60). Vgl. (20), wo der Aktant auf dem Schiff die Rollen INSTRUMENT und ORT repräsentiert: (20) Wir fuhren auf dem Schiff In diesem Fall wird vom „Zusammenfall“ semantischer Valenzen gesprochen. Zu den Verben, die eine derartige Kohäsion von Valenzen zulassen, gehören Verben des Kopierens (photographieren, abschreiben, abzeichnen, abdrucken, [einen Text] übersetzen; vgl. Fillmore 1977). Unter die Partizipanten von Situationen, die durch die betreffenden Verben bezeichnet werden, fallen PATIENS (das Original) und KREATIV (die Kopie). Diese beiden Partizipanten können im Satz gemeinsam oder einzeln ausgedrückt werden, vgl. (21a), (21b) und (21c): (21) a. Der Künstler zeichnete die PrinzessinKREATIV nach seiner FrauPATIENS b. Der Künstler zeichnete die PrinzessinKREATIV c. Der Künstler zeichnete seine FrauPATIENS
Zudem können in einer Form beide Ausdrücke synkretisch enthalten sein: (21) d. Der Künstler zeichnete seinen Sohn PATIENS/KREATIV
Über vergleichbare Besonderheiten verfügen die Verben der Reproduktion [eine Sonate] spielen, [Verse] deklamieren, [ein Lied ] singen
und ebenso die Verben des Umarbeitens: umnähen, umbauen, umschneidern, umzeichnen. Andererseits kann sich eine semantische Valenz aufspalten. Das bedeutet ihre Vertretung durch zwei gleichermaßen untergeordnete Wortformen (Apresjan 1974, 154). Vgl. (22a) und (22b), (23a) und (23b): (22) a. Er schaut in Inges Augen b. Er schaut Inge in die Augen (23) a. Der Friseur rasiert Peter b. Der Friseur rasiert Peter den Bart Offensichtlich kann man von der Aufspaltung einer Valenz auch im Fall von Verben des Ankommens sprechen, d. h. solcher Verben, die einen Endpunkt einer Bewegung implizieren. Diese Valenz gilt als ausgefüllt im Falle von drei unterschiedlichen Gebrauchsweisen. Vgl. (24a), (24b) und (24c): (24) a. Er kam in die Universität b. Er kam zum Dekan c. Er kam zum Unterricht Allerdings können alle diese drei Formtypen gleichzeitig oder jeweils zwei von ihnen in beliebigen Kombinationen beim Verb gleichzeitig ausgedrückt werden. Vgl. (25a), (25b), (25c) und (25d): (25) a. Er kam in die Universität in den Unterricht zu Professor Fillmore b. Er kam in die Universität zum Unterricht c. Er kam zum Unterricht zu Professor Fillmore d. Er kam in die Universität zu Professor Fillmore Ganz offensichtlich kann im vorliegenden Fall von einer Valenz gesprochen werden, die aus drei Teilen besteht: aus dem Ort, an dem die Bewegung zuende geht (dem Endpunkt), dem Inhaber des Ortes und aus dem Vorgang, der sich an diesem Ort vollzieht. Die Realisierung auch nur eines dieser drei Fälle gilt bereits als Ausfüllung der Valenz. Genau aus diesem Grunde ist es angebracht, hier von einer Aufspaltung der Valenz zu sprechen. Analoge Beispiele ergeben sich für beliebige Verben mit der Valenz einer Lokalisierung an einem bestimmten Ort. So kann eine aus drei Teilbereichen bestehende Valenz auch bei Verben des Sich-Entfernens und Verben der örtlichen Lage auftreten. Vgl. (26): (26) Er befindet sich in einer Sitzung, im Arbeitszimmer, beim Direktor
450
2.
IV. Valenz. Grundlagen und Grundfragen
Typologisch relevante Veränderungen der Valenz von Verben
2.1. Akzessive (kausative) und rezessive (dekausative) Derivation L. Tesnie`re hat eine Metapher eingeführt, dergemäß das Verb eine Art von Atom bildet mit Haken, über die es seine Aktanten an sich koppelt. Die Anzahl der Haken bestimmt die Zahl der Aktanten des betreffenden Verbs. Es gibt aber Operationen, die, wie Tesnie`re selbst anmerkte, die Basisvalenz des Verbs verändern können. Eine von ihnen ist die kausative Operation, durch die von einem nichtkausativen Ausgangsverb ein kausatives abgeleitetes Verb gebildet wird. Die Zahl der Valenzen und entsprechend die Zahl der Aktanten wird hierbei um eins größer als beim Ausgangsverb. Es ist wichtig zu betonen, daß L. Tesnie`re als Beispiele für einander zugeordnete nichtkausative und kausative Verben Paare wie tomber und renverser, voir und montrer angibt, die nur vom Sinn her aufeinander bezogen sind, nicht aber formal. In zahlreichen Sprachen finden sich jedoch auch Paare nichtkausativer und kausativer Verben wie tschuwaschisch lar ‘sitzen’ ⇒ lar-t ‘setzen’, die nicht nur semantisch, sondern auch formal verbunden sind. Solche Verbpaare und die von ihnen gebildeten Konstruktionen hat Xolodovicˇ (1969) einer grundlegenden typologischen Analyse unterzogen, deren Ergebnisse hier vorgestellt werden sollen. Es wurden insgesamt 15 Sprachen untersucht (Altchinesisch, Abchasisch, Arabisch, Batsisch, Ungarisch, Georgisch, Bahasa Indonesia, Itelmenisch, Giljakisch, Suaheli, Tadzˇikisch, Finnisch, Tschuwaschisch, Tschuktschisch und Japanisch). Die Beschreibung wurde auf einen einheitlichen Fragebogen gestützt, so daß die Ergebnisse in hinlänglicher Weise vergleichbar waren. Als Grundannahme der Monographie wurde die These aufgestellt, daß in einem Verbpaar „nichtkausatives Verb Vi ⫺ kausatives Verb Vkj “ vom Typ wie russ. sochnut’ ‘trocken werden’ ⫺ susˇit’ ‘trocken machen, trocknen lassen’ das kausative Verb semantisch abgeleitet ist und im Unterschied zum Ausgangsverb zusätzlich den Sinn enthält ‘auf eine Weise handeln, daß …’, bzw. den kausativen Sinn (k). Entsprechend wird dem Sinn des Ausgangsverbs das Symbol (s) zugewiesen, dem Sinn der kausativen Ableitung das Symbol (ks). Auf diese Weise kann der Sinn des kau-
sativen Verbs susˇit’ wiedergegeben werden als ‘so handeln, daß X trocken wird’. Die Verben Vi und Vkj gehen verschiedene Arten formaler Oppositionen ein. 1) Die gerichtete (derivativische) Opposition. In diesem Fall wird das eine Verb vom anderen mit Hilfe eines affixalen Morphems gebildet. Formal abgeleitet kann Vkj sein (vgl. Bahasa Indonesia patah ‘zerbrechen, in Stücke gehen’ ⇒ me-matah-kan ‘zerbrechen, in Stücke brechen’) oder auch Vi (vgl. arabisch ta-kassara ‘zerbrechen, in Stücke gehen’ ⇐ kassara ‘zerbrechen, in Stücke brechen’). 2) Die ungerichtete Opposition. Solche Oppositionen sind entweder konversiv oder korrelativ. Bei einer konversiven Opposition liegt formal nur ein Verb vor, und die nichtkausative oder kausative Bedeutung wird durch die umgebenden Aktanten des Verbs bestimmt (vgl. engl. Water boils ⫺ My mother boils water). Bei der korrelativen Opposition überschneiden sich die Verbalstämme Vi und Vkj, d. h. sie verfügen sowohl über einen gemeinsamen Bestand als auch über spezifische Komponenten. Die korrelativen Oppositionsglieder können sich durch partielle Divergenzen der Wurzelmorpheme unterscheiden (vgl. litauisch la¯u¯zˇ-ti ‘zerbrechen, in Stücke gehen’ ⫺ lauzˇ-ti ‘zerbrechen, in Stücke brechen’) oder auch durch Affigierungen (vgl. Suaheli chemk-a ‘kochen (itr.)’ ⫺ chem-sh-a ‘kochen (tr.), zum Kochen bringen’). Es zeigt sich, daß die formal reflektierte Bildung kausativer Verben von nichtkausativen in den Sprachen der Welt die weiteste Verbreitung hat. Weniger verbreitet ist die formale Ableitung nichtkausativer Verben von kausativen. Ungerichtete (konversive und korrelative) Oppositionen sind normalerweise unproduktiv. Kausativen Verben können auch analytische Kausativa entsprechen, d. h. solche Einheiten, bei denen die kausative Bedeutung durch ein kausatives Hilfsverb ausgedrückt wird (vgl. engl. to laugh ⇒ to make laugh). Kausative Verben, die auf regelmäßige und produktive Weise durch Affigierung eines nichtkausativen Verbs entstanden sind, heißen morphologische Kausativa. Kausative Verben, die vom nichtkausativen Verb auf unproduktive Weise gebildet wurden, heißen lexikalische Kausativa. Nichtkausative Verben, die durch Affigierung eines kausativen Verbs entstanden sind, heißen Dekausativa. Kausative Affixe treten vornehmlich an das Wurzelmorphem des nichtkausativen Ausgangsverbs an. Solche Affixe sind insgesamt produktiver bei intransitiven Ausgangs-
35. Valenz und Sprachtypologie
verben (Vin) als bei transitiven Ausgangsverben (Vtr). In einigen Sprachen treten kausative Affixe mit wenigen Ausnahmen ausschließlich an Vin an, (z. B. im Arabischen, Blackfoot, Gotischen, Bahasa Indonesia, Klamath (Lutuami), Takelma und im Estnischen). Es gibt offensichtlich keine Sprachen, in denen sich kausative Affixe mit Vtr verbinden, aber nicht mit Vin. Insofern läßt sich die folgende Universalie formulieren: Wenn in einer Sprache kausative Affixe bestehen, die zur Bildung von Vkj aus Vtr funktionieren (vgl. ungarisch ad ‘geben’ ⇒ ad-at ‘zu geben veranlassen’), dann bestehen in ihr auch kausative Affixe, die zur Bildung von Vkj aus Vin funktionieren (vgl. ungarisch nevet ‘lachen’ ⇒ nevet-tet ‘zum Lachen bringen’). Der Umkehrschluß trifft nicht zu. Sprachen, in denen sich kausative Affixe ausschließlich oder vorwiegend mit Vin verbinden, verfügen gewöhnlich über kausative Hilfsverben, die entweder nur zusammen mit Vtr stehen oder auch zusammen mit Vin (z. B. Armenisch, Arabisch, Guarani, Tatisch, Tschuktschisch). Ein und dasselbe kausative Affix kann sich sowohl mit Ausgangsverben Vin als auch mit Ausgangsverben Vtr verbinden (vgl. Ketschua huanu- ‘sterben’ ⇒ huanu-chi ‘töten’; jacha‘wissen’ ⇒ jacha-chi ‘lehren’). Wenn es in einer Sprache mehrere kausative Affixe gibt, dann können sie für gewöhnlich sämtlich zur Bildung von Vkj aus Vin gebraucht werden, während zur Bildung von Vkj aus Vtr nur bestimmte Affixe eingesetzt werden, die oft eine komplexere morphologische Struktur haben. Z. B. gibt es im Jakutischen vier Kausativaffixe: -ar, -yar, -t, -tar. Zur Bildung von Vkj aus Vin werden alle diese Affixe eingesetzt, zur Bildung von Vkj aus Vtr nur die beiden letzteren. Daraus folgt, daß Vkj aus Vtr im Sprachsystem offensichtlich später aufkommt als Vkj aus Vin. Möglich ist auch eine sekundäre Derivation von Kausativa, wenn ein Kausativmorphem an ein abgeleitetes kausatives Verb antritt und somit ein sekundäres Kausativum bildet. Zwei Typen kausativer Ableitungsketten sind zu unterscheiden. Die erste Kette: Vin ⇒ Vk ⇒ Vkk. In diesem Typ kausativer Verkettung kann das zweite Kausativaffix mit dem ersten identisch sein (vgl. Ketschua huanu- ‘sterben’ ⇒ huanuchi- ‘töten’ ⇒ huanu-chi-chi ‘töten lassen’); häufiger jedoch sind die beiden Affixe verschieden (vgl. türkisch öl- ‘sterben’ ⇒ öl-dür‘töten’ ⇒ öl-dür-t- ‘töten lassen’).
451 Die zweite Kette: Vtr ⇒ Vk ⇒ Vkk. Dieser Typ von Verkettungen tritt wesentlich seltener auf als der erste (vgl. tschuwaschisch s´e˘let- ‘nähen’ ⇒ s´e˘let-ter- ‘nähen lassen’ ⇒ s´e˘let-ter-tter ‘nähen lassen über eine Mittelsperson’). Die Bedeutung des Kausativmorphems wird vornehmlich als eine faktitive interpretiert (der Stimulus der Verursachung geht vom Verursacher aus), sie kann jedoch auch permissiv sein (der Stimulus der Verursachung geht vom verursachenden Agens aus). Vgl. in diesem Zusammenhang die Verteilung dieser Bedeutungen zwischen den französischen kausativen Hilfsverben faire und laisser (faire venir ‘zu kommen heißen, herrufen’; laisser venir ‘zu kommen erlauben’) und die Vereinigung dieser beiden Bedeutungen im deutschen kausativen Hilfsverb lassen (kommen lassen ‘zu kommen heißen, herrufen, zu kommen erlauben’). In einer Reihe von Sprachen (Adygeisch, Aimara´, Blackfoot, Georgisch, Ketschua, Mongolisch, Nanaisch, Giljakisch, Tatarisch, Tschuwaschisch, Lamutisch, Japanisch) lassen kausative Affixe sowohl die faktitive als auch die permissive Interpretation zu (vgl. tschuwaschisch isˇ‘schwimmen’ ⇒ isˇ-ter ‘zum Schwimmen veranlassen, zu schwimmen erlauben’). Es gibt jedoch auch Sprachen (wie Arabisch, Baskisch, Zulu, Bahasa Indonesia, Takelma), in denen die permissive Interpretation kausativer Morpheme ausgeschlossen ist. Bisweilen können kausative Affixe auch eine assistive Bedeutung haben (der Verursacher nimmt an der verursachenden Handlung selbst teil). Diese Bedeutung hat neben der faktitiven z. B. das kausative Affix im Georgischen; vgl. (27): (27) Sˇvili cerils cer-s ‘Der Sohn schreibt einen Brief’ ⇒ Mama sˇvils cerils a-cer-ineb-s ⫺ ‘Der Vater befiehlt/erlaubt/hilft dem Sohn, einen Brief zu schreiben’ In Abhängigkeit davon, welche Einzelbedeutungen durch ein Kausativsuffix ausgedrückt werden, lassen sich diese Affixe in die folgenden Gruppen einteilen: 1) Die Affixe drücken allein die faktitive Bedeutung aus (Arabisch, Armenisch, Takelma, Estnisch); 2) die Affixe drücken faktitive und permissive Bedeutungen aus (Abchasisch, Aimara´, Ketschua, Giljakisch); 3) die Affixe drücken faktitive und assistive Bedeutungen aus (Zulu); 4) die Affixe drücken faktitive, permissive und assistive Bedeutungen aus (Georgisch, Japanisch);
452 5) die Affixe drücken nur die assistive Bedeutung aus (Ketschua, Aimara´). Wenden wir uns nun dem Problem der semantischen Valenzen von Verben in kausativen Ableitungsketten und der ihnen entsprechenden syntaktischen Aktanten zu. Die erste derivativische Verkettung (Vin ⇒ Vk ⇒ Vkk) findet sich in den folgenden ungarischen Sätzen wieder; vgl. (28a), (28b) und (28c): (28) a. A papı´r ele´g ⫺ ‘Papier verbrennt’ ⇒ b. Jancsi ele´geti a papı´rt ⫺ ‘Jancsi verbrennt Papier’ ⇒ c. Anna ele´getteti (Jancsival) a papı´rt ⫺ ‘Anna heißt (Jancsi) Papier zu verbrennen’ Im ersten Satz der Kette besitzt das nichtkausative Vin lediglich eine semantische Valenz, und zwar den Partizipanten mit der Rolle PATIENS. Dieser Valenz entspricht ein obligatorischer Aktant mit dem Status des Subjekts. Im zweiten Satz der Kette enthält das abgeleitete kausative Vk zwei semantische Valenzen. Die eine ist die neue Valenz des Partizipanten mit der Rolle VERURSACHER. Ihr entspricht ein obligatorischer Aktant mit dem Status des Subjekts. Die zweite ist eine Valenz des Partizipanten mit der Rolle PATIENS, die als Erbe vom Ausgangsverb übernommen wurde. Dieser Valenz entspricht ein obligatorischer Aktant mit dem Status des direkten Objekts. Im dritten Satz dieser Kette bestehen schon drei semantische Valenzen. Die erste ist die neue Valenz des Partizipanten mit der Rolle VERURSACHER. Ihr entspricht der Aktant des Subjekts. Die zwei übrigen Valenzen sind wiederum vom Ausgangsverb übernommen worden. Die eine von ihnen ist die Valenz auf einen Partizipanten mit der Rolle PATIENS. Ihr entspricht ein obligatorischer Aktant als direktes Objekt. Die andere bezieht sich auf einen Situationsteilnehmer mit der Rolle VERURSACHER-VERMITTLER. Ihr entspricht ein fakultativer Aktant als indirektes Objekt (i. w. S.). Die zweite Ableitungskette (Vtr ⇒ Vk ⇒ kk V ) liegt in den folgenden tschuwaschischen Sätzen vor; vgl. (29a), (29b), (29c), (29d) und (29e): (29) a. Ku˝rsˇe˘ kostjum s´e˘lene˘ ⫺ ‘Der Nachbar nähte ein Kleid’ ⇒ b. Ama˘sˇe˘ kostjum ku˝rsˇe˘ne s´e˘letterne˘ ⫺ ‘Die Mutter bat den Nachbarn, ein Kleid zu nähen’ oder
IV. Valenz. Grundlagen und Grundfragen
c. Ama˘sˇe˘ kostjum s´e˘letterne˘ ⫺ ‘Die Mutter ließ ein Kleid nähen (beim Schneider)’ ⇒ d. Vanja ama˘sˇne kostjum ku˝rsˇeˇne s´eˇletterterne˘ ⫺ ‘Vanja bat die Mutter, den Nachbarn zu bitten, ein Kleid zu nähen’ oder e. Vanja ama˘sˇne kostjum s´e˘letterterne˘ ⫺ ‘Vanja bat die Mutter, ein Kleid nähen zu lassen (beim Schneider)’ Im ersten Satz dieser Kette verfügt das nichtkausative Ausgangsverb Vtr über zwei semantische Valenzen. Die eine ist die des Partizipanten mit der Rolle AGENS. Ihr entspricht der obligatorische Aktant Subjekt. Die zweite enthält den Partizipanten mit der Rolle PATIENS. Ihr entspricht ein obligatorischer Aktant direktes Objekt. Im zweiten Satz der Kette besitzt das abgeleitete kausative Verb bereits drei Valenzen. Zwei von ihnen stimmen mit dem nichtkausativen Ausgangsverb überein. Die erste ist die des Partizipanten mit der Rolle AGENS. Ihr entspricht ein fakultativer Aktant als indirektes Objekt (i. w. S.). Die zweite ist die des Partizipanten mit der Rolle PATIENS. Ihr entspricht ein obligatorischer Aktant direktes Objekt. Die neue Valenz enthält einen Partizipanten mit der Rolle VERURSACHER. Das Fehlen eines fakultativen indirekten Objekts bedeutet, daß in der Rolle des AGENS eine Entität auftaucht, deren Referent der betreffenden Art von Tätigkeit berufsmäßig nachgeht. Im dritten Satz der Kette hält das abgeleitete kausative Verb bereits vier semantische Valenzen. Drei von ihnen sind identisch mit denen des Verbs im zweiten Satz der Kette. Die erste enthält den Partizipanten mit der Rolle AGENS. Ihr entspricht ein fakultativer Aktant, das zweite indirekte Objekt. Die zweite semantische Valenz umfaßt den Partizipanten mit der Rolle PATIENS. Sie wird durch einen obligatorischen Aktanten vertreten, durch das direkte Objekt. Die dritte stellt den Partizipanten mit der Rolle VERURSACHER (VERMITTLER) dar. Ihr entspricht ebenfalls ein obligatorischer Aktant, das (erste) indirekte Objekt (i. w. S.). Die neue Valenz ist die eines zweiten Partizipanten mit der Rolle VERURSACHER. Diese semantische Valenz wird durch den obligatorischen Aktanten Subjekt ausgefüllt. Das Fehlen des fakultativen dritten Objekts bedeutet, daß in der Rolle des Agens eine Entität auftritt, deren Referent der betreffenden Art von Tätigkeit berufsmäßig nachgeht.
35. Valenz und Sprachtypologie
Die Analyse der Valenzstruktur von Verben wie in den vorliegenden Satzketten gibt zu erkennen, daß das abgeleitete kausative Verb in jedem Derivationsschritt eine weitere Valenz mit einem Partizipanten mit der Rolle VERURSACHER erhält, welcher dann die Subjektsposition einnimmt. Wenn das Verb nur über eine oder zwei semantische Valenzen verfügt, dann entsprechen diesen Valenzen obligatorische Aktanten. Wenn beim Verb mehr als zwei semantische Valenzen auftreten, dann besitzt die Valenz des Partizipanten mit der Rolle AGENS den Status eines fakultativen Aktanten. Dem Partizipanten mit der Rolle PATIENS im ersten Satz der ersten Kette entspricht der Aktant Subjekt. In allen anderen Fällen ist dieser Aktant das direkte Objekt. Dem Partizipanten mit der Rolle VERURSACHER entspricht in jedem Fall der Aktant Subjekt. Wenn es im Satz mehr als einen VERURSACHER gibt, dann nimmt der zweite Partizipant die Position des ersten oder zweiten indirekten Objekts (des zweiten oder dritten Objekts insgesamt) ein. Neben der kausativen (akzessiven) Derivation, in deren Verlauf sich die semantische und syntaktische Valenz des Verbs vermehrt, existiert auch eine dekausative (rezessive) Derivation, durch welche die semantische und syntaktische Valenz des Verbs vermindert wird. Es besteht nur eine Ableitungskette vom Typ Vtr.k ⇒ Vin. Als Beispiel kann die folgende Ableitungskette aus dem Ungarischen dienen; vgl. (30a) und (30b): (30) a. E´desanya´m feloldotta a gyo´gyszert ⫺ ‘Meine Mutter hat das Medikament aufgelöst’ ⇒ b. A gyo´gyszer feloldo´dott ⫺ ‘Das Medikament hat sich aufgelöst’ Das Verb im Ausgangssatz dieser Kette verfügt über zwei Valenzen. Die erste Valenz umfaßt den Partizipanten mit der Rolle VERURSACHER-AGENS. Dieser Valenz entspricht der Aktant Subjekt. Die zweite Valenz ist die des Partizipanten mit der Rolle PATIENS. Dieser Valenz entspricht der Aktant direktes Objekt. Im abgeleiteten Satz dieser Kette verfügt das Verb nur über eine Valenz auf den Partizipanten mit der Rolle PATIENS. Ihr entspricht hier der Aktant Subjekt. 2.2. Derivation nach Diathesen und Genera verbi (Passivierung) Neben derivativischen Ketten, bei denen sich sowohl die semantische als auch die syntaktische Valenz des Verbs ändert, bestehen auch
453 solche derivativischen Ketten, bei denen sich die semantische Valenz des Verbs nicht ändert, sondern es ändert sich die Diathese, d. h. die Entsprechung zwischen Partizipanten und Aktanten. Bekannt sind zwei Typen derartiger Ketten. In Ketten vom ersten Typ tauschen zwei nicht-erste Partizipanten ihre syntaktischen Positionen. Die formale Markierung des Verbs wird hierbei in der Regel nicht verändert. Als Beispiel kann die folgende derivativische Kette aus dem Englischen dienen, vgl. (31): (31) Mary planted roses in the garden ⇒ Mary planted the garden with roses Das Verb im ersten Satz der Kette verfügt über drei Valenzen. Die erste ist der Partizipant mit der Rolle AGENS. Ihr entspricht der Aktant Subjekt. Die zweite ist der Partizipant mit der Rolle PATIENS. Ihr entspricht das direkte (erste) Objekt. Die dritte entfällt auf den Partizipanten mit der Rolle ORT. Ihr entspricht das fakultative indirekte (zweite) Objekt. Die gleichen Valenzen bestehen auch beim Verb im zweiten Satz der Kette. Allerdings entspricht nun dem Partizipanten mit der Rolle PATIENS das obligatorische indirekte (zweite) Objekt und dem Partizipanten mit der Rolle ORT das direkte (erste) Objekt. In Ketten vom zweiten Typ wechseln der obligatorische erste Partizipant und einer der nicht-ersten Partizipanten (meistens der zweite) die Plätze. In diesen Fällen wird die formale Gestalt des Verbs verändert. Als typischstes Beispiel für Derivationen dieser Art kann die Ableitung des Passivs (Passivierung) dienen, die in einer Reihe von Publikationen der St.-Petersburger typologischen Schule grundlegend analysiert wurde; vgl. z. B. Xolodovicˇ (1974); Xrakovskij (1981); Mel’cˇuk (1993). Ausgehend von der Subjektsposition übernimmt der erste Partizipant, der normalerweise in der Rolle AGENS auftritt, entweder die Position eines spezifischen Aktanten (der agentivischen Ergänzung), oder er wird überhaupt nicht im Satz repräsentiert. Dabei geht in die Position des Subjekts in den meisten Fällen der zweite Partizipant über, der normalerweise in der Rolle des Patiens auftritt. Vgl. engl. in (32): (32) John dug a deep hole ⇒ A deep hole was dug (by John) Es kann aber auch sein, daß der zweite Partizipant nicht in die Subjektposition übergeht. Vgl. ukrainisch in (33):
454 (33) Ja splativ cju sumu ⫺ ‘Ich habe diesen Betrag bezahlt’ ⇒ Bulo splacˇeno cju sumu ⫺ ‘Der Betrag wurde bezahlt’ In diesem Falle läßt sich annehmen, daß die Subjektposition entweder frei bleibt oder durch ein leeres Nullexem mit dem Genus neutrum und Numerus Singular ausgefüllt wird, denn eben dies geht aus der Form von Kopula und Partizip hervor, die allgemein obligatorisch mit dem Subjekt kongruieren. In die Position des Subjekts geht im Normalfall jedoch der zweite Partizipant über, der die Position eines präpositionslosen Objekts innehat. In bestimmten Fällen jedoch kann bei der Passivierung auch ein zweiter Partizipant in die Subjektposition übergehen, der die Position eines präpositionalen Objekts innehat, wobei die Präposition, welche das Objekt einführt, in ein verbales postponiertes Formans umgebildet wird. Vgl. engl. in (34) und (35): (34) Mary looked at the picture ⇒ The picture was looked at (by Mary) (35) Marie Antoinette slept in his bed ⇒ The bed has been slept in (by Marie Antoinette) In solchen Fällen kann es ebenso vorkommen, daß der zweite Partizipant, der die Position der präpositionalen Ergänzung einnimmt, infolge der Passivierung nicht in die Subjektposition übergeht. Vgl. arabisch (36): (36) samahø a1 l-mudarrisu2 li3 tø- tøa:libi4 bi5 lh˚ u-ru:dg˘i 6 ⫺ ‘Der Lehrer2 erlaubte1 dem Studenten3,4 wegzugehen5,6’ ⇒ sumihø a1 li2 tø-tøa:libi3 bi4 l-h˚ u-ru:dg˘i5 ⫺ ‘Dem Studenten wurde1 erlaubt1 wegzugehen4,5’ Nur für den Fall, daß ein zweiter Partizipant an der Passivierung teil hat, kann auch ein dritter Partizipant einbezogen werden. Vgl. engl. in (37a), (37b) und (37c): (37) a. Mary gave the book to John b. The book was given to John (by Mary) c. John was given the book (by Mary) In einer allgemeinen Form kann diese Regel folgendermaßen gefaßt werden. Jeder nichterste Partizipant mit der Nummer n kann an der Passivierung nur dann teilhaben, wenn der Partizipant mit der Nummer n-1 an ihr teil hat. Besonders verbreitet ist in den Sprachen der Welt diejenige Situation, wo der erste und
IV. Valenz. Grundlagen und Grundfragen
der zweite Partizipant an der Passivierung teilnehmen. Es gibt aber auch Fälle, in denen an der Passivierung gemeinsam mit dem ersten Partizipanten ein zweiter, dritter, vierter und fünfter Partizipant beteiligt sind. Anders gesagt gibt es zu solchen Verben neben dem Aktiv noch vier Genera verbi. Ein derartiges Verhältnis ist in der Sprache Sabah Murut zu beobachten, die auf Borneo verbreitet ist und zum indonesischen Zweig der austronesischen Sprachfamilie gehört (Prentice 1965). Vgl. (38a): (38) a. mam-bali1 du˘andu?-ti2 da-konoon3 da-dalain-no4 da-su˘ab-no5 da-duitnano6 ⫺ ‘Morgen5 kauft1 die Frau2 für dieses Kind4 Kleidung3 für ihr Geld6’ Als Indikator für das aktivische Genus verbi, das dieser Diathese entspricht, dient in (38a) das Verbalpräfix mam-. (38) b. bali-on1 konoon2 du-du˘andu?-ti3 dadalain-no4 da-duit-nano5 da-su˘abno6 ⫺ ‘Morgen6 wird1 die Kleidung2 für dieses Kind4 von dieser Frau3 für ihr Geld5 gekauft werden1’ Als Indikator für das passivische Genus verbi, das dieser Diathese entspricht, dient in (38b) das Verbsuffix -on. (38) c. bali-in1 dalain-no2 da-konoon3 dudu˘andu?-ti4 da-duit-nano5 da-su˘abno6 ⫺ ‘Dieses Kind2 (ist dasjenige, welchem) morgen6 durch diese Frau4 für ihr Geld5 Kleidung3 gekauft wird1’ Als Indikator des benefaktivischen Passivs, das dieser Diathese entspricht, dient in (38c) das Verbalsuffix -in. (38) d. duit-nano1 pam-ba-bali2 du-du˘andu?ti3 da-konoon4 da-dalain-no5 dasu˘ab-no ⫺ ‘Ihr Geld1 (ist dasjenige, mit dessen Hilfe) durch diese Frau3 morgen6 für dieses Kind5 Kleidung4 gekauft werden wird2’ Als Indikatoren des instrumentalischen Passivs, das dieser Diathese entspricht, erscheinen in (38d) das Verbalpräfix pam- und die partielle Wurzelreduplikation. (38) e. su˘ab-no1 pam-bali-an2 du-du˘andu?ti3 da-konoon4 da-dalain-no5 da-duitnano6 ⫺ ‘Morgen1 (ist der Tag, an dem) durch diese Frau3 für ihr Geld6 Kleidung4 für dieses Kind5 gekauft wird2’
35. Valenz und Sprachtypologie
Als Indikatoren des assoziativen Passivs, das dieser Diathese entspricht, dienen in (38e) das Verbalpräfix pam- und das Verbsuffix -an. Die Möglichkeit der Bildung von Passivdiathesen und entsprechenden Genera verbi wird vor allem durch die Verbalsemantik bestimmt. Mehr als andere sind solche Lexeme dazu „vorherbestimmt“, verschiedene Diathesen bilden zu können, in deren Explikation Partizipanten auftreten, die die Rollen AGENS und PATIENS ausfüllen. Vor allem sind dies Lexeme, die konkrete physische Handlungen des AGENS am PATIENS ausdrücken, wobei der sinnlichen Wahrnehmung zugängliche Resultate vorliegen. Dies sind z. B. terminative Verben (öffnen, bauen, töten usw.), die einen Großteil der verbalen Lexik einer jeden Sprache ausmachen. Die Analyse des vorliegenden sprachlichen Materials erlaubt es, die folgende implikative Universalie zu formulieren: Wenn in einer Sprache eine Menge von Verben gegeben ist, die sowohl in aktivischen wie in passivischen Konstruktionen gebraucht werden, dann gehen in diese Menge (entweder ausschließlich oder unter anderem) solche Lexeme ein, welche die physische Einwirkung eines AGENS auf ein PATIENS bezeichnen. Über die Nullpotenz der Passivierung verfügen in unterschiedlichen Sprachen solche Verben, die keine Handlungsbedeutung ausdrücken. Zu ihnen zählen z. B. die Verben des Maßes (kosten, wägen), der Anwesenheit und des Inhalts (haben, besitzen, enthalten, umfassen) und des Vergleichs (entsprechen, übertreffen). Es ist offensichtlich, daß die Partizipantenrollen dieser Verben nicht in den Termini von AGENS und PATIENS zu fassen sind. Verben des physischen Handelns und Verben ohne Handlungsbedeutung verhalten sich in ihrer Potenz zur Passivierung wie zwei Extrempole, zwischen denen sich andere semantische Gruppen von Verben befinden (z. B. die Verben der Entfremdung und der Aneignung, des Sagens, der sinnlichen Wahrnehmung, die Verben der intellektuellen, emotionalen und psychischen Tätigkeit u. a.), die in den verschiedenen Sprachen hinsichtlich der Passivierung unterschiedlich vorkommen. Die Möglichkeit der Passivierung bei Vorliegen der entsprechenden semantischen Potenzen kann in einer Reihe von Fällen nur dann realisiert werden, wenn besondere syntaktische Bedingungen gegeben sind. In zahlreichen Sprachen (beispielsweise im Albanischen, Spanischen und Russischen) hat nur
455 eine Aktivkonstruktion mit direktem Objekt eine korrelierende Passivkonstruktion. In anderen Sprachen (beispielsweise im Englischen, Arabischen und in Bahasa Indonesia) hat auch eine Aktivkonstruktion mit indirektem Objekt eine korrelierende Passivkonstruktion. Es sind uns allerdings keine Sprachen bekannt, in denen eine Aktivkonstruktion mit indirektem Objekt eine korrelierende Passivkonstruktion hat, nicht aber eine Aktivkonstruktion mit direktem Objekt. Insofern ist der Rang der Objekte in der Aktivkonstruktion bei der Ermittlung der Bedingungen für die Passivierung unbedingt zu berücksichtigen. Auch wenn die entsprechenden semantischen Voraussetzungen und die obligatorischen syntaktischen Bedingungen gegeben sind, kann es sein, daß verbale Lexeme aufgrund von morphologischen oder stilistischen Restriktionen keine passivischen Wortformen bilden. Z. B. gibt es im Russischen keine Passivformen zu den Verben des perfektiven Aspekts mit dem Suffix -nu- (vom Typ sˇvyrnut’ ‘schleudern, schmeißen’) sowie zu Verben, die als umgangssprachlich oder vulgär qualifiziert werden (wie ogrebat’ ‘raffen’, dopekat’ ‘jmd. die Hölle heiß machen’, ob”egorivat’ ‘übertölpeln’). Zusammenfassend gilt, daß auf der einen Seite eine universale Skala semantischer Potenzen für die Passivierung besteht, daß aber auf der anderen Seite die Menge der verbalen Lexeme mit Aktiv- und Passivformen in den Einzelsprachen durch spezifische syntaktische, morphologische und stilistische Restriktionen eingeschränkt wird. Aktivische und passivische Wortformen eines verbalen Lexems verfügen also einerseits über eine identische semantische Valenz, andererseits aber über eine unterschiedliche syntaktische Valenz. Die Anzahl der Aktanten bei den passivischen Wortformen ist entweder gleich der Anzahl von Aktanten bei aktivischen Wortformen (im Falle des Vorliegens einer agentiven Ergänzung) oder um einen Wert kleiner (im Falle des Fehlens einer agentiven Ergänzung). Auf funktionaler Ebene unterscheiden sich aktivische und passivische Wortformen voneinander durch die kommunikative Bedeutung ihrer Partizipanten. Während in Aktivkonstruktionen entsprechend der Explikation des verbalen Lexems der erste Partizipant, der die Subjektposition einnimmt, über den größten kommunikativen Gehalt verfügt, erscheint in der Passivkonstruktion derjenige Partizipant als kommunikativ gehaltvollster, der in die Subjektposition übergeht.
456
IV. Valenz. Grundlagen und Grundfragen
2.3. Reflexivische Derivation (Reflexivierung) Die Beibehaltung der semantischen Valenzen eines Verblexems bei optionaler Verminderung der syntaktischen Valenzen um den Wert eins ist charakteristisch für die reflexivische Derivation. Ihr Wesen besteht in folgendem. Während in der nichtreflexivischen Ausgangskonstruktion jeder Partizipant genau eine semantische Rolle ausfüllt, so füllt in der abgeleiteten reflexivischen Konstruktion einer der Partizipanten zwei Rollen aus. Diese Veränderung wird entweder auf syntaktischer Ebene durch eine spezifische formale Markierung eines der nicht-ersten Aktanten oder auf syntaktischer und morphologischer Ebene durch die Tilgung eines der nicht-ersten Aktanten und eine spezifische formale Markierung des Verbs realisiert. Vgl. russ. in (39a) und (39b): (39) a. Olja pricˇesala Masˇu ⫺ ‘Olja kämmte Masˇa’ ⇒ b. Olja pricˇesala sebja/pricˇesalas’ ⫺ ‘Olja kämmte sich’ Im ersten Fall wird in der reflexivischen Konstruktion die gleiche Wortform gebraucht wie in der nichtreflexivischen Ausgangskonstruktion. Veränderungen der syntaktischen Valenzen finden folglich nicht statt. Im zweiten Fall erscheint in der reflexivischen Konstruktion eine besondere reflexive verbale Wortform, die über eine Valenz weniger verfügt als die Wortform des Verbs in der nichtreflexivischen Ausgangskonstruktion. Am verbreitetsten ist die Tilgung der Stelle für das direkte (erste) Objekt; vgl. litauisch in (40a) und (40b): (40) a. Ona nurenge˙ su¯nu˛ ⫺ ‘Anna entkleidete ihren Sohn’ ⇒ b. Ona nu-si-renge˙ ⫺ ‘Anna entkleidete sich’ Entschieden seltener wird die Stelle für das indirekte (zweite) Objekt aufgehoben. Vgl. litauisch in (41a) und (41b): (41) a. Petras kaufte b. Petras kaufte
nupirko man knyga˛ ⫺ ‘Petras mir ein Buch’ ⇒ nu-si-pirko knyga˛ ⫺ ‘Petras sich ein Buch’
Außerordentlich selten kann eine reflexivische Verbform ohne Tilgung eines Aktanten in einer reflexiven Konstruktion stehen. Vgl. litauisch in (42): (42) Petras nu-si-pirko sau knyga˛ ⫺ ‘wörtlich: Peter kaufte-sich sich ein Buch’
Die semantische Interpretation der reflexivischen Konstruktion ändert sich in solchen Fällen nicht. 2.4 Abschließende Bemerkungen In Anbetracht der Tatsache, daß für semantische Valenzen das Verblexem und für syntaktische Valenzen die verbale Wortform ausschlaggebend ist, soll auf die folgenden Punkte hingewiesen werden. Die regelhafte Veränderung semantischer Valenzen dokumentiert den Übergang eines verbalen Lexems in ein anderes. Im Zuge der akzessiven (kausativen) Derivation kommt es zur Vermehrung semantischer Valenzen, die von einer Vermehrung syntaktischer Valenzen begleitet wird. Im Zuge der rezessiven (dekausativen) Derivation erfolgt eine Verminderung semantischer Valenzen, mit welcher die Verminderung syntaktischer Valenzen einhergeht. Bei einer Passivierung ändern sich nur die syntaktischen Valenzen der verbalen Wortformen und teilweise auch die Entsprechungen zwischen Partizipanten und Aktanten. Im Zuge der reflexivischen Derivation ändern sich ebenfalls nur die syntaktischen Valenzen der verbalen Wortformen, indem die Ausfüllung zweier Rollen durch einen Partizipanten markiert wird. Aus dem Russischen übersetzt von Thomas Menzel.
3.
Literatur in Auswahl
Apresjan, Jurij D. (1974): Leksicˇeskaja semantika: Sinonimicˇeskie sredstva jazyka. Moskva. Apresjan, Jurij D. (1986): Dejksis v leksike i grammatike i naivnaja model’ mira. In: Semiotics and informatics 28, 5⫺33. Birjulin, Leonid A. (1984): Diatezy russkix glagolov, oboznacˇajusˇcˇix atmosfernye javlenija. Leningrad. Boguslavskij, Igor M. (1996): Sfera dejstvija leksicˇeskix edinic. Moskva. Feuillet, Jack (Hg.) (1998): Actance et valence dans les langues de l’Europe. Berlin. Fillmore, Charles (1968): The case for case. In: Bach, Emmon/Harms, Robert T. (Hgg.): Universals in linguistic theory. New York, 1⫺90. Fillmore, Charles (1977): The case for case reopened. In: Cole, Peter/Saddock, Jerrold M. (Hgg.) Syntax and Semantics 8. New York/San Francisco/ London, 59⫺81. Groot de, Albert W. (1949): Structurele syntaxis. Den Haag.
36. Valency and Semantic Roles: the Concept of Deep Structure Case Helbig, Gerhard (Hg.) (1971): Beiträge zur Valenztheorie (⫽ Janua Linguarum Series Minor 115). The Hague.
457
Muravenko, Elena V. (1998): O slucˇajax netrivial’nogo sootvetstvija semanticˇeskix i sintaksicˇeskix valentnostej glagola. In: Semiotics and informatics 36, 71⫺81.
Panevova, Jarmila (1994): Valency frames and the meaning of the sentence. In: Luelsdorff, Philip A. (Hg.): The Prague school of structural and functional linguistics. Amsterdam, 223⫺243. Plungjan, Vladimir A./Raxilina, Ekaterina V. (1990): Sirkonstanty v tolkovanii? In: Saloni, Zygmunt (Hg.): Metody formalne w opisie je˛zyko´w słowian´skich. Białystok, 201⫺210. Plungjan, Vladimir A./Raxilina, Ekaterina V. (1998): Paradoksy valentnostej. In: Semiotics and informatics 36, 108⫺119. Prentice, David J. (1965): Form and function in the verbs of Sabah Murut: a preliminary analysis. In: Oceanic linguistics 1⫺2, 127⫺156. Sˇmelev, Aleksej D. (1998): Tipy nevyrazˇennyx valentnostej. In: Semiotics and informatics 36, 167⫺ 176. Tesnie`re, Lucien (1959): E´le´ments de syntaxe structurale. Paris. Welke, Klaus (1988): Einführung in die Valenz- und Kasustheorie. Leipzig. Xolodovicˇ, Aleksandr A. (Hg.) (1969): Tipologija kauzativnyx konstrukcij. Leningrad. Xolodovicˇ, Aleksandr A. (Hg.) (1974): Tipologija passivnyx konstrukcij. Diatezy i zalogi. Leningrad. Xrakovskij, Viktor S. (1998): Ponjatie sirkonstanta i ego status. In: Semiotics and informatics 36, 141⫺153. Xrakovskij, Viktor S. (Hg.) (1981): Zalogovye konstrukcii v raznostrukturnyx jazykax. Leningrad.
Paducˇeva, Elena V. (1998): Kommunikativnoe vydelenie na urovne sintaksisa i semantiki. In: Semiotics and informatics 36, 82⫺107.
Viktor S. Xrakovskij, St. Petersburg (Russland)
Helbig, Gerhard (1982): Valenz ⫺ Satzglieder ⫺ semantische Kasus ⫺ Satzmodelle. Leipzig. Helbig, Gerhard/Stepanova, Marija D. (1981): Wortarten und das Problem der Valenz in der deutschen Gegenwartssprache. Leipzig (2. Aufl.). Jackendoff, Ray (1993): Semantic structures. Cambridge. Kacnel’son, Solomon D. (1948): O grammaticˇeskoj kategorii. In: Vestnik LGU 2. Mel’cˇuk, Igor A. (1964): Avtomaticˇeskij sintaksicˇeskij analiz. Novosibirsk. Mel’cˇuk, Igor A. (1974): Opyt teorii lingvisticˇeskix modelej „Smysl ⇔ Tekst“. Moskva. Mel’cˇuk, Igor A. (1993): The inflectional category of voice: towards a more rigorous definition. In: Comrie, Bernard/Polinsky, Maria (Hgg.) (1993): Causatives and Transitivity. Amsterdam/Philadelphia, 1⫺46. Mel’cˇuk, Igor A./Xolodovicˇ, Aleksandr A. (1970): K teorii grammaticˇeskogo zaloga (Opredelenie. Iscˇislenie). In: Narody Azii i Afriki 4, 111⫺124.
36. Valency and Semantic Roles: the Concept of Deep Structure Case 1. 2. 3. 4. 5. 6. 7. 8.
Introduction Historical Context Supporting Observations Basic Claims of Case Grammar Problems Further Developments Computational Linguistics and “Frames” Select Bibliography
1.
Introduction
Familiar valency dictionaries (e. g. Helbig/ Schenkel 1976) describe the combinatorial properties of governing words by giving three kinds of information about their permitted dependents, namely: (1) their syntactic func-
tions, (2) their phrasal forms, and (3) their semantic types. Thus, in the case of verbs, the permitted dependent elements are identified in respect to (1) the grammatical functions they have in clauses headed by the verb (subject, object, complement, etc.) or the case categories they bear in such contexts (nominative, partitive, ablative, etc.), and (2) restrictions on the types of phrases that instantiate them (prepositional phrase with specified heads, infinitive verb phrases, subjunctive clauses, etc.); (3) “semantic” additions to such descriptions are more or less limited to such minimal sortal or selectional features as human, inanimate, abstract, and the like. The example in Figure 36.1, taken from Helbig/Schenkel (1971, 312 f.), shows
458
IV. Valenz. Grundlagen und Grundfragen
I. geben3 (V1 ⫽ reichen) II. geben J Sn, Sa, Sd III. Sn Sa Sd
Hum 1. ⫹Anim 2. ⫺Anim ⫹Anim
(Der Schüler gibt dem Lehrer das Heft.) (Er gibt ihm das Kind, die Katze.) (Er gibt dem Kind den Roller.) (Er gibt dem Kind einen Apfel, den Tauben Futter.)
Fig. 36.1: Entry from Helbig/Schenkel 1976
the entry for the most basic meaning of the German verb geben. Through this entry we are informed that the verb has three dependents; that these appear as substantives inflected for nominative, accusative and dative case (Sn, Sa and Sd); and that the nominative can be human, the accusative animate or inanimate, and the dative animate. (One wouldn’t necessarily feel that the description failed if animacy was simply unspecified for the accusative member.) This sort of syntactic valency can be contrasted with what we could call semantic valency, presented as the set of semantic roles associated with a word in a given meaning: these roles, taken together with the idiosyncratic parts of the word’s lexical meaning, characterize a central component of the semantic structure of any phrase or clause that can be built around that word in that meaning. In the case of a verb meaning ‘give’, the semantic valence could be a list that identified the three necessary components of any giving event ⫺ the Giver, the Gift, and the Receiver. A full description of the combinatory properties of this word in this meaning could then be attained by specifying the ways in which the semantic roles map onto the elements of each of the word’s various syntactic valencies. The concept of deep ⫺ or deep structure ⫺ cases, comes up in discussions about whether linguistic theory can provide a well-motivated set of such role concepts, and whether arrays of such roles, as these are associated with given lexical heads, will have consequences in the workings of a grammar. In the 1960’s and 1970’s there were several simultaneous proposals in the linguistic literature that made use of semantically labeled constituents of clauses (or equivalently, dependents of predicators), Gruber (1965), Halliday (1967/8) and Chafe (1970) among them, but the tradition of representing the semantic valency of verbs as case frames, or sets of deep structure cases, is due to Fillmore
(1968a). Limiting the discussion to verbs, we can say that the deep cases were variously described as semantic relations held by dependent elements (1) to the governing verb itself, (2) to the proposition or propositional content of the clause headed by such a verb, or (3) to the clause itself. No distinctions were intended in these competing descriptions. Case frames, then, were arrays of deep cases that could simultaneously provide a semantic typology of clause types and a means of classifying the words capable of heading the clauses in such types. The framework within which these notions were developed came to be called case grammar, and the deep cases were thought of as not only providing terms used for classifying words and characterizing clause types, but were seen as figuring importantly in the formulation of various sorts of grammatical generalizations within individual languages and in typological observations across languages.
2.
Historical Context
The notion of deep case emerged in the context of several traditions of thought and practice. Among them were classical traditions for describing systems of morphological case, dependency grammar, linguists’ attempts to represent sentence semantics using formulas from predicate logic, and, most importantly, transformational grammar. In particular, Fillmore’s (1968a) initial proposal was seen as a suggestion on the nature of the pre-transformational or deep structure base of a system of generative rules. 2.1. Descriptions of the uses of inflectional case One triggering influence on the deep case proposal lay in classical descriptions, in academic grammars, of the so-called “case languages” ⫺ Greek, Latin, Russian, Sanskrit, etc. It was striking that, across widely dif-
36. Valency and Semantic Roles: the Concept of Deep Structure Case
ferent systems of morphological case marking, the descriptive terms used by grammarians for classifying the functions of individual morphological cases tended to be similar from grammar to grammar: “place from which” (‘ablative of place from which’), “instrument” (‘ablative of instrument’), etc. Terminology from the same tradition was borrowed for describing the functions of both prepositionally marked and unmarked grammatical relations in a non-case language like English, as in such phrases as “with of accompaniment” for (1a); “with of material” for (1b); “object of result” for (1c), “object of instrument” for (1d), etc. (1)
a. b. c. d.
She works well [with you]. We made it [with pastry dough]. We dug [a deep hole]. She raised [her eyebrows].
In an intellectual context dedicated to capturing generalizations, the question had to be raised whether the concepts called on for describing the uses of cases might themselves deserve a central place in the theory of grammar. The immediate influence, from this tradition, on Fillmore’s (1968a) much-criticized decision to re-cycle the term case to name a semantic function rather than limit it to an inflectional category, was a proposal by someone who had already done just that. Blake (1930, 34 f.) reasoned that since previous scholars (his example was Müller 1876⫺ 87) used the same word ambiguously for both ‘case use’ and ‘case form’, a terminological corrective was needed. Blake’s proposal was to use case by itself to refer to case uses, meanings and functions, which he expected were universal, and to use case form to refer to the language-specific morphological markings, which are known to vary in number (from zero) and shape across languages (Blake 1930, 35). The cases are constant across languages, the case forms are not. Descriptions of case uses, in this tradition, were usually provided only for the so-called oblique cases ⫺ never for nominative and seldom for accusative. It was taken for granted in both the classical tradition and Blake’s that ‘nominative’ needed no explanation, since it expresses the supposedly uncomplicated function of being the sentence’s subject. The case grammar approach did not make that assumption, believing that the task of mapping the semantic organization of a sentence (in terms of the roles of dependent con-
459
stituents) had to give equal attention to all means of the syntactic realization of such roles, and that included realization as sentence subject. 2.2. Dependency Grammar A second influence on case grammar was found in dependency grammar, then growing in popularity in Germany and in eastern Europe, specifically the core text, Tesnie`re (1959). Tesnie`re presented the image of the predicate of a sentence as expressing un petit drame where the meaning of the predicate corresponded to the action in the drama and the dependents of the predicate (the actants) corresponded to the characters in the drama (Tesnie`re 1959, 102). One of the basic principles of dependency grammar was a rejection of a special Subject vs. Predicate dichotomy, and the idea that the subject of a sentence was simply one of the complements of the verb which headed the sentence (Tesnie`re 1959, 109). Tesnie`re posited a limited number of ways in which the dependents of a verb figured in the “drama”. First he distinguished actants from circumstants (circonstants), proposing three types of actants: first (celui qui fait l’action), second (celui qui supporte l’action), and third (celui au be´ne´fice ou au de´triment de qui se fait l’action) together with a collection of circumstants including time, place, manner and quantity (Tesnie`re 1959, 108 f.). The connection between case grammar and dependency grammar has always been obvious to European dependency grammarians, but most developments of case grammar ideas tended not to depart from constituency representations. (Robinson 1970 was the U.S. exception; in Edinburgh, Anderson, JM (1971, 1977), who had a quite differently motivated variety of case grammar, worked within the dependency framework.) It has been possible to think of case grammar, in one of its versions, as a generative grammar with a dependency grammar base and rules that converted dependency representations into representations of a phrase structure base. 2.3. Predicate/Argument Formulations A third influence on the theory of deep cases was a sense of inadequacy in the practice of using formulas modeled after those in predicate logic for representing, at least at the level of event structure, the basic semantic organization of a sentence (Fillmore 1968b). Thus,
460 the semantic representation of the propositional component of a simple ‘give’ sentence could be formulated as ‘GIVE (x, y, z)’, where the alignment of the three variables ‘x’, ‘y’, and ‘z’ with such functional notions as Giver, Gift, and Recipient was left unspecified. Canonical English word order would induce most interpreters of such a formula to take ‘x’ as the Giver, but how do the ‘y’ and the ‘z’ match up with the Gift and the Receiver? The case grammarian felt that without having explicit and consistent ways of semantically distinguishing the arguments of a multi-valent predication, it had to be left to some unspoken understanding between writer and reader to associate the three participant roles of the word give ⫺ the actants in the ‘give’ drama ⫺ to different variables in the formula. There was nothing to prevent a scholar from identifying the arguments of give with one ordering and those of a semantically similar verb like donate or present with a different ordering. The alignments in question should not be left to hidden assumptions, however obvious and uniform they might have been. It was further to be hoped that the terms used for such purposes could be uniform across analysts, so that we wouldn’t find one linguist using Giver, Gift and Receiver, while another used Agent, Theme and Goal, or the like. In short, case grammarians saw a difficulty in dealing with the meanings of multiple-argument predications without a mechanism for recognizing different semantic roles. A competing contemporary development, called Abstract Syntax at the time but soon to evolve into Generative Semantics (discussion in Newmeyer 1986, 82 f.), argued that the problem of keeping track of participant roles could be achieved by separating the process of choosing lexical forms from that of describing the semantic structure of a sentence; this amounted to decomposing verbal meanings using the meta-predicates DO, BECOME, CAUSE, GO, etc. (Lakoff 1971, 1972; McCawley 1970). In later work similar strategies have been employed by Jackendoff (1976), Dowty (1979), and Foley/Van Valin (1984, 47 ff.). 2.4. Transformational Grammar Case grammar was originally intended as a contribution to the theory of transformational grammar, through its suggestion that the “deepest deep structure” of any sentence
IV. Valenz. Grundlagen und Grundfragen
should include a specification of the semantic roles of sentence components. Starting from the general transformationalist view that occurring sentence forms (surface structures) are derived from more abstract objects (deep structures) by way of structure-modifying rule applications, the semantic cases proposed by case grammarians were called deep cases, since they were thought of as playing an important role in representing a sentence’s initial or pre-transformational organization, its deep structure. The need for explicit identification of the semantic roles that linked dependent constituents to their clauses ⫺ as licensed by the clause’s verbal head ⫺ was already felt in some contemporary discussions of subcategorization frames as these were used for classifying English verbs (Chomsky 1965, 90 ff.). Verb subcategorization, defined in terms of the VP-internal neighboring major phrasal categories ⫺ NP, PP, etc. ⫺ was not equipped to represent all the distinctions needed for a transformational grammar. In any case, the relational schemes for identifying the functions of dependent elements, needed for formulating principles of semantic composition, remained extremely limited. The configurations defining syntactic functions (streamlined and augmented from Chomsky 1965, 63 ff.) were: NP-under-S as ‘subject’; NP-under-VP as ‘object’; PP-under-S as ‘adjunct’; PP-under-VP as ‘oblique complement’; S-under-S as ‘subordinate clause’; and S-under-VP as ‘(clausal) complement’. (The possibilities VP-under-VP and VP-under-S were not considered, since embedded verb phrases were treated as underlyingly sentences.) Grammatical theory, many felt, needed to be able to operate on a greater number of clause-internal roles than could be defined within the geometry of familiar constituent structure representations, given standardly accepted limitations to the inventory of phrase types. Some contemporary writings, in fact, found it necessary to resort to unexplained labels like “Manner” (Chomsky 1965, 129) in formulating basic syntactic operations. The key proposal in case grammar was that in underlying representations of sentences all dependent constituents should bear explicit indications of their semantic roles. (For a recognition of the limitations in the
36. Valency and Semantic Roles: the Concept of Deep Structure Case
Aspects model in just this regard, see Chomsky 1965, 215 f.) In any case, it could be argued that the combinatory requirements of certain verbs needed to be specified semantically rather than syntactically, since for certain complement functions, there was no unique phrase type that expressed them. Textbook explanations of subcategorization often begin with a description of English put, using the subcategorization frame [ NP PP], but “PP” does not cover the full range of possibilities, as can be seen in (2): (2)
a. ⬍PP⬎ He put it [in his shoe]. b. ⬍Adverb⬎ Please put it [here]. c. ⬍WH-clause⬎ Put it [where you think it looks best].
It is of course possible to have multiple subcategorization frames for a single word, but not every PP, Adverb or WH-clause can serve to designate a Location, and only those are welcome as the third argument of put which designate a place. A similar example can be seen with the third argument of the verb phrase in its ‘encoding’ meaning: it can be anything that expresses Manner, as in (3): (3)
with the semantic roles of oblique constituents, and (3) the existence of (a) verbs with variable syntactic valency, and (b) pairs of verbs with similar meanings but different syntactic valencies. The initial operations of the grammar were to be structure-organizing principles operating on (semantically defined) underlying structures, creating surfacestructure configurations that included the assignment of subject and object status according to general principles sensitive to the identity of the cases, but also recognizing idiosyncratic requirements of particular lexical items.
3.
Supporting Observations
The literature of the time was full of examples of variable valency and demonstrations of the non-uniformity of the semantic functions borne by subjects and objects. A sample long list of the semantic varieties of subjects is given in Anderson, JM (1969, 301 f.). Typical of these is the collection assembled in (4). (4) Variation in Semantic Roles of Subjects (4)
a. ⬍Adverb⬎ Please phrase your answer [carefully]. b. ⬍PP⬎ Couldn’t she phrase her request [in a more deferential way]? c. ⬍NP⬎ He phrased it [the same way you did].
(It may also be possible to describe the bracketed elements in (2b) and (2c), and in (3a) and (3c), as underlyingly prepositional phrases, but that only “solves” one part of the problem. Later transformationalist work introduced a separation between syntactic subcategorization and selection for semantic type (Grimshaw 1979, 280 f.).) The main thrust of case-grammar’s intended contribution to the operation of a transformational grammar lay in the suggestion that the deep structure of a sentence did not pre-assign clause constituents to the subject or direct object roles, because these were themselves the result of “early” transformational operations that refer to deep cases. Prima facie evidence for the claim that the basic event structure associated with verbal meaning was independent of the familiar phrase-structure configurations, lay in (1) the variety of semantic roles played by subjects and objects, (2) the overlap of these functions
461
[I] lifted the rock. [Jimmy] resembles his brother. [The plaza] was teeming with tourists. [She] felt hungry. [This music] irritates me. [The line] intersects the circle at two points. g. [Our professor] has a big nose. a. b. c. d. e. f.
In (4a) we see the energy source, in (4c) a location; in (4g) the whole of which the object names a part; and so on. For direct object functions ⫺ or, more carefully put, the functions borne by NPs following verbs ⫺ we can consider the sentences in (5). (5) Variation in Semantic Roles of Objects (5)
a. We destroyed [the equipment]. b. He resembles [his brother]. c. She risked [death]. d. He replaced [his father]. e. We crossed [the bridge]. f. He paid [his bills]. g. He ran [two miles]. h. We reached [the top]. i. He left [the house]. j. He has [a big nose]. k Let’s add [the numbers]. l. He calculated [the sum]. m. He recognized [his neighbors]. n. He earned [our praise].
462
IV. Valenz. Grundlagen und Grundfragen
In (5a) we have an entity that has undergone a change; in (5b) a reference for comparison; in (5e) an entity that constitutes part of a path of a moving event; in (5g) a distance, in (5h) a destination, in (5i) a starting point; and in (5j) a part of which the subject is the whole. First attestation for the well-known examples of variable valency is sometimes difficult to determine; the following are taken from or modeled on examples associated with Hall (1965), Fraser (1971), Fillmore (1966; 1968a), Chomsky (1965; 1970), and Gruber (1965). There are meaning differences in the paired patterns, greater in some cases than in others, but at some level there are shared semantic arrangements behind the syntactic variations. Alternations between Direct Objects and Oblique Complements: (6)
[A] verb [B] into [C] // [A] verb [C] with [B] a. We stuffed/packed/loaded cotton into the sack. b. We stuffed/packed/loaded the sack with cotton.
(7)
[A] verb [B] on [C] // [A] verb [C] for [B] a. I blamed the accident on John. b. I blamed John for the accident.
(8)
[A] verb [B] from [C] // [A] verb [C] of [B] a. We drained the blood out of the skull.
(12)
Subject/Complement Alternations with Adjectives: (13)
[A] be adjective with [B] // [B] be adjective to [A] a. I am familiar with that. b. That is familiar to me.
(14)
[A] be adjective of [B] // [B] be adjective to [A] a. I am suspicious of my neighbors’ activities. b. My neighbors’ activities are suspicious (to me).
Subject/Direct Object Inverses: (15)
(10)
[A] verb [B] to [C] // [A] verb [C] (with) [B] a. I presented the medals to the scouts. b. I presented the scouts with their medals. c. I presented the scouts their medals. [A] verb [B] out of [C] // [A] verb [C] into [B] a. I made a bench out of the wood. b. I made the wood into a bench.
(16)
[A] verb-1 [B] from [C] // [A] verb-2 [C] of [B] a. We stole the silver (from the bank). b. We robbed the bank (of its silver).
Subject/Complement Alternations with Intransitive Verbs
[A] verb [B] from [C] // [C] verb [B] to A a. I leased/rented the car from Smith. b. Smith leased/rented the car to me.
Subject/Oblique Complement Inverses for Transitive Verbs: (17)
[A] verb-1 [B] from [C] // [C] verb-2 [B] to [A] a. I bought/borrowed the car from John. b. John sold/lent the car to me.
There are also many verbs with similar abstract schematic meanings with different valencies; compare put in vs. put over/on on the one hand with fill and cover on the other hand: Near Inverses between Direct Objects and Oblique Complements: (18)
[A] verb-1 [B] in [C] // [A] verb-2 [C] with [B] a. I put apples in the bin. b. I filled the bin with apples.
(19)
[A] verb-1 [B] over [C] // [A] verb-2 [C] with [B] a. I put the blanket over the table. b. I covered the table with the blanket.
Inverses with Direct Objects and Oblique Complements: (11)
[A] verb-1 [B] as [C] // [B] verb-2 [A] as [C] a. I regard him as stupid. b. He strikes me as stupid.
Subject/Oblique Complement Alternations for Transitive Verbs:
b. We drained the skull of the blood. (9)
[A] verb out of [B] // [B] verb into [A] a. An oak tree developed out of the acorn. b. The acorn developed into an oak tree.
Observations about the semantic differences between the a and b versions of these pairs
36. Valency and Semantic Roles: the Concept of Deep Structure Case
raised lots of questions about syntactic valency and semantics. Many of these questions concerned the issue of whether the semantic distinctions between the sentences paired in (6) through (19) required the standard view of deep structure. The arguments made it clear that, to account for the semantics associated with certain kinds of valency variability, one cannot be limited to surface-structure grammatical organization and deep cases (Anderson, 1971, Chomsky 1970, 102). In the Construction Grammar framework of Kay/ Fillmore (1999, 14) thematic roles fit into the linking constructions with the help of a new “DA” (“distinguished argument”) device which serves the function needed to solve the problems just pointed out while not requiring initial assignment of valence elements to configurationally defined grammatical relations. In the case of alternations between verbs differing in transitivity, an apparently exceptionless generalization is that, in active sentences, the distinguished argument role is assigned to an Agent if one is present, otherwise the Instrument if one is present; the Patient can surface as distinguished argument if it has no competitors, or if the sentence is in passive voice. The parade examples in the literature were variations on (20), where the bottle has the Patient role, the hammer has the Instrument role, and the boy has the Agent role. (20) a. The bottle broke. b. The hammer broke the bottle (*by the boy). c. The boy broke the bottle (with the hammer). d. The bottle was broken (by the boy) (with the hammer). The rejected phrase in (20b) is taken as evidence that the Agent cannot be expressed at all in that sentence, since if it had been present, it and not the instrument would have had to surface as the subject, given the hierarchy.
4.
Basic Claims of Case Grammar
Conceptually the deep cases were seen as reflecting “elementary judgments about the things that go on around us: judgments about who does something, who experiences something, who benefits from something, where something happens, what it is that changes, what it is that moves, where it starts out, and
463
where it ends up” (Fillmore 1968b, 382). The role varieties surveyed in the previous section are considerably more numerous than this list of judgments, but it was expected that with generalizations from these, plus a small number of additions, the list of grammatically relevant semantic roles could be completed. The deep cases were given several functions in a case grammar. First, they played an important role in lexical representation: verbs in particular could be described in terms of the cases they “take”. Second, a ranking of the cases ⫺ the case hierarchy ⫺ served to provide the means for (possibly alternative) assignments of the basic syntactic organization of sentences. The subject hierarchy figured in subject selection in active sentences, in preposition assignment in passive sentences (in general, the highest-ranking case received the preposition by), in specifying the antecedency relation in reflexivization, etc. The first obligation of a case grammarian is to identify the cases and define them. The following list is an amalgam of various lists that Fillmore and others have used, both in the literature of case grammar as such and in the literature on thematic roles later on. Not one term in the list can stand uncontested. (The terms Object and Dative from early Fillmore are missing: Object has been divided into Patient and Theme; Dative has been parcelled out among Experiencer, human Goal, and human Patient (Fillmore 1977, 65).) Using such terms it is possible, in the first place, to describe the semantic valency patterns seen in individual sentences, and in the second place, to summarize over such valency patterns to characterize the semantic valency possibilities for the verbal heads of such sentences. A lexicon specifying only case notions and accompanying examples might include entries like this (see p. 464). An abbreviated example of a lexical entry which also included idiosyncratic syntactic information is Figure 36.6, taken from the Sample Lexicon in Stockwell et al. (1973, 750). (Line numbers have been added.) The figure shows (among other things) (line 1) that accuse takes the cases NEUTRAL, DATIVE and AGENT, where AGENT is the accuser, DATIVE is the accused, and NEUTRAL is the offense, (line 4) that the DATIVE element is obligatorily rendered as OBJECT, (line 5) that the NEU-
464
IV. Valenz. Grundlagen und Grundfragen
Agent
the instigator of an event
[John] screamed, ~ hit the ball, ~ broke the window
Instrument
the entity directly instrumental in causing a change
we lifted the package [with a cane], [the rock] dented the fender
Stimulus
the impetus or stimulus of a mental event
[the noise] frightened the children
Patient
the entity which, according to the verb’s meaning, is treated as being in a state or as undergoing a change of state
[the statue] melted, ~ collapsed
Theme
an entity to which the verb’s meaning assigns a location or a change of location
[the statue] stayed there, ~ rotated
Experiencer
the psychological locus of a sensory, cognitive or emotional experience
[the boy] felt hungry, ~ loves cheese
Content
the content of a cognitive state or event
we remembered [your telephone number]
Beneficiary
the entity on whose behalf an action is performed by the Agent
we did it all [for you], I’ll do [you] a favor
Source
the starting point of a motion
he left [home], the snake crawled [out of the hole]
Goal
the destination of a motion
he reached [home], the spider crawled [into my shoe]
Path
the trajectory of a motion
we walked [along the creek]
Fig. 36.2: Case roles, definitions, examples
GIVE: Agent, Theme, Goal Agent | The nurse
gave
Theme | some tea
Goal | to the patient.
Fig. 36.3: Case frame for give
REMOVE: Agent, Theme, Source Agent | She
Theme Source | | removed the sliver from my finger
Fig. 36.4: Case frame for remove
REMEMBER: Experiencer, Content Experiencer | I
remembered
Fig. 36.5: Case frame for remember
Content | his name.
1 ⫹[ ⫹NEUT ⫹DAT ⫺LOC ⫺INS ⫹AGT] 2 ⫺WH-S 3 *PASS 4 ⫹DAT J OBJ 5 PREP NEUT of 6 ⫺that Fig. 36.6: Entry for accuse in Stockwell et al. (1973, 750)
TRAL element is marked with the preposition of, (lines 2 and 6) that the verb does not take subordinate clause complements, and (line 3) that it optionally undergoes passivization. In the earliest case grammar proposal, the role of case frames was tied to an operation of lexical insertion. In particular, the equivalent of the phrase-structure component generated a set of case-labeled constituents, dominated by the category Proposition, in
36. Valency and Semantic Roles: the Concept of Deep Structure Case
which each had the structure of a prepositional phrase. If the cases selected happened to be the set {Agent, Instrument, Patient}, then the lexical insertion process would choose a verb which was welcomed by this case frame. Since the verb break was classified as a verb that needed a Patient but could also take an Agent and an Instrument, this was only one of the possibilities for the selection of this verb. Next the case-labeled constituents would receive prepositions. The Agent, by being the highest element in the hierarchy, would receive by; the Instrument would receive with; and the Patient would receive of. Then the subject selection process would operate, differing on whether the sentence was to be active or passive. If passive, the Patient would be marked subject; if active, the Agent would be marked subject and the Patient would be marked object. Then constituents marked as subject or object would lose their prepositions. Finally, constituent ordering processes would move the subject to the front, configure it as a co-constituent with the rest of the sentence; and the object would line up immediately following the verb. When the “filler” of the case frame is a verb, no purpose is served by the preposition of that goes with the Patient, since it has to show up as either a subject or an object, and in either case the preposition is lost. However, a deverbal noun like destruction would be welcome in the same case frame, and in this case the (optional) preposition-eliminating choice could apply to Agent or Patient and mark it as genitive. Ordering rules put the genitive in front of the noun, the prepositional complements afterwards, in no necessary order. A Patient that did not show up with genitive marking would retain the preposition. Structures resulting from these various choices can be seen in (21). (21) a. b. c. d. e.
A broke B with C B was broken by A with C the destruction of B by A with C A’s destruction of B with C B’s destruction by A with C
Case marking, or for English, preposition selection, was predicted partly by the identity of a deep case (e. g., from, off (of), out of representing Source); in some cases it was determined by the idiosyncratic properties of a
465
governor (e. g., of being idiosyncratically selected by the adjective fond), and in some cases determined by a complex combination of the identity of the case and the noun governed by the prepositions (e. g., on in the case of a Time phrase in which the noun head was a ‘day’ word, as in on Tuesday). (These early proposals typically ignored semantic differences between prepositions that served to signal the same deep case.) Lexical entries, then, provided the cases that went with the head word plus idiosyncratic features of the marking of the case-expressing constituent. Only in the earliest work was the relation between words and their case-frames thought of in terms of lexical insertion; in most later work, case grammar was thought of as “verb-centered”, in the sense that the main structure of a clause accommodated to the requirements of its principal governing verb, rather than the other way around. Chomsky pointed out that strictly speaking Fillmore’s “subjectivalization” process was not a “transformation”, in that it did not involve precise statements of before-and-after conditions on phrase markers. (Chomsky 1972, 100 f.) The motivation for including the configuration-creation processes as regular rules was the desire to believe that a case grammar base was merely a newly defined level of “deep structure”, and the belief that by including its special rules among the syntactic transformations, the derivational trajectory from deep to surface structure was achieved in a seamless way. This possibility seemed especially attractive in view of the fact that some of the established transformations ⫺ “Dative Movement” and Passivization ⫺ could be absorbed into the rules for linking case patterns to syntactic patterns. Later work spoke of subject selection “principles” rather than transformations. Within the generative grammar community the case grammar proposals were for the most part rejected, though the theory had a brief run in the so-called “UCLA Air Force Grammar”, published as Stockwell/ Schachter/Partee (1973), where an attempt was made to integrate a case-grammar deep structure with the lexicalist theory of Chomsky (1970). (Stockwell/Schachter/Partee 1973, 8 ff., 32 ff.) Most writers today view case grammar as part of a “break-away” movement. (See Newmeyer 1986, 103 ff.)
466
5.
IV. Valenz. Grundlagen und Grundfragen
Problems
Difficulties in constructing a working case grammar include the problem of knowing when to stop in preparing the list of cases, how to construct and test a case hierarchy, and a host of worries about splitting versus lumping. In addition, there is the difficulty of representing the difference between complements and adjuncts and between obligatory and optional arguments ⫺ and, for this last, the question of deciding whether they are two differences or one. 5.1. The inventory of cases Workers in case grammar differed in the number of cases they felt needed to be recognized, and individual writers produced different lists in different publications. A collection of the major alternatives proposed by the mid-seventies ⫺ by Fillmore (1968a), Chafe (1970), Fillmore (1970), Platt (1971), Cook (1971), Hale (1973) and Longacre ⫺ can be found in Longacre (1976, 25). The UCLA grammar, not included in Longacre (1976), selected just five: Neutral, Dative, Locative, Instrumental and Agentive (Stockwell/Schachter/Partee 1973, 32). This failure to provide a well-motivated list of case notions became a central objection to the theory, even among those who felt that the ideas were worth pursuing. Many writers have pointed out that one can always find both reasons for recognizing ever more refined distinctions and reasons for recognizing high-level generalizations, concluding that there could be no theoretically justified way of coming up with a single linear list (Croft 1991, 155 ff.; Langacker 1987, 284). The difficulties of providing a single and satisfying list of case functions, i. e., where every encountered example fits neatly into a definition of one of the already established cases, have led to a number of alternatives: that the cases should be analyzed in terms of a feature structure, with individual features capturing the generalizations and combinations of them representing the distinctions (Nilsen, 1971); or that the most general abstract properties are general schemas which are shared by a large number of elaborations of these; or that lexical meanings, not patterns of deep cases, had to be an explanatory part of the phenomena. Fillmore has pursued an approach to Frame Semantics in which there can be an unlimited number of semantic role systems, associated with individual
frames, an approach which even allowed some frames to be unique to single lexical items. The generalizations about higher-level processes, such as those which motivated various attempts to devise case or thematic role hierarchies, could be rescued by building into a theory of frame semantics some principles of frame inheritance (Fillmore 1971c, 1985; Fillmore/Atkins 1992, 1998). Foley/Van Valin (1984) and Dowty (1991) have led an alternative approach, assigning to the grammatically most relevant arguments one of two abstract thematic roles, Actor and Undergoer, or Proto-Agent and Proto-Patient, according to a system of contrasts suggested by a list of prototype features of the two types. (Dowty 1991, 571 f.). Thus, whereas a frame semantic treatment of a verb like cure would be inclined to distinguish the acting individual (Healer: doctor, nurse, shaman, etc.), the effective course of therapy (Treatment: heat, massage, surgery, etc.), the substance applied to or taken in by the patient (Medicine), since all of these can be effective in bringing about a cure, they would all fit the Proto-Agent role; and since the person who undergoes the medical treatment (Patient), the disease which goes away or otherwise stops harming the patient (Affliction), the body part that is affected (BodyPart), and the patient’s superficial responses to the afflication (Symptoms) can all appear as direct object of the active verb cure, they fit in the description of the Proto-Patient. A development parallel to case grammar, which originated in the sixties with Gruber (1965) and Jackendoff (1972), re-emerged in the eighties and became a part of mainstream generative grammar, more or less independently of case grammar. Within this parallel tradition, thematic role (the term is due to Gruber and appears to be older than deep case) or theta role corresponded to deep case, thematic role hierarchy corresponded to case hierarchy, and theta grid corresponded to case frame. An additional term relevant to valency questions is argument structure, which sometimes refers to theta grid and sometimes to an interface between the theta grid and the syntactic realization of its elements. The cross-model correspondence is not complete: to some writers, theta roles belong uniquely to individual predicators, so that for example there is no theoretical reason to assume that the theta role assigned to the subject of scream is identical to the one assigned to the subject of yell or holler.
36. Valency and Semantic Roles: the Concept of Deep Structure Case
But others do take a universalist interpretation. Bickerton (1990, 185 ff.), in fact, attempts to motivate the inventory of thematic roles, in a way which could easily be seen as motivating deep cases: he attributes both the inventory and the hierarchy to reasoning about food-sharing in early hominid bands. Agent, Patient and Goal are abstractions or generalizations from the provider, the food, and the beneficiary in a food-sharing scenario; Bickerton suggests that this same setting could account for the emergence of the other basic roles as well, not just those involved in the Giving frame: the food may have been obtained with the help of a tool (Instrument), and this will have happened in some Place and Time. (Bickerton 1990 185 ff.) Langacker also sought a foundation of thematic roles in experience, using a “billiard ball” model, but he sees such notions as pre-linguistic and not a part of language (Langacker 1987, 285). Much of the literature on thematic roles alludes to the case grammar tradition only obliquely, through the re-use of examples that first appeared in the case grammar literature. 5.2. Splitting versus Lumping Grammarians attempting to work with the Case Grammar assumptions frequently found that it was not a simple thing to stay with some preliminary set of definitions for the case roles, since decisions made at one point often interfered with other decisions that one might want to make. This section reviews some of the difficulties scholars had to face. Theme vs. Patient. Is it necessary to distinguish Theme and Patient? Patient is typically defined as the entity that is in a state or undergoes a change of state, and Theme is defined as the entity that is in a location or undergoes a change of location. One could easily think of being in a location as an instance of being in a state; in practice, many workers choose one of these terms to cover both cases. (Objective in Fillmore 1966, 1968a, covered both of these.) Static vs. Dynamic roles. The definitions of Theme and Patient combined the static and the dynamic; one could ask why having a state and changing from state to state involve the same role. Langacker (1987, 288) rejects this practice, separating motion from changeof-state, as Mover vs. Patient, while having a single role for entities to which a state or lo-
467
cation is attributed. He proposes Zero as the name of the thematic role of an entity to which being in a state or being in a location is described by a predicate. Theme and Instrument. Is it necessary to distinguish Theme and Instrument? If a Theme is something which moves, then does it deserve a different role name if, in moving against something, it causes that thing to change? In English, one of the major markings of Theme ⫺ the preposition with ⫺ is also the principal indicator of the Instrument role. It would be possible to say that what has been identified as the Instrument is a Theme which moves (against some other entity) in various causation patterns. Compare the sentences in (22). (22) a. He put [beans] in the jar. b. He filled the jar [with beans]. c. He struck [the hammer] against the jar. d. He struck the jar [with a hammer]. e. He broke the jar [with a hammer]. It is possible to see all references to beans and hammers in (22) as identifying the entities which move; when the relevant non-agent cases are Theme and Goal, either can be the direct object. When, however, the relevant cases are Theme and Patient, only the Patient can be realized as the object. Obviously, a decision to unify Instrument and Theme presupposes maintaining the distinction between Theme and Patient. Patient vs. Goal. Is it necessary to distinguish Patient and Goal? There are semantic and syntactic consequences associated with the distinction. Some of these were discussed in Fillmore (1970) distinguishing the two classes of verbs represented by hit and break. Goal vs. Recipient. Do we need to distinguish Goal (as Destination) vs. Recipient? The data that raised this question involve the verb send. Observe the examples in (23): (23) a. b. c. d.
I sent the package to Sam. I sent Sam the package. I sent the package to Iraq. *I sent Iraq the package.
The evidence suggests that an “accepting” receiver permits realization as direct object (as in 23b), but a mere location does not. A similar, this time involving the choice of prepositions, can be seen in the contrast between the two sentences in (24):
468
IV. Valenz. Grundlagen und Grundfragen
(24) a. I threw the ball to the boy. b. I threw the ball at the boy. In (24a) the boy is a cooperating participant, read to receive the ball; in (24b) the boy is a target. Which linguistic facts are responsible for these contrasts? Is it a difference in case roles? Is it that the verb send is ambiguous, one of its meanings requiring oblique syntax for the Goal? Is it a difference in the meanings of at and to with the verb throw? Temporal vs. spatial locative cases. Do we need separate deep cases for Time and Space, considering the clear metaphorical connections between time and space, through the correlations of the two in instances of motion? If we can use the labels Location, Source, Path, and Goal for spatial events, should we be able to use the same notions for temporal relations? Metaphor suggests a schematic commonality between driving from Warsaw to Berlin (spatial) and sleeping from midnight to noon (temporal). In the case of temporal and spatial motion, the semantics of the verb should be able to distinguish the temporal from the local meanings; but in static expressions, as in in Prague or in the spring, the difference needs to be identified somehow. Certain generalizations about adjunct order (time before place in German, place before time in English) seem to require a separation between the two. Localism in General. Perhaps the most elaborate proposal for patterned re-use of a locational scheme is that of Somers (1987, 206), where (reducing and paraphrasing somewhat) the following patterns are suggested. The undeniable schematic commonalities across the concepts organized in Figure 36.7 do not, of course, suggest the possibility of eliminating any of the detailed cases (those in the inner cells), since both the domain con-
cepts (in the left column) and the schematic position concepts (in the top row) are still needed. Instrument vs. Stimulus. Should the causing entity in a physical action (having an impact on a fragile object, for example) and the causing entity in a psychological experience (being the stimulus event or object for a psychological response, as with frighten), be distinguished from each other? As with most of the choices opened up in this section, this one too will have to depend on decisions made elsewhere in the system. 5.3. Case definitions and their applications Sometimes we can know that we want to keep two roles distinct, but there may be cases that are not clearly the one or the other. Uncontested situations of the Agent role are found in sentences about human beings intentionally performing some act; clear cases of the Instrument role are found in sentences about human beings using an implement to accomplish something, that implement being the Instrument. When a causing agent is not human, but is not being “used” by another agency, as in the case of a storm destroying a campsite, should it be considered Agent or Instrument, or is a new category needed, “Force”, say? Fillmore’s answer was always Instrument; many writers saw this as simply a mistake. One of the problems in extending an initial understanding of a case role has to do with the possibility that the initial intuition is likely to have the characteristics of a prototype concept. Thus, for Instrument, the central case might be one in which an agent manipulates a physical object so that it has an impact on some second object, causing the latter to undergo a change of state. The idea of an actor manipulating something can carry over to a situation in which a living be-
Source
Path
Goal
Local
Action
Agent
Instrument
Recipient
Patient
Psychological
Stimulus
Medium
Experiencer
Content
Transfer
Original Owner
Price
Receiver
Thing transferred
Locative
Origin
Space traversed
Destination
Position
Time
Time since
Duration
Time until
Time at which
Fig. 36.7: Case grid (Somers 1987, 207)
36. Valency and Semantic Roles: the Concept of Deep Structure Case
ing “manipulates” the parts of its own body, as when a dog wags its tail or a child wiggles its toes: some would classify the moving body parts, in linguistic expressions of such acts, as Instrument; but of course such activities typically have no causal effects. The idea of some “uncaused” contact between one object and another bringing about a change of state of the latter matches the causative part of the prototypical instrumental situation, allowing some authors to use Instrument in referring to, say, the role of a falling branch and its effect on a flower bed. Evidence that the prototype interpretation is psychologically real can be seen in the fact that languages have carried the prototype in both directions. 5.4. Lesser clause types Most of the clear examples of case roles appear in connection with the language of events or the conscious involvement of experiencers; sentences that report static relations or states of affairs often do not lend themselves to treatment in terms of the familiar case roles. This is true, for example, in the case of copular clauses with a nominal predicate: the problem is in the labeling of the subject as it contrasts with the predicate NP. Some have used Essive or Factive for the predicate, Patient for the subject. Obvious problems include the difference between predications of set-membership (25a) as opposed to identity (25b⫺c), and the apparent reversibility of the NP roles in the latter two examples. (25) a. My brother is a politician. b. My brother is the new mayor. c. The new mayor is my brother. Discourse about possession, existence and location present similar problems. Of interest to the case grammarian is the fact that expressions within such discourse permit syntactic variations that ought to be thought of in terms of role realization differences (Lyons 1967; Lehiste 1969; Benveniste 1960). What case should be assigned to the subject of a ‘have’ sentence? Some have used Dative; others have used Locative. Does (26b) have two locatives in it? (⫽ Are there two locatives in (26b)?) Is there a way of showing what is common in the relationship between a possessor and its head in a noun-phrase (27a) and that between the subject and object of a ‘have’ sentence (27b)? (26) a. There are some cookies in the jar. b. The jar has some cookies in it.
469
(27) a. Jimmy’s nose is big. b. Jimmy has a big nose. How does one express the case-structure difference in situations where information is contained in a single constituent or is distributed between two constituents, each independently governed by the head verb? Examples with body-parts standing for target-of-impact are in (28); examples with distributed versus joint realization of interacting participants are in (29). (28) a. She pinched my cheek. b. She pinched me on the cheek. (29) a. We argued for hours. b. I argued with her for hours. 5.5. Optionality The list of deep cases, and the claim that single-clause sentences are to be described as expressing selections from such a list, naturally raises the question of how to express the notion of optionality in lexical description. If verbs like break or open can be used with or without an Agent (i. e., transitively or intransitively), should it be said that the Agent is optional with this verb? But that is clearly not the same as the situation in which the transitive verb appears in the passive voice, with or without syntactic expression of the “denoted” Agent. A difference needs to be recognized between the presence or absence of an argument conceptually present and its presence or absence in the surface syntax. The case grammar treatment of this distinction has been to distinguish case frames, as the array of cases relevant in the use of a given token of the word, which represents the conceptually present arguments, and case frame features, which represents the set of cases from which argument structures can be created. An argument was made that preposition selection sometimes supports such a distinction; in the pair of sentences in (30) (30) a. The village was destroyed by fire. b. The village was destroyed with fire. the (b) version was said to have the Agent conceptually present, since the Instrument (fire) was marked with the preposition with. In (a) the fact that it is marked with the preposition by was thought of as showing that Instrument is the highest-ranking case, require the absence of an Agent in the case frame underlying that sentence. (It is interesting that the verbs open and break, described by Fill-
470
IV. Valenz. Grundlagen und Grundfragen
more as having optional Agent, are described by Rappaport and Levin (Rappaport/Levin 1998) as being basically transitive, even in their intransitive use.) Current studies of implicit (unexpressed) arguments offer a variety of observations on types of omissions of conceptually present elements: see Condaravdi & Gawron (1999), Grimshaw (1979, 258 f.), Fillmore (1969b; 1986), Hankamer & Sag (1976), Shopen (1973), Panevova´ (1998).
the modification had to be expressed semantically: a multi-constituent Place or Time expression had to designate only one Place or one Time, and a multi-constituent Path expression had to trace out a single trajectory. Examples that satisfy these conditions are found in (34).
5.6. Adjuncts, so-called Traditionally, the question of the difference between optional and obligatory constituents and the difference between complements and adjuncts were regarded as identical. (Halliday 1970, 146 f.; discussion in Helbig/Schenkel 1973, 31 f.) The mechanism of original case grammar, which had a list of possible cases and means of converting selected arrays of these into clause structures, lacked a formal mechanism for distinguishing complements from adjuncts, that is, for distinguishing elements that are tightly associated with the meaning of a verb on the one hand from external “circumstantial” features of the setting on the other hand. Such roles as Time, Place and Manner are expressed in essentially the same ways when they are obligatory as when they are optional; the Case Grammar approach was to propose the list of cases, including these, and then to declare, in the form of case frames, that some of them are specifically called for by some predicates. Examples of obligatory circumstantials can be seen in (31)⫺(33).
bridge] the ga-
(31) a. We lived in Paris. b. *We lived. (32) a. He lived in the 17th century. b. *He lived. (33) a. He put it nicely. b. *He put it. 5.7. Multiple Instances of a Single Case One of the most important empirical claims of early Case Grammar was a principle that a predicate could govern only one element in a given case and that any governed element could have only one case role. This principle was not contradicted by conjunction, since a conjoined constituent was still a single constituent. It had to be modified to deal with complex expressions of Place, Time, or Path:
(34) a. He lived [in a big city] [in a ous neighborhood]. b. [Yesterday morning] she [later than usual]. c. She walked [across the [through the park] [toward zebo].
dangerarrived
It was also easy to see, quite early on, that there are advantages in being able to claim that sometimes an individual constituent needs to be associated with more than one role; in other words, there are situations in which a single participant can participate in an event in more than one way (Fillmore 1969b, 116). One possibility is that the thing which moves (Theme) is simultaneously the energy source of the motion (Agent), either by virtue of the lexical specification itself (jump, leap, crawl, jog, etc.) or in the intended meaning in individual sentences (roll, fall, rotate, etc.). Once such distinctions are made by recognizing the possibility of attaching agency to the moving entity, Theme, we can consider attaching agency to other cases. For example, a constituent that is simultaneously Agent and Source could be seen in the subject of send or throw; a constituent that combines Agent and Goal could be seen in the subject of steal or remove. And a constituent that is simultaneously Agent and Path might be recognized in the subject of transmit, convey, or forward. By such means it becomes possible to recognize that the buy:sell and borrow:lend inverses and the two valences for lease and rent are semantically distinct according to whether the Agent case is associated with the Source or the Goal of the transfer. The verb hide is special. Of the verbs that can be used transitively or intransitively, there are those like eat, bake and sew that we think of as simply allowing a general object to be omitted; and there are those like roll, move, break and melt in which the transitive use has a causative meaning and is understood as Agent added to Theme (in the move cases) or Patient (in the change cases). (35) a. The ball rolled. b. I rolled the ball.
36. Valency and Semantic Roles: the Concept of Deep Structure Case
(36) a. The candle melted. b. I melted the candle. In these sentences, the object of the transitively used verb can be the subject of the intransitively used verb. But with hide this does not work across the board. (37) a. Harry hid in the closet. b. My daughter hid Harry in the closet. (38) a. I hid the money behind the safe. b. *The money hid behind the safe. It would appear that the verb hide requires an Agent somewhere; in the intransitive use the Agent co-exists with the Theme, in the transitive use it is separate. 5.8. Complex Events There are some complex predications in English that clearly cannot be represented as instances of a single case frame, since they designate a temporally complex event. Consider what is being said in the sentences in (39): (39) a. I knocked the ball out of the ballpark. b. I shook spiders out of the sleeping bag. c. I broke the hammer against the vase. The meanings expressed by such sentences are temporally complex scenarios, and the kind of analysis that treats deep cases as argument relations have to be applied to the constituent events. That is, the ball in (39a) is the Goal of the hitting component and the Theme of the ‘go over’ component; the sleeping bag of (39b) is the Theme of the shaking component, but the Source of the tumbling spiders component. Example (39c) is more complex: the motion component is signalled by the against-phrase. There is an act of moving the hammer against the vase, and there is an event of the hammer breaking; the verb itself designates the resulting event. There are languages that do not allow such event conflations, requiring a separate expression of the hitting and moving components of (39a) and of the shaking and falling components of (39b). From all of these observations it is clear that any attempt to find a single list of semantic roles that can unfailingly be called on to label the semantic functions of the dependents of any verb in any language is destined to fail.
6.
471
Further developments
The original proposal saw the list of cases as forming a single ordered set; but continuing attempts to explain them required the isolation of a number of different states of affairs, with Agency (the actions of an Agent) taken as a potential instigator of many of the others. Frame Semantics is a name given to the effort to characterize the detailed conceptual patterns that underlie lexical meanings, and this effort requires the means of recognizing inheritance, by which some frames can be seen as elaborations of others; frame blending, by which some event types are seen as describable as instantiations of more than one frame; and complex frames, by which some event types are seen as scenarios having parts that can be individually described as frames with links from one to the next. With Causation seen as a relation between eventualities (a word intended cover both events and states), we can identify certain entities in the causing event, such as Agent (the instigating entity) and Instrument (an immediately affecting entity) and regard these as capable of figuring in most of the individually described frames. Simple Causation is understood as one event having another event or state of affairs as its consequence. An individual (or agency or machine) actively involved in the preliminary event is Agent; a contribution to the causation situation in the form of something manipulated by the Agent is Instrument. A Motion frame allows us to distinguish a Theme (an entity seen as moving or capable of moving) and indicators of the trajectory of a movement: Source, Path, and Goal. Simple examples require only the elements of the Motion frame: those with Agent added allow the Agent to be independent or united with one of the elements of the Motion frame. (A “⫹” symbol between case names indicates the double function of a single argument.) (See Figure 36.8 on p. 472.) A Change frame introduces the entity which can be seen as undergoing, or capable of undergoing, a change. Examples, including additions of Agent, as follows. (See Figure 36.9 on p. 472). A Creation frame has a substance (Material) becoming something (Effect). Examples see Figure 36.10 on p. 472. An Experience frame introduces the experiencer of a cognitive or emotional state or experience (Experiencer), the percept or event
472
IV. Valenz. Grundlagen und Grundfragen
Theme, Path, Goal
The ball rolled down the steps into the kitchen.
Agent, Theme, Source
The child pushed the ball off the table.
Agent⫹Theme, Goal
I ran into the forest.
Agent⫹Path, Theme, Goal
I forwarded the letter to my uncle.
Agent⫹Goal, Theme, Source
I took the ball from the child.
Agent⫹Source, Theme, Goal
I gave the ball to the child.
Fig. 36.8: Case Frames for Motion
Patient
The building collapsed.
Agent, Patient
The workers destroyed the building.
Fig. 36.9: Case Frames for Change
Material, Effect
At night he turns into a wolf.
Agent, Effect
I’ll make the dessert.
Agent, Material, Effect
He made the wood into a bench.
Agent, Effect, Material
He made a bench out of the wood.
Fig. 36.10: Case Frames for Creation
Theme, Place
The tomatoes are in the pantry.
Place, Theme
This building houses many families,
Agent, Theme, Place
She keeps her car in my garage.
Fig. 36.12: Case Frames for Location
A Communication frame involves the person who communicates, the person to whom the communication is addressed, the message or content of the communication, and, tightly related to the last, the topic of the communication. Here we can see cross-frame identities, or blending; the Communicator is also an Agent; the Addressee can be viewed as a Goal or Recipient; the Message can be seen as the mental content being transmitted. Examples:
Experiencer, Content
I remembered the accident.
Speaker, Addressee, Topic
She spoke to me about you.
Stimulus, Experiencer, Content
The noise reminded me of the accident.
Speaker, Topic
The teacher discussed the war.
Stimulus, Experiencer
That music annoys me.
Speaker, Message
I said that I wouldn’t go.
Agent, Experiencer, Content
My brother persuaded me to join the club.
Speaker, Addressee, Message
He informed me that the office was closed.
Fig. 36.11: Case Frames for Experience
which triggers the experience (Stimulus), and the content of the experience, a feeling or opinion or perception (Content). Examples. A Location frame has the entity located somewhere (Theme) and the Place. Examples:
Fig. 36.13: Case Frames for Communication
In the view of Frame Semantics that can be seen as a descendant of Case Grammar, the number of constellations of “cases” or “slots” cannot be specified in advance, since they seem to be unlimited, or limited only by the needs of the surrounding and supporting culture. That said, it would appear that the
36. Valency and Semantic Roles: the Concept of Deep Structure Case
frames just listed form the background of a very large number of the frames that can be developed for semantic description.
473
Proble`mes de Linguistique Ge´ne´rale I. Paris. 187⫺ 207. Bickerton, Derek (1990): Language and Species. Chicago.
Computational Linguistics and “Frames”
Blake, Frank (1930): A semantic analysis of case. In: Language Monograph 7, Linguistic Society of America, 34⫺49.
Simmons (1973) and others introduced notions from case grammar, especially under the term case frame, into artificial intelligence, cognitive psychology, educational psychology and computational linguistics. The notion case frame fit easily into a view of schematizing conceptual structures that came about independently within artificial intelligence, under the term frame, through Minsky (1975, 1977) and schema, Bobrow/Norman (1975), and others. The practical considerations in such frames were to build structures of slots corresponding to either, at a linguistic level, the arguments of a predicate, or, at a nonlinguistic level, the components of a situation type. Computational processes informed of the slot/filler structure of a frame created by lexical items discovered in a text, or structures attributed to a paragraph, would be called on to find the fillers needed in order to “populate” the slots and provide an interpretation of the passage being analyzed. Given such practical objectives, there are not the purely linguistic objections to any given proposal. Much of the work in AI and computational linguistics has been paired with psychological research in semantic memory, based on network-like knowledge representations. Much of this work uses case labels for identifying the slots in such networks.
Bobrow, Daniel G./Norman, Donald A. (1975): Some principles of memory schemata. In: Bobrow, Daniel G./Collins, Allan (eds.) (1975): Representation and Understanding: Studies in Cognitive Science. New York, 131⫺149.
7.
8.
Select Bibliography
Allerton, D. J. (1982): Valency and the English Verb. London. Anderson, John M. (1969): Adjectives, datives and ergativisation. In: Foundations of Language 5, 301⫺393. Anderson, John M. (1971): The Grammar of Case: A Localistic Theory. Cambridge, UK. Anderson, John M. (1977): On Case Grammar: Prolegomena to a Theory of Grammatical Relations. London.
Buckingham, Hugh W. (1973): The comitative and case grammar. In: Foundations of Language 10, 111⫺121. Chafe, Wallace A. (1970): Meaning and the Structure of Language. Chicago. Charniak, Eugene (1981): The case-slot identity theory. In: Cognitive Science 5, 285⫺292. Chomsky, Noam (1965): Aspects of the Theory of Syntax. Cambridge, Mass. Chomsky, Noam (1970): Remarks on nominalization. In: Jakobs, Roderick A./Rosenbaum, Peter (eds.) (1970): Readings in English Transformational Grammar. Waltham, Mass., 184⫺221. Condoravdi, Cleo/Gawron, Jean Mark (1999): The context dependency of implicit arguments. In: Kanazawa, Makoto et al.: Quantifiers, Deduction and Context. Stanford, 1⫺32. Cook, Walter A. (1971): Two papers on case grammar. In: Languages and Linguistics Working Papers. Cook, Walter A. (1979): Case Grammar: Developments of the Matrix Model (1970⫺1978). Washington, D.C. Croft, William (1991): Syntactic Categories and Grammatical Relations. Chicago. Cruse, D. A. (1973): Some thoughts on agentivity. In: Journal of Linguistics 9, 11⫺23. DeLancey, Scott (1984): Notes on agentivity and causation. In: Studies in Language 8, 181⫺213. Dowty, David (1979): Word Meaning and Montague Grammar. Dordrecht. Dowty, David (1991): Thematic proto-roles and argument selection. In: Language 67, 547⫺619. Fillmore, Charles J. (1966): A proposal concerning English prepositions. In: Georgetown University Monographs on Language and Linguistics No. 19, 19⫺33. Fillmore, Charles (1968a): The case for case. In: Bach, Emmon/Harms, Robert T. (1986): Universals in Linguistic Theory. New York/London, 1⫺80.
Anderson, Stephen R. (1971): On the role of deep structure in semantic interpretation. In: Foundations of Language 7, 389⫺396.
Fillmore, Charles J. (1968b): Lexical entries for verbs. In: Foundations of Language 3, 343⫺393.
Benveniste, Emile (1960): “Etre” et “avoir” dans leurs fonctions linguistiques. In: Benveniste (1966):
Fillmore, Charles (1969a): Toward a modern theory of case. In: Reibel, David A./Schane, Sanford
474 A. (eds.): Modern Studies in English: Readings in Transformational Grammar. Englewood Cliffs, N.J., 335⫺345. Fillmore, Charles J. (1969b): Types of lexical information. In: Kiefer, Ferenc (ed.): Studies in Syntax and Semantics. Dordrecht, 109⫺137. Fillmore, Charles J. (1970): The grammar of hitting and breaking. In: Jakobs, Roderick A./Rosenbaum, Peter S. (eds.) (1970): Readings in English Transformational Grammar. Waltham, Mass., 120⫺133. Fillmore, Charles J. (1971a): Some problems for case grammar. In: O’Brien, Richard J. (ed.): The Twenty Second Annual Round Table in Linguistics: Developments of the Sixties, Viewpoints of the Seventies. (⫽ Monograph Series in Languages and Linguistics No. 24), Georgetown, 39⫺56.
IV. Valenz. Grundlagen und Grundfragen Gruber, Jeffrey (1967): Look and see. In: Language 43, 934⫺947. Hale, Austin (1973): Towards the systematization of display grammar. In: Summer Institute of Linguistics, Publication No. 40, 1⫺38. Hall, Barbara (1965): Subject and object in modern English. MIT PhS Dissertation. Halliday, Michael A. K. (1967/8): Notes on transitivity and theme. In: Journal of Linguistics 3, 34⫺ 81, 199⫺244; 4, 179⫺215. Halliday, Michael A. K. (1970): Language structure and language function. In: Lyons, John (ed.) (1970): New Horizons in Linguistics. Harmondsworth, 140⫺165. Hankamer, Jorge/Sag, Ivan (1976): Deep and surface anaphora. In: Linguistic Inquiry 7, 391⫺428.
Fillmore, Charles J. (1971b): Verbs of judging: an exercise in semantic description. In: Fillmore, Charles J./Langendoen, Terence (eds.) (1971): Studies in Linguistic Semantics. New York. 272⫺ 289.
Helbig, Gerhard/Schenkel, Wolfgang (1973): Wörterbuch zur Valenz und Distribution deutscher Verben. Leipzig.
Fillmore, Charles J. (1971c): Types of lexical information. In: Jakobovits, Leon A./Steinberg, Danny D. (eds.) (1971): Semantics: An Interdisciplinary Reader in Philosophy, Linguistics and Psychology. Cambridge, UK, 370⫺392.
Jackendoff, Ray (1972): Semantic Interpretation in Generative Grammar. Cambridge, Mass.
Fillmore, Charles J. (1977): The case for case reopened. In: Cole, Peter/Sadock, Jerry M. (eds.): Syntax and Semantics, Volume 8: Grammatical Relations. New York, 59⫺81.
Jackendoff, Ray (1985): Multiple subcategorization and the vq criterion: the case of climb. In: Natural Language and Linguistic Theory 3, 271⫺195.
Fillmore, Charles J. (1985): Frames and the semantics of understanding. In: Quaderni di Semantica 6, 222⫺254. Fillmore, Charles J. (1986): Pragmatically controlled zero anaphora. In: Proceedings of the 14th Annual Meeting of the Berkeley Linguistics Society, 39⫺55. Fillmore, Charles J./Atkins, Beryl T. (1992): Toward a frame-based lexicon: the semantics of risk and its neighbors. In: Lehrer, Adrienne/Kittay, Eva Feder (eds.): Frames, Fields and Contrasts: New Essays in Semantic and Lexical Organization. Hillsdale, NJ, 75⫺102. Finke, Peter (1974): Theoretische Probleme der Kasusgrammatik. Kronberg. Foley, William A./Van Valin, Robert D. (1984): Functional Syntax and Universal Grammar. Cambridge, UK. Fraser, Bruce (1971): A note on the spray pain cases. In: Linguistic Inquiry 2, 604⫺607. Frajzyngier, Zygmunt (1975): Against the universality of spatial source and goal. In: Foundations of Language 13, 359⫺330. Grimshaw, Jane (1979): Complement selection and the lexicon. Linguistic Inquiry 10, 279⫺326. Gruber, Jeffrey (1965): Studies in Lexical Relations. MIT Ph.D. Dissertation.
Huddleston, Rodney D. (1970): Some remarks on case grammar. In: Linguistic Inquiry 1, 501⫺511.
Jackendoff, Ray (1976): Toward an explanatory semantic representation. In: Linguistic Inquiry 7, 89⫺150.
Jackendoff, Ray (1987): The status of thematic relations in linguistic theory. In: Linguistic Inquiry 18, 339⫺411. Jackendoff, Ray (1990): Semantic Structure. Cambridge, Mass. Johnson-Laird, Philip N. (1977): Psycholinguistics without linguistics. In: Sutherland, Norman Stuart (ed.): Tutorial Essays in Psychology, Volume I. Hillsdale, NJ., 75⫺135. Kay, Paul/Fillmore, Charles J. (1999): Grammatical constructions and linguistic generalizations: the What’s X doing Y? construction. In: Language 75, 1⫺33. Lakoff, George (1971): On generative semantics. In: Steinberg, Danny D./Jacobovits, Leon A. (eds.): Semantics: An Interdisciplinary Reader in Philosophy, Linguistics and Psychology. Cambridge, UK., 232⫺292. Lakoff, George (1972): Linguistics and natural logic. In Davidson, Donald/Harmon, Gil (eds.) (1972): Semantics of Natural Language. Dordrecht, 545⫺665. Langacker, Ronald W. (1987): Foundations of Cognitive Grammar, Volume I: Theoretical Prerequisites. Stanford. Langacker, Ronald W. (1991): Foundations of Cognitive Grammar, Volume II: Descriptive Applications. Stanford.
36. Valency and Semantic Roles: the Concept of Deep Structure Case Lee, David A. (1973): Stative and case grammar. In: Foundations of Language 10, 545⫺568. Lehiste, Ilse (1969): ‘Being’ and ‘Having’ in Estonian. In: Foundations of Language 5, 324⫺348. Levin, Beth (1993): English Verb Classes and Alternations: A Preliminary Investigation. Chicago. Levin, Beth/Pinker, Steve (eds.) (1991): Lexical and Conceptual Structures. Cambridge, Mass. Longacre, Robert E. (1976): The Anatomy of Speech Notions. Lisse. Lyons, John (1967): A note on possessive, existential and locative sentences. In: Foundations of Language 3, 390⫺396. Marino, M. (1972): A strong deep case hypothesis. In: Papers in Linguistics 5, 568⫺603. Martinet, Andre´ (1972): Cas ou fonction? a` propos de l’article ‘The case for case’ de Charles J. Fillmore. In: La Linguistique 8, 5⫺24. McCawley, James D. (1970): Semantic representation. In: Garvin, Paul (ed.): Cognition: A Multiple View. New York, 227⫺247. Mellema, Paul (1974): A brief against case grammar. In: Foundations of Language 11, 39⫺76. Minsky, Marvin (1975): A framework for representing knowledge. In: Winston, Patrick (ed.) (1975): The Psychology of Computer Vision. New York, 211⫺277. Minsky, Marvin (1977/1975): Frame-system theory. In: Johnson-Laird, Philip N./Wason, P. C. (1977): Thinking: Readings in Cognitive Science. Cambridge, UK., 355⫺376. Müller, Friedrich (1876⫺87): Grundriss der Sprachwissenschaft. Wien. Newmeyer, Frederick J. (1986): Linguistic Theory in America. 2nd Edition. San Diego. Nie´ger, Monique (1973): La notion de cas dans la the´orie de Fillmore. In: Cahiers de Linguistique 2, 39⫺49. Nilsen, Don N. L. F. (1972): Toward a Semantic Specification of Deep Case. (⫽ Janua Linguarum Series Minor 152). The Hague.
475
Panevova´, Jarmila (1998): Ellipsis and zero elements in the structure of the sentence. In: Tipologija grammatika semantika. St. Petersburg, 67⫺76. Parsons, Terence (1990): Events in the Semantics of English: A Study in Subatomic Semantics. Cambridge, Mass. Platt, John T. (1971): Grammatical Form and Grammatical Meaning: A Tagmemic View of Fillmore’s Deep Structure Case Concepts (⫽ North Holland Linguistics Series 5). Amsterdam. Rappaport Hovav, Malka/Levin, Beth (1998): Building verb meanings. In: Butt, Miriam/Geuder, Wilhelm (eds.): The Projection of Arguments: Lexical and Compositional Factors (⫽ CSLI Lecture Notes 83), 97⫺134. Robinson, Jane J. (1971): Case, category, and configuration. In: Journal of Linguistics 6, 57⫺80. Shopen, Timothy (1973): Ellipsis as grammatical indeterminacy. In: Foundations of Language 10, 65⫺77. Simmons, Robert F. (1973): Semantic networks. Their computation and use for understanding sentences. In: Schank, Roger C./Colby, Kenneth M. (eds.) (1973): Computer Models of Thought and Language. San Francisco, 63⫺113. Somers, Harold L. (1987): Valency and Case in Computational Linguistics. Edinburgh. Starosta, Stanley (1988): The Case for Lexicase: an Outline of Lexicase Grammatical Theory. London. Stockwell, Robert P./Schachter, Paul/Partee, Barbara Hall (1973): The Major Syntactic Structures of English. New York. Tesnie`re, Lucien (1959): E´le´ments de Syntaxe Structurale. Paris. Walmsley, J. B. (1971): The English comitative case and the concept of deep structure. In: Foundations of Language 7, 493⫺507.
Charles Fillmore, Berkeley (California)
37. Valenz und semantische Rollen: das Konzept der Theta-Rollen 1. 2. 3. 4. 5. 6.
Semantische Rollen und Theta-Rollen Linking Denotativ semantische und signifikativ semantische Rollen Semantische Rollen und logischpragmatische Rollen Logisch-pragmatische Rollen und syntaktische Relationen Literatur in Auswahl
1.
Semantische Rollen und Theta-Rollen
Die Valenztheorie ist eine Theorie der sogenannten Prädikat-Argument-Strukturen. Ihre Grundannahme ist, dass Verben (und andere Wortarten) die syntaktischen Strukturen, in denen sie realisiert werden, dadurch prädeter-
476 minieren, dass sie eine bestimmte Zahl und Art von syntaktischen Ergänzungen (Komplementen) verlangen. Die Valenztheorie ist folglich eine lexikalistische Theorie. Der Aufbau syntaktischer Strukturen erfolgt von den einzelnen Lexikoneinträgen aus, das Lexikon nimmt eine zentrale Rolle in dieser Theorie ein. Die Valenztheorie hat damit seit Beginn der 60er Jahre einige Problemstellungen vorweggenommen, die nach der mit Chomsky (1970) eingeleiteten lexikalistischen Wende und seit Chomsky (1981) zu einem wesentlichen Anliegen der Generativen Grammatik (der Government-and-Binding-Theory) geworden sind. Zu dieser seit 1981 ausgearbeiteten, vielfach umgestalteten und mit unterschiedlichen Vorschlägen bedachten Theorie der Prädikat-Argument-Strukturen gehört auch das Konzept der Theta-Rollen. Es kann in diesem Artikel nicht darum gehen, die äußerst vielfältige Entwicklung der generativen Theorie auf diesem Gebiet nachzuzeichnen. Anliegen ist es vielmehr, ein Konzept der semantischen, oder allgemeiner der thematischen Rollen oder Relationen in einem valenztheoretischen Rahmen vorzustellen. Seinen Anfang nahm das Konzept der Theta-Rollen bei Gruber (1965; 1976), Jackendoff (1972) und Fillmore (1968). Auf diese verweist auch Chomsky (1981, 35) bei der Begründung des Begriffs. Der Terminus selbst leitet sich von der zentralen Gruber-Jackendoffschen semantischen Rolle ‘Theme’ her. Ursprünglich, seit Chomsky (1981), war das Konzept der Theta-Rollen eine Teiltheorie der als autonom verstandenen Syntaxkomponente, d. h. es hatte ähnliche Aufgaben wie der Valenzbegriff in einer syntaktisch autonom verstandenen Valenztheorie. X’-Theorie, Theta-Theorie und Kasustheorie verhalten sich zur generativen Gesamttheorie wie die Valenztheorie zur übergreifenden Dependenztheorie. Ein Verb enthält einen thematicgrid oder theta-grid. Damit wird zunächst ausgedrückt, dass jedes Verb die Potenz hat, eine bestimmte Zahl von Rollen an eine bestimmte Zahl von Argumenten zu vergeben. Der thematic grid entspricht also der Valenz. Ein Unterschied besteht darin, dass von Anfang an das Konzept der Rollen, das bei Ausarbeitung des Valenzbegriffs noch nicht vorlag, integriert war. Das Projektionsprinzip und das Theta-Kriterium stellen sicher, wie diese Rollen syntaktisch zu realisieren sind. Das Projektionsprinzip verlangt, dass alle thematischen Rollen auf allen Stufen der syntaktischen Ableitung zu vergeben sind, dass
IV. Valenz. Grundlagen und Grundfragen
also valenztheoretisch ausgedrückt, die Leerstellen zu besetzen sind. Das Theta-Kriterium besagt, dass jede syntaktische Einheit, die als Argument realisiert werden soll, genau eine Theta-Rolle bekommt und dass umgekehrt jede Theta-Rolle eines Verbs nur genau einem Argument zugewiesen wird. Ausgeschlossen werden durch das Projektionsprinzip und das Theta-Kriterium analog zur Valenztheorie Konstruktionen wie (1), (2) und (3) gegenüber (4) und (5), vgl. Haegeman (1994, 52), Roberts (1997, 61) zu analogen Beispielen des Englischen. (1)
*Der Stier beschimpfte
(2)
*Der Stier beschimpfte den Torero den Zuschauer
(3)
*Der Stier beschimpfte den Torero um Gnade
(4)
Der Stier beschimpfte den Torero
(5)
Der Stier bat den Torero um Gnade
Der Ausdruck (1) verletzt das Projektionsprinzip und das Theta-Kriterium, da eine thematische Rolle nicht vergeben wird. (2) verletzt das Theta-Kriterium dadurch, dass eine Rolle zweimal vergeben wird und (3) dadurch, dass hier eine syntaktische Einheit auftritt, der keine Rolle zugewiesen wird. Die semantische Qualität der Rollen braucht man dabei nicht in intensionaler Weise (als Agens, Patiens, Rezipient usw.) zu berücksichtigen. Es reicht, nur extensional das Theta-Kriterium dadurch zu sichern, dass die Rollen als voneinander verschieden vorausgesetzt werden. Das kann geschehen, indem man durch Indizierung unterscheidet: h1, h2, h3. Das kann aber auch dadurch geschehen, dass man eine Theta-Rolle in Bezug auf die syntaktische Position definiert, an der sie zugewiesen wird. So unterscheidet Williams (1981) zwischen externen und internen Argumenten, also in Bezug auf Verben zwischen Argumenten, die ihre Theta-Rolle außerhalb der Verbalphrase, also in der Subjektposition, oder innerhalb der Verbalphrase, also in der Objektposition, zugewiesen bekommen. Marantz (1984) unterscheidet zwischen direkten und indirekten Argumenten, das sind in bezug auf Verben, Argumente, die ihre Rolle vom Verb direkt oder über eine Präposition zugewiesen bekommen, also in der Position des direkten oder des indirekten Objekts. Damit ist in extensionaler Weise auch ein Zuordnungsmechanismus gegeben: Themati-
37. Valenz und semantische Rollen: das Konzept der Theta-Rollen
sche Rollen werden syntaktischen Positionen (syntaktischen Funktionen, Satzgliedern) zugeordnet. Postuliert wird eine feste, kanonische, unmarkierte Zuordnung von thematischer Rolle und syntaktischer Position. Eine bestimmte thematische Rolle hx wird in der Subjektposition zugewiesen, eine andere hy in der Position des direkten Objekts, eine weitere hz in der Position des indirekten Objekts. Nun gibt es aber Konstruktionen, in denen die kanonische und unmarkierte Zuordnung nicht besteht. Zum Beispiel kann man einen Aktiv- und einen Passivsatz als annähernd synonym betrachten. Syntaktisch in einer immer noch vergleichsweise extensionalen Auffassung von semantischen Rollen als denotative Rollen unterscheiden sie sich dadurch, dass die Rolle, die in dem unmarkierten Aktivsatz in der Position des direkten Objekts zugewiesen wird, im Passivsatz nunmehr in der Position des Subjekts realisiert wird. Man kann das in Übereinstimmung mit der traditionellen Grammatik so interpretieren, dass hier durch einen diathetischen Prozess eine Zuordnungsveränderung bewirkt wird. (4)
a. Der Stier beschimpfte den Torero b. Der Torero wurde beschimpft
Das wird vermittelt durch die Kasustheorie, in der abstrakte Kasus, also über ihren möglichen morphologischen Ausdruck hinaus verallgemeinerte Kasus, angenommen werden: Nominativ, Akkusativ und gegebenenfalls Dativ (direkt vom Verb vergeben wie im Deutschen oder indirekt durch Präposition wie im Englischen). Diese Kasus sind ihrerseits syntaktischen Funktionen zugeordnet. Der Nominativ ist der Kasus des Subjekts, der Akkusativ ist der Kasus des direkten Objekts, und der Dativ ist der Kasus des indirekten Objekts. Damit eine potentielle Einheit als Argument realisiert werden kann, muss diese Einheit also nicht nur einer bestimmten Position zugeordnet werden und dort eine thematische Rolle erhalten, sie muss in dieser Position auch einen Kasus erhalten. Nimmt man nun valenztheoretisch gesprochen an, dass es sich beim Passiv um eine Valenzreduktion um eine Stelle handelt, und berücksichtigt man die Tatsache, dass Partizipien II keinen Akkusativ regieren, so muss das Argument, das seine thematische Rolle in der Objektposition erhält, in die Subjektposition verschoben werden, um dort einen Kasus zu erhalten und damit der soeben formulierten dritten Bedingung zu genügen (und nicht dem sogenannten Kasusfilter zu unterliegen). Die Kasusthe-
477
orie vermittelt auf diese Weise den Widerspruch, der u. a. bei Diathesen zwischen thematischer Rolle und syntaktischer Position entsteht. Wir heben den für das folgende wesentlichsten Gesichtspunkt hervor: Es geht bei Theta-Rollen um eine extensionale Betrachtung von semantischen Rollen und in diesem Zusammenhang um die Zuordnung von Theta-Rollen zu syntaktischen Positionen (Relationen).
2.
Linking
2.1. Zuordnung von semantischen Rollen zu syntaktischen Relationen Zunehmend spielen im generativen Paradigma semantische Rollen aber auch in einer intensionalen Weise eine Rolle, indem direkt nach der Zuordnung (Linking) von Form und Bedeutung (Intension) von Rollen gefragt wird. Das geschieht der Tradition seit Fillmore folgend meist als Frage nach der Zuordnung zwischen syntaktischer Relation und semantischer Rolle. Bei dreiwertigen Verben geht es z. B. um die Zuordnung zwischen Subjekt, Indirektem Objekt, Direktem Objekt als bestimmten relationalen Positionen der Phrasenstruktur und semantischen Rollen wie AGENS, BENEFAKTIV und PATIENS (oder THEME). Eine bestimmte semantische Rolle wird als gegeben angenommen, und es wird nach ihrer Zuordnung in der formalsyntaktisch verstandenen Phrasenstruktur des Satzes gefragt. Die Struktur dieser Herangehensweise ist bereits bei Fillmore (1968) vorgeprägt. Er stellt fest, dass einer Phrasenstrukturposition, nämlich dem Subjekt, unterschiedliche semantische Rollen zugeordnet sein können. Dem Subjekt kann die Rolle AGENS zugeordnet sein (6), aber u. a. auch die Rolle EXPERIENCER (7), LOKATIV (8), INSTRUMENT (9) oder PATIENS bzw. THEME (10). (6)
Egon baut ein Haus
(7)
Egon sieht ein Haus
(8)
Chicago ist windig
(9)
Dieser Schlüssel öffnet jede Tür
(10) Jede Tür öffnet sich damit Fillmore versucht (1968) durch eine Regel der Selektion eines „unmarkierten“ Subjekts die Richtung einer Lösung anzudeuten: Wenn es unter den semantischen Rollen eines Verbs
478 die Rolle AGENS gibt, dann wird dieser die syntaktische Position des Subjekts zugeordnet, wenn es einen AGENS nicht gibt, dafür aber eine Rolle INSTRUMENT, dann wird diese dem Subjekt zugeordnet, z. B. (11). Wenn es auch ein INSTRUMENT nicht gibt, wird die Rolle OBJEKTIVE (PATIENS) dem Subjekt zugeordnet, z. B. (12). (11) Der Kran hievte das Auto aufs Dach (12) Die Tür öffnet sich Streng genommen gibt es allerdings die Möglichkeit nicht, ein Instrument unmarkiert zum Subjekt zu machen. Es steht m. E. immer anstelle des unmarkierten Agens. Diese Rollenhierarchie ist in der Folge vielfach ausgebaut und verändert worden, bei Beibehaltung des Grundarrangements, z. B. durch Jackendoff (1972), Dik (1978), Dowty (1991). Oft werden die Rollen wie bei Fillmore (1968) auf syntaktische Positionen bezogen und nicht wie bei Wunderlich (1997) oder Primus (1999) auf formale Markierungen. Das sind morphologische Kasus, Kongruenzphänomene, Wortstellung, Präpositionen, also nicht abstrakte Kasus. Meist wird ferner ein denotatives und nicht ein signifikatives und prototypisches Rollenkonzept zugrunde gelegt, zur Unterscheidung vgl. 2.2. Eine viel zitierte und einflußreiche Ausnahme ist Dowty (1991), der prototypisch bestimmte Rollen ansetzt, sogenannte Protoroles. Ein Konzept signifikativer und prototypisch bestimmter Rollen hat aber bereits Lakoff (1977), vgl. auch Lakoff/Johnson (1980), entwickelt. Auf ihm bauen u. a. Van Oosten (1977; 1986) und Welke (1988) auf. Im allgemeinen wird des weiteren davon ausgegangen, dass die Hierarchie semantischer Rollen unabhängig von einer Hierarchie syntaktischer Positionen oder morphologischer Kasus gegeben ist. Primus (1999) nimmt z. B. generell an, dass es mehr als zwei Hierarchien gibt und dass diese Hierarchien unabhängig voneinander sind. Sie unterscheidet vier Rollentypen: morphologische Kasus, strukturelle Rollen (syntaktische Relationen), semantische Rollen und Thema-Rhema-Struktur. Alle folgen jedoch einem einheitlichen Hierarchy Rule Schema. Es besagt vereinfacht ausgedrückt: Wenn A in der Hierarchie höher als B ist, dann gilt eine Regel, die für A gilt, auch für B. Es gibt aber auch mindestens eine Sprache, in der eine gegebene Regel für A gilt, aber nicht für B. Das entspricht den in der Comrie-Keenanschen Accessibility Hierarchy (Comrie/Kee-
IV. Valenz. Grundlagen und Grundfragen
nan 1977) formulierten Gegebenheiten. Die Accessibility Hierarchy ist aber zunächst nur die Beobachtung eines Zusammenhangs. Sie ist noch keine Erklärung. Schließlich enthält das Zuordnungsproblem zumeist noch folgenden Akzent: Gefragt wird nach den Prinzipien, die bei den einzelnen Verben einer Sprache oder sprachübergreifend bei Verben aller Sprachen die Zuordnung zwischen semantischen Rollen und syntaktischen Positionen im Lexikoneintrag regeln. Das ist ein generativ-semantischer Ansatz. Letzteres wird u. a. gut deutlich am Argument-Selektionsprinzips Dowtys (Dowty 1991, 576). Bezogen auf eine bestimmte Obermenge von AGENS-Merkmalen und eine bestimmte Obermenge von PATIENS-Merkmalen wird dem Argument mit der größten Menge von AGENS-Merkmalen und der geringsten Menge von PATIENS-Merkmalen die Subjekt-Position zugeordnet, und dem Argument mit der größten Menge von PATIENS-Merkmalen und der geringsten Menge von AGENS-Merkmalen wird die Objekt-Position zugeordnet. Das geschieht als ein Prozess der Lexikalisierung im generativ-semantischen Sinne, also als Bildung von Lexikoneinträgen (Verben) aus semantischen Primes. Es heißt jeweils, dass ein Argument bei Vorliegen bestimmter AGENS- oder/und PATIENS-Merkmale „will be lexicalized as the subject“ oder/und „will be lexicalized as the object“. In einem Corollary 1 wird festgelegt, dass bei Vorliegen von annähernd gleich großen Mengen von AGENS- und PATIENS-Merkmalen beider Argumente, jedes oder beide der Subjektposition und der Objektposition zugeordnet sein können. Das trifft insbesondere auf die sogenannten psychischen Verben (und entsprechende verbale Ausdrücke) zu, vgl. Grimshaw (1991), Wegener (1999): (13) a. Der Kater fürchtet den Donner (sich vor dem Donner) b. Der Donner ängstigt den Kater c. Der Kater ängstigt sich vor dem Donner (14) a. Der Kater erschrickt vor dem Donner b. Der Donner erschreckt den Kater Auch Oppositionen von geben- und nehmenVerben (im weitesten Sinne) könnte man durch ein weiteres Corollar, das zwischen Agens und Rezipient vermittelt, interpretieren, vgl.:
37. Valenz und semantische Rollen: das Konzept der Theta-Rollen
(15) a. Emil gibt Egon das Buch b. Egon nimmt/erhält das Buch von Emil (16) a. Emil ruft Egon b. Egon hört Emil In einem Corollary 2 konstatiert Dowty, dass bei dreistelligen Prädikaten, das Nicht-Subjekt-Argument mit den meisten PATIENSMerkmalen der Position des direkten Objekts zugeordnet wird und das Argument mit den wenigsten PATIENS-Merkmalen der Position des präpositionalen oder obliquen Arguments und dass bei annähernd gleicher Verteilung wieder beide Zuordnungen möglich sind. Man kann nun m. E. nicht annehmen, dass die Zuordnung von AGENS- oder PATIENS-Merkmalen zu syntaktischen Positionen stets aktuelle Operationen sind, dass also die Sprecher/Hörer bei der jedesmaligen Verbverwendung die Hierarchien durchrechnen. Diese Zuordnung ist von einem valenztheoretischen Ansatz aus, der genuin ein lexikalistischer ist, im Lexikoneintrag bereits vorgegeben. Sie ist aktuell abwandelbar durch Operationen der Diathese oder Konversion, deren Ergebnisse wiederum ins Lexikon eingehen können (aber nicht müssen). Als Prozess der Zuordnung zu unmarkierten syntaktischen Positionen (Positionen einer Tiefenstruktur) spielen die generativ semantischen Linking-Prinzipien Dowtys (1991) realiter nur eine Rolle in der diachronen Bildung von neuen Verben oder neuen Verbverwendungen, wie sie z. B. Wegener (1999) am Beispiel der Bildung von neuen Verbverwendungen für psychische Vorgänge untersucht, z. B. (17) versus (18). (17) a. Das haut mich um b. Das kotzt mich an (18) a. Der tickt nicht richtig b. Da fahr ich drauf ab 2.2. Formale Kennzeichnung von semantischen Rollen Ein Linking-Problem gibt es jedoch auch als Problem der jedesmaligen aktuellen Zuordnung von Form und Bedeutung von Rollen durch den Sprecher und den Hörer. Gehen wir vom Hörer aus und von dem Fall, dass dieser einen Satz wie (19) vernimmt. (19) Der Stier beleidigt den Torero Der Hörer (und natürlich auch der Sprecher) hat trivialerweise nicht den Satz mit seiner Bedeutung im Lexikon gespeichert. Was er in
479
seinem Lexikon gespeichert haben muss, sind die Wörter (Lexeme) Stier, Torero, beleidigmit entsprechenden semantischen Einträgen STIER, TORERO, BELEIDIG-. Von der Konstruktion der Bedeutungen unbekannter Wörter aus dem Kontext sehen wir hier ab. Zum Lexikoneintrag von BELEIDIG- gehört, dass das Verb zwei Argumente verlangt und dass diese beiden Argumente die semantischen Rollen BELEIDIGER und BELEIDIGTER tragen oder verallgemeinert die semantischen Rollen AGENS und PATIENS (resultierend aus den semantischen Verbmerkmalen DO und CAUSE). Was der Hörer nicht in seinem Lexikon gespeichert haben kann, sind die aktuellen Rollenzuordnungen von BELEIDIGER und BELEIDIGTER (AGENS und PATIENS) zu Stier und Torero. In einem solchen Fall müsste jedes Substantiv entsprechend seiner semantischen Rolle eine eigene idiosynkratische (arbiträre) phonetische Form haben. Das ist trivialerweise ein Ding der Unmöglichkeit. Sätze werden nun nicht gebildet, um grammatisch richtig zu sein, sondern um zum einen als Anweisungen an den Hörer darüber zu dienen, welche Lexikoneintragungen dieser aktivieren soll. Dafür reichte allerdings eine ungeordnete Auflistung von Wörtern. Im uns interessierenden Fall geht es des weiteren um Anweisungen darüber, welches der beiden Substantive die Rolle AGENS und welches die Rolle PATIENS vom Verb zugewiesen erhalten soll, also ob der Satz (19) als (20a) oder als (20b) interpretiert werden soll. (20) a. BELEIDIG (STIERAGENS, TOREROPATIENS) b. BELEIDIG (STIERPATIENS, TOREROAGENS) Offensichtlich wird dieses Linking-Problem auf effektive Weise durch die Kasusmarkierung und gegebenenfalls die Kongruenz und/ oder die Wortstellung und Präpositionen gelöst. Die Form des Artikels der und die Voranstellung von der Stier ist in (19) die Kodierung der Operationsanweisung zur Zuordnung der Rolle AGENS zu STIER, und die Form des Artikels den und die Nachstellung den Torero ist die Kodierung der Operationsanweisung zur Zuordnung der Rolle PATIENS zu TORERO. Den Satzbedeutungen (20a) und (20b) entsprechen die Sätze (19a) und (19b) als Operationsanweisungen. (19) a. Der Stier beleidigt den Torero b. Der Torero beleidigt den Stier
480
IV. Valenz. Grundlagen und Grundfragen
Halten wir fest: Unter dem erläuterten Gesichtspunkt geht es um die jedesmalige Zuordnung von semantischen Rollen zu Wörtern oder Wortgruppen (genauer: zu Wortund Wortgruppenbedeutungen) und Anweisungen ihrer aktuellen Zuordnung durch morphologische und syntaktische Indikatoren dieser Anweisungen wie Kasusformen, Kongruenz, Wortstellung (als aktuelle Reihenfolge der Wörter im Satz) und Präpositionen und weiteren grammatischen Markern in anderen Sprachen. Es geht nicht um die Zuordnung von syntaktischen Positionen (Subjekt, Direktes Objekt, Indirektes Objekt) und semantischen Rollen. Nun ist auch dieser Aspekt des LinkingProblems zwischen semantischen Rollen und konkreten Oberflächenmarkierungen dieser Rollen keineswegs einfacher als der zunächst beschriebene. Was die Definition der einzelnen semantischen Rollen betrifft, besteht das gleiche immer wieder apostrophierte Problem, auf das Dowty (1991, 547) gleich mit dem ersten Satz hinweist: „There is perhaps no concept in modern syntactic and semantic theory which is so often involved in so wide a range of contexts, but on which there is so little agreement as to its nature and definition, as THEMATIC ROLE …“
3.
Denotativ semantische und signifikativ semantische Rollen
Die Rollenhierarchien arbeiten mit Ausnahme von Dowty (1991) meist mit denotativ (22) a. sign:
Emil Agens
b. Emil sign: AGENS denot: AGENS
Man kann denotative Rollen aber auch teilweise linguistisch und damit in einem engeren Sinne verstehen als Rollen in Bezug auf eine vorausgesetzte unmarkierte syntaktische Struktur bzw. auf den dieser unmarkierten Struktur entsprechenden Lexikoneintrag. Wenn Fillmore (1968) in (21b) dem Substantiv door die Rolle OBJECTIVE zuschreibt, dann ist das eine Rolle, die door in diesem Satz vermittelt über die unmarkierte Struktur (21a) erhalten kann, genauer: über den Lexikoneintrag des transitiven Verbs open bzw. der transitiven Variante von open. (21) a. John opened the door b. The door opened Signifikativ semantisch weist open entsprechend seiner Bedeutung als Vorgangsverb in (21b) die Rolle VORGANGSTRÄGER zu. OBJECTIVE ist bei Fillmore (1968) die Papierkorb-Kategorie, also sehr vage bestimmt. Deutlicher wird der Unterschied, wenn wir sagen, dass door in (21b) signifikativ semantisch die Rolle VORGANGSTRÄGER erhält und denotativ semantisch entsprechend der Bedeutung von open in (21a) die Rolle PATIENS oder je nach Interpretation durch den Hörer erhalten kann, wenn dieser meint, dass die Tür durch jemanden geöffnet wird. Denn open ist in (21a) ein Tätigkeits- bzw. Handlungsverb und in (21b) ein Vorgangsverb. Diese Differenz muss sich auf die Rollen übertragen. In analoger Weise sind die Rollen in (22a) und (22b) unterschieden. Daraus folgt, dass signifikative Rollen vage und prototypisch bestimmt sind. Die
schmiert
Farbe PATIENS
auf die
beschmiert
die Wand PATIENS LOKATIV
mit Farbe INSTRUMENT PATIENS
bestimmten Rollen. Denotative Rollen sind zunächst Rollen, die man sich gewonnen denkt entweder an einem Sachverhalt der Realität unmittelbar oder an einer außersprachlichen Konzeptualisierung oder Perzeption des Sachverhalts. Ein weit verbreitetes Missverständnis über Sachverhalte oder außersprachliche Konzeptualisierungen von Sachverhalten ist dabei, dass deren Bestandteile oder Kategorien scharf voneinander unterschieden seien, schärfer als u. U. deren sprachliche (semantische oder syntaktische) Umsetzung.
Wand. LOKATIV
Rolle AGENS kann dann gegebenenfalls solche Rollen wie EXPRERIENCER (23), FORCE (24), INSTRUMENT (25) einschließen. (23) Emil sieht ein Gespenst (24) Der Wind hat die Tür geöffnet (25) Dieser Schlüssel öffnet jede Tür Die Nützlichkeit (Erklärungskraft) eines prototypischen (also signifikativen) Konzepts von semantischen Rollen haben Lakoff (1977) und Dowty (1991) demonstriert. Dowty (1991)
481
37. Valenz und semantische Rollen: das Konzept der Theta-Rollen
entwickelt eine verbesserte Lösung des generativ-semantischen Linking-Problems. Lakoffs Konzept, vgl. Lakoff (1977), Johnson/Lakoff (1980), Lakoff (1987), erlaubt es zu erklären, wie aus Handlungs- bzw. Tätigkeitsverben Vorgangsverben und aus Handlungsverben Tätigkeitsverben entstehen ⫺ nämlich über den metaphorischen Gebrauch von z. B. open in (21b) bzw. sich öffnen in (26) oder allgemein bei reflexiven Verben im Deutschen wie (27)⫺(29), vgl. Welke (1997; 2002). (26) Die Tür öffnete sich (27) Emil beruhigt sich (28) Das Wetter verschlechtert sich (29) Der Minister zeigt sich optimistisch Ein denotatives Rollenkonzept braucht man neben einem signifikativen, wenn man mit Givo´n (1979) die Restriktion der Passivbildung auf den Akkusativ funktional erklären will. Givo´n (1979) spricht von einer recoverability strategy. Diese recoverability strategy besteht darin, die denotative Rolle des Passivsubjekts für den Hörer rekonstruierbar zu halten. In (30) hat die NominativNP die signifikative Rolle VORGANGSTRÄGER. Könnte man im Deutschen auch die DativNP zum Subjekt promovieren, dann wäre nicht klar, ob MANN denotativ (also bezogen auf den Lexikoneintrag des Verbs) die Rolle PATIENS oder die Rolle BENEFAKTIV zukommt. (30) Der Mann wird empfohlen
4.
Semantische Rollen und logischpragmatische Rollen
Auf eine weitere Rollenhierarchie stößt man, wenn man nach dem funktionalen Status der syntaktischen Relationen ‘Subjekt’, ‘Indirektes Objekt’ und ‘Direktes Objekt’ fragt. Im generativen Paradigma werden diese traditionellen Begriffe zunächst autonom syntaktisch definiert. Bezogen auf das X’-Schema und unter der neueren Annahme, dass die originäre Position des Subjekts die SpezifikatorPosition der Verbalphrase ist, sind folgende Definitionen möglich: Subjekt (SU) ⫽ Spezifikator der Verbalphrase, Indirektes Objekt (IO) ⫽ Komplement in V”, Direktes Objekt (DO) ⫽ Komplement in V’.
(31)
VP SU
V” IO
V’ DO
V0
Vielfach wird im generativen Paradigma angenommen, dass die Begriffe, ‘Subjekt’, ‘Indirektes Objekt’ und ‘Direktes Objekt’ nicht funktional definierbar sind, dass es sich vielmehr um autonom syntaktische Bestimmungen handelt, vgl. z. B. Fanselow/Felix (1987,1: 97 ff.). Diejenigen Linguisten allerdings, die nach einem Linking von semantischen Rollen und syntaktischen Relationen fragen, postulieren zwangsläufig eine durch die jeweils angenommene Hierarchie der semantischen Rollen vermittelt funktionale Definition. Nach Dowty (1991) sind ‘Subjekt’, ‘Indirektes Objekt’ und ‘Direktes Objekt’ durch die Protorollen ‘Agens’, ‘Rezipient’ und ‘Patiens’ definiert. Die traditionelle funktionale Definition der Satzglieder ‘Subjekt’, ‘Indirektes Objekt’ und ‘Direktes Objekt’ (bzw. eine mit der traditionellen Definition verträgliche Interpretation) ist jedoch auf einer anderen Ebene angesiedelt. Sie kommt bereits bei den Aristotelischen Bestimmung ‘hypokeimenon’ (das Zugrundegelegte) zum Ausdruck, von Boethius mit ‘subiectum’ übersetzt (Glinz 1947: 17 ff.). Das ist keine semantische Interpretation wie die Interpretation als Agens, sondern eine logisch-pragmatische. Das Subjekt ist dasjenige Argument, das der Prädikation zugrunde gelegt wird oder mit Frege (1971: 53 und 66): „Die Stelle des Subjects in der Wortreihe hat für die Sprache die Bedeutung einer ausgezeichneten Stelle, an die man dasjenige bringt, worauf man die Aufmerksamkeit des Hörers besonders hinlenken will … Das Subject ist in dem Sinne des Sprechenden gewöhnlich das hauptsächliche Argument; das nächst wichtige erscheint oft als Object.“ Den Terminus ‘Objekt’ kann man als semantische Rolle deuten als ‘Gegenstand’ auf den die Handlung zielt, aber auch wiederum logischpragmatisch: ‘dasjenige, das der Sprecher dem der Aussage zugrunde Gelegten gegenüberstellt. Lat. obicio, obieci, obiectum: entgegenwerfen, -setzen, -stellen. Das Analoge trifft auf die traditionellen Bestimmungen ‘Direk-
482 tes Objekt’ und ‘Indirektes Objekt’ zu. Verbreitet ist die Deutung als semantische Rollen. Das Direkte Objekt wird als dasjenige Argument gedeutet, dessen Denotat direkter von der Handlung betroffen ist als das Denotat des Indirekten Objekts. Meist kann es sich jedoch nur um eine subjektive Gewichtung (Auszeichnung im Sinne Freges) handeln. Das Direkte Objekt wird direkt dem Subjekt gegenübergestellt. Die Aufmerksamkeit geht vom Subjekt auf das Direkte Objekt über, und vergleichsweise am Rande spielt als Drittes noch das vom Indirekten Argument Denotierte in der Aufmerksamkeitsverteilung, nicht in der Tat selbst, eine Rolle. Warum sollte in (32) der Apfel stärker von der Handlung betroffen sein als Schneewittchen. Solche Beispiele ließen sich beliebig vermehren, vgl. (33), (34). (32) Die böse Stiefmutter gab Schneewittchen den vergifteten Apfel (33) Man schlug ihm den Kopf ab (34) Er sagte ihm die Wahrheit Eher ist das Dativobjekt semantisch als indirekter Agens interpretierbar, und das ist nichts anderes als Rezipient, Experiencer (oder dessen Negation bei z. B. wegnehmen) im Unterschied zum Subjekt als dem direkten Agens, d. h. demjenigen Argument, dessen Denotat signifikativ semantisch als primär verantwortlich für die Handlung dargestellt wird. Wir nennen diese weitere Rollenhierarchie logisch-pragmatisch, weil es sich um abstrakte Positionen handelt, die man auch mit den extensionalen Theta-Rollen hx, hy, hz, identifizieren kann. Diese werden in eine Reihenfolge h1, h2, h3 gebracht, die wir pragmatisch nennen, weil sie einer subjektiven (nicht individuellen) Aufmerksamkeitsverlagerung entspricht. In der formalen Logik spricht man von einem 1., 2., 3. Argument. Das bezieht sich auf abstrakte logische Positionen. Eine pragmatische Auslegung ist damit nicht intendiert, auch wenn sie durch die Zahlenfolge nahegelegt wird. In der Universal Grammar finden sich die Termini ‘Topic’, ‘Second Topic’ und ‘Focus’. Eine logisch-pragmatische Rollenverteilung stellt sich für den beobachtenden Sprachwissenschaftler oft wie von selbst und unreflektiert her, was als Indiz für ihren elementaren Status genommen werden kann. Zum Beispiel treten bei Bresnan (1983) die Ausdrücke „arg 1“, „arg 2“ und „arg 3“ auf,
IV. Valenz. Grundlagen und Grundfragen
denen semantische Rollen zugeordnet werden. Es wird nicht gesagt, wie es dazu kommt und was die Abzählung bedeutet. In der Abhängigkeits- und Valenzgrammatik gibt es die Frontstellung gegen die aristotelische Subjekt-Prädikat-Dichotomie. Der Satz gilt grundsätzlich als nicht zweigliedrig. Weil man annimmt, dass die Sonderstellung des Subjekts gegenüber den anderen Argumenten aus der Annahme der Zweigliedrigkeit folgt, wird auch die Sonderstellung des Subjekt als primus inter pares nicht anerkannt. Es gibt im Widerspruch dazu aber auch die Redeweise von einer 1., 2., 3. Ergänzung. Tesnie`re (1980, 94 ff., 1965, 103 ff.) wendet sich im Kapitel „Subjekt und Prädikat“ gegen die traditionelle Grammatik, die von logischen Erwägungen ausgehe und im Satz den logischen Gegensatz von Subjekt und Prädikat wiederfinden möchte. In keiner Sprache gebe es irgendwelche wirklich linguistischen Fakten für diese Gliederung. Andererseits setzt er (1980, 99, 1965, 107 f.) voraus, dass es einen 1., 2., 3. Aktanten gibt: „Bei den Verben mit drei Aktanten sind der erste und der dritte Aktant im allgemeinen Personen, der zweite meist ein Ding … Wir unterscheiden die Aktanten mit Hilfe von Ordnungszahlen und sprechen vom ersten, zweiten und dritten Aktanten.“ Die Zuordnungen, die Tesnie`re vornimmt, sind unschwer zu rekonstruieren: Subjekt ⫽ 1. Aktant, Direktes Objekt ⫽ 2. Aktant. Helbig/Schenkel (1971: 16) kritisieren einerseits Erben (1960), da dieser die Gleichwertigkeit der Ergänzungen durch die Abzählung und dadurch, dass das Subjekt bei ihm 1. Ergänzung ist, in Frage stelle, und zwar gegen die eigene Ankündigung, er wolle die Zahlenfolge nicht hierarchisch verstehen (Erben 1960, 165). Andererseits präsentieren die Wörterbucheinträge bei Helbig/Schenkel die Ergänzungen ebenfalls in einer bestimmten Reihenfolge (Sn ⫽ Substantiv im Nominativ, Sa ⫽ im Akkusativ, Sd ⫽ im Dativ), z. B.: (35) beantworten: Sn, Sa, (Sd) Die Reihenfolge Sa⫺Sd steht im Widerspruch zur unmarkierten Wortfolge im Satz und ist interpretierbar als intuitiver Reflex einer logisch-pragmatischen Reihenfolge. Helbig (Helbig/Schenkel 1971, 26) spricht von unterschiedlicher „Bindungsfestigkeit der einzelnen Kasus an das Verb“ und nimmt damit eine formalsyntaktische Motivation der Abfolge an.
37. Valenz und semantische Rollen: das Konzept der Theta-Rollen
5.
Logisch-pragmatische Rollen und syntaktische Relationen
Im Umkehrschluss gilt nunmehr, dass die syntaktischen Relationen ‘Subjekt’; ‘Indirektes Objekt’ und ‘Direktes Objekt’ Folgen der logisch-pragmatischen Rollen sind. Diese Folgen sind gewisse Unterschiede im syntaktischen Verhalten, die an die einzelnen Positionen gebunden sind (Wortfolge, Zugänglichkeit zu syntaktischen Operationen). Diese Folgen sind möglich, aber nicht notwendig, vgl. die Unterscheidung von konfigurationalen Sprachen und nicht konfigurationalen Sprachen.
6.
Literatur in Auswahl
Bresnan, Joan (1982): The Passive in Lexical Theory. In: Bresnan, Joan (ed.): The Mental Representation of Grammatical Relations. Cambridge/ London, 3⫺86. Chomsky, Noam (1970): Remarks on Nominalization. In: Jacobs Roderick A./Rosenbaum Peter S. (eds.): Readings in English Transformational Grammar. Waltham, Mass, 184⫺221. Chomsky, Noam (1972): Studies on Semantics in Generative Grammar. The Hague. Chomsky, Noam (1981): Lectures on Government and Binding. Dordrecht. Givo´n, Talmy (1979): On Understanding Grammar. New York/San Francisco/London. Grimshaw, Jane (1990): Argument Structure. Cambridge/London. Gruber, Jeffrey S. (1965): Studies in Lexical Relations. Dissertation (veröffentlicht als Teil von Gruber 1976). Gruber, Jeffrey S. (1976): Lexical Structures in Syntax and Semantics. Amsterdam. Dik, Simon C. (1978): Functional Grammar. Amsterdam/New York/Oxford. Dowty, David (1991): Thematic Proto-Roles and Argument Selection. In: Language 67, 547⫺619. Erben, Johannes (1960): Abriss der deutschen Grammatik. Berlin (3. Aufl.). Fanselow, Gisbert/Felix, Sascha W. (1987): Sprachtheorie. Eine Einführung in die Generative Grammatik. 2 Bde. Tübingen. Fillmore, Charles J. (1968): The Case for Case. In: Bach, Emmon/Harms, Robert T. (eds.): Universals in Linguistic Theory. New York 1968, 1⫺90. Frege, Gottlob (1971): Begriffsschrift, eine der arithmetischen nachgebildete Formelsprache des reinen Denkens. In: Berka, Karel/Kreiser, Lothar
483
(Hgg.): Logik-Texte. Berlin, 48⫺106 (Erstveröffentlicht: Halle (Saale) 1879). Glinz, Hans (1947): Geschichte und Kritik der Lehre von den Satzgliedern in der deutschen Grammatik. Bern. Haegeman, Liliane (1994): Introduction to Government & Binding Theory. Oxford (2. Aufl.). Helbig, Gerhard/Schenkel, Wolfgang (1971): Wörterbuch zur Valenz und Distribution deutscher Verben. Leipzig (2. Aufl.). Jackendoff, Ray (1972): Semantic Interpretation in Generative Grammar. Cambridge/London. Keenan, Edward L./Comrie, Bernhard (1977): Noun phrase accessibility and universal grammar. In: Linguistic Inquiry 8, 63⫺99 (Zuerst 1972: Paper presented at the 47th Annual meeting of the LSA, Atlanta, Ga., Dec. 27⫺29). Lakoff, George (1977): Linguistic Gestalts. In: Papers from the 13th regional meeting Chicago Linguistic Society. Chicago, 236⫺287. Lakoff, George (1987): Women, Fire, and Dangerous Things. What Categories Reveal about the Mind. Chicago/London. Lakoff, George/Johnson, Mark (1980): Metaphors We Live By. Chicago/London. Marantz, Alec (1984): On the Nature of Grammatical Relations. Cambridge. Primus, Beatrice (1999): Cases and Thematic Roles. Ergative, Accusative and Active. Tübingen. Roberts, Ian (1997): Comparative Syntax. London. Tesnie`re, Lucien (1980): Grundzüge der strukturalen Syntax. Hg. und übersetzt von Ulrich Engel. Stuttgart (franz. E´le´ments de syntaxe structurale. 2. Aufl. 1965. (1. Aufl. 1959)). Van Oosten, Jeanne (1977): Subjects and Agenthood in English. In: Papers from the 13th Regional Meeting of the Chicago Linguistic Society. Chicago, 459⫺471. Van Oosten, Jeanne (1986): The Nature of Subjects, Topics and Agents: A Cognitive Explanation. Bloomington. Wegener, Heide (1999): Zum Bedeutungs- und Konstruktionswandel bei psychischen Verben. In: Wegener, Heide (Hg.): Deutsch kontrastiv: typologisch-vergleichende Untersuchungen zur deutschen Grammatik. Tübingen 171⫺210. Welke, Klaus (1988): Einführung in die Valenz- und Kasustheorie. Leipzig. Welke, Klaus (1997): Eine funktionalgrammatische Betrachtung zum Reflexivum: Das Reflexivum als Metapher. In: Deutsche Sprache 25, 209⫺231. Welke, Klaus (2001): Was heißt 1., 2. 3. Argument? In: Thielemann, Werner/Welke, Klaus (Hgg.): Valenztheorie: Einsichten und Ausblicke. Münster, 169⫺190.
484
IV. Valenz. Grundlagen und Grundfragen
Welke, Klaus (2002): Deutsche Syntax ⫺ funktional. Perspektiviertheit syntaktischer Strukturen. Tübingen. Williams, Edwin (1981): Argument Structure and Morphology. In: Linguistic Review 1, 81⫺114.
Wunderlich, Dieter (1997): Cause and the Structure of Verbs. In: Linguistic Inquiry 28, 27⫺68.
Klaus Welke, Berlin (Deutschland)
38. Valenz und Satzbauplan 1. 2. 3. 4. 5. 6.
Einleitung Nicht-verbregierte Ergänzungen und Valenzerhöhung Eine Alternative zu den Satzbauplänen Schlussfolgerungen und Aussichten Literatur in Auswahl Quellen
1.
Einleitung
Im Vorwort zum Kleinen Valenzlexikon deutscher Verben von Ulrich Engel und Helmut Schumacher wird der Begriff Satzbauplan auf folgende Weise definiert: „Durch die Valenz jedes Verbs ist festgelegt, welche Ergänzungen in seiner Umgebung vorkommen können. Es ist nur eine überschaubare Anzahl solcher Kombinationen möglich. Diese Kombinationen nennen wir Satzmuster (SM).“ (Engel/Schumacher 1976, 27) „Differenziert man nun die Satzmuster weiter, indem man die fakultativen Elemente eigens kennzeichnet, so ergeben sich Satzbaupläne (SBP). Die Zahl der Satzbaupläne ist natürlich erheblich größer als die der Satzmuster; sie bleibt aber immer noch überschaubar.“ (Engel/Schumacher 1976, 29)
Im Großen und Ganzen stimmt diese Definition mit derjenigen überein, die man in der letzten Ausgabe der Duden-Grammatik findet: „Man kann hinter der grundsätzlich unendlich großen Zahl konkreter deutscher Sätze eine endliche und überschaubare Anzahl von abstrakten Plänen sehen, Satzbaupläne. […] Zentral für die Begründung von Satzbauplänen ist der Begriff der Valenz (Wertigkeit). Bezogen auf das Verb, meint er dessen Fähigkeit, um sich herum bestimmte Stellen zu eröffnen, die in einem Satz durch Satzglieder zu besetzen sind. […] Vom Verb hängt zunächst ab, wie viele Stellen im Satz noch (i. e. außer der Subjektstelle) besetzt sein müssen oder können (quantitativer Aspekt); darüber hinaus entscheidet sich vom Verb her auch, wie diese Stellen inhaltlich charakterisiert sein müssen (qualitativer Aspekt). Jedes Verb hat also eine spezifische Ergänzungsbedürftigkeit. Auskünfte darüber finden sich in Valenzwörterbüchern. In der Syntax hingegen werden
global Baupläne aufgestellt, denen sich die einzelnen Verben mit den von ihnen aufgerufenen Stellen zuordnen.“ (Drosdowski et alii 1995, 650 f.)
Zur Klassifizierung der Satzbaupläne werden in den Gebrauchsgrammatiken mehrere Kriterien angewandt. Zunächst werden die Verben nach ihrer „Wertigkeit“ geordnet, d. h. nach der Zahl der Ergänzungen (oder Aktanten), die sie zulassen. So unterscheidet man nullwertige ⫺ es blitzt ⫺ (Helbig/Buscha 1972, 554), einwertige ⫺ der Professor schläft / mich hungert ⫺, zweiwertige ⫺ Hans raucht eine Zigarre / schmeichelt dem Chef / bedarf der Ruhe / liest über Goethe ⫺ dreiwertige Verben ⫺ er lehrt die Studenten die Grammatik / gibt dem Sohn ein Buch / enthebt den Minister seines Amtes / beneidet seinen Freund um seinen Sportwagen ⫺, manchmal sogar vierwertige Verben ⫺ Freunde antworteten ihm auf seine Anfrage mit einer Einladung (vgl. Erben 1972, 263). Dieses Verfahren ergibt aber keine Satzbaupläne, sondern ⫺ um mit den Autoren des Kleinen Valenzlexikons deutscher Verben zu sprechen ⫺ „Satzmuster“. Um Satzbaupläne oder Satzmodelle zu gewinnen, muss man deshalb weitere Kriterien zu Hilfe nehmen. Dem Vorschlag von Ulrich Engel und Helmut Schumacher zufolge kann man z. B. die fakultativen Ergänzungen eigens kennzeichnen. Man kann aber auch die Aktanten nach ihrer syntaktischen Funktion (Subjekt, Akkusativobjekt, Dativobjekt, usw.) unterscheiden: Mit Hilfe dieses Prinzips werden in der Duden-Grammatik dreiundzwanzig „Hauptpläne“ aufgestellt, nämlich ein Satzbauplan mit einem Aktanten ⫺ Subjekt ⫹ Prädikat (Die Rosen blühen) ⫺ neun Satzbaupläne mit zwei Aktanten ⫺ Subjekt ⫹ Prädikat ⫹ Akkusativobjekt (Der Gärtner bindet die Blumen), Subjekt ⫹ Prädikat ⫹ Dativobjekt (Der Sohn dankte dem Vater), Subjekt ⫹ Prädikat ⫹ Genitivobjekt (Die Angehörigen gedachten der Toten), usw. ⫺ und dreizehn Satzbaupläne mit drei Aktanten ⫺ Subjekt ⫹ Prädikat ⫹ Dativob-
485
38. Valenz und Satzbauplan
jekt ⫹ Akkusativobjekt (Der Junge schenkt seiner Mutter Blumen), Subjekt ⫹ Prädikat ⫹ Akkusativobjekt ⫹ Genitivobjekt (Der Richter beschuldigt den Angeklagten des Diebstahls), usw. (Drosdowski et alii 1995, 655 ff.). Die Fakultativität bzw. Obligatheit der Ergänzungen wird aber nicht berücksichtigt. In der Grammatik von Gerhard Helbig und Joachim Buscha (1972, 554 ff.) hingegen werden zwei Kriterien ⫺ das quantitative Kriterium (i. e. die Zahl der Aktanten) und das Kriterium der Obligatheit bzw. Fakultativität der Aktanten ⫺ gleichzeitig verwendet, um eine Liste von zehn „Satzmodellen“ (oder Satzbauplänen) aufzustellen. Diese Liste enthält z. B. zwei Satzmodelle mit zwei Aktanten, und zwar eines mit einem obligatorischen und einem fakultativen Aktanten (Die Mutter kauft Milch ein / Die Mutter kauft ein) und ein anderes mit zwei obligatorischen Aktanten (Der Direktor erwartet seine Gäste / *Der Direktor erwartet). Erst danach wird die syntaktische Funktion der Ergänzungen zu Hilfe genommen, um eine genauere Klassifizierung zu erzielen: So wird das Satzmodell mit einem obligatorischen und einem fakultativen Aktanten in zwölf Untertypen gegliedert: Die Mutter kauft (Milch) ein, das Kind folgt (seiner Mutter), der Arzt steigt (in die Straßenbahn) ein, die Schneiderin arbeitet (an einem Kleid), usw. Solchen Klassifizierungen liegen folgende Annahmen zugrunde: 1. Satzbaupläne sind nicht mit Satzstrukturen zu verwechseln. Ein Satzbauplan ist ein Konstrukt, in dem nur ein Teil der Merkmale von Satzstrukturen aufgehoben ist (Eisenberg 1986, 81). Er enthält nämlich nur Ergänzungen, d. h. Satzglieder, deren syntaktischer Status (Subjekt, Akkusativobjekt, usw.) und semantische Eigenschaften vom Verb bestimmt sind, während Angaben (oder freie Satzglieder) und sogenannte sekundäre Satzglieder (Helbig 1978a, 94 ff.) nicht berücksichtigt werden. 2. An einem Satzbauplan (gegebenenfalls an einem Bündel von Satzbauplänen) lassen sich die syntaktischen und semantischen Eigenschaften des Verbs ablesen, und das Verb wiederum bestimmt, wie viele Stellen der Satzbauplan enthalten muss (oder kann) und wie diese Stellen zu besetzen sind. Verbvalenz und Satzbauplan sind demnach als die zwei untrennbaren Seiten ein und desselben Phänomens anzusehen: „Lexikon-Eintragungen für Verben […] und Satzmodelle“, schreibt
Gerhard Helbig (1992, 126), „sind letztlich nichts Verschiedenes, sondern unterschiedliche Aspekte derselben Sache“. Nun ist eben letztere These problematisch. Dass man Auskünfte über die Ergänzungsbedürftigkeit der Verben in Valenzwörterbüchern finden sollte, während die Satzbaupläne als solche im syntaktischen Teil einer Grammatik zu behandeln sind, ist zwar nicht zu bestreiten. Da ein Satzbauplan aber nichts anderes ist als die Entfaltung eines im Verb enthaltenen Potentials, müsste man mit Hilfe eines Valenzwörterbuchs eine vollständige Liste der Satzbaupläne aufstellen können. Mit anderen Worten: Die im syntaktischen Teil einer Grammatik aufgelisteten Satzbaupläne müssten, in welcher Form auch immer, in einem Valenzlexikon schon enthalten sein. Dem ist aber anscheinend nicht so. Davon zeugen z. B. die sogenannten kausativen Konstruktionen. Herbert Pütz (1982, 349) diskutiert folgendes Beispiel: (1)
Susanne isst den Teller leer.
und bemerkt, dass die Besonderheit dieses Satzes darin besteht, „dass essen zwar ein transitives Verb ist und Teller als Objekt keinen Selektionsbruch darstellt, dass es aber nicht der Fall ist, dass Susanne den Teller isst.“ Nun stellt (1) offenbar die konkrete Realisierung eines syntaktischen Modells dar, das man wohl als einen Satzbauplan bezeichnen darf, und wenn die Verben, die in diesem Satzbauplan vorkommen können, auch bestimmten syntaktisch-semantischen Bedingungen unterliegen (vgl. 2.1.3.2 und 3.3), so kann man sie wahrscheinlich doch nicht vollständig auflisten. Dass man unter weinen in einem Valenzlexikon nach einem Satz wie Das unglückliche Mädchen weinte ihr Kissen nass vergeblich suchen würde, versteht sich von selbst, und daran ist auch nichts zu beanstanden. Aber wenigstens die Möglichkeit, mit weinen einen solchen Satz bilden zu können, müsste im Lexikoneintrag angedeutet sein. Dort müsste also darauf hingewiesen werden, dass weinen in einem Satzbauplan des Typs ‘Subjekt ⫹ Verb ⫹ Akkusativobjekt ⫹ Adjektiv’ vorkommen kann, in welchem das Adjektiv das Ergebnis der durch die vom Verb beschriebene Tätigkeit ausdrückt. Aber hieße das nicht die These aufgeben, dass ein Satzbauplan die Verwirklichung eines im Verb enthaltenen Programms ist? Ebenfalls mit Schwierigkeiten verbunden ist im Rahmen der Valenztheorie die Behand-
486
IV. Valenz. Grundlagen und Grundfragen
lung des sogenannten Pertinenzdativs, der z. B. im folgenden Satz vorliegt: (2)
Ich klopfe meinem Freund auf die Schulter.
In Bezug auf die Valenz des Verbs klopfen kann die Nominalgruppe im Dativ schwerlich als eine Ergänzung definiert werden. Von der Verbvalenz wird nur das Vorhandensein einer direktionalen Präpositionalgruppe (Ich klopfe an die Tür) erfordert, und das Auftreten einer Nominalgruppe im Dativ ist nur dann möglich, wenn die mit der Präposition verbundene Nominalgruppe einen Körperteil bezeichnet. In der Duden-Grammatik wird die Konstituente meinem Freund als „zweitabhängig“ gekennzeichnet und die Zweitabhängigkeit folgendermaßen definiert: „Die Zweitabhängigkeit entsteht dadurch, dass an der Stelle einer Ergänzung ein Wort steht, das seinerseits eine Stelle eröffnet, also ebenfalls eine Valenz hat.“ (Drosdowski et alii 1995, 653)
Dass in: (3)
Der Laborant war mit den Ergebnissen zufrieden.
mit den Ergebnissen und zufrieden zusammengehören, liegt auf der Hand. Aber dass auch meinem Freund und auf die Schulter zusammen eine syntaktische Einheit, einen „Ergänzungsverband“, bilden, ist höchst fraglich. Während mit den Ergebnissen zufrieden als Attribut in einer Nominalgruppe (Der mit den Ergebnissen zufriedene Laborant) fungieren oder das Vorfeld in einem Aussagesatz besetzen kann (Mit den Ergebnissen zufrieden war der Laborant diesmal nicht), kann die Folge meinem Freund ⫹ auf die Schulter offensichtlich nicht als ein Satzglied aufgefasst werden (*Meinem Freund auf die Schulter habe ich geklopft). Im Rahmen der herkömmlichen Valenzund Satzbauplantheorie sind das Akkusativobjekt der kausativen Konstruktionen und der Pertinenzdativ offensichtlich schwer zu erklären. In Das Mädchen weinte ihr Kissen nass ist die Nominalgruppe ihr Kissen, da sie obligatorisch ist (*Das Mädchen weinte nass), als eine echte Ergänzung anzusehen, und doch ist ihr Vorhandensein nicht von weinen allein bedingt. Das trifft ebenfalls auf die Gruppe dem Freund in Er klopfte dem Freund auf die Schulter zu, die nicht ohne weiteres weggelassen werden kann (? Er klopfte auf die Schulter), deren Kasus aber nicht von klopfen
bestimmt ist. Selbstverständlich sind den Forschern diese Schwierigkeiten nicht entgangen, und es sind verschiedene Lösungen vorgeschlagen worden, auf die im Folgenden näher eingegangen werden soll.
2.
Nicht-verbregierte Ergänzungen und Valenzerhöhung
2.1. Die kausativen Konstruktionen 2.1.1. Die Darstellung der kausativen Konstruktionen in den Gebrauchsgrammatiken In den Gebrauchsgrammatiken werden die kausativen Konstruktionen nicht oder nur nebenbei behandelt. In seiner Grammatik erwähnt sie Johannes Erben in einem Kapitel über die Syntax des Adjektivs: „Zuweilen wirkt das charakterisierende Beiwort nicht nur perfektivierend […], sondern auch transitivierend, den Bezug zu einem Objekt herstellend: (sich) die Füße wund laufen, die Augen rot weinen; sich krank lachen (J laufen, dass seine Füße wund sind usw.)“ (Erben 1972, 176)
Die Behauptung, das Beiwort wirke „transitivierend“, ist irreführend, denn sie legt den Gedanken nahe, dass z. B. in der Wendung sich die Augen rot weinen das Verb weinen unter dem Einfluß des Beiworts rot transitiv wird. Wenn aber das Verb nur in Verbindung mit dem ihm beigefügten Adjektiv ein Akkusativobjekt zu sich nehmen kann (*er weint sich die Augen), dann kommt offensichtlich nicht dem Verb allein die Transitivität zu. Diese Feststellung verträgt sich aber schlecht mit der Annahme, dass die Zahl der Stellen, die in einem Satz besetzt werden müssen oder können, direkt vom Verb abhängt. In der Duden-Grammatik werden die Fügungen ‘Adjektiv ⫹ Verb’ in dem Kapitel über die Wortbildung erwähnt: „[Die Verbverbindungen mit Adjektiven] haben in den letzten hundert Jahren zugenommen. Sie werden im Satz […] als trennbare lexikalische Einheiten behandelt. Die Beziehung, die zwischen Adjektiv und Verb besteht, richtet sich nach ihrer Bedeutung. Bei Zustandsverben bildet sich Typ 1 heraus, bei Handlungsverben Typ 3: 1. stillsitzen, übrigbleiben, jemandem nahe-, näherstehen usw. Das Vorderglied steht hier zum Grundwort in dem gleichen Verhältnis wie ein subjektbezogenes Satzadjektiv zum Prädikat sein […] Diese Bildungen sind selten. 2. blindschreiben, falschspielen, schieflaufen usw.
487
38. Valenz und Satzbauplan Hier bestimmt das Erstglied das Grundverb nach Art eines Adverbs. Auch Verbindungen dieses Typs kommen nur vereinzelt vor. 3. blankbohnern, breittreten, festdrehen, […] Diese Verbindungen sind die häufigsten. Das Erstglied verhält sich zum Grundwort wie ein objektbezogenes Satzadjektiv zum verbalen Prädikat. Das Adjektiv gibt den Zustand an, der durch die verbal bezeichnete Tätigkeit entsteht (Ersatzprobe mit etw. machen; vgl. fertigstellen und etw. fertig machen).“ (Drosdowski 1995, 436 f.)
Auf der einen Seite wird unter 3. die Bedeutung dieser Verbindungen sehr deutlich erklärt, auf der anderen Seite aber wird auf das damit verbundene syntaktische Problem überhaupt nicht eingegangen. Auch wird nicht darauf hingewiesen, dass der hier beschriebene Konstruktionstyp produktiv ist und dass in diesen transitiven Verbindungen auch intransitive Verben (totschweigen) vorkommen können. Mit anderen Worten: Die mit diesen Konstruktionen verbundenen theoretischen Schwierigkeiten werden einfach mit Stillschweigen übergangen (vgl. auch Brinkmann 1962, 249 ff.; Eisenberg 1986, 213 f.). 2.1.2. Klassifizierung der kausativen Konstruktionen In seinen Untersuchungen zu Satzbauplan und Wortfeld erwähnt Bernhard Engelen zwei Satzbaupläne mit kausativer Bedeutung:
Komplimente den unerwünschten Gast dazu gebracht hat, sich zu verabschieden. Doch bezeichnet er in beiden Fällen die Struktur als „inhaltsdeterminierend“, was den Gedanken nahe legt, dass Satzbaupläne und Verbvalenz vielleicht doch nicht „unterschiedliche Aspekte derselben Sache“ sind. Zu Bernhard Engelens Darstellung ist außerdem Folgendes zu bemerken: 1. Während er hat die Kirche leergepredigt durch er hat gepredigt, so dass die Kirche leer wurde paraphrasiert werden kann, lässt der Satz er klatschte die Unterlagen auf den Tisch eine ähnliche Paraphrase nicht zu und gehört einem anderen Typ an: Der Vorgang wird hier vom Präpositionalgefüge auf den Tisch ausgedrückt, während das Verb klatschen einen Umstand dieses Vorgangs beschreibt. 2. Obwohl in der Struktur (4) das Adjektiv nicht weglassbar ist (*Er hat die Kirche gepredigt), ist die Bezeichnung „(Art)ergänzung“ nicht ganz gerechtfertigt, denn das Vorhandensein des Adjektivs ist nicht von der Verbvalenz bedingt. 3. In der zweiten Struktur muss das Subjekt nicht unbedingt ein belebtes Wesen bezeichnen:
Belebtes Subjekt ⫹ Verb ⫹ Akkusativobjekt ⫹ Direktionale (Engelen 1975, 231)
Da polterten draußen Schritte. Die Tür wurde aufgerissen. Der Wind blies den Doktor ins Zimmer. (Martin, Hansjörg, Bei Westwind hört man keinen Schuss, 38) Die anderen […] sehen sich die Fußballweltmeisterschaft an, egal, ob sich die Automaten, wenn sie Störung haben, die Seele aus dem Leib klingeln. (Wolf, Christa, Kindheitsmuster, 253)
Dem ersten ordnet er Sätze wie er hat die Kirche leergepredigt, dem zweiten Sätze wie man hat ihn hinauskomplimentiert, er klatschte die Unterlage auf den Tisch zu. Er weist darauf hin, dass in Satzbauplan (4) das Verb angibt, „durch welche Aktion der Referent des Akkusativobjekts in den in der Artergänzung genannten Zustand überführt wird“ (Engelen 1975, 296), geht aber auf die Semantik von Satzbauplan (5) nicht näher ein. Auch weist er nicht ausdrücklich auf die Verwandtschaft beider Satzbaupläne hin, obwohl diese unverkennbar ist: Der Satz Er hat die Kirche leergepredigt bedeutet, dass der durch predigen bezeichnete Vorgang zur Folge hatte, dass die Kirche leer wurde, und Man hat ihn hinauskomplimentiert bedeutet, dass man durch
4. Was die Bezeichnung „Direktionale“ betrifft, so ist sie nicht sehr glücklich gewählt, denn hielte man an ihr fest, so müsste man z. B. den Sätzen Sie sang das Kind in den Schlaf und Er schellte den Wächter aus dem Bett zwei unterschiedliche Satzbaupläne zuordnen, obwohl sie dieselbe syntaktische Struktur (Subjekt ⫹ Verb ⫹ Akkusativobjekt ⫹ Präpositionalgefüge) aufweisen und semantisch ähnlich sind, da in beiden Fällen das Präpositionalgefüge das Ergebnis der vom Verb ausgedrückten Tätigkeit beschreibt. Deshalb ist es ratsam, die dem Grundverb beigefügten Konstituenten nach ihrer kategorialen Zugehörigkeit ⫺ „Adjektiv“, „Partikel“ und „Präpositionalgefüge“ ⫺ zu differenzieren.
(4)
(5)
Subjekt ⫹ (nichtexistimatorisches) Verb ⫹ Akkusativobjekt ⫹ Artergänzung (Engelen 1975, 296)
(6)
(7)
488
IV. Valenz. Grundlagen und Grundfragen
So ergeben sich zunächst drei Grundtypen: Typ 1: Adjektiv ⫹ Verb
Darüber hinaus sind die Fälle zu berücksichtigen, wo die Objektstelle durch ein Reflexivpronomen besetzt werden muss:
(8)
Er hat die Kirche leergepredigt.
(23) Ich lachte mich/*ihn krumm. (Typ 1)
(9)
Das Mädchen weinte ihr Kissen nass.
(24) Er arbeitete sich/*ihn empor. (Typ 2)
Typ 2: Partikel ⫹ Verb (10) Man hat ihn hinauskomplimentiert. (11) Ich habe Geld genug zusammendirigiert. (Aussage eines erfolgreichen Dirigenten) Typ 3: Präpositionalgefüge ⫹ Verb (12) Wir läuteten ihn aus dem Schlaf. (13) Der Brunnen plätscherte ihn in den Schlaf. Ferner sind bei transitivem Grundverb zwei Sorten von Konstruktionen zu unterscheiden, nämlich solche, in denen die dem Verb beigefügte Konstituente weglassbar ist (Er ohrfeigte sie aus dem Zimmer / Er ohrfeigte sie) und solche, in denen das Weglassen dieser Konstituente eine Selektionsbeschränkung verletzt (Susanne aß den Teller leer / *Susanne aß den Teller). So lässt sich jeder der oben aufgezählten Grundtypen in drei Untertypen einteilen: (14) Das Mädchen weinte ihr Kissen nass / *Das Mädchen weinte ihr Kissen. (⫽ Typ 1a)
(25) Er boxte sich/*ihn durch die Menge. (Typ 3) Schließlich ist zu erwähnen, dass, wenn das Akkusativobjekt oder die in der Präpositionalgruppe enthaltene Nominalgruppe einen Körperteil bezeichnet, die Konstruktion um einen Pertinenzdativ erweitert wird ⫺ Dass du ihm eine so unerträgliche Plage an den Hals schwatzen willst (Lenau, zitiert bei Paul 1919, 234) ⫺, der bei bestimmten Verben als Reflexivpronomen realisiert werden muss (Ich trampelte mir/*ihm die Füße warm, Ich weinte mir/*ihm die Augen rot). Auch ein Dativus (in)commodi kann unter Umständen hinzugefügt werden: (26) Sie werden sich mit Ihrem ewigen Petroleumkocher noch alle Mieter aus der Wohnung kochen. (Fontane, Theodor, Stine, 12, zitiert bei Faucher 1979, 59) Bei den Konstruktionen des Typs 1 bezeichnet das Adjektiv den Zustand, in den der Referent des Akkusativobjekts durch die vom Verb ausgedrückte Tätigkeit überführt wird. Das zeigen folgende Paraphrasen:
(15) Der Hund fraß seinen Napf leer / *Der Hund fraß seinen Napf. (⫽ Typ 1b)
(27) Das Mädchen weinte ihr Kissen nass ⫺ Das Mädchen weinte, so dass ihr Kissen nass wurde.
(16) Er hat seine Schuhe blank geputzt / Er hat seine Schuhe geputzt. (⫽ Typ 1c)
(28) Der Hund fraß seinen Napf leer ⫺ Der Hund fraß, so dass sein Napf leer wurde.
(17) Er hat alle seine Mieter herausgeklagt / *Er hat alle seine Mieter geklagt. (⫽ Typ 2a) (18) Oskar Matzerath schrie eine kostbare Vase entzwei / *Oskar Matzerath schrie eine kostbare Vase. (⫽ Typ 2b) (19) Er ohrfeigte sie hinaus / Er ohrfeigte sie. (⫽ Typ 2c) (20) Wir läuteten den Wächter aus dem Schlaf / *Wir läuteten den Wächter. (⫽ Typ 3a) (21) Die Motten haben ein Loch in den Mantel gefressen / *Die Motten haben ein Loch gefressen. (⫽ Typ 3b) (22) Sie heiratete ihn aus einem Lager heraus. / Sie heiratete ihn. (⫽ Typ 3c)
(29) Er putzte seine Schuhe blank ⫺ Er putzte seine Schuhe, so dass sie blank wurden. Die Ähnlichkeit zwischen dem Typ 1 und den Typen 2 und 3 ist unverkennbar. So ist z. B. die Präpositionalgruppe aus dem Schlaf in Sie läuteten den Wächter aus dem Schlaf mit einem Adjektiv austauschbar: Sie läuteten den Wächter wach. Doch gibt es auch Unterschiede. Bei den Typen 2 und 3 sind einfache Paraphrasen wie die obigen nicht immer möglich, und, während beim Typ 1 der Referent des Akkusativobjekts anscheinend immer affiziert ist, kann er bei den Typen 2 und 3 auch effiziert sein. In Er hat ein Loch in das Tischtuch gebrannt bezeichnet ein Loch eine Entität, die erst durch den vom Verb beschriebenen Vorgang hervorgerufen wird. Hinzu kommt, dass die Konstruktionen des Typs 1 mit transitivem Grundverb unter Um-
38. Valenz und Satzbauplan
ständen mehrere Interpretationen zulassen, was bei den anderen Typen nicht der Fall ist. Der Satz Der Vater schüttelte das Kind wach kann kausativ (Der Vater schüttelte das Kind, bis es wach wurde) oder nicht-kausativ interpretiert werden (Wunderlich 1985, 226, Fußnote 36). In letzterem Fall kann sich das Adjektiv (wenigstens theoretisch) entweder auf das Subjekt (Der Vater schüttelte das Kind, wobei er wach war) oder auf das Objekt (Der Vater schüttelte das Kind, das wach war) beziehen. 2.1.3. Zur Interpretation der kausativen Konstruktionen 2.1.3.1. Sind die kausativen Fügungen lexikalische Einheiten? Wenn dem so wäre, dann wäre das Problem selbstverständlich gelöst, denn Fügungen wie nass weinen, leer predigen, usw. wären als zweiwertige transitive Verben aufzufassen. Doch „eine solche Annahme“, schreibt Herbert Pütz (1982, 349), „würde das Lexikon beträchtlich anschwellen lassen, weil die Konstruktionen produktiv sind.“ Für den Verfasser eines Lexikons ist diese Feststellung zweifellos wichtig, aber von einem theoretischen Standpunkt aus ist sie irrelevant, denn Zusammensetzungen mit trennbaren oder untrennbaren Präfixen wie be-, ver-, ein- usw. sind ebenfalls produktiv und doch echte lexikalische Einheiten. Verbpräfixe kennzeichnen sich u. a. dadurch, dass sie unveränderlich sind und keine Konnexion mit einem anderen Zeichen eingehen können. So bezieht sich so in Sie hatte sich die Schürze so umgebunden, dass … nicht etwa auf um allein, sondern auf das komplexe Lexem umbinden. Es fragt sich also, ob Adjektive, Partikeln und Präpositionalgruppen, die in kausativen Konstruktionen dem Grundverb beigefügt sind, Verbpräfixen gleichgestellt werden können. Diese Frage kann nicht pauschal beantwortet werden: ⫺ Partikeln sind in jeder beliebigen syntaktischen Umgebung unveränderlich und nicht ⫺ oder äußerst begrenzt ⫺ erweiterungsfähig, und in kausativen Konstruktionen verhalten sie sich wie echte Verbpräfixe. Deshalb ist es durchaus sinnvoll, hinauskomplimentieren, entzweischreien, zusammentrommeln, usw. als zusammengesetzte Verben anzusehen. ⫺ Was die Adjektive anbelangt, so bleiben sie in kausativen Konstruktionen im Prinzip steigerungsfähig:
489 (30) Wir fegten Oberschlesien sauberer, als es jemals gewesen. (Salomon, Ernst von, Die Geächteten, 208) (31) Du sollst dich noch schlanker laufen. Auch können sie gelegentlich eine Ergänzung zu sich nehmen: (32) Ganz sorgfältig sah ich sie auf ihrem grauen Großstadtbalkon die Tagetespflänzchen von Unkraut frei zupfen. (Kronauer, Brigitte, Rita Münster, 84) oder von Adverbialen oder adverbial gebrauchten Elementen wie halb, ganz, so begleitet sein, welche allerdings ebensowohl auf das Adjektiv als auf die ganze Fügung ‘Adjektiv ⫹ Verb’ bezogen werden können (vgl. Sie hat den Teller halb geleert): (33) Sie hat den Teller halb leer gegessen. (34) Elise hatte ihr Köpfchen an meine Brust gelegt, sie hatte sich so müde getrauert, dass sie ⫺ o glückliche Kindheit! ⫺ die Augen schloss und einschlummerte. (Raabe, Wilhelm, Die Chronik der Sperlingsgasse, 69) Dabei ist aber die Tendenz zu verzeichnen, Adjektiv und Verb, sofern das Adjektiv allein steht und nicht vom Verb getrennt ist, zusammenzuschreiben (leergepredigt, rotgeweint, usw.), was den Schluss nahelegt, dass viele dieser Fügungen als lexikalische Einheiten empfunden werden. ⫺ Präpositionalgruppen enthalten außer einer Präposition für gewöhnlich nur eine Konstituente, die meistens eine Nominalgruppe ist, und sind als solche nicht erweiterungsfähig: Erweitert werden kann nämlich nur die mit der Präposition in Verbindung stehende Konstituente. Als echtes Satzglied anzusehen ist eine Präpositionalgruppe also nur dann, wenn die darin enthaltene Nominalgruppe erweitert werden kann und/oder wenn deren Konstituenten frei substituierbar sind. Demnach können die Präpositionalgruppen, die Phraseologismen sind (sich zu Tode fahren, sich um Kopf und Kragen reden, usw.) als Verbpräfixe angesehen werden. Es bleibt aber eine beträchtliche Anzahl von Präpositionalgruppen, die ohne Zweifel Satzglieder sind. Besonders aufschlussreich in dieser Hinsicht ist folgender Beleg: (35) Die Bäume rauschten vor unseren Fenstern, und sie rauschten mich aus einem Traum, von dem ich schon beim Erwa-
490
IV. Valenz. Grundlagen und Grundfragen
chen nicht mehr sagen konnte, was das gewesen sein mochte. (Tucholsky, Kurt, Schloss Gripsholm, 38) Das Präpositionalgefüge aus einem Traum, von dem […] mochte ist in diesem Kontext einer einzigen Beschränkung unterworfen: Es muss eine Orts- oder Zustandsänderung bezeichnen (Die Bäume rauschten mich in einen schönen Traum / *in einem schönen Traum); aber abgesehen davon ist die Wahl der Elemente, aus denen es sich zusammensetzt, frei. Die gesamte Fügung aus einem Traum, von dem […] mochte, rauschen kann also nicht als eine lexikalische Einheit aufgefasst werden, und das trifft auf die Mehrheit der Konstruktionen vom Typ 3 zu: (36) Wir läuteten ihn aus dem tiefsten Schlaf / aus einem schönen Traum. (37) Die Motten haben ein Loch in seinen teueren Wintermantel gefressen. Solche und ähnliche Konstruktionen zu interpretieren, ist also die Aufgabe der Syntax. Nun liegt aber auf der Hand, dass die Struktur des Satzes Susanne isst den Teller leer durch ein Tesnie`re’sches Stemma wie isst
dass der Teller leer wird zurück. Vom komplexen Satz, der die Tiefenstruktur darstellt, wird der einfache Satz durch eine Transformation abgeleitet, die das Subjekt der „Small Clause“ (vgl. Hoekstra 1988), d. h. des eingebetteten Satzes Der Teller wird leer, zum Objekt des Matrixsatzes Susanne isst macht (Subjektanhebung). Dieser Ansicht schließen sich Peter Gallman und Horst Sitta an: „Gewöhnliche, also „nichtergative“ Verben, können, wenn sie kein (Akkusativ-)Objekt verlangen, den Akkusativ immerhin noch dem „Subjekt“ einer sogenannten Small Clause zuweisen. Ohne Objekt: Die Hunde bellen. (Ungrammatisch: Die Hunde bellen die Kinder). Aber korrekt: Die Hunde bellen [die Kinder wach] (gemeint: Die Hunde bellen, [so dass die Kinder wach werden]).“ (Gallmann/Sitta 1992, 162, Fußnote 36)
Um seine Interpretation zu rechtfertigen, stützt sich Herbert Pütz auf folgende Feststellung. Der Satz (38) Die Mutter sagt, Susanne hätte den Teller beinahe leer gegessen. ist zweideutig. Beinahe kann sich entweder auf den ganzen Objektsatz beziehen, was bedeutet, dass Susanne überhaupt nichts von dem Teller gegessen hat, oder nur auf leer. Herbert Pütz meint, dass die zweite Bedeutung nicht erklärt werden könne, wenn man leer essen als zusammengesetztes Verb ansehe. Dieses Argument ist aber nicht überzeugend, weil der Satz (39) Er hat die Tür beinahe geschlossen.
Susanne
Teller
leer
den
Abb. 38.1: Tesnie`re’sches Stemma
nicht adäquat dargestellt werden kann, denn zwischen der Nominalgruppe den Teller und dem Verb essen besteht keine Dependenzbeziehung. Deshalb müssen andere Lösungen in Betracht gezogen werden. 2.1.3.2. Die „Small Clause“-Analyse Herbert Pütz (1982, 349 ff.) ⫺ der sich nur mit Konstruktionen ‘Adjektiv ⫹ Verb’ beschäftigt ⫺ schlägt eine syntaktische Interpretation vor. Seiner Ansicht nach geht der Satz Susanne isst den Teller leer auf die bipropositionale Grundstruktur Susanne isst, so
der ein einfaches Verb enthält, ebenso ambig ist. Ferner sind die theoretischen Begriffe, deren sich Herbert Pütz bedient, insbesondere die Unterscheidung zwischen Tiefen- und Oberflächenstruktur, nicht nur der Dependenz- und Valenzgrammatik, sondern auch der GB-Theorie fremd. Will man also ohne Tiefenstruktur auskommen und die „Small Clause“-Analyse doch aufrechterhalten, so muss man dem Satz Susanne isst den Teller leer eine dreigliedrige Struktur zugrundelegen, nämlich [Susanne] [isst] [den Teller leer]. Da das Verb essen die „Small Clause“ nicht erfordert, ist diese als freies Satzglied aufzufassen, was mit dem Status des Nebensatzes in Susanne isst, so dass der Teller leer wird übereinstimmt. Wenn man vom Problem des Akkusativs in der „Small Clause“ absieht, so erscheint diese Hypothese also durchaus sinnvoll. Doch kann sie nicht allen Eigenschaften der kausativen Konstruktionen
491
38. Valenz und Satzbauplan
Rechnung tragen. Der Sinn des ersten Satzes von (40) ist ohne Zweifel kausativ: (40) Christine hat mich von sich weg erkältet. Ja, das ist das rechte Wort, und solche sich mehrende Kälte, das ist schlimmer als Streiten und Heftigsein. (Fontane, Theodor, Unwiederbringlich, 212) Er bedeutet nämlich, dass Christines Kälte ihrem Mann gegenüber bewirkt hat, dass dieser sich von ihr abgewandt hat. Aber dass das Verb erkälten hier im übertragenen Sinne verstanden wird, ist offenbar auf die Konstruktion selbst ⫺ auf die „Oberflächenstruktur“ ⫺ zurückzuführen, und eine Paraphrase nach dem Muster Susanne isst, so dass der Teller leer wird wäre deshalb nicht nur unangebracht, sondern unakzeptabel: (41) *Christine hat (mich) erkältet, so dass ich mich von ihr abgewandt habe. Die bipropositionale Struktur ist genetisch wohl als die Matrix anzusehen, durch welche kausative Konstruktionen entstanden sind, aber diese Struktur wurde uminterpretiert, und in der heutigen Sprache werden die kausativen Konstruktionen als monopropositionale, verbzentrierte Strukturen empfunden (vgl. Faucher 1987; Vuillaume 1995). Deshalb empfiehlt es sich, eine oberflächennähere Interpretation zu suchen als diejenige, die von Herbert Pütz vorgeschlagen wird.
Verblexem) eine Konnexion eingeht; diese Konnexion ergibt einen Komplex K1: an diesem fügt sich nur ein zweites Glied G2 an, das also nicht mehr mit dem Verb, sondern mit einem das Verb enthaltenden Komplex verbunden ist, und so weiter.“ In der Sprache der Dependenzgrammatik würde man sagen, dass das Akkusativobjekt ihr Kissen nicht von weinen regiert wird, sondern vom Komplex nass weinen. In einer den kausativen Konstruktionen gewidmeten Studie plädieren Wolfgang Koch und Inger Rosengren (1995) für eine ähnliche Interpretation. Sie diskutieren u. a. das Beispiel Wir haben den Teller leer gegessen und stellen fest, dass die Stellungsmöglichkeiten des Adjektivs leer weitgehend mit denen eines trennbaren Verbpräfixes übereinstimmen (Koch/Rosengren 1995, 10⫺14): (42) Den Teller haben wir leer gegessen / Den Teller haben wir aufgegessen. (43) Leer gegessen haben wir den Teller / Aufgegessen haben wir den Teller. (44) ?Leer haben wir den Teller gegessen / *Auf haben wir den Teller gegessen. (45) *Gegessen haben wir den Teller leer / Gegessen haben wir den Teller auf. (46) *Den Teller leer haben wir gegessen / *Den Teller auf haben wir gegessen.
2.1.3.3. Der Begriff „komplexes Prädikat“ Nach Jean Fourquets Auffassung der Satzstruktur lassen sich die Beziehungen, die zwischen den Konstituenten des Satzes Sie weinte ihr Kissen nass bestehen, so darstellen (vgl. auch Vennemann 1977; Pasierbsky 1981):
(47) *Den Teller gegessen haben wir leer / *Den Teller gegessen haben wir auf.
G3 Sie
Diese Tests zeigen u. a., dass leer und essen in einem Aussagesatz nur dann getrennt auftreten können, wenn essen im Präsens oder Präteritum steht und an die zweite Stelle rücken muss, um den Aussagesatz als solchen zu signalisieren (Wir essen/aßen den Teller leer). Obwohl das Adjektiv leer eine sehr enge Verbindung mit dem Verb eingeht, büßt es seine Satzgliedhaftigkeit nicht ein (vgl. 2.1.3.1). Folglich kann der Komplex leer essen nicht als ein zusammengesetztes Verb angesehen werden. Auf der anderen Seite aber kann er die Nominalgruppe den Teller als Akkusativobjekt zu sich nehmen, was das Verb essen allein nicht kann. Um der Besonderheit des aus leer und essen zusammengesetzten Kom-
G2 ihr Kissen
G1 nass
V weinK1
K2 K3
Abb. 38.2: Die deutsche Satzstruktur nach Jean Fourquet
„Wir nehmen an“, schreiben Jean Fourquet und Blanche Grunig (1971, 12), „dass nur ein Satzglied G1 mit dem Verb (genauer mit dem
(48) *Wir haben leer den Teller gegessen / *Wir haben auf den Teller gegessen. (49) *Wir haben den Teller leer nicht gegessen / *Wir haben den Teller auf nicht gegessen.
492
IV. Valenz. Grundlagen und Grundfragen
plexes Rechnung zu tragen, schlagen Wolfgang Koch und Inger Rosengren vor, die Einheit, die sich aus der Verbindung des Grundverbs mit der ihm beigefügten Konstituente ergibt, ein „komplexes Prädikat“ (complex predicate) zu nennen (Koch/Rosengren 1995, 2). Bemerkenswert an den kausativen Konstruktionen, insbesondere an denen, die ein intransitives Verb enthalten, ist, dass der Komplex K1, der durch die Konnexion des Satzgliedes G1 mit V entsteht, eine höhere Valenz besitzt als V: Während weinen einwertig (und intransitiv) ist, ist nass weinen zweiwertig und verhält sich in jeder Hinsicht wie ein transitives Verb. Man kann hier wohl von „Valenzerhöhung“ sprechen, aber man muss sich darüber im klaren sein, dass die Valenz des Grundverbs nicht erhöht wird und dass der Begriff „Valenzerhöhung“ sich eigentlich auf den Wertigkeitsunterschied zwischen dem Verb und dem Komplex K1 bezieht. In Hinsicht auf die Beziehungen zwischen Verbvalenz und Satzbauplan ist der Begriff „komplexes Prädikat“ von großer theoretischer Tragweite, denn, wenn man annimmt, dass in sie weinte ihr Kissen nass das Akkusativobjekt ihr Kissen nicht vom Verb weinen, sondern von dem Komplex, der sich aus der Konnexion eines Satzgliedes (nass) mit dem Verb ergibt, regiert wird, so verzichtet man de facto auf das Postulat, dass Ergänzungen notwendig von der Valenz des Verbs bedingt sind und dass Satzbauplan und Verbvalenz „unterschiedliche Aspekte derselben Sache“ sind.
tik den Begriff „Ergänzungsverband“ geprägt. Sie vertreten die These, dass im Satz: (50) Ich klopfe ihm auf die Schulter. das Pronomen ihm auf die Raumergänzung bezogen ist und zusammen mit dieser einen Ergänzungsverband bildet, was graphisch so dargestellt wird (Drosdowski 1995, 673). Dass zwischen dem Pertinenzdativ und der Präpositionalgruppe oder, genauer gesagt, der darin enthaltenen Nominalgruppe eine Beziehung besteht, ist nicht zu bestreiten, da das Auftreten des Pertinenzdativs vom Vorhandensein der Nominalgruppe die Schulter bedingt ist. Es handelt sich aber nicht um eine syntaktische, sondern um eine semantische Beziehung, denn ihm und auf die Schulter verhalten sich offensichtlich wie zwei voneinander unabhängige Satzglieder (vgl. 1.). Heide Wegener hat eine ganz andere Interpretation des Pertinenzdativs vorgeschlagen: „Der Pertinenzdativ ist ein Commodi im Kontext von Körperteillexemen; er ist ein Dativobjekt im Kontext von Körperteillexemen, wenn man dieses auf die REC-Rolle festlegt, in Beispielen wie (34): (34) er pflanzt dem Patienten einen Herzschrittmacher ein. er amputiert ihm ein Bein, zieht ihm einen Zahn, etc. Für beide sog. freien Dative gilt, dass das Verb eine Handlung oder einen Vorgang beschreibt, die ihr Objekt wirklich, i. a. physisch affizieren […] und dadurch bzw. durch das Resultat der Handlung den Possessor dieses Objekts betreffen.“ (Wegener 1991, 82)
Ferner schreibt sie Folgendes: 2.2. Der von ren,
Der Pertinenzdativ Pertinenzdativ stellt einen anderen Fall Valenzerhöhung dar. Um ihn zu erklähaben die Autoren der Duden-Gramma-
„In Analogie zur der Regel, die Fanselow/Felix (1987b: 71) für den strukturellen Akkusativ formulieren (R1), möchte ich für den strukturellen Dativ R2 vorschlagen:
Satz Prädikatsverband Ergänzungsverband
Subjekt
Ich
Prädikat
klopfe
Pertinenzdativ
ihm
Raumergänzung
auf die Schulter
Abb. 38.3: Pertinenzdativ und Ergänzungsverband nach der Duden-Grammatik
493
38. Valenz und Satzbauplan R1: V weist seinem Komplement Objektiv (Akkusativ) zu; R2: V weist seinem 2. Komplement Dativ zu; wobei R1 im Deutschen um den Zusatz zu ergänzen wäre: R1’: Verben, die eine zielgerichtete Bewegung beschreiben, realisieren ihr Komplement präpositional. […] Die Regel R2 steht […] im Einklang mit der Darstellung der Abhängigkeitsverhältnisse bei Fourquet (1977, 71), Vennemann (1977, 288) und Wegener (1985a, 140 ff.), wo diese Dative [i. e. die freien Dative] als nicht unmittelbar vom Verb, sondern von einem Verbkomplex, bestehend aus dem Verb und seinem primären Komplement, regiert gelten: [Akk ⫹ V]: weil er [dem Kind [den Fuß verbindet]] [Präp ⫹ V]: weil er [dem Kind [übers Haar streicht]] [Nom ⫹ V]: weil [dem Kind [der Zahn wackelt]].“ (Wegener 1991, 92 ff.)
Es braucht vorerst nicht auf die Einzelheiten dieses Regelsystems eingegangen zu werden. Es genügt darauf hinzuweisen, dass hier wie bei den kausativen Konstruktionen die Komplexe, die sich aus der Verbindung von G1 mit V ergeben, eine höhere Valenz besitzen als V: (51) Er fühlt die Wärme der Sonne vs. Er fühlt ihm den Puls. (52) Er tritt auf die Straße vs. Er tritt ihm auf den Fuß. (53) Er heftete Zeichnungen an die Wand vs. Er heftet ihm einen Orden an die Brust. Während die Komplexe die Wärme der Sonne fühlen, auf die Straße treten nur eine Ergänzung zulassen, nämlich das Subjekt, lassen die Komplexe den Puls fühlen, auf den Fuß treten, zwei Ergänzungen zu, einen Pertinenzdativ und ein Subjekt, und während an die Wand heften zweiwertig ist, ist an die Brust heften dreiwertig. Darüber hinaus verhalten sich diese Komplexe in vielen Hinsichten wie Verben, die den Dativ regieren. Davon zeugt u. a. die Tatsache, dass sie sich mit dem Hilfsverb bekommen verbinden (vgl. Leirbukt 1997, 91; 98): (54) Er bekam den Puls gefühlt / auf den Fuß getreten. (55) Er bekam einen Orden an die Brust geheftet. und mit einfachen Verben austauschbar sind. So können die Komplexe den Puls (ge)-
fühl(t), auf den Fuß (ge)tret(en) z. B. durch geholfen (er bekam geholfen), der Komplex an die Brust (ge)heft(et) z. B. durch verliehen (er bekam einen Orden verliehen) ersetzt werden.
3.
Eine Alternative zu den Satzbauplänen
3.1. Semantische und syntaktische Valenzerhöhung Die beim Pertinenzdativ festgestellte Valenzerhöhung ist anderer Art als bei den kausativen Konstruktionen. Sowohl in Er tritt auf die Straße als auch in Er tritt ihm auf den Fuß ist die Präpositionalgruppe als eine Ergänzung zu betrachten. Wenn der Komplex auf den Fuß treten eine höhere Valenz besitzt als auf die Straße treten, so deshalb, weil auf den Fuß eine Nominalgruppe enthält, die einen Körperteil bezeichnet. Mit anderen Worten, beim Verb treten ist der Komplex K1 entweder zwei- oder einwertig, je nachdem, ob die in G1 enthaltene Nominalgruppe einen Körperteil bezeichnet oder nicht. In diesem Fall kann man also von semantischer Valenzerhöhung sprechen, weil die Valenz von K1 von der Semantik von G1 abhängt. Bei den kausativen Konstruktionen ist es anders. In Sie weinte ihr Kissen nass ist das Vorhandensein von K1 (nass) nicht von der Verbvalenz bedingt. Aber die Konnexion von nass (G1) mit dem Verb weinen, das einwertig und intransitiv ist, ergibt einen zweiwertigen transitiven Komplex. Die Valenzerhöhung wird hier dadurch bewirkt, dass ein nicht-valenzbedingtes Satzglied an das Verb angeschlossen wird. Sie wird also durch ein syntaktisches Mittel erzielt. Dass beide Typen unterschieden werden müssen, wird dadurch bestätigt, dass sie sich kombinieren können. In: (56) Der Fuchs schmeichelte dem Raben das Stück Fleisch aus dem Schnabel. (Nach Lenau, zitiert bei Paul 1919, 235) ergibt sich aus der Verbindung von schmeicheln mit einer Präpositionalgruppe ein transitiver Komplex. Aber die Möglichkeit, an den Komplex das Stück Fleisch aus dem Schnabel schmeicheln einen Pertinenzdativ anzuschließen, ist von der Wahl der mit aus verbundenen Nominalgruppe, nämlich dem Schnabel, bedingt.
494
IV. Valenz. Grundlagen und Grundfragen
3.2. Strukturen vs. Regeln Aus den obigen Ausführungen geht hervor, dass die Zahl der Ergänzungen im Satz nicht ein für allemal feststeht und nicht notwendig vom Verb allein bestimmt ist. Jean Fourquet und Blanche Grunig haben also völlig recht, wenn sie schreiben: „Bei syntaktischen Konnexionen im Satz ist der verbale Teil nicht notwendig alleinbestimmend, was die Bindungsfähigkeit betrifft.“ (Fourquet/Grunig 1971, 13). Das kann man am Beispiel des Verbs wehen verdeutlichen. Wird es mit einer Artangabe ⫺ Der Wind weht kühl ⫺ oder mit einer lokativen Präpositionalgruppe ⫺ Die Fahne weht im Winde ⫺ verbunden, eröffnet es nur eine Stelle, nämlich die des Subjekts. Wird ihm aber eine Präpositionalgruppe beigefügt, die das Ziel der Bewegung bezeichnet, so entsteht ein Komplex, der andere Bindungsmöglichkeiten besitzt als kühl wehen oder im Winde wehen: (57) Der Wind weht über die Stadt. (58) Der Wind weht frische Luft über die Stadt. (59) Der Wind weht mir ins Gesicht. (60) Der Wind weht mir frische Luft ins Gesicht. An den Komplex über die Stadt wehen kann entweder das Subjekt oder ein Akkusativob-
jekt angeschlossen werden. Wird die erste Wahl getroffen, so ist die Valenz des Komplexes gesättigt (Der Wind weht über die Stadt); wird aber ein Akkusativobjekt an den Komplex über die Stadt wehen angefügt, so bleibt noch die Stelle des Subjekts offen (Der Wind weht frische Luft über die Stadt). Nun kann man statt die Stadt eine Nominalgruppe wählen, die einen Körperteil bezeichnet. So entsteht ein Komplex (ins Gesicht wehen), an den ein Pertinenzdativ oder ein Akkusativobjekt angeschlossen werden kann. Wenn man sich für den Pertinenzdativ entscheidet, so entsteht ein neuer Komplex, der sich nur noch mit einem Subjekt verbinden kann (Der Wind weht mir ins Gesicht). Wird aber ein Akkusativobjekt gewählt, so ergibt sich ein Komplex (frische Luft ins Gesicht wehen), der noch um einen Pertinenzdativ und dann um ein Subjekt erweitert werden kann. Metaphorisch kann man sich das Verb als den Ausgangspunkt und das Subjekt als den Endpunkt eines Weges vorstellen. Zwischen dem Verb und dem Subjekt gibt es an bestimmten Stellen Gabelungen, wo Entscheidungen zu treffen sind, die die Strecke verkürzen oder verlängern können. Mit anderen Worten: Es gibt mehrere Wege, über die man vom Verb zum Subjekt gelangen kann. Im Falle von wehen kann man diese verschiedenen Möglichkeiten graphisch so darstellen:
frische Luft
über die Stadt
Der Wind
kühl ihm ins Gesicht
frische Luft ihm
Abb. 38.4: Valenzerhöhung
weht
38. Valenz und Satzbauplan
Diese „Wege“ entsprechen zwar Satzbauplänen, sind aber nicht als solche aufzufassen. Satzbaupläne sind statische Strukturen, während es hier um die Anwendung von hierarchisch geordneten Regeln geht. Eine von diesen Regeln besagt z. B., dass die unmittelbare Konnexion einer Artangabe mit dem Verb wehen das Auftreten jeder weiteren Ergänzung außer dem Subjekt blockiert (Der Wind weht kühl / *Der Wind weht über die Stadt kühl); eine andere Regel besagt, dass der Komplex K1, wenn er eine direktionale Präpositionalgruppe enthält, ein Akkusativobjekt regieren kann, usw. Demnach könnte man die Satzbaupläne als das Resultat der Anwendung von Regeln auffassen. Primär wären also nicht die Satzbaupläne, sondern die Regeln, durch welche sie erzeugt werden. Den Vorteil dieser Konzeption hat Heide Wegener für den Dativ sehr überzeugend erklärt: Er besteht „gegenüber der Idee der Dependenzgrammatik, beim jeweils einzelnen Verb Ergänzungen vorzusehen, in der enormen Vereinfachung des Lexikons und damit der leichteren Lernbarkeit: Statt bei einer ‘fast unübersehbar’ großen Zahl von Verben (Engel/Schumacher 1978, 61) im Lexikoneintrag einen Dativ, oder einen Akkusativ oder gar Nominativ, vorzumerken, braucht dies nur bei den wenigen Verben mit inhärentem Dativ zu geschehen. In allen anderen Fällen erfolgt die Dativzuweisung über eine einzige Regel.“ (Wegener 1991, 100). 3.3. Welche Regeln? Es herrscht heute Einstimmigkeit darüber, dass die Kasus ein hierarchisch strukturiertes System bilden, dass sie also nicht willkürlich, sondern auf Grund der Beziehungen, die zwischen ihnen bestehen, selegiert werden. Diese Hypothese stützt sich u. a. auf folgende Beobachtungen: Der von einwertigen Verben geforderte Aktant steht fast immer im Nominativ, das Objekt der zweiwertigen Verben meistens im Akkusativ, das Subjekt ist immer obligatorisch, das Akkusativobjekt ist ⫺ namentlich bei dreiwertigen Verben ⫺ seltener fakultativ als das Dativobjekt und dieses wiederum seltener weglassbar als das Präpositionalobjekt, usw. Diese und ähnliche Fakten legen den Gedanken nahe, dass der Nominativ enger als der Akkusativ und der Akkusativ enger als die anderen obliquen Kasus an das Verb gebunden ist, dass in der Kasushierarchie der Nominativ an erster Stelle rangiert, der Akkusativ an zweiter Stelle, usw. Im Rah-
495 men der GB-Theorie wurde konsequenterweise der Vorschlag gemacht, diese Hierarchie auf ein allgemeines Prinzip zurückzuführen: So hat z. B. Heide Wegener in Anlehnung an Beate Primus neulich die Hypothese aufgestellt, „dass ein rangniedrigerer Kasus erst selegiert werden kann, wenn der ranghöhere selegiert ist“ und dass „einstellige Verben den Nom., zweistellige Nom./Akk., dreistellige Nom./Akk./Dat., usw.“ selegieren (Wegener 1998, 78). Sollte sich diese Hypothese bestätigen, so würde sie selbstverständlich eine beträchtliche Vereinfachung bedeuten. Dabei ist aber zu bemerken, dass nicht bei allen Verben die Kasus „strukturell“, d. h. über eine allgemeine Regel, zugewiesen werden, dass es auch „inhärente“ Kasus gibt, d. h. solche, die sozusagen unmotiviert und im Lexikon festgelegt sind. Deshalb ist die aktuelle Forschung darum bemüht, die Zahl der Verben mit inhärenter Kasuszuweisung auf einen kleinen Rest zu reduzieren (vgl. u. a. Wegener 1991). Nun sind aber die Regeln, nach denen strukturelle Kasus zugewiesen werden, noch mit Schwierigkeiten verbunden: Laut R1’ („Verben, die eine zielgerichtete Bewegung beschreiben, realisieren ihr Komplement präpositional“) ist die Präpositionalgruppe übers Haar in er streicht dem Kind übers Haar als primäres Komplement aufzufassen. R1’ ist deshalb unentbehrlich, weil laut R2 der Dativ erst zugewiesen werden kann, wenn das primäre Komplement schon selegiert ist. Mit anderen Worten: Damit die Nominalgruppe dem Kind als 2. Komplement betrachtet werden kann, muss übers Haar als primäres Komplement aufgefasst werden. Ohne R1’ wäre das Vorhandensein des Dativs in er streicht dem Kind übers Haar nicht durch R2 zu erklären. Dass R1’ ausdrücklich als Zusatz zu R1 hingestellt wird, impliziert, dass das primäre Komplement im Akkusativ und die Direktionale in einer Entweder-Oder-Beziehung zueinander stehen, also nicht im selben Satz auftreten können und dass alle Verben, die eine zielgerichtete Bewegung beschreiben, Intransitiva sind. Nun stimmt das offensichtlich nicht, denn es gibt viele Verben, die zugleich eine Direktionale und ein Akkusativobjekt zu sich nehmen (er wirft den Stein über die Mauer / er taucht die Hand ins Wasser, usw.). Es gibt sogar Konstruktionen, die ein Komplement im Dativ, ein Komplement im Akkusativ und eine Direktionale enthalten (er schleuderte ihm den Handschuh ins Gesicht / er
496 drückte dem Bettler ein Geldstück in die Hand, usw.). Wollte man in solchen Fällen die Direktionale als primäres Komplement betrachten, so müsste man nicht nur die Nominalgruppe im Dativ als 2. Komplement auffassen, sondern auch diejenige im Akkusativ, was selbstverständlich sinnlos wäre. Die Regel R1 ist also nur unter Verzicht auf den Zusatz R1’ aufrechtzuerhalten, und wenn auf R1’ verzichtet wird, dann muss die Regel R2, wenn nicht aufgegeben, so doch revidiert werden. Wie dem auch sei, es gibt keinen Grund, das Akkusativobjekt und die Direktionale als Komplemente gleichen Ranges zu betrachten. Es gilt vielmehr, dass der Akkusativ, der doch das primäre Komplement kennzeichnet, oft erst dann zugewiesen werden kann, wenn eine Direktionale schon selegiert ist. Das trifft nicht nur auf die oben behandelten kausativen Konstruktionen zu, sondern auch auf mit ihnen verwandte Strukturen wie (61)⫺(63): (61) er klatschte die Unterlagen auf den Tisch / *er klatschte die Unterlagen. (62) er knallte den Hörer in die Gabel / * er knallte den Hörer. (63) er donnerte seine Mappe in die Ecke / *er donnerte seine Mappe. Darüber hinaus ist zu bemerken, dass die Konnexion einer direktionalen Präpositionalgruppe mit einem Verb das Auftreten eines Akkusativobjekts anscheinend nie blockiert. Das Vorhergehende legt die Hypothese nahe, dass direktionale Präpositionalgruppen das syntaktische Mittel par excellence darstellen, mit intransitiven Verben transitive Komplexe zu bilden. Diese Fähigkeit verdanken sie zwei bemerkenswerten Eigenschaften, und zwar einer semantischen und einer syntaktischen: 1. Sie können auch dann, wenn sie nicht mit einem Verb verbunden sind, eine Orts- oder Zustandsänderung ausdrücken (Ins Wasser mit ihm!). 2. Sie gehen immer die erste Konnexion mit dem Verb ein, was u. a. daraus hervorgeht, dass sie in einem Nebensatz dem Verb immer am nächsten stehen (weil der Wind mir kühl ins Gesicht wehte / *weil der Wind mir ins Gesicht kühl wehte). Deshalb sind sie nicht mit Dativ- und Akkusativobjekten gleichzustellen. Dativ- und Akkusativobjekte bezeichnen Entitäten, die vom Prozess betroffen sind, während direktionale Präpositionalgruppen zur Beschreibung des Prozesses selbst beitragen und deshalb nicht als Argumente des Verbs zu betrachten sind.
IV. Valenz. Grundlagen und Grundfragen Da es keine eingehende empirische Studie über die syntaktische Valenzerhöhung gibt, wäre es bestimmt verfrüht, Regeln formulieren zu wollen, nach welchen transitive Komplexe aufgebaut werden. Was die kausativen Konstruktionen betrifft, so steht zwar fest, dass sie nicht mit allen intransitiven Verben gebildet werden können: (64) *Die Bombe explodierte uns in Panik. Ob aber nur nichtergative Verben solche Konstruktionen zulassen (vgl. das Zitat von Gallmann/Sitta unter 2.1.3.2.), sei aber dahingestellt. Eine nähere Untersuchung verdienen ferner die Präpositionalgruppen, die den Ausgangspunkt einer Bewegung bezeichnen (Der Fuchs schmeichelte dem Raben das Stück Fleisch aus dem Schnabel ), und die Adjektive, die ebenfalls in vielen kausativen Konstruktionen anzutreffen sind.
4.
Schlussfolgerungen und Aussichten
Wenn ein Satzbauplan nichts anderes ist als die Realisierung eines von der Valenz des Verbs bestimmten Programms, dann ist die Valenz primär, und der Begriff des Satzbauplans kann, wenn nicht in der pädagogischen Praxis, so doch in der Theorie, als redundant angesehen und somit ohne weiteres entbehrt werden. Deshalb ist es nicht weiter verwunderlich, dass er in der heutigen Forschung immer mehr in den Hintergrund tritt. Der Valenzbegriff hingegen bleibt weiterhin aktuell. Das ist z. B. in der GB-Theorie der Fall (vgl. Vater 1994, 138 ff.): Sowohl auf der semantischen wie auf der morphosyntaktischen Ebene wird dort der Valenz des Verbs (wenn auch das Wort Valenz nicht gebraucht wird) eine zentrale Rolle zugesprochen. Der ThetaTheorie zufolge bestimmt das Verb die Zahl der Argumente, die in einem Satz vorkommen, sowie die thematischen Rollen („Agens“, „Instrument“, usw.), die an diese Argumente vergeben werden, und laut der Kasustheorie kommt es ebenfalls dem Verb zu, den Nominalgruppen (eigentlich den DPs), die diesen Argumenten entsprechen, Kasusmerkmale zuzuweisen. Obwohl der Begriff des Satzbauplans von vornherein als theoretisch überflüssig angesehen werden konnte, so hat er doch in der Forschung eine positive Rolle gespielt. Die Feststellung, dass bestimmte Satzbaupläne nicht als die bloße Realisierung eines im Verb enthaltenen Programms aufgefasst werden können, hat nämlich zu der Einsicht geführt, dass nicht nur die Valenz der Verben, sondern auch diejenige der Komplexe (oder der „komplexen Prädikate“) relevant sein kann.
38. Valenz und Satzbauplan
Nur sind noch nicht alle Konsequenzen aus dieser Erkenntnis gezogen worden. Das geht z.B aus dem Aufsatz von Heide Wegener (1991) hervor. Dort wird ausdrücklich darauf hingewiesen, dass der Pertinenzdativ „nicht unmittelbar vom Verb, sondern von einem Verbkomplex, bestehend aus dem Verb und seinem primären Komplement“, regiert wird. Das bedeutet, dass z. B. in Er drückte dem Freund die Hand die Nominalgruppe dem Freund ihr Kasusmerkmal nicht von drücken, sondern vom Komplex die Hand drücken zugewiesen bekommt. Dies steht aber in Widerspruch zu der von Heide Wegener selbst vorgeschlagenen Regel R2 („V weist seinem 2. Komplement Dativ zu“), denn dem Freund kann nicht als 2. Komplement von drücken aufgefasst werden, da das Vorhandensein von dem Freund nicht von drücken bestimmt ist (*Er drückte dem Freund den Knopf). Das heißt aber nicht, dass solche Regeln überhaupt unangebracht sind. Im Gegenteil: Heide Wegener hat völlig recht, wenn sie schreibt, dass ihr Vorteil „gegenüber der Idee der Dependenzgrammatik, beim jeweils einzelnen Verb Ergänzungen vorzusehen, in der enormen Vereinfachung des Lexikons und damit der leichteren Lernbarkeit“ besteht. Doch müssen die Regeln offensichtlich revidiert werden, damit sie den Tatsachen genauer entsprechen.
5.
Literatur in Auswahl
Abraham, Werner (Hg.) (1982): Satzglieder im Deutschen. Vorschläge zur syntaktischen, semantischen und pragmatischen Fundierung (⫽ Studien zur deutschen Grammatik, Bd. 15). Tübingen. Bausewein, Karin (1990): Akkusativobjekt, Akkusativobjektsätze und Objektsprädikate im Deutschen. Untersuchungen zu ihrer Syntax und Semantik (⫽ Linguistische Arbeiten, Bd. 251). Tübingen.
497 manistischen Sprachwissenschaft, Bd. 10). Hamburg. Eisenberg, Peter (1986): Grundriss der deutschen Grammatik. Stuttgart. Engel, Ulrich/Schumacher, Helmut, unter Mitarbeit von Joachim Ballweg et alii (1976): Kleines Valenzlexikon deutscher Verben (⫽ Forschungsberichte / Institut für deutsche Sprache Mannheim, Bd. 31). Tübingen. Engelen, Bernhard (1970): Die Satzbaupläne II, 8 und II, 2 (Die Mutter macht die Suppe warm, Karl nennt mich einen Lügner). In: Moser, Hugo et alii (Hgg.) (1970), 62⫺84. Engelen, Bernhard (1975): Untersuchungen zu Satzbauplan und Wortfeld in der geschriebenen deutschen Sprache der Gegenwart (⫽ Heutiges Deutsch I / 3. 1 & I / 3. 2). München. Erben, Johannes (1972): Deutsche Grammatik. Ein Abriß. München (11. Auflage). Eroms, Hans-Werner (1998): Kasus, Rollen und Konversen. In: Vuillaume, Marcel (Hg.) (1998), 59⫺70. Fanselow, Gisbert/Felix, Sascha W. (Hgg.) (1990): Strukturen und Merkmale syntaktischer Kategorien (⫽ Studien zur deutschen Grammatik, Bd. 39). Tübingen. Faucher, Euge`ne (1973): Propositions clandestines. In: Cahiers d’allemand 5, 53⫺65. Faucher, Euge`ne (1987): Von den Toden, die da gestorben worden waren. In: Centre de Recherche en Linguistique Germanique (Hg.) (1987), 117⫺128. Fourquet, Jean (1970): Prolegomena zu einer deutschen Grammatik (⫽ Sprache der Gegenwart, Bd. VII). Düsseldorf. Fourquet, Jean/Grunig, Blanche (1971): Valenz und Struktur. In: Helbig, Gerhard (Hg.) (1971), 11⫺16. Gallmann, Peter/Sitta, Horst (1997): Satzglieder in der wissenschaftlichen Diskussion und in Resultatgrammatiken. In: Zeitschrift für germanistische Linguistik 20, 137⫺181.
Bierwisch, Manfred (Hg.) (1971): Syntaktische Studien (⫽ studia grammatica, Bd. V). Berlin (4. Auflage).
Harras, Gisela/Bierwisch, Manfred (Hgg.) (1996): Wenn die Semantik arbeitet. Klaus Baumgärtner zum 65. Geburtstag. Tübingen.
Brinkmann, Hennig (1971): Die deutsche Sprache. Gestalt und Leistung. Düsseldorf (2., neubearbeitete und erweiterte Auflage).
Helbig, Gerhard (Hg.) (1971): Beiträge zur Valenztheorie. Den Haag.
Centre de Recherche en Linguistique Germanique (Hg.) (1987): Das Passiv im Deutschen. Akten des Kolloquiums über das Passiv im Deutschen, Nizza 1986. Tübingen. Drosdowski, Günther (Hg.) (1995): Grammatik der deutschen Gegenwartssprache (⫽ Der Duden, Bd. 4). Mannheim/Leipzig/Wien/Zürich. Eichinger, Ludwig M./Eroms, Hans-Werner (Hgg.) (1995): Dependenz und Valenz (⫽ Beiträge zur ger-
Helbig, Gerhard (1974): Probleme der deutschen Grammatik für Ausländer. Leipzig (3., überarbeitete Auflage). Helbig, Gerhard (Hg.) (1978): Beiträge zu Problemen der Satzglieder (⫽ Linguistische Studien). Leipzig. Helbig, Gerhard (1978a): Zum Status der Satzglieder und zu einigen sekundären Satzgliedern im Deutschen. In: Helbig, Gerhard (Hg.) (1978), 79⫺ 104.
498 Helbig, Gerhard (1992): Probleme der Valenz- und Kasustheorie (⫽ Konzepte der Sprach- und Literaturwissenschaft, Bd. 51). Tübingen. Helbig, Gerhard (1995): Erweiterungen des Valenzmodells? In: Eichinger, Ludwig M./Eroms, HansWerner (Hgg.) (1995), 259⫺274. Helbig, Gerhard/Buscha, Joachim (1972): Deutsche Grammatik. Ein Handbuch für den Ausländerunterricht. Leipzig. Hoekstra, Teun (1998): Small clause results. In: Lingua 74, 101⫺139. Isac¸enko, Alexander V. (1971): Das syntaktische Verhältnis der Bezeichnungen von Körperteilen im Deutschen. In: Bierwisch, Manfred (Hg.) (1971), 7⫺28. Kürschner, Wilfried/Vogt, Rüdiger (Hgg.) (1985): Grammatik, Semantik, Textlinguistik. Akten des 19. Linguistischen Kolloquiums Vechta 1984 (⫽ Linguistische Arbeiten, Bd. 19. 1). Tübingen. Koch, Wolfgang/Rosengren, Inger (1995): Secondary Predications: Their Grammatical and Conceptual Structure (⫽ Sprache und Pragmatik, Bd. 35). Lund. Leirbukt, Oddleif (1997): Untersuchungen zum bekommen-Passiv im heutigen Deutsch (⫽ Reihe Germanistische Linguistik, Bd. 177). Tübingen. Levin, Beth/Rappaport Hovav, Malka (1993): Unaccusativity: at the syntax-lexical semantics interface. Cambridge Mass./London. Moser, Hugo et alii (Hgg.) (1970): Studien zur Syntax des heutigen Deutsch ⫺ Paul Grebe zum 60. Geburtstag (⫽ Sprache der Gegenwart, Band VI). Düsseldorf. Pasierbsky, Fritz (1981): Sprachtypologische Aspekte der Valenztheorie unter besonderer Berücksichtigung des Deutschen. In: Zeitschrift für Phonetik, Sprachwissenschaft und Kommunikationsforschung 34, 160⫺177. Paul, Hermann (1919): Deutsche Grammatik, Bd. III. Tübingen (zitiert nach dem Nachdruck von 1968). Pütz, Herbert (1982): Objektsprädikate. In: Abraham, Werner (Hg.) (1982), 331⫺367. Sitta, Horst (1995): Wie sinnvoll ist es, in Gebrauchsgrammatiken Satzbaupläne aufzuführen? In: Eichinger, Ludwig M./Eroms, Hans-Werner (Hgg.) (1995), 225⫺232. Steinitz, Renate (1992): „Modern“: Argumentstruktur, „Traditionell“: Valenz ⫺ Versuch eines Brückenschlags. In: Linguistische Berichte 137, 33⫺44. Thielemann, Werner/Welke, Klaus (Hgg.) (1994): Valenztheorie ⫺ Werden und Wirkung. Wilhelm Bondzio zum 60. Geburtstag. Münster . Vater, Heinz (1994): Einführung in die Sprachwissenschaft. München. Vennemann, Theo (1977): Konstituenz und Dependenz in einigen neueren Grammatiktheorien. In: Sprachwissenschaft 2, 259⫺301.
IV. Valenz. Grundlagen und Grundfragen Vuillaume, Marcel (1995): Der absolute Akkusativ. In: Eichinger, Ludwig M./Eroms, Hans-Werner (Hgg.) (1995), 397⫺412. Vuillaume, Marcel (Hg.) (1998): Die Kasus im Deutschen. Form und Inhalt. Tübingen. Wegener, Heide (1985): Ergativkonstruktionen im Deutschen. In: Kürschner Wilfried/Vogt, Rüdiger (Hgg.) (1985), 187⫺197. Wegener, Heide (1990): Der Dativ ⫺ ein struktureller Kasus? In: Fanselow, Gisbert/Felix, Sascha W. (Hgg.) (1990), 70⫺103. Wegener, Heide (1990a): Komplemente in der Dependenzgrammatik und in der Rektions- und Bindungstheorie. Die Verwendung der Kasus im Deutschen. In: Zeitschrift für germanistische Linguistik 18, 150⫺184. Wegener, Heide (1998): Die Kasus des EXP. In: Vuillaume, Marcel (Hg.) (1998), 71⫺84. Welke, Klaus (1994): Thematische Relationen. Sind thematische Relationen semantisch, syntaktisch oder/und pragmatisch zu definieren? In: Deutsche Sprache 22/1, 1⫺18. Welke, Klaus (1995): Dependenz, Valenz und Konstituenz. In: Eichinger, Ludwig M./Eroms, HansWerner (Hgg.) (1995), 163⫺176. Wunderlich, Dieter (1985): Über die Argumente des Verbs. In: Linguistische Berichte 97, 183⫺227. Wunderlich, Dieter (1996): dem Freund die Hand auf die Schulter legen. In: Harras, Gisela/Bierwisch, Manfred (Hgg.) (1996), 331⫺360. Wunderlich, Dieter (1997): CAUSE and the structure of verbs. In: Linguistic Inquiry 28, 27⫺68.
6.
Quellen
Fontane, Theodor (1976): Unwiederbringlich (⫽ Ullstein-Buch 4522). Frankfurt a. M./Berlin/ Wien. Fontane, Theodor (1976): Stine. (⫽ Ullstein-Buch 4520). Frankfurt a. M./Berlin/Wien. Frisch, Max (1977): Homo Faber (⫽ st 354). Frankfurt a. M. Kronauer, Brigitte (1991): Rita Münster. Stuttgart. Martin, Hansjörg (1988): Bei Westwind hört man keinen Schuss (⫽ rororo thriller 2286). Reinbek bei Hamburg. Raabe, Wilhelm (1968): Die Chronik der Sperlingsgasse. Frankfurt a. M./Berlin. Salomon, Ernst von (1975): Die Geächteten (⫽ rororo 461). Reinbek bei Hamburg. Tucholsky, Kurt (1979): Schloß Gripsholm (⫽ rororo 4). Reinbek bei Hamburg. Wolf, Christa (1983): Kindheitsmuster. Darmstadt und Neuwied (9. Auflage).
Marcel Vuillaume, Nizza (Frankreich)
499
39. Valenz und Pragmatik
39. Valenz und Pragmatik 1. 2. 3. 4. 5. 6. 7.
Einleitung Realisierung bzw. Weglassbarkeit von Ergänzungen Selektion Kasus und Perspektivierung Valenz und Text Zusammenfassung Literatur in Auswahl
1.
Einleitung
Es besteht durchaus kein Konsens darüber, was genau unter dem Begriff der Pragmatik zu subsumieren ist, weshalb es in diesem Zusammenhang ergiebiger sein dürfte, diejenigen Aspekte zu beachten und zu beschreiben, die in der Literatur zur Valenztheorie mehr oder weniger explizit als „pragmatische“ thematisiert worden sind. Der erste, der von einer „pragmatischen“ Valenz gesprochen hat, im Unterschied zu einer semantischen und einer syntaktischen Valenz, dürfte Ru˚zˇicˇka (1978) sein, wobei es darum ging, dass der Sprecher abhängig von den Bedingungen der jeweiligen kommunikativen Situation, die Wahl hat, etwas zu realisieren oder nicht, vgl. Helbig (1992, 47 f.). Ganz allgemein kann aber gesagt werden, dass die Valenz im allgemeinen als eine primär syntaktische Erscheinung aufgefasst worden ist, und zwar als eine Eigenschaft lexikalischer Einheiten auf der Ebene des Sprachsystems; dies ist natürlich eine sehr pauschale und vereinfachte Behauptung, aber kaum eine ganz irreführende. Das Interessante dabei ist aber, dass auch wenn man die Valenz als eine Eigenschaft der Wörter im Lexikon betrachtet, man sie auch als einen sehr potenten Faktor bei der Textgestaltung in verschiedenen Verwendungssituationen ansehen muss. Der Ausgangspunkt, dass die Valenz primär zum Lexikon gehört, hat nicht nur theoretische, sondern auch praktisch-lexikographische Gründe, da die Herstellung von Valenzwörterbüchern eine wichtige Rolle in der valenzorientierten angewandten Linguistik spielt. Aber eben weil die Valenz, wie natürlich auch alle anderen Erscheinungen der Sprache, sich nur in Texten realisiert und dort „beobachtbar“ ist, entstehen große Schwierigkeiten bei der Bestimmung von so grundlegenden Fragen wie die, welche Elemente eines Satzes als durch die Valenz eines Valenzträgers gebunden zu betrachten sind, Schwierigkeiten, die sogar bei-
nahe den Nutzen des Valenzbegriffs überhaupt in Frage gestellt haben. Der „Streit“ scheint häufig um die Frage zu gehen, ob man von „pragmatischer Valenz“ oder von „pragmatischen Aspekten der Valenz“ sprechen sollte, vgl. Helbig (1992, 70), Nikula (1985). Es geht aber sicher nicht „nur um eine terminologische Frage“, wie Birkmann (1998, 42) meint, sondern auch um unterschiedliche Auffassungen, wie man das Phänomen der Valenz überhaupt verstehen und beschreiben kann. Innerhalb der deutschsprachigen Valenztheorie kann man zwei „Richtungen“ oder „Traditionen“ erkennen, wobei vor allem zwei Forscher erwähnt werden sollten, Gerhard Helbig und Klaus Welke. Helbig verhält sich skeptisch gegenüber dem Begriff der pragmatischen Valenz: „In der Tat scheint […] es besser, von pragmatischen Aspekten der Valenz als von einer gesonderten ‘pragmatischen Valenz’ zu sprechen.“ (Helbig 1992, 70) Allerdings vertrat Helbig (1982) noch die Ansicht, dass eine Ebene der pragmatischen Valenz denkbar wäre. Welke dagegen plädiert energisch für den Begriff der pragmatischen Valenz, vgl. weiter etwa Helbig (1992 u. 1995), Welke (1988, 1989 u. 1994).
2.
Realisierung bzw. Weglassbarkeit von Ergänzungen
Eine häufig thematisierte Frage der Valenztheorie ist die Unterscheidung zwischen obligatorischen und fakultativen Ergänzungen, die mit der Gretchenfrage der Valenztheorie, der Unterscheidung zwischen den (valenzgebundenen) Ergänzungen und den (nicht valenzgebundenen) Angaben wenigstens scheinbar eng zusammenhängt, denn wenn sämtliche Ergänzungen eines Valenzträgers immer, oder wenigstens normalerweise, nicht weglassbar wären, gäbe es das Problem der Unterscheidung zwischen Ergänzungen und Angaben nicht, vgl. auch Helbig (1992, 72 ff.; 1995, 269). Nun zeigt es sich aber, dass sowohl fakultative als auch obligatorische Ergänzungen kontextuell weglassbar sind, dass in der Tat in Sprachen wie dem Deutschen wohl jede Ergänzung weglassbar ist, wenn nur der richtige Kontext vorliegt. Weiter kann festgestellt werden, dass nicht nur fa-
500 kultative Ergänzungen, sondern sogar freie Angaben kontextuell in bestimmten Kontexten nicht weglassbar sind. ⫺ Als fakultativ werden im allgemeinen solche Ergänzungen definiert, deren Weglassung die Grammatikalität eines „kontextlosen“ Satzes nicht gefährdet. Ein Problem ist natürlich, dass es in der Kommunikation keine kontextlosen Sätze gibt; auch muss man sich ja indirekt, oder negativ („kontextlos“), auf einen Kontext beziehen, d. h. sich in der Tat bei der Beurteilung der Grammatikalität oder Akzeptabilität irgendeinen Kontext vorstellen, vgl. Nikula (1985, 167 ff.), Storrer (1996a, 233 f.) Vielleicht geht es bei der Beurteilung in der Tat überhaupt nicht um Grammatikalität, sondern um Akzeptabilität, d. h. wenigstens in diesem Sinne hat die Frage, ob eine Ergänzung als fakultativ oder obligatorisch einzustufen ist, auch eine pragmatische Dimension. Die Tatsache, dass die Angaben zur Fakultativität der Ergänzungen in den Valenzwörterbüchern zum Teil nicht miteinander übereinstimmen, scheint einen Grund darzustellen, die Unterscheidung zwischen fakultativen und obligatorischen Ergänzungen in Frage zu stellen, vgl. auch Storrer (1992, Kap. 4). Der jeweilige Valenzträger scheint aber deutlich wenigstens den Grad der Weglassbarkeit steuern zu können, was dafür spricht, dass die an sich problematische Unterscheidung zwischen fakultativen und obligatorischen Ergänzungen wichtige Eigenschaften der Sprache widerspiegelt. Die Problematik kommt sehr anschaulich zum Ausdruck in der scheinbar widersprüchlichen Unterscheidung zwischen struktureller Notwendigkeit und fakultativer Weglassbarkeit von Ergänzungen, die im Valenzwörterbuch von Helbig und Schenkel (1973, 31⫺40) eingeführt wurde. Die strukturelle Notwendigkeit der Ergänzungen bedeutet, dass jede Ergänzung bei der Wahl eines Valenzträgers wenigstens als Leerstelle „mitgewählt“ werden muss, wobei diese Leerstelle zwangsläufig auf die Struktur des Satzes einwirkt. Die strukturelle Notwendigkeit ist eine eindeutig nicht pragmatische. Die Weglassbarkeit von Ergänzungen ist dagegen von sehr verschiedenen Faktoren abhänging, wobei die lexikalisch bedingte Fakultativät einen von vielen darstellt; z. B. scheint es im Deutschen der Fall zu sein, dass die Akkusativergänzung bei sämtlichen be-Verben obligatorisch ist, was ihre Weglassbarkeit in den verschiedensten Kontexten stark beschränkt. Verschiedene syntaktisch-semantische Faktoren wie etwa
IV. Valenz. Grundlagen und Grundfragen
der Ergänzungtyp (z. B. Akkusativ-, Dativoder Situativergänzung), wie auch wenigstens zum Teil semantische Faktoren, wie der Abstraktheitsgrad der Bedeutung des Valenzträgers und die Monosemierbarkeit von Homonymen bzw. von Bedeutungsvarianten polysemer Valenzträger (vgl. Nikula 1978) beeinflussen die Weglassbarkeit bzw. tatsächliche Weglassung der Ergänzungen. Auch die Aktionsart (oder Aspekt) der Verben scheint die Weglassbarkeit beeinflussen zu können, so dass im Deutschen Akkusativergänzungen bei aspektuell neutralen Verben (bauen, essen, kochen, lesen, rauchen usw.) eher fakultativ sind als bei terminativen (aufessen, besteigen, finden, geben, usw.) oder aterminativen (arbeiten, freuen, hassen, lieben usw. Verben), vgl. Nikula (1978, 29 ff.; 1985, 170 ff.). In der Terminologie von Rapp (1997), die dafür plädiert, dass Fakultativität lexikalisch-semantisch bedingt sein kann, sind die neutralen Verben „incremental theme-Verben“, die terminativen dagegen „non-incremental themeVerben“. Es wäre also wohl kaum richtig, die Unterscheidung zwischen fakultativen und obligatorischen Ergänzungen total aufzugeben, aber man sollte vielleicht eher von mehr oder weniger stark obligatorischen bzw. fakultativen Ergänzungen sprechen, statt generell von einer absoluten Dichotomie auszugehen. Im Deutschen wären z. B. das Subjekt generell und das Akkusativobjekt bei etwa den be-Verben sehr stark obligatorische Ergänzungen, während die meisten anderen Ergänzungen weniger stark gebunden sind; als absolut oder wenigstens sehr stark fakultativ dürfte man die Ergänzungen der substantivischen Valenzträger betrachten können. Die entscheidende Bedingung für die tatsächliche Weglassung (bzw. Nicht-Weglassung) ist offenbar genereller pragmatischer Natur, denn es dürfte eben, wenigstens was das Deutsche betrifft, kaum falsch sein zu behaupten, dass jede Ergänzung weglassbar ist, vorausgesetzt, dass die entsprechenden kommunikativen Bedingungen vorliegen. In der Tat wird z. B. das Subjekt, das in Valenzwörterbüchern generell als obligatorisch bezeichnet wird, im Deutschen sehr häufig weggelassen, während dagegen fakultative Ergänzungen häufig im Kontext nicht weggelassen werden können. Weiter können die nicht valenzgebundenen Angaben, die im Prinzip frei weglassbar bzw. hinzufügbar sein sollten, häufig nicht weggelassen werden, ohne dass die Grammatikalität gefährdet wird. Kommunikativ gesehen können sie wichtiger sein
501
39. Valenz und Pragmatik
als die Ergänzungen, und sie sind immer strukturell gesehen informationsschwerer, weil für sie durch die Valenz des Valenzträgers keine Leerstellen vorgesehen werden. Ausgehend von Beobachtungen wie die obigen führt Storrer (1992, Kap. 8 u. 1996a, 227 ff.) den Begriff der „Situationsvalenz“ ein, wo der Ausgangspunkt eine Äußerungssituation ist, in der ein Sprecher mit einem oder mehreren Hörern über ein bestimmtes Thema kommuniziert. Das Modell enthält eine statische Komponente mit allen für die jeweilige Äußerungssituation relevanten Parametern, und weiter eine dynamische Komponente, die in zwei Schritten über diesen Parameterwerten operiert. Im ersten Schritt, der sich auf der übereinzelsprachlich-konzeptuellen Ebene bewegt, wird entschieden, welche „Situationsrollen“ für eine kommunikativ angemessene Äußerung zu wählen sind, wobei der Begriff der kommunikativen Angemessenheit sich an den Griceschen Konversationsmaximen orientiert; im Modell erscheinen sie in Form von „Filtern“. Im zweiten Schritt, der die Schnittstelle zwischen konzeptuell verstandenen Situationsrollen und den Valenzstellen entsprechender Verben darstellt, wird entschieden, mit welchen „valenzgeeigneten“ Verben die im Schritt 1 gewählte Rollenkonstellation verbalisiert werden kann. Storrer kann zeigen, dass und wie die tatsächliche Besetzung von Leerstellen primär durch kommunikativ-pragmatische Faktoren entschieden wird, auch was die sogannte indefinite bzw. definite Auslassung betrifft (vgl. Sæbø 1984); indefinite Auslassung liegt somit vor, wenn Rollen durch das „Relevanzfilter“ herausgefiltert worden sind, weil sie für das Thema nicht relevant waren, während definite Auslassung vorliegt, wenn Rollen herausgefiltert werden, weil sie aus dem Sprach- oder Situationskontext entnommen werden können, Storrer (1996a, 232 f.). Alles kann aber offenbar nicht ausschließlich ausgehend von pragmatischen Faktoren erklärt werden, vgl. die folgenden Beispiele: (1)
Peter zündet sich die Zigarette an und raucht. (J definit: die Zigarette) (Storrer 1996a, 233)
(2)
Peter sitzt vor dem Radio. Er raucht. (J indefinit: irgendetwas) (Storrer 1996a, 233)
(3)
Peter nimmt eine Banane vom Teller und isst sie/isst sie auf. (J definit: die Banane)
(4)
Peter nimmt eine Banane vom Teller und ? isst/*isst auf. (J definit: die Banane)
(5)
Peter sitzt vor dem Fernseher. Er isst. / *Er isst auf. (J indefinit: irgendetwas)
Sowohl bei Definitheit als auch bei Indefinitheit scheinen bei aufessen verbabhängige Restriktionen vorzuliegen, u. a. lexikalische Terminativität, die die Weglassung des Akkusativobjekts verbieten oder wenigstens die Weglassbarkeit stark einschränken; rauchen und essen dagegen sind lexikalisch neutral. Es muss natürlich beachtet werden, wie schon oben in diesem Abschnitt notiert wurde, dass bei der Beurteilung von Beispielsätzen eine „Pragmatisierung“ vorausgesetzt werden muss, d. h. die Beurteilenden sind gezwungen, sich einen Kontext vorzustellen, weshalb es auch von der Vorstellungskraft der Beurteilenden abhängig ist, wie die Akzeptabilität der „kontextlosen“ Sätze eingeschätzt wird. ⫺ Das Modell der Situationsvalenz beschreibt die Realiserung der Valenz in Situationen, wobei der Begriff der Valenz in der Tat schon vorausgesetzt werden muss. Deshalb könnte man die „Situationsvalenz“ als Terminus vielleicht als ein wenig irreführend betrachten, aber mit Hilfe dieses Begriffs ist es zweifellos gelungen, wichtige Aspekte der Valenz zu präzisieren. Ein wenig problematisch ist der Begriff der „Grundvalenz“, der u. a. von Gansel (1993 u. 1996) in Anlehnung an Welke (1988) verwendet wird: „Zu unterscheiden sind m. E. Grundvalenz als Systemvalenz und Valenz im Text.“ Gansel (1996, 120). Weiter: „Die Grundvalenz impliziert semantische und syntaktische Valenz, in der nach meiner Auffassung Semantisches und Syntaktisches als Pragmatisches verankert ist. […] Valenz im Text bedeutet, daß die systemimmanente Grundvalenz, orientiert nach einer konzeptuellen Struktur, einer Textsortenspezifik sowie am aktuellen Kontext, Variationen zulässt.“ (Gansel 1996, 121) Durch den Begriff „Valenz im Text“ wird die Tatsache erfasst, dass die Valenz u. a. unter Einwirkung von pragmatischen Bedingungen in konkreten Texten in verschiedener Weise realisiert wird. Mit Grundvalenz wird die „übliche“ Zahl der Ergänzungen (so auch bei Welke 1988, 62 ff.; 1989, 7) gemeint, wobei mit „üblich“ (oder „gewöhnlich“) „[…] die Relevanz einer Orientierungsgröße für die Kommunikation bezeichnet [wird]. […] Der Begriff der Grundvalenz schließt in jedem Fall den ersten Kontextpartner ein sowie die Kontextpartner, die für
502
IV. Valenz. Grundlagen und Grundfragen
semantisch sinnvolle und grammatisch richtige Sätze notwendig sind.“ (Gansel 1996, 120) Der Grad der kommunikativen Relevanz und semantischen Sinnvollkeit (Welke 1988, 61 f.; 1989, 7 spricht von „stark“ bzw. „schwach präsupponierten“ Ergänzungen) kann aber nur von einem Kommunizierenden im Hinblick auf eine gegebene (konkrete oder fiktive) Kommunikationssituation, d. h. „pragmatisch“ entschieden werden. Es dürfte somit in konkreten Fällen sehr schwierig sein, zwischen dem zu unterscheiden, was zur Grundvalenz gehört und dem, was sich tatsächlich als Valenz im Text realisiert. Kritisch zum Begriff der Grundvalenz hat sich vor allem Gerhard Helbig geäußert, vgl. Helbig (1992, 96 f.; 1995, 268). Zum Teil dürfte die Uneinigkeit darüber, ob die Fakultativität als lexikalisch oder pragmatisch bedingt zu betrachten sei, in vielen valenztheoretischen Arbeiten auf terminologische Unklarheiten zurückzuführen sein, d. h. dass nicht nur etwa nicht-notwendig mit fakultativ, sondern auch fakultativ mit weglassbar gleichgesetzt wird, vgl. dazu Helbig (1992, 99 ff.). ⫺ Durch die Dichotomien notwendig vs. nicht-notwendig und obligatorisch vs. fakultativ werden Eigenschaften von Valenzträgern erfasst, die die Zahl der Ergänzungen bzw. bestimmte lexikalische Restriktionen für deren Realisierung angegeben. Durch die Dichotomie weglassbar bzw. nicht-weglassbar werden sämtliche Restriktionen erfasst, die die tatsächliche Realisierung von sprachlichen Zeichen in der Kommunikation steuern, und zwar nicht nur von Ergänzungen. Die Restriktionen der Weglassbarkeit können somit als pragmatisch betrachtet werden, da aber natürlich die pragmatischen Restriktionen auch über den nicht-pragmatischen operieren müssen, ist die Unterscheidung „pragmatisch oder nicht-pragmatisch“ in konkreten Fällen dadurch durchaus nicht eindeutig oder irgendwie automatisch gelöst.
3.
Selektion
Im Valenzwörterbuch von Gerhard Helbig und Wolfgang Schenkel wird der Begriff der Selektion(sregel) in Anlehnung an die Standardversion der generativen Transformationsgrammatik eingeführt. Die Selektionsregeln werden aber von Helbig und Schenkel nicht als rein syntaktische Restriktionen betrachtet, sondern als syntaktischer Reflex einer semantischen Valenz, wobei die semantische Valenz
sich „[…] aus den Verträglichkeitsbeziehungen zwischen den Bedeutungskomponenten (Semen, Noemen, Bedeutungsmerkmalen u. a.) von Verb und Aktant […]“ ergibt, Helbig und Schenkel (1973, 53). Wie in der Transformationsgrammatik stellen die Selektionsregeln auch im Modell von Helbig und Schenkel Bedingungen für die Grammatikalität des Satzes dar. Im Mannheimer Valenzwörterbuch Verben in Feldern (Schumacher (Hg.) 1986) wird auch eine Art Selektionsregeln eingeführt, die im Anschluss an die Bedeutungspostulate Carnaps formuliert sind und Belegungsregeln genannt werden: „Mit dem Satz Der Wasserturm schläft. wird fälschlicherweise behauptet, daß der Wasserturm ein Lebewesen bezeichne, was nicht bedeutet, daß der Satz ‘ungrammatisch’ ist. Es besteht somit ein grundsätzlicher Unterschied zwischen diesen Belegungsregeln und den ‘Selektionsbeschränkungen’ der Transformationsgrammatik, die als inhärente Merkmale der Nomina aufgefaßt werden.“ (Schumacher (Hg.) 1986, 20) Gemeinsam für beide Ansätze ist, dass die „Selektion“ als eine Angelegenheit des Lexikons bzw. des Wörterbuchs betrachtet wird, d. h. dass die Belegbarheit der durch die Valenz des Valenzträgers eröffneten Leerstellen durch bestimmte lexikalische Eigenschaften dieses Valenzträgers gesteuert wird. In diesem Falle könnte man von syntaktisch-semantischer bzw. semantischer Valenz sprechen, nicht aber von pragmatischer Valenz, denn es wird von konkreten kommunikativen Situationen abstrahiert. Würde man aber in konkreten Situationen einen Satz wie Der Wasserturm schläft. äußern indem man „behauptet“ (oder präsupponiert), dass „der Wasserturm ein Lebewesen bezeichne“? Dies ist natürlich vom Kontext (Ko-Text und Situation) abhängig. Wenn der Sprecher geisteskrank wäre, wäre es denkbar, wie auch, wenn es um ein Märchen oder einen Traum gehen würde, d. h. der gegebene Kontext einschließlich der vorausgesetzten Bezugswelt gibt die Bedingungen dafür an, ob und in welcher Weise der Satz Der Wasserturm schläft. „abweichend“ ist. In Situationen, die den angegebenen drei Kontexttypen zugeordnet werden können, ist es eher wahrscheinlich, dass der Hörer der Meinung ist, dass der Sprecher eine sinnvolle Äußerung geäußert hat ⫺ im Falle des Geisteskranken natürlich ausgehend von einer etwas gestörten Wirklichkeitsauffassung. Nur wenn der Sprecher den Satz deshalb äußert, weil er die Bedeutung von Wasserturm bzw.
503
39. Valenz und Pragmatik
schlafen nicht kennt, würde es um sprachliche Abweichungen gehen. Dies scheint darauf hinzudeuten, dass durch Selektions- bzw. Belegungsregeln der angegebenen Art eigentlich weder syntaktische, noch semantische, sondern pragmatische Bedingungen der Wohlgeformtheit erfasst werden: wenn man die Bedeutung eines Valenzträgers kennt, dann kennt man ausgehend von seinem Welt- und Kontextwissen auch die denkbaren Füllungen der Leerstellen. Es würde also eher um „pragmatische Valenz“ oder „pragmatische Aspekte der Valenz“ gehen. Es scheinen aber Bedingungen der Kombinierbarkeit vorzukommen, die nicht ausgehend vom Kontext- und Weltwissen voraussagbar sind, sondern einzellexemspezifisch sind, und somit eher zum Bedeutungswissen gezählt werden sollten. Ein Beispiel wäre das Verb schütten, dessen Objekt entweder eine Flüssigkeit oder etwas aus kleinen Teilchen Bestehendes bezeichnen muss. Bei Verben wie gießen und spritzen bezeichnet das Objekt eher nur eine Flüssigkeit, während das typische Objekt bei etwa streuen aus kleinen Teilchen besteht. Dass die erwähnten Objekttypen dagegen bei z. B. spalten und zerspalten nicht möglich sind, ist klar. Dass das Subjekt von fressen normalerweise ein Tier, das von essen dagegen ein Mensch sein soll, ist kaum voraussagbar ausgehend von der durch das Verb bezeichneten Tätigkeit, sondern ist eher Bestandteil der Bedeutung des Verbs, und dasselbe betrifft das Objekt von ermorden, das normalerweise einen Menschen bezeichnen soll, vgl. weiter auch Askedal (1986).
4.
Kasus und Perspektivierung
Die „semantischen“ Kasus könnten als eine Art „ergänzende Weiterentwicklung“ der oben im Abschn. 3 behandelten Selektionsbeschränkungen bzw. Belegungsregeln in der Valenztheorie angesehen werden, wobei es, pauschal ausgedrückt, bei den Kasus um Funktionen, bei den Selektions- bzw. Belegungsregeln um Kategorien geht. Die kasustheoretischen Ansätze in der Tradition von Fillmore können anfangs als syntaktisch-semantisch oder semantisch angesehen werden, wie aber Helbig (1992, 33) notiert, eröffnet Fillmore „[…] über den Begriff der ‘Szene’ eine Öffnung zur kommunikativen und kognitiven Dimension […]“, vgl. etwa Fillmore (1977). Eng mit dem Begriff der Szene verknüpft ist der Begriff der Perspektive. Die Verbindung der Kasustheorie mit
den Begriffen Szene und Perspektive, wie auch mit anderen damit zusammenhängenden Begriffen aus der kognitiven Psychologie und der künstlichen Intelligenz wie Frames, Skripts und Schemas, hat dazu geführt, dass die sogenannte Kasustheorie jetzt aus einer noch größeren Menge von verschiedenen theoretischen Ansätzen als früher besteht. Wichtig in diesem Zusammenhang ist, dass man einerseits zwischen Kasusbegriffen unterscheiden kann, die einen deutlich „nicht-pragmatischen“ Charakter haben, und solchen, die vielleicht eher als pragmatisch aufgefasst werden können. Helbig (1995, 261) unterscheidet zwischen den folgenden vier Kasustypen: A) B) C)
D)
Das ursprüngliche, situativ-ontologisch orientierte Kasuskonzept von Fillmore. Ein stärker an der Syntax orientiertes Kasuskonzept. Die Kasus werden als Funktionen von Argumenten der semantischen Struktur angesehen, wobei sie die Nahtstelle zwischen der semantischen Prädikat-Argumentstruktur und der syntaktischen Satzgliedstruktur darstellen. „Das Kasuskonzept D hingegen koppelt die Kasus von der denotativen Semantik ab, bindet sie in kognitive und situative Szenen ein und leitet sie aus der Perspektive auf diese Szenen ab.“ (Helbig 1995, 261).
Als Beispiel wird in Anlehnung an Fillmore (1977, 58 ff.) die „Kaufszene“ mit den vier Rollen „Verkäufer“, „Käufer“, „Ware“ und „Preis“ verwendet. Helbig (1995, 264) stellt fest: „Weil die Kasus C abstrakte Beziehungen in der Struktur sprachlicher Bedeutungen darstellen, die Szenen aber deren Realisierung in der Kommunikation betreffen, sind auch die für die Kasus D verwendeten Termini (‘Ware’, ‘Käufer’) viel konkreter und ‘pragmatischer’ als die für die Kasus C verwendeten Termini (‘Agens’, ‘Patiens’) […], sind auch die Kasus C ⫺ wie Bedeutungen überhaupt ⫺ weitgehend einzelsprachlich, müßten aber die Szenen (wie kognitive Wissensrepräsentationen überhaupt) übereinzelsprachlich oder gar universal sein.“ Wenn die Valenz als eine Eigenschaft von Lexemen betrachtet wird, und dabei Szenen als nicht einzellexemspezifisch definiert werden, können die „Kasus D“ nicht als Valenzmerkmale gezählt werden. Wenn aber die Szene als schon durch den Valenzträger perspektiviert betrachtet wird, könnten die in der (perspektivierten) Szene enthaltenen Kasus
504 oder Rollen als Valenzmerkmale betrachtet werden, wobei die Szene die Schnittstelle zwischen Bedeutungs- und Situationswissen darstellen würde. Ein Beispiel: Es ist denkbar, das Verb kaufen als zweiwertig zu betrachten, wobei die durch das Verb perspektivierte Szene nur den „Käufer“ als merkmalloses potentielles Subjekt und die „Ware“ als merkmalloses potentielles Objekt enthalten würde, während sämtliche Rollen in einem größeren prototypischen Zusammenhang, etwa „Skript“, „Schema“ oder „Situationstyp“, enthalten wären, vgl. Nikula (1995, 142 f.), wie auch Welke (1988, 58 f.; 1989) und Helbig u. Schenkel (1973, kaufen). Wenn der Sprecher ausgehend von seinen aktuellen kommunikativen Bedürfnissen, wo eine Kaufsituation die „Rekurssituation“ (vgl. Storrer 1992, 258 f. u. 1996a u. b) darstellt, sich primär über den Käufer und die Ware äußern möchte, steht ihm somit das Verb kaufen mit der geeigneten Rollenperspektivierung zur Verfügung. Die Entscheidung, welche Rollen perspektiviert werden sollen und somit auch, welcher Valenzträger gewählt wird, geschieht ausgehend von der aktuellen Kommunikationssituation, wobei also pragmatische Gesichtspunkte entscheidend sind. Man könnte somit von „pragmatischen Aspekten der Valenz“ sprechen, „[…] weil pragmatische Faktoren und Regeln auf die syntaktisch-semantische Struktur angewandt werden […]“, Helbig (1992, 51). Welke (1988, 85 ff.; 1989 u. 1994) geht hier einen Schritt weiter, indem er ausgehend von der wichtigen Feststellung, dass die Rollen schon im Lexikon als durch den Valenzträger perspektiviert vorliegen, „wobei das Semantische sprachlich nur subjektiv gebrochen als Pragmatisch-Semantisches existiert“ (Welke 1989, 6), diese Rollen pragmatisch nennt und von pragmatischer Valenz spricht. Gegen eine solche Auffassung kann u. a. eingewendet werden, dass die Rollen sich primär auf die Rekurssituation beziehen, auch wenn natürlich u. U. Rollen der Rekurs- und der Äußerungssituation sich decken können, und dass die aktuelle Perspektivierung pragmatisch ausgehend von Bedingungen der jeweils aktuellen Äußerungssituation geschieht, wobei nach geeigneten lexikalischen Mitteln gesucht werden muss, u. a. nach Valenzträgern, deren Kasusrahmen die betreffenden Rollen in einer schon in der entsprechenden Weise perspektivierten Konstellation enthalten. Wenn man die lexikalisierte, einzellexemspezifisch perspektivierte Rollenkonstellation als Ausdruck pragmatischer Restriktionen betrachtet, ist
IV. Valenz. Grundlagen und Grundfragen
schwer zu sagen, was denn überhaupt nicht als pragmatisch bezeichnet werden könnte, denn letzten Endes gibt es Sprache nur in Form von sprachlichem Wissen und als Ergebnis der Verwendung dieses Wissens; Beides setzt Sprachteilhaber bzw. Sprachbenutzer voraus, wobei es natürlich in diesem Sinne auch in beiden Fällen um Pragmatik geht. Die Auffassung Welkes ist aber verständlich, wenn man seinen allgemeinen Ausgangspunkt akzeptiert, vgl. etwa Welke (1989, 15): „Wenn Pragmatik der Bezug auf den die Zeichen verwendenden Sprachbenutzer ist, dann ist das Pragmatische nicht nur Aspekt der aktuellen Sprachverwendung, sondern auch des Sprachsystems. Die Subjektivität des Sprachbenutzers findet nicht nur in der aktuellen Sprachverwendung Ausdruck, sondern auch im zugrunde liegenden allgemeinen Kenntnissystem (im Lexikon und in der Grammatik).“
5.
Valenz und Text
Alle Untersuchungen, die sich mit Problemen der Valenz befassen, müssen irgendwie, explizit oder implizit, Stellung nehmen zu der Beziehung zwischen Valenz und Text, und somit auch zur Beziehung zwischen Valenz und Pragmatik. Es scheint aber noch relativ wenige Untersuchungen zu geben, die sich ausgehend von einer textlinguistischen Perspektive mit den Beziehungen zwischen Valenz und Text befassen, d. h. valenztheoretische Untersuchungen, wo der Text im Zentrum steht. Zwei Themenbereiche können dabei erwähnt werden, erstens Valenz und Textsorte, zweitens Valenz und Kohärenz, vgl. Abschn. 5.1. und 5.2. unten. 5.1. Textsorten Es ist wiederholt darauf hingewiesen worden, dass die Textsorte die tatsächliche Realisierung bzw. Nicht-Realisierung von Ergänzungen beeinflusst, vgl. etwa Helbig (1982, 22 f.; 1992, 49 f.), Schwitalla (1985 u. 1988), Simmler (1994a u. b; 1995). Insofern Textsortenwissen als pragmatisches Wissen betrachtet wird, kann hier von pragmatischen Bedingungen der Weglassbarkeit gesprochen werden. Verschiedene Fachtextsorten bieten deutliche Beispiele, wobei aber wenigstens zwischen zwei Fällen unterschieden werden muss. Erstens kann es sein, dass es nur scheinbar um denselben Valenzträger wie in anderen Textsorten geht, d. h. es liegt im Fachtext ein Terminus mit einer etwas abweichenden Bedeutung und
505
39. Valenz und Pragmatik
Valenz vor, wobei die Textsorte also a) eine rein terminologisierte oder b) eine fachspezifische Bedeutungsvariante nahelegt; in beiden Fällen liegt eine bedeutungsspezifische Valenz vor. Zweitens kann es in der Tat um eine textsortenspezifische Konvention bezüglich der Weglassung von Ergänzungen gehen, die wohl vor allem auf solche allgemeine kommunikative Bedingungen zurückzuführen sind, wie etwa die Griceschen Konversationsmaximen. (Vgl. auch Simmler 1995, 203.) Schwitalla (1985) macht anhand des Beispiels von sterben darauf aufmerksam, dass die Nichtbeachtung von textsortenspezifischen Bedingungen zu widersprüchlichen Darstellungen der Valenz führen kann, u. a. weil bestimmte Angaben hochfrequent auftreten können, was somit zu dem fälschlichen Schluss führen kann, dass sie in der Tat Ergänzungen sind; im Falle sterben seien in den Textsorten „Nachrichten über den Tod bekannter Persönlichkeiten“ und „Todesanzeige“ Zeitangaben, Ortsangaben und Altersangaben frequent, nicht aber in gleicher Weise in beiden Textsorten, Schwitalla (1985, 268 f.). Die Beziehung zwischen Valenz und Textsorte kann auch ausgehend vom Geschehenstyp und semantischem Satzmodell betrachtet werden, wobei die Realisierungen bzw. NichtRealisierungen von Ergänzungen als Ergebnisse der Perspektivierungen von situationstypischen Rollen beschrieben werden können, z. B. ausgehend von einem Modell wie die der „Situationsvalenz“ von Storrer (1992). Als einen Ansatz in diese Richtung kann z. B. Sommerfeldt (1995) betrachtet werden. 5.2. Textkohärenz Die Wahl eines bestimmten Verbs als Prädikatsverb eines (Haupt-)Satzes bedeutet die Wahl der Grundstruktur dieses Satzes in Form von valenzbedingten Leerstellen und den mit diesen verknüpften Belegungsrestriktionen, wobei natürlich zugleich auch die Textstruktur beeinflusst wird. Da durch die Weglassung von Ergänzungen eine Leerstelle ensteht, die durch den Bezug auf den Kontext implizit zu besetzen ist, dient vor allem die definite Auslassung, vgl Abschn. 2. oben, als ein starkes kohäsionsstiftendes Mittel, da der Rezipient jetzt ohne Hilfe expliziterer formaler Mittel (etwa der pronominalen Anaphorisierung) nach einer Leerstellenbesetzung suchen muss, die den Text sinnvoll oder kohärent macht. Sinnvoll oder kohärent kann ein Text nur in der Interpretation eines bestimmten Textproduzenten oder Rezipienten sein, wes-
halb hier auch eindeutig kommunikativ-pragmatische Aspekte aktualisiert werden. ⫺ Auch wenn es deutlich ist, dass es ein Zusammenspiel zwischen Valenz und Textkohärenz gibt, ist auf diesem Gebiet in der Forschung äußerst wenig gemacht worden; das Problem ist vor allem im Zusammenhang mit der Beurteilung der Weglassbarkeit von Ergänzungen und anderen Satzgliedern in „kontextlosen“ Sätzen thematisiert worden, vgl. oben Abschn. 2. Explizit, aber nur ansatzweise, wird die Valenz mit der Kohärenz von Texten in Sommerfeldt (1991b) verknüpft. Die Bedeutung der Valenz, vor allem des Verbs, als kohärenzstiftender Faktor kommt sehr anschaulich in Hans Jürgen Heringers häufig zitierter Feststellung zum Ausdruck: „Ein Verb, das ist so, wie wenn man im dunklen Raum das Licht anknipst. Mit einem Schlag ist eine Szene da.“ (Heringer 1984, 49) Die Verbindung der Valenz mit den Begriffen Szene, Skript, Schema usw. und mit der Perspektivierung bietet eine Möglichkeit, die Potenz der Valenzträger als kohärenzstiftenden Faktor zu beschreiben, aber in diesem Bereich gibt es noch viel zu tun.
6.
Zusammenfassung
Die Frage, ob man eine Ebene der pragmatischen Valenz annehmen kann, oder ob man höchstens von pragmatischen Aspekten der Valenz sprechen sollte, ist natürlich u. a. davon abhängig, wie man den Begriff der Pragmatik und den Begriff der Valenz überhaupt auffasst, wie auch davon, von welchem sprachtheoretischen Modell ausgegangen wird. Es gibt aber weitere Gesichtspunkte, die zu Unklarheiten in der Diskussion führen, wie auch dazu, dass man ganz offenbar häufig aneinander vorbeiredet. Ein zentraler Punkt ist, dass man davon ausgehend, dass die Valenz nur in der Verwendung beobachtbar ist, nicht immer genau genug versucht, zwischen System und Verwendung zu unterscheiden. Auch werden theoretisch und praktisch orientierte Zielsetzungen bei der Valenzbeschreibung nicht deutlich genug auseinandergehalten, wobei schon aus diesem Grunde scheinbare Widersprüche entstehen, die möglicherweise vorschnell zur Annahme einer Ebene der pragmatischen Valenz führen können. Z. B. kann eine Beschreibung der Lexeme im Lexikon einer Sprache natürlich nicht gleichgesetzt werden mit der Beschreibung von Wörtern in Wörterbucheinträgen. Es ist z. B.
506
IV. Valenz. Grundlagen und Grundfragen
denkbar, dass es bei einer Beschreibung der Valenz als Eigenschaft von Lexemen im Lexikon sich als berechtigt erweist, die Zahl der Ergänzungen sehr niedrig zu halten, z. B. kaufen als zweiwertig zu beschreiben, während es in Wörterbüchern für praktische Zwecke sich als günstiger erweist, sogar sämtliche situationstypische Rollen als Ergänzungen zu beschreiben, z. B. kaufen als vierwertig. ⫺ Es scheint aber unumstritten zu sein, dass die Valenz, auch wenn sie an sich als als eine rein lexikalische Erscheinung betrachtet wird, ein wichtiger textgestaltender Faktor darstellt, und dass in diesem Zusammenhang viele Aspekte aktualisiert werden, die pragmatischer Natur sind.
Helbig, Gerhard (1995): Erweiterungen des Valenzmodells? In: Eichinger, Ludwig M./Eroms, HansWerner (Hgg.) (1995), 259⫺274. Helbig, Gerhard/Schenkel, Wolfgang (1973): Wörterbuch zur Valenz und Distribution deutscher Verben. Leipzig. (2., überarb. u. durchges. Aufl.). Heringer, Hans Jürgen (1984): Neues von der Verbszene. In: Pragmatik in der Grammatik. (⫽ Sprache der Gegenwart 60). Düsseldorf, 34⫺64. Nikula, Henrik (1978): Kontextuell und lexikalisch bedingte Ellipse. (⫽ Publications of the Research ˚ bo Akademi Foundation 35). Institute of the A Turku. Nikula, Henrik (1985): Pragmatik und Valenz. In: Nyholm, Kurt (Hg.) (1985): Grammatik im Unterricht. (⫽ Publications of the Research Institute of ˚ bo Akademi Foundation 103). Turku, 159⫺ the A 183.
7.
Nikula, Henrik (1986): Valenz und Text. In: Deutsch als Fremdsprache 23: 5, 263⫺268. Nikula, Henrik (1995): Valenz und Bedeutung. In: Eichinger, Ludwig M./Eroms, Hans-Werner (Hgg.) (1995), 135⫺149. Rapp, Irene (1997): Fakultativität von Verbargumenten als Reflex der semantischen Struktur. In: Linguistische Berichte 172, 490⫺529. Ru˚zˇicˇka, Rudolf (1978): Three Aspects of Valency. In: Abraham, Werner (Hg.) (1978): Valence, Semantic Case and Grammatical Relations. Amsterdam, 47⫺53. Sæbø, Kjell (1984): Über fakultative Valenz. In: Deutsche Sprache 12: 2, 97⫺109.
Literatur in Auswahl
Askedal, John Ole (1986): Seleksjonsregler ⫺ syntaks, semantikk, pragmatikk? Noen uformelle betraktningar omkring et syntaktisk 20-a˚rsminne. In: Norskrift 51, 82⫺99. Birkmannn, Peter (1998): Verbvalenz und Sprachökonomie. Die deutschen Verben und ihre Ausstattung in Verwendung und im System. Frankfurt am Main/Berlin/Bern/New York/Paris. Dentler, Sigrid (1990): Verb und Ellipse im heutigen Deutsch. Zum „Fehlen“ verbabhängiger Bestimmungen in Theorie und Praxis. (⫽ Göteborger germanistische Forschungen 31). Göteborg. Eichinger, Ludwig M. /Eroms, Hans-Werner (Hgg.) (1995): Dependenz und Valenz. (⫽ Beiträge zur germanistischen Sprachwissenschaft 10). Hamburg. Fillmore, Charles J. (1977): Scenes-and-Frames Semantics. In: Zampolli, Antonio (Hg.) (1977): Linguistics Structures Processing. Amsterdam/New York/Oxford, 55⫺81. Gansel, Christina (1993): Obligatheit und Fakultativität als Ausdruck von Perspektivierungen. In: Deutsch als Fremdsprache 30: 3, 157⫺163. Gansel, Christina (1996): Valenz als Resultat mentaler Operationen. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996), 117⫺127. Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996): Lucien Tesnie`re ⫺ Syntaxe structurale et ope´rations mentales. (⫽ Linguistische Arbeiten 348). Tübingen. Helbig, Gerhard (1982): Valenz ⫺ Satzglieder ⫺ semantische Kasus ⫺ Satzmodelle. Leipzig. Helbig, Gerhard (1990): Zu semantischen und pragmatischen Aspekten der Valenz (und der Kasus). In: Zeitschrift für Germanistik 11: 1, 57⫺72. Helbig, Gerhard (1992): Probleme der Valenz- und Kasustheorie. (⫽ Konzepte der Sprach- und Literaturwissenschaft 51). Tübingen.
Schumacher, Helmut (Hg.) (1986): Verben in Feldern. Valenzwörterbuch zur Syntax und Semantik deutscher Verben. Berlin/New York. Schwitalla, Johannes (1985): Valenz und Text. In: Deutsch als Fremdsprache 22: 5, 266⫺270. Schwitalla, Johannes (1988): Kommunikative Bedingungen für Ergänzungsrealisierungen. In: Helbig, Gerhard (Hg.) (1988): Valenz, semantische Kasus und/oder „Szenen“. (⫽ Linguistische Studien, Reihe A, Arbeitsberichte 180). Berlin, 74⫺84. Simmler, Franz (1994a): Bezeichnungen für Angriffs- und Zuspielaktionen und ihre Valenz in Mannschaftssportarten. In: Zeitschrift für germanistische Linguistik 22, 1⫺33. Simmler, Franz (1994b): Verben des Verteidigens und ihre Valenzen im Kommunikationsbereich des Sports. In: Thielemann, Werner/Welke, Klaus (Hgg.) (1994): Valenztheorie ⫺ Werden und Wirkung. Münster, 125⫺155. Simmler, Franz (1995): Textsortengebundene Valenz im Kommunikationsbereich des Sports. In: Eichinger, Ludwig M./Eroms, Hans-Werner (Hgg.) (1995), 201⫺223. Sommerfeldt, Karl-Ernst (1991a): Die Valenz als Mittlerin zwischen Sprachsystem und Text. In: Wirkendes Wort 2, 302⫺315.
39. Valenz und Pragmatik Sommerfeldt, Karl-Ernst (1991b): Valenz und Textkohärenz. In: Beiträge zur Erforschung der deutschen Sprache, Band 10, 1⫺29. Sommerfeldt, Karl-Ernst (1995): Valenz ⫺ semantisches Satzmodell ⫺ Textsorte. In: Eichinger, Ludwig M./Eroms, Hans-Werner (Hgg.) (1995), 151⫺ 161. Storrer, Angelika (1992): Verbvalenz. Theoretische und methodische Grundlagen ihrer Beschreibung in Grammatikographie und Lexikographie. (⫽ Reihe germanistische Linguistik 126). Tübingen. Storrer, Angelika (1996a): Wie notwendig sind obligatorische Valenzstellen? ⫺ Faktoren der Weglassbarkeit von Valenzstellen im Text. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996), 225⫺238.
507 Storrer, Angelika (1996b): Verbbedeutung und Situationsperspektivierung. In: Grabowski, Joachim/ Harras, Gisela/Herrmann, Theo (Hgg.) (1996): Bedeutung ⫺ Konzepte ⫺ Bedeutungskonzepte. Theorie und Anwendung in Linguistik und Psychologie. Opladen, 231⫺255. Welke, Klaus (1988): Einführung in die Valenz- und Kasustheorie. Leipzig. Welke, Klaus (1989): Pragmatische Valenz: Verben des Besitzwechsels. In: Zeitschrift für Germanistik 10: 1, 5⫺18. Welke, Klaus (1994): Thematische Relationen. Sind thematische Relationen semantisch, syntaktisch oder/und pragmatisch zu definieren? In: Deutsche Sprache. 22: 1, 1⫺18.
Henrik Nikula, Turku (Finnland)
V. Dependenzielle Theorien Dependency Theories 40. Word Grammar 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11.
A brief overview of the theory Historical background The cognitive network Default inheritance The language network The utterance network Morphology Syntax Semantics Processing Select Bibliography
1.
A brief overview of the theory
Word Grammar (WG) is a general theory of language structure. Most of the work to date has dealt with syntax, but there has also been serious work in semantics and some more tentative explorations of morphology, sociolinguistics, historical linguistics and language processing. The only areas of linguistics that have not been addressed at all are phonology and language acquisition (but even here see van Langendonck 1987). The aim of this article is breadth rather than depth, in the hope of showing how far-reaching the theory’s tenets are. Although the roots of WG lie firmly in linguistics, and more specifically in grammar, it can also be seen as a contribution to cognitive psychology; in terms of a widely used classification of linguistic theories, it is a branch of cognitive linguistics (Taylor 1989, Lakoff 1987, Langacker 1987; 1990). The theory has been developed from the start with the aim of integrating all aspects of language into a single theory which is also compatible with what is know about general cognition. This may turn out not to be possible, but to the extent that it is possible it will have explained the general characteristics of language as “merely” one instantiation of more general cognitive characteristics.
The overriding consideration, of course, is the same as for any other linguistic theory: to be true to the facts of language structure. However, our assumptions make a great deal of difference when approaching these facts, so it is possible to arrive at radically different analyses according to whether we assume that language is a unique module of the mind, or that it is similar to other parts of cognition. The WG assumption is that language can be analysed and explained in the same way as other kinds of knowledge or behaviour unless there is clear evidence to the contrary. So far this strategy has proved productive and largely successful, as we shall see below. As the theory’s name suggests, the central unit of analysis is the word, which is central to all kinds of analysis: ⫺ Grammar. Words are the only units of syntax (section 8), as sentence structure consists entirely of dependencies between individual words; WG is thus clearly part of the tradition of dependency grammar dating from Tesnie`re (1959; Fraser 1994). Phrases are implicit in the dependencies, but play no part in the grammar. Moreover, words are not only the largest units of syntax, but also the smallest. In contrast with Chomskyan linguistics, syntactic structures do not, and cannot, separate stems and inflections, so WG is an example of morphology-free syntax (Zwicky 1992, 354). Unlike syntax, morphology (section 7) is based on constituent-structure, and the two kinds of structure are different in others ways too. ⫺ Semantics. As in other theories words are also the basic lexical units where sound meets syntax and semantics, but in the absence of phrases words also provide the only point of contact between syntax and semantics, giving a radically “lexical” semantics. As will appear in section 9, a
509
40. Word Grammar
rather unexpected effect of basing semantic structure on single words is a kind of phrase structure in the semantics. ⫺ Situation. We shall see in section 6 that words are the basic units for contextual analysis (in terms of deictic semantics, discourse or sociolinguistics). Words, in short, are the nodes that hold the “language” part of the human network together. This is illustrated by the word cycled in the sentence I cycled to UCL, which is diagrammed in Figure 40.1.
event e . < now me
e
‘I ride-bike to UCL’
er
tim
ak
spe
‘ride-bike’
CYCLE
past >a
s I
cycled
c to
UCL
/saikl d/
Fig. 40.1
As can be seen in this diagram, cycled is the meeting point for ten relationships which are
detailed in Table 40.1. These relationships are all quite traditional (syntactic, morphological, semantic, lexical and contextual), and traditional names are used where they exist, but the diagram uses notation which is peculiar to WG. It should be easy to imagine how such relationships can multiply to produce a rich network in which words are related to one another as well as to other kinds of element including morphemes and various kinds of meaning. All these elements, including the words themselves, are “concepts” in the standard sense; thus a WG diagram is an attempt to model a small part of the total conceptual network of a typical speaker.
2.
Historical background
The theory described in this article is the latest in a family of theories which have been called ‘Word Grammar’ since the early 1980s (Hudson 1984). The theory is still changing and a range of more or less radical variants are under active consideration (Rosta 1994; 1996; 1997, Kreps 1997). The following brief history may be helpful in showing how the ideas that are now called ‘Word Grammar’ developed. The origins go back to the theory being developed by Halliday (1961) under the name ‘Scale-and-Category’ grammar, which later turned into Systemic Functional Grammar (Halliday 1985, Butler 1985). Under the influence of Chomsky’s generative grammar (1957, 1965), reinterpreted by McCawley (1968) as well-formedness conditions, the first generative version of Halliday’s Systemic Grammar was developed in Hudson (1970). This theory has a very large network (the “system network”) at its heart, and networks
Table 40.1
related concept C
relationship of C to cycled
notation in diagram
the word I the word to the morpheme /saikl/ the word-form /saikld/ the concept ‘ride-bike’ the concept ‘event e’ the lexeme CYCLE the inflection ‘past’ me now
subject post-adjunct stem shape sense referent
‘s’ ‘⬎ a’ straight downward line curved downward line straight upward line curved upward line
cycled isa C
triangle resting on C
speaker time
‘speaker’ ‘time’
510 also loomed large at the same time in the Stratificational Grammar of Lamb (1966, Bennett 1994). Another reason why stratificational grammar was important was that it aimed to be a model of human language processing ⫺ a cognitive model. Seeing the attractions of both valency theory and Chomsky’s subcategorisation, the next stage was a hybrid theory which was basically Systemic Grammar, but with the addition of word-word dependencies under the influence of Anderson (1971); the theory was called ‘Daughter-Dependency Grammar’ (Hudson 1976). The following phase was characterized by the rise of cognitive science (especially inheritance systems and frames) and the closely related field of lexical semantics (especially Fillmore’s Frame Semantics 1975, 1976). The result was a very “cognitive” textbook on sociolinguistics (Hudson 1980a, 1996a). Under the influence of Chomsky’s ‘Remarks on nominalisation’ paper (1970) the possibilities of a radically lexicalist approach were explored and led to the idea of “pan-lexicalism” (1980b, 1981): everything in the grammar is ‘lexical’ in the sense that it is tied to word-sized units (including word classes). The 1980s. All these influences combined in the first version of Word Grammar (Hudson 1984), a cognitive theory of language as a network which contains both ‘the grammar’ and ‘the lexicon’ and which integrates language with the rest of cognition. The semantics follows Lyons (1977), Halliday (1967⫺8) and Fillmore (1976) rather than formal logic, but even more controversially, the syntax no longer uses phrase structure at all in describing sentence structure, because everything that needs to be said can be said in terms of dependencies between single words. The influence of continental dependency theory is evident but the dependency structures were richer than those allowed in “classical” dependency grammar (Robinson 1970) ⫺ more like the functional structures of Lexical Functional Grammar (Kaplan and Bresnan 1982). Bresnan’s earlier argument (1978) that grammar should be compatible with a psychologically plausible parser also suggested the need for a parsing algorithm, which has led to a number of modest NLP systems using WG (Fraser 1985; 1989; 1993, Hudson 1989, Shaumyan 1995). These developments provided the basis for the next book-length description of WG, ‘English Word Grammar’ (EWG, Hudson 1990). This
V. Dependenzielle Theorien
attempts to provide a formal basis for the theory as well as a detailed application to large areas of English morphology, syntax and semantics. The 1990s. Since the publication of EWG there have been some important changes in the theory, ranging from the general theory of default inheritance, through matters of syntactic theory (with the addition of ‘surface structure’ and the virtual abolition of features) and morphological theory (where ‘shape’ and ‘inflection’ are new), to details of analysis, terminology and notation. These changes will be described below. WG has also been applied to a wider range of topics than previously: ⫺ lexical semantics (Gisborne 1993; 1996, Gorayska 1985, Hudson 1992; 1995), ⫺ morphology (Chekili 1982, Creider and Hudson 1998), ⫺ historical linguistics (Hudson 1997a), ⫺ sociolinguistics (Hudson 1996a; 1997b), ⫺ language processing (Hudson 1993a, b; 1996b), ⫺ language pedagogy (Hudson 1994; 1998) Most of this work has applied WG to English, but it has also been applied to the following languages: Tunisian Arabic (Chekili 1982), Greek (Tsanidaki 1995, 1996a, b), Italian (Volino 1990), Japanese (Sugayama 1991, 1992, 1993, 1996) and Polish (Gorayska 1985). The theory continues to evolve, and at the time of writing a ‘Word Grammar Encyclopedia’ which can be downloaded from the WG web-site (http://www.phon.ucl.ac.uk/ home/dick/wg.htm) is updated every year.
3.
The cognitive network
3.1. Language as part of a general network The basis for WG is an idea which is quite uncontroversial in cognitive science: The idea is that memory connections provide the basic building blocks through which our knowledge is represented in memory. For example, you obviously know your mother’s name; this fact is recorded in your memory. The proposal to be considered is that this memory is literally represented by a memory connection, … That connection isn’t some appendage to the memory. Instead, the connection is the memory. … all of knowledge is represented via a sprawling network of these connections, a vast set of associations. (Reisberg 1997: 257⫺8)
511
40. Word Grammar
In short, knowledge is held in memory as an associative network. What is more controversial is that, according to WG, the same is true of our knowledge of words, so the sub-network responsible for words is just a part of the total “vast set of associations”. Our knowledge of words is our language, so our language is a network of associations which is closely integrated with the rest of our knowledge. However uncontroversial (and obvious) this view of knowledge may be in general, it is very controversial in relation to language. The only part of language which is widely viewed as a network is the lexicon (Aitchison 1987: 72), and a fashionable view is that even here only lexical irregularities are stored in an associative network, in contrast with regularities which are stored in a fundamentally different way, as “rules” (Pinker and Prince 1988). For example, we have a network which shows for the verb come not only that its meaning is ‘come’ but that its past tense is the irregular came, whereas regular past tenses are handled by a general rule and not stored in the network. The WG view is that exceptional and general patterns are indeed different, but they can both be accommodated in the same network because it is an “inheritance network” in which general patterns and their exceptions are related by default inheritance (which is discussed in more detail in section 4). To pursue the last example, both patterns can be expressed in exactly the same prose: (1)
The shape of the past tense of a verb consists of its stem followed by -d.
(2)
The shape of the past tense of come consists of came.
The only difference between these rules lies in two places: ‘a verb’ versus come, and ‘its stem followed by -ed’ versus came. Similarly, they can both be incorporated into the same network, as shown in Figure 40.2 (where the ‘stem’ and ‘shape’ links are labelled for convenience, and the triangle once again shows the ‘isa’ relationship by linking the general concept at its base to the specific example connected to its apex). Once the possibility is accepted that some generalisations may be expressed in a network, it is easy to extend the same treatment to the whole grammar, as we shall see in later examples. One consequence, of course, is that we lose the formal distinction between ‘the
verb: past stem
shape
.< -ed
COME: past shape came
Fig. 40.2
lexicon’ and ‘the rules’ (or ‘the grammar’), but this conclusion is also accepted outside WG in Cognitive Grammar (Langacker 1987) and Construction Grammar (Goldberg 1995). The only parts of linguistic analysis that cannot be included in the network are the most general theoretical principles. 3.2. Labelled links It is easy to misunderstand the network view because (in cognitive psychology) there is a long tradition of ‘associative network’ theories in which all links have just the same status: simple ‘association’. This is not the WG view, nor is it the view of any of the other theories mentioned above, because links are classified and labelled ⫺ ‘stem’, ‘shape’, ‘sense’, ‘referent’, ‘subject’, ‘adjunct’ and so on and on. The classifying categories range from the most general ⫺ the ‘isa’ link ⫺ to categories which may be specific to a handful of concepts, such as ‘goods’ in the framework of commercial transactions. This is a far cry from the idea of a network of mere “associations” (such as underlies connectionist models). One of the immediate benefits of this approach is that it allows named links to be used as functions, in the mathematical sense of Kaplan and Bresnan (1982, 182), which yield a variable ⫺ e. g. ‘the referent of the subject of the verb’ defines one unique concept for each verb. In order to distinguish this approach from the traditional associative networks we can call these networks “labelled”. Even within linguistics labelled networks are controversial because the labels themselves need an explanation or analysis. Because of this problem some theories avoid la-
512
V. Dependenzielle Theorien
sense: ‘automobile’
CAR
stem: car
‘automobile’ sense CAR stem car
sense: ‘bike’
BICYCLE
stem: bicycle
‘bike’ sense BICYCLE stem bicycle
Fig. 40.3
belled relationships or reduce labelling to something more primitive: for example, Chomsky has always avoided functional labels for constituents such as ‘subject’ by using configurational definitions, and the predicate calculus avoids semantic role labels by distinguishing arguments in terms of order. There is no doubt that labels on links are puzzlingly different from the labels that we give to the concepts that they link. Take the small network in Figure 40.2 for past tenses. One of the nodes is labelled ‘COME: past’, but this label could in fact be removed without any effect because ‘COME: past’ is the only concept which isa ‘verb: past’ and which has came as its shape. Every concept is uniquely defined by its links to other concepts, so labels are redundant. But the same is not true of the labels on links, because a network with unlabelled links is a mere associative network which would be useless in analysis. For example, it is no help to know that in John saw Mary the verb is linked, in some way or other, to the two nouns and that its meaning is linked, again in unspecified ways, to the concepts ‘John’ and ‘Mary’; we need to know which noun is the subject, and which person is the see-er. The same label may be found on many different links ⫺ for example, every word that has a sense (i. e. virtually every word) has a link labelled ‘sense’, every verb that has a subject has a ‘subject’ link, and so on. Therefore the function of the labels is to classify the links as same or different, so if we remove the label we lose information. It makes no difference whether we show these similarities and differences by means of verbal labels (e. g. ‘sense’) or some other notational device (e. g. straight up-
wards lines); all that counts is whether or not our notation classifies links as same or different. Figure 40.3 shows how this can be done using first conventional attribute-value matrices and second, the WG notation used so far. This peculiarity of the labels on links brings us to an important characteristic of the network approach which allows the links themselves to be treated like the concepts which they link ⫺ as ‘second-order concepts’, in fact. The essence of a network is that each concept should be represented just once, and its multiple links to other concepts should be shown as multiple links, not as multiple copies of the concept itself. Although the same principle applies generally to attribute-value matrices, it does not apply to the attributes themselves. Thus there is a single matrix for each concept, and if two attributes have the same value this is shown (at least in one notation) by an arc that connects the two valueslots. But when it comes to the attributes themselves, their labels are repeated across matrices (or even within a single complex matrix). For example, the matrix for a raising verb contains within it the matrix for its complement verb; an arc can show that the two subject slots share the same filler but the only way to show that these two slots belong to the same attribute is to repeat the label ‘subject’. In a network approach it is possible to show both kinds of identity in the same way: by means of a single node with multiple ‘isa’ links. If two words are both nouns, we show this by an isa link from each to the concept ‘noun’; and if two links are both ‘subject’ links, we put an isa link from each link to a single general ‘subject’ link. Thus labelled
513
40. Word Grammar sense
subject
stem
verb
word
‘bike’
‘automobil’
BICYCLE
bicycle
CAR
car
Jo
snores.
Fig. 40.4
links and other notational tricks are just abbreviations for a more complex diagram with second-order links between links. These second-order links are illustrated in Figure 40.4 for car and bicycle, as well as for the sentence Jo snores. This kind of analysis is too cumbersome to present explicitly in most diagrams, but it is important to be clear that it underlies the usual notation because it allows the kind of analysis which we apply to ordinary concepts to be extended to the links between them. If ordinary concepts can be grouped into larger classes, so can links; if ordinary concepts can be learned, so can links. And if the labels on ordinary concepts are just mnemonics which could, in principle, be removed, the same is true of the labels on all links except the ‘isa’ relationship itself, which reflects its fundamental character. 3.3. Modularity The view of language as a labelled network has interesting consequences for the debate about modularity: is there a distinct ‘module’ of the mind dedicated exclusively to language (or to some part of language such as syntax or inflectional morphology)? Presumably not if a module is defined as a separate ‘part’ of our mind and if the language network is just a small part of a much larger network. But the alternative to this strong version of modularity is not to view the mind as a single undifferentiated whole. If we focus on the links, any such network is inevitably ‘modular’ in the much weaker (and less controversial) sense that links between concepts are not
distributed evenly (or randomly) through the network. Perhaps the clearest evidence for some kind of modularity comes from language pathology, where abilities are impaired selectively. Take the case of Pure Word Deafness (Altman 1997: 186), for example. Why should a person be able to speak and read normally, and to hear and classify ordinary noises, but not be able to understand the speech of other people? In terms of a WG network, this looks like an inability to follow one particular linktype (‘sense’) in one particular direction (from word to sense). Whatever the reason for this strange disability, at least the WG analysis suggests how it might apply to just this one aspect of language, while also applying to every single word: what is damaged is the general relationship ‘sense’, from which all particular sense relationships are inherited. A different kind of problem is illustrated by patients who can name everything except one category ⫺ e. g. body-parts or things typically found indoors (Pinker 1994: 314). Orthodox views on modularity seem to be of little help in such cases, but a network approach at least explains how the non-linguistic concepts concerned could form a mental cluster of closely-linked and mutually defining concepts with a single super-category. It is easy to imagine reasons why such a cluster of concepts might be impaired selectively (e. g. that closely related concepts are stored close to each other, so a single injury could sever all their sense links), but the main point is to have provided a way of unifying them in preparation for the explanation.
514
V. Dependenzielle Theorien
In short, the network approach allows an injury to apply to specific functions which involve the same link-types; if that link-type is inaccessible in general, inevitably the same problem arises across the board. The approach also allows damage to specific areas of language which form clusters with strong internal links and weak external links. Any such cluster or shared linkage defines a kind of “module” which may be impaired selectively, but the module need not be innate: it may be “emergent”, a cognitive pattern which emerges through experience (Bates forthcoming, Karmiloff-Smith 1992).
4.
Default inheritance
Default inheritance is just a formal version of the logic that linguists have always used: true generalisations may have exceptions. We allow ourselves to say that verbs form their past tense by adding -ed to the stem even if some verbs don’t, because the specific provision made for these exceptional cases will automatically override the general pattern. In short, characteristics of a general category are “inherited” by instances of that category only “by default” ⫺ only if they are not overridden by a known characteristic of the specific case. Common sense tells us that this is how ordinary inference works, but default inheritance only works when used sensibly. Although it is widely used in artificial intelligence, researchers treat it with great caution (Luger and Stubblefield 1993: 386⫺8). The classic formal treatment is Touretsky (1986). Inheritance is carried by the ‘isa’ relation, which is another reason for considering this relation to be fundamental. For example, because snores isa ‘verb’ it automatically inherits all the known characteristics of ‘verb’ (i. e. of ‘the typical verb’), including for example the fact that it has a subject; similarly, because the link between Jo and snores in Jo snores isa ‘subject’ it inherits the characteristics of ‘subject’. The notation for ‘isa’ consists of a small triangle with a line from its apex to the instance. The base of the triangle which rests on the general category reminds us that this category is larger than the instance, but it can also be imagined as the mouth of a hopper into which information is poured so that it can flow along the link to the instance. The mechanism whereby default values are overridden has changed during the last few
years. In EWG, and also in Fraser and Hudson (1992), the mechanism was “stipulated overriding”, a system peculiar to WG; but since then this system has been abandoned. WG now uses a conventional system in which a fact is automatically blocked by any other fact which conflicts and is more specific. Thus the fact that the past tense of COME is came automatically blocks the inheritance of the default pattern for past tense verbs. One of the advantages of a network notation is that this is easy to define formally: we always prefer the value for ‘R of C’ (where R is some relationship, possibly complex, and C is a concept) which is nearest to C (in terms of intervening links). For example, if we want to find the shape of the past tense of COME, we have a choice between came and comed, but the route to came is shorter than that to comed because the latter passes through the concept ‘past tense of a verb’. Probably the most important question for any system that uses default inheritance concerns multiple inheritance, in which one concept inherits from two different concepts simultaneously ⫺ as ‘dog’ inherits, for example, both from ‘mammal’ and from ‘pet’. Multiple inheritance is allowed in WG, as in unification-based systems and the programming language DATR (Evans and Gazdar 1996); it is true that it opens up the possibility of conflicting information being inherited, but this is a problem only if the conflict is an artefact of the analysis. There seem to be some examples in language where a form is ungrammatical precisely because there is an irresoluble conflict between two characteristics; for example, in many varieties of standard English the combination *I aren’t is ungrammatical. (Contrast You aren’t and Aren’t I?.) One explanation for this strange gap is that the putative form aren’t has to inherit simultaneously from aren’t (the negative present of BE) and am (the I-form of BE); but these models offer conflicting shapes (aren’t, am) without any way for either to override the other (Hudson 2000). In short, WG does allow multiple inheritance, and indeed uses it a great deal (as we shall see in later sections).
5.
The language network
According to WG, then, language is a network of concepts. The following more specific claims flesh out this general idea. First, language is part of the same general conceptual network which contains many
515
40. Word Grammar ‘er’ ‘Sally’
‘Sally sleep’ SEMANTICS ‘sleep’
referent
verb
sense
SLEEP: 3sg
s Sally
sleeps shape
stem Sally
<s a l l y>
SYNTAX
sleep +s
MORPHOLOGY
<s l e e p> PHONOLOGY GRAPHOLOGY
<e>
<s>
Fig. 40.5
concepts which are not part of language. What distinguishes the language area of this network from the rest is that the concepts concerned are words and their immediate characteristics. This is simply a matter of definition: concepts which are not directly related to words would not be considered to be part of language. As explained in section 3.3, language probably qualifies as a module in the weak sense that the links among words are denser than those between words and other kinds of concept, but this does not mean that language is a module in the stronger sense of being “encapsulated” or having its own special formal characteristics. This is still a matter of debate, but we can be sure that at least some of the characteristics of language are also found elsewhere ⫺ the mechanism of default inheritance and the isa relation, the notion of linear order, and many other formal properties and principles. As we saw in Table 40.1, words may have a variety of links to each other and to other concepts. This is uncontroversial, and so are most of the links that are recognised. Even the traditional notions of ‘levels of language’ are respected in as much as each level is de-
fined by a distinct kind of link: a word is linked to its morphological structure via the ‘stem’ and ‘shape’ links, to its semantics by the ‘sense’ and ‘referent’ links, and to its syntax by dependencies and word classes. Figure 40.5 shows how clearly the traditional levels can be separated from one another. In WG there is total commitment to the “autonomy” of levels, in the sense that the levels are formally distinct. The most controversial characteristic of WG, at this level of generality, is probably the central role played by inheritance (isa) hierarchies. Inheritance hierarchies are the sole means available for classifying concepts, which means that there is no place for feature-descriptions. In most other theories, feature-descriptions are used to name concepts, so that instead of ‘verb’ we have ‘[⫹V, ⫺N]’ or (changing notation) ‘[Verb:⫹, Noun:⫺, SUBCAT: ⬍NP⬎]’ or even ‘S/NP’. This is a fundamental difference because, as we saw earlier, the labels on WG nodes are simply mnemonics and the analysis would not be changed at all if they were all removed. The same is clearly not true where feature-descriptions are used, as the name itself con-
516
V. Dependenzielle Theorien
tains crucial information which is not shown elsewhere. To classify a word as a verb in WG we give it an isa link to ‘verb’; we do not give it a feature-description which contains that of ‘verb’. The most obviously classifiable elements in language are words, so in addition to specific, unique, words we recognise general ‘wordtypes’; but we can refer to both simply as ‘words’ because (as we shall see in the next section) their status is just the same. Multiple inheritance allows words to be classified on two different ‘dimensions’: as lexemes (DOG, LIKE, IF, etc) and as inflections (plural, past, etc). Figure 40.6 shows how this crossclassification can be incorporated into an isa hierarchy. (The horizontal bar is helpful to separate the two dimensions visually, but it has no theoretical status.) The traditional word classes are shown on the lexeme dimension as classifications of lexemes, but they interact in complex ways with inflections. Cross-classification is possible even among word-classes; for example, English gerunds (e. g. Writing in Writing articles is fun.) may be both nouns and verbs, and in many languages participles are probably both adjectives and verbs. word
us to show the similarities between words and other kinds of communicative behaviour by an isa link from ‘word’ to ‘communication’, and similar links show that words are actions and events. This is important in the analysis of deictic meanings which have to relate to the participants and circumstances of the word as an action. This hierarchy of words is not the only isa hierarchy in language. There is another for speech sounds (‘phonemes’), and there is probably another for morphemes (Hudson 1997b), but most important is the one for relationships ⫺ ‘sense’, ‘subject’ and so on. Some of these relationships belong to the hierarchy of dependents which we shall discuss in the section on syntax, but there are many others which do not seem to comprise a single coherent hierarchy peculiar to language (in contrast with the ‘word’ hierarchy). What seems much more likely is that relationships needed in other areas of thought (e. g. ‘before’, ‘part-of’) are put to use in language. To summarise, the language network is a collection of words and word-parts (speechsounds and morphemes) which are linked to each other and to the rest of cognition in a variety of ways, of which the most important is the ‘isa’ relationship which classifies them and allows default inheritance.
6. inflection
lexeme
verb
verb: past
noun
full verb
COME
COME: past
Fig. 40.6
Unlike other theories, the classification does not take words as the highest category of concepts ⫺ indeed, it cannot do so if language is part of a larger network. WG allows
The utterance network
A WG analysis of an utterance is also a network; in fact, it is simply an extension of the permanent cognitive network in which the relevant word tokens comprise a ‘fringe’ of temporary concepts attached by ‘isa’ links, so the utterance network has just the same formal characteristics as the permanent network. For example, suppose you say to me ‘I agree’. My task, as hearer, is to segment your utterance into the two words I and agree, and then to classify each of these as an example of some word in my permanent network (my grammar). This is possible to the extent that default inheritance can apply smoothly; so, for example, if my grammar says that I must be the subject of a tensed verb, the same must be true of this token, though as we shall see below, exceptions can be tolerated. In short, a WG grammar can generate representations of actual utterances, warts and all, in contrast with most other kinds of grammar which generate only idealised utterances or ‘sentences’. This blurring of the boundary be-
517
40. Word Grammar
familiar characteristics of types ⫺ it must belong to a lexeme and a word class, it must have a sense and a stem, and so on. But the implication goes in the other direction as well: the type may mention some of the token’s characteristics that are normally excluded from grammar, such as characteristics of the speaker, the addressee and the situation. This allows a principled account of deictic meaning (e. g. I refers to the speaker, you to the addressee and now to the time of speaking), as shown in Figure 40.1 and Table 40.1. Perhaps even more importantly, it is possible to incorporate sociolinguistic information into the grammar, by indicating the kind of person who is a typical speaker or addressee, or the typical situation of use. Treating utterances as part of the grammar has two further effects which are important for the psycholinguistics of processing and of acquisition. As far as processing is concerned, the main point is that WG accommodates deviant input because the link between tokens and types is the rather liberal ‘Best Fit Principle’ (EWG, 45 ff.): assume that the current token isa the type that provides the best fit with everything that is known. The default inheritance process which this triggers allows known characteristics of the token to override those of the type; for example, a mis-
tween grammar and utterance is very controversial, but it follows inevitably from the cognitive orientation of WG. The status of utterances has a number of theoretical consequences both for the structures generated and for the grammar that generates them. The most obvious consequence is that word tokens must have different names from the types of which they are tokens; in our example, the first word must not be shown as I if this is also used as the name for the word-type in the grammar. This follows from the fact that identical labels imply identity of concept, whereas tokens and types are clearly distinct concepts. The WG convention is to reserve conventional names for types, with tokens labelled ‘w1’, ‘w2’ and so on through the utterance. Thus our example consists of w1 and w2, which isa ‘I’ and ‘AGREE:pres’ respectively. This system allows two tokens of the same type to be distinguished; so in I agree I made a mistake, w1 and w3 both isa ‘I’. (WG diagrams in this paper respect this convention when it is important, but not otherwise.) Another consequence of integrating utterances into the grammar is that word types and tokens must have the same kinds of characteristics so that a token can inherit from its type. Obviously the token must have the
set
set s member
northener
MISPELL: past referent misspell YOUS addressee <m i s s p e l l>
speaker w1
w2
m1
<m i s p e l l>
Fig. 40.7
w3
518
V. Dependenzielle Theorien
spelled word such as mispelled can isa its type, just like any other exception, though it will also be shown as a deviant example. There is no need for the analysis to crash because of an error. (Of course a WG grammar is not in itself a model of either production or perception, but simply provides a network of knowledge which the processor can exploit.) Turning to learning, the similarity between tokens and types means that learning can consist of nothing but the permanent storage of tokens minus their utterance-specific content. These remarks about utterances are summarised in Figure 40.7, which speculates about my mental representation for the (written) ‘utterance’ Yous mispelled it. According to this diagram, the grammar supplies two kinds of utterance-based information about w1: that its referent is a set whose members include its addressee, and that its speaker is a “northerner” (which may be inaccurate factually, but is roughly what I believe to be the case). It also shows that w2 is a deviant token of the type ‘MISSPELL: past’.
7.
Morphology
As explained earlier, the central role of the word automatically means that the syntax is ‘morphology-free’. Consequently it would be fundamentally against the spirit of WG to follow transformational analyses in taking Jo snores as Jo tense snore. A tense morpheme is not a word in any sense, so it cannot be a syntactic node. The internal structure of words is handled almost entirely by morphology. The exception to this principle is that words may be parts of other words, while remaining part of the syntactic structure. The clearest case of this is cliticization, where a syntactic word is treated as though it were a morpheme in the structure of a larger word. In simple cases the order of elements is as predicted by syntax, though the morphology allows (or requires) the two words to share a single ‘shape’ ⫺ thus English you’re /jc:/, French de le, spelled du and pronounced /dy/. In more complex cases (‘special clitics’ ⫺ Zwicky 1977) the position of the clitic is fixed by the morphology of the host word and conflicts with the demands of syntax, as in the French example (3) where en would follow beaucoup if it were not attached by cliticization to mange, giving a single word en mange.
(3)
Paul en mange beaucoup. Paul of-it eats much ‘Paul eats a lot of it.’
In short, although the smallest units of syntax are always words, some words are not the smallest units of syntax but clusters of smaller words. Alternatively, we might distinguish between ‘phonological words’ and ‘syntactic words’, with clitics as complete syntactic words which are less than a complete phonological word (Rosta 1997). The WG theory of inflectional morphology is somewhat better developed (Creider and Hudson 1998). The basic idea is that inflectional morphology is responsible for mapping ‘stems’ to ‘shapes’. Every lexeme has a stem, and by default a word’s stem is also its shape ⫺ the input to the phonology. Departures from this basic pattern in the grammar are all due either to inflectional morphology or to cliticization. Thus if the stem of, say, BEHIND is ⬍behind⬎, this must also be its shape because it is not subject to inflection or cliticization; and the shape of DOG is the stem, ⬍dog⬎, unless altered by inflection. As we have already seen, ‘stem’ and ‘shape’ are relationships, shown respectively as a straight and a curved line descending from the word concerned. (The stem line is straight because it is directly linked to the lexeme, in contrast with the shape which is “calculated” according to the rules of inflectional morphology.) A small sample of the morphology network is shown in Figure 40.8. This diagram shows the default identity of shape and stem, and the default rule for plural nouns: their shape consists of their stem followed by s. No plural is stored for regular nouns like DUCK, but for GOOSE the irregularity is stored. According to the analysis shown here, geese is doubly irregular, having no suffix and having an irregular stem whose vowel positions (labelled here simply ‘1’ and ‘2’) are filled by (examples of) ⬍e⬎ instead of the expected ⬍o⬎. In spite of the vowel change the stem of geese isa the stem of GOOSE, but had it been suppletive a completely new stem would have been supplied. This analysis is very similar to those which can be expressed in terms of ‘network morphology’ (Brown et al 1996), which is also based on multiple default inheritance. One important difference lies in the treatment of syncretism, illustrated by the English verb’s past participle and passive participle which are invariably the same. In network morphology the identity is shown by specifying one
519
40. Word Grammar word
inflection
lexeme
noun
GOOSE
plural
DUCK
1 2 GOOSE: plural
1 2
<e>
<s>
Fig. 40.8
and cross-referring to it from the other, but this involves an arbitrary choice: which is the “basic” one? In WG morphology, it is possible to introduce further links intermediate between stems and shapes, such as ‘en-form’. A verb’s en-form is defined by a rule which makes no reference to shape, and then the rules for past participles and passive participles can independently use this en-form as the shape needed. Derivational morphology is responsible for relationships between lexemes, so it relates one lexeme’s stem to that of another. This area of WG is again not well developed, but the outlines of a system are clear. It will be based on inter-lexeme relationships such as ‘nominalisation’ or ‘verbalisation’; for example REMOVAL and DESTRUCTION are the nominalisations of REMOVE and DESTROY, so derivational morphology is responsible for predicting the differences between verbs and their nominalisations, and similarly for all other derivational patterns.
8.
Syntax
As in most other theories, syntax is the best developed part of WG, which offers sophisticated explanations for most of the ‘standard’
complexities of syntax such as extraction, raising, control, coordination, gapping and agreement. However the WG view of syntax is particularly controversial because of its rejection of phrase structure. WG belongs to the family of ‘dependency-based’ theories, in which syntactic structure consists of dependencies between pairs of single words. As we shall see below, WG also recognises ‘wordstrings’, but even these are not the same as conventional phrases. A syntactic dependency is a relationship between two words that are connected by a syntactic rule. Every syntactic rule (except for those involved in coordination) is ‘carried’ by a dependency, and every dependency carries at least one rule that applies to both the dependent and its ‘parent’ (the word on which it depends). These word-word dependencies form chains which link every word ultimately to the word which is the head of the phrase or sentence; consequently the individual links are asymmetrical with one word depending on the other for its link to the rest of the sentence. Of course in some cases the direction of dependency is controversial; in particular, published WG analyses of noun phrases have taken the determiner as head of the phrase, though this analysis has been dis-
520
V. Dependenzielle Theorien
s
c
P
>a
a<
c
c
c
The
syntactic
structure
of
a
sentences
consists
of
dependencies.
n:s
J
N:s
P
n:s
N:s
V:s
P
N:p
KEY x A
B
B depends on A. B is the ‘x’ of A. A is the head of the sentences or phrase.
DEPENDENCY TYPES s subject c complement p prepositional a<, >a pre/post-adjuct
WORD CLASSES N n V J P
common noun pronoun/determiner (full) verb adjective Preposition
:s singular/s-form p. plural/present
Fig. 40.9
puted and may turn out to be wrong (Van Langendonck 1994). The example in Figure 40.9 illustrates all these characteristics of WG syntax. A dependency analysis has many advantages over one based on phrase structure. For example, it is easy to relate a verb to a lexically selected preposition if they are directly connected by a dependency, as in the pair consists of in Figure 40.9; but it is much less easy (and natural) to do so if the preposition is part of a prepositional phrase. A surface dependency analysis (explained below) can always be translated into a phrase structure by building a phrase for each word consisting of that word plus the phrases of all the words that depend on it (a sentence; of a sentence; and so on); but dependency analysis is much more restrictive than phrase-structure analysis because of its total flatness. Because one word can head only one phrase it is impossible to build a dependency analysis which emulates a VP node or ‘unary branching’. This restrictiveness is welcome, because it turns out that such analyses are never needed. In contrast, the extra richness of dependency analysis lies partly in the labelled dependency links, and partly in the possibility of multiple dependencies. In a flat structure, in contrast with phrase structure, it is impossible to distinguish co-dependencies (e. g. a verb’s subject and object) by configuration,
so labels are inevitable. There is clearly a theoretical trade-off between phrase structure and labelled functions: the more information is given in one, the less needs to be given in the other. The general theory of WG is certainly compatible with phrase structure ⫺ after all, we undoubtedly use part-whole structures in other areas of cognition, and they play an important role in morphology ⫺ but it strongly favours dependency analysis because labelled links are ubiquitous in the cognitive network, both in semantics, and elsewhere. If knowledge is generally organised in terms of labelled links, why not also in syntax? But if we do use labelled links (dependencies) in syntax, phrase structure is redundant. Syntactic structures can be much more complex than the example in Figure 40.9. We shall briefly consider just two kinds of complication: structure-sharing and coordination. Structure-sharing is found when one word depends on more than one other word ⫺ i. e. when it is “shared” as a dependent. The notion is familiar from modern phrasestructure analyses, especially HPSG (Pollard and Sag 1994, 19), where it is described as ‘the central explanatory mechanism’, and it is the main device in WG which allows phrases to be discontinuous. (In recognising structure-sharing, WG departs from the European tradition of dependency analysis which generally allows only strictly ‘pro-
521
40. Word Grammar
dent phrases as in the example of Figure 40.11, where the coordination and conjuncts are bounded by brackets: {[….] [….]}. This discussion of syntax merely sets the scene for many other syntactic topics, all of which now have reasonably well-motivated WG treatments: word order, agreement, features, case-selection, “zero” dependents. The most important point made is probably the claim that the network approach to language and cognition in general leads naturally to dependency analysis rather than to phrase structure in syntax.
jective’, continuous structures such as Figure 40.9.) Figure 40.10 illustrates two kinds of structure-sharing ⫺ in raising (you shared by have and been) and in extraction (what shared by have, been, looking and at). The label ‘x⬍’ means ‘extractee’, and ‘r’ means ‘sharer’ (otherwise known as ‘xcomp’ or ‘incomplement’). r
x<
r
p
s What
have
you
x<
been s
looking x<
at?
x< c
9.
Semantics
Fig. 40.10
As in any other theory, WG has a compositional semantics in which each word in a sentence contributes some structure that is stored as its meaning. However, these meanings are concepts which, like every other concept, are defined by a network of links to other concepts. This means that there can be no division between “purely linguistic” meaning and “encyclopedic” meaning. For instance the lexemes APPLE and PEAR have distinct senses, the ordinary concepts ‘apple’ and ‘pear’, each linked to its known characteristics in the network of general knowledge. It would be impossible to distinguish them merely by the labels ‘apple’ and ‘pear’ because (as we saw in section 3.2) labels on concepts are just optional mnemonics; the true definition of a concept is provided by its various links to other concepts. The same is true of verb meanings: for example, the sense of EAT is defined by its relationships to other concepts such as ‘put’, ‘mouth’, ‘chew’, ‘swallow’ and ‘food’. The underlying view of meaning is thus similar to Fillmore’s Frame Semantics, in which lexical meanings are defined in relation to conceptual “frames” such as the one for “commercial transaction” which is exploited by the definitions of ‘buy’, ‘sell’ and so on.
This diagram also illustrates the notion ‘surface structure’ mentioned above. Each dependency is licensed by the grammar network, but when the result is structure-sharing just one of these dependencies is drawn above the words; the totality of dependencies drawn in this way constitutes the sentence’s surface structure. In principle any of the competing dependencies could be chosen, but in general only one choice is compatible with the “geometry” of a well-formed surface structure, which must be free of “tangling” (crossing dependencies ⫺ i. e. discontinuous phrases) and “dangling” (unintegrated words). There are no such constraints on the non-surface dependencies. The other complication is coordination. The basis of coordination is that conjuncts must share their “external” dependencies ⫺ dependencies (if any) to words outside the coordination. The structure of the coordination itself (in terms of ‘conjuncts’ and ‘coordinators’) is analysed in terms of ‘wordstrings’, simple undifferentiated strings of words whose internal organisation is described in terms of ordinary dependencies. A word string need not be a phrase, but can consist of two (or more) mutually indepen-
>a s
c o
I
drink
Fig. 40.11
c
c {[coffee
at
11.00]
[and
tea
in
the
afternoon]}
522 Like everything else in cognition, WG semantic structures form a network with labelled links like those that are widely used in Artificial Intelligence. As in Jackendoff’s Conceptual Semantics (1990), words of all word classes contribute the same kind of semantic structure, which in WG is divided into ‘sense’ (general categories) and ‘referent’ (the most specific individual or category referred to). The contrast between these two kinds of meaning can be linked to the contrast in morphology (Section 7) between stem and shape: a word’s lexeme provides both its stem and its sense, while its inflection provides its shape and its referent. For example, the word dogs is defined by a combination of the lexeme DOG and the inflection ‘plural’, so it is classified as ‘DOG: plural’. Its lexeme defines the sense, which is ‘dog’, the general concept of a (typical) dog, while its inflection defines the referent as a set with more than one member. As in other theories the semantics cannot identify the particular set or individual which a word refers to on a particular occasion of use, and which we shall call simply ‘set s’; this must be left to the pragmatics. But the semantics does provide a detailed specification for what that individual referent might be ⫺ in this case, a set, each of whose members is a dog. The WG notation for the two kinds of meaning parallels that for the two kinds of word-form: a straight line for the sense and the stem, which are both retrieved directly from the lexicon, and a curved line for the referent and the shape, which both have to be discovered by inference. The symmetry of these relationships can be seen in Figure 40.12. How the meanings of the words in a sentence are combined is guided by the syntax, but the semantic links are provided by the senses themselves. Figure 40.13 gives the semantic structure for Dogs barked, where the link between the word meanings is provided by ‘bark’, which has an ‘agent’ link (often abbreviated ‘er’ in WG) to its subject’s referent. If we call the particular act of barking that this utterance refers to ‘event-e’, the semantic structure must show that the agent of evente is set-s. As with nouns, verb inflections contribute directly to the definition of the referent, but a past-tense inflection does this by limiting the event’s time to some time (‘t1’) that preceded the moment of speaking (‘now’). Figure 40.13 shows all these relationships, with the two words labelled ‘w1’ and ‘w2’. For the sake of simplicity the diagram
V. Dependenzielle Theorien set s
‘dog’
DOG
plural
DOG: plural
dog
s
Fig. 40.12
does not show how these word tokens inherit their characteristics from their respective types. (see p. 523) The analysis of Dogs barked illustrates an important characteristic of WG semantic structures. A word’s “basic” sense ⫺ the one that is inherited from its lexeme ⫺ is modified by the word’s dependents, which produces a second sense, more specific than the basic sense but more general than the referent. This intermediate sense contains the meaning of the head word plus its dependent, so in effect it is the meaning of that phrase. In contrast with the syntax, therefore, the semantic structure contains a node for each phrase, as well as nodes for the individual words ⫺ in short, a phrase structure. Moreover, there are reasons for believing that dependents modify the head word one at a time, each defining a distinct concept, and that the order of combining may correspond roughly to the bracketing found in conventional phrase structure. For example, subjects seem to modify the concepts already defined by objects, rather than the other way round, so Dogs chase cats defines the concepts ‘chase cats’ and ‘dogs chase cats’, but not ‘dogs chase’ ⫺ in short, a WG semantic structure contains something like a VP node. This step-
523
40. Word Grammar event-e
time
t1
‘dogs bark’
member ‘bark’ time ‘dog’
SEMANTICS
w1
w2
DOG: plural
BARK: past
SYNTAX
Fig. 40.13
wise composition of word meanings is called “semantic phrasing”. This brief account of WG semantics has described some of the basic ideas, but has not been able to illustrate the analyses that these ideas permit. In the WG literature there are extensive discussions of lexical semantics, and some explorations of quantification, definiteness and mood. However it has to be said that the semantics of WG is much less well researched than its syntax.
10. Processing The main achievements on processing are a theory of parsing and a theory of syntactic difficulty. The most obvious advantage of WG for a parser, compared with transformational theories, is the lack of “invisible” words, but the dependency basis also helps by allowing each incoming word to be integrated with the words already processed without the need to build (or rebuild) higher syntactic nodes. A very simple algorithm guides the search for dependencies in a way that guarantees a well-formed surface structure (in the sense defined in section 8): the current word first tries to “capture” the nearest non-dependent word as its dependent, and if successful repeats the operation; then it tries to ‘submit’ as a dependent to the nearest word that is not
part of its own phrase (or, if unsuccessful, to the word on which this word depends, and so on recursively up the dependency chain); and finally it checks for coordination. The algorithm is illustrated in the following sequence of “snapshots” in the parsing of Short sentences make good examples, where the last word illustrates the algorithm best. The arrows indicate syntactic dependencies without the usual labels; and it is to be understood that the semantic structure is being built simultaneously, word by word. The structure after ‘:-’ is the output of the parser at that point. (4)
a. w1 ⫽ short. No progress:- w1. b. w2 ⫽ sentences. Capture:- w1 I w2. c. w3 ⫽ make. Capture:- w1 I w2 I w3. d. w4 ⫽ good. No progress:- w1 I w2 I w3, I w4. e. w5 ⫽ examples.Capture:- w4 I w5. f. Submit:- w1 I w2 I w3 J (w4 I) w5.
The familiar complexities of syntax are mostly produced by discontinuous patterns. As explained in section 8, the discontinuous phrases are shown by dependencies which are drawn beneath the words, leaving a straightforward surface structure. For example, subject-raising in He has been working is shown by non-surface subject links from both been and working to he. Once the surface structure
524 is in place, these extra dependencies can be inferred more or less mechanically (bar ambiguities), with very little extra cost to the parser. The theory of syntactic complexity/difficulty (Hudson 1994) builds on this incremental parsing model. The aim of the parser is to link each word as a dependent to some other word, and this link can most easily be established while both words are still active in working memory. Once a word has become inactive it can be reconstructed (on the basis of the meaning that it contributed), but this is costly. The consequence is that short links are always preferred to long ones. This gives a very simple basis for calculating the processing load for a sentence (or even for a whole text): the mean ‘dependency distance’ (calculated as the number of other words between a word and the word on which it depends). Following research by Gibson (1997) the measure could be made more sophisticated by weighting intervening words, but even the simple measure described here gives plausible results when applied to sample texts. It is also supported by a very robust statistic about English texts: that dependency links tend to be very short. (Typically 70 % of words are adjacent to the word on which they depend, with 10 % variation in either direction according to the text’s difficulty.)
11. Select Bibliography Aitchison, Jean (1987): Words in the Mind. An Introduction to the Mental Lexicon. Oxford. Altman, Gerry (1997): The Ascent of Babel. An Exploration of Language, Mind and Understanding. Oxford. Anderson, John (1971): Dependency and grammatical functions. In: Foundations of Language 7, 30⫺7. Bates, Elizabeth (forthcoming): On the nature and nurture of language. In: Bizzi, Emilio/Calissano, Pietro/Volterra, Virginia (eds.): Frontiere della Biologia. The Brain of Homo Sapiens. Rome. Bennett, David (1994): Stratificational Grammar. In: Asher, Ronald (ed.): Encyclopedia of Language and Linguistics. Oxford, 4351⫺6. Bresnan, Joan (1978): A realistic transformational grammar. In: Halle, Morris/Bresnan, Joan/Miller, George (eds.): Linguistic Theory and Psychological Reality. Cambridge, MA, 1⫺59. Brown, Dunstan/Corbett, Greville/Fraser, Norman/Hippisley, Andrew/Timberlake, Alan (1996): Russian noun stress and network morphology. In: Linguistics 34, 53⫺107.
V. Dependenzielle Theorien Butler, Christopher (1985): Systemic Linguistics: Theory and Application. London. Chekili, Ferid (1982): The Morphology of the Arabic Dialect of Tunis. London. Chomsky, Noam (1957): Syntactic Structures. The Hague. Chomsky, Noam (1965): Aspects of the Theory of Syntax. Cambridge, MA. Chomsky, Noam (1970): Remarks on nominalization. In: Jacobs, Rodney/Rosenbaum, Peter (eds.): Readings in Transformational Grammar. London, 184⫺221. Creider, Chet/Hudson, Richard (1999): Inflectional morphology in Word Grammar. In: Lingua 107, 163⫺187. Evans, Roger/Gazdar, Gerald (1996): DATR: A language for lexical knowledge representation. In: Computational Linguistics 22, 167⫺216. Fillmore, Charles (1975): An alternative to checklist theories of meaning. In: Proceedings of the Berkeley Linguistics Society 1, 123⫺31. Fillmore, Charles (1976): Frame semantics and the nature of language. In: Annals of the New York Academy of Sciences 280, 20⫺32. Fraser, Norman (1985): A Word Grammar Parser. London. Fraser, Norman (1988): Parsing and dependency grammar. In: UCL Working Papers in Linguistics 1, 296⫺320. Fraser, Norman (1993): Dependency Parsing. London. Fraser, Norman (1994): Dependency Grammar. In: Asher, Ronald (ed.): Encyclopedia of Language and Linguistics. Oxford, 860⫺4. Fraser, Norman/Hudson, Richard (1992): Inheritance in Word Grammar. In: Computational Linguistics 18, 133⫺58. Gibson, Edward (1997): Linguistic complexity: locality of syntactic dependencies. unpublished. Gisborne, Nikolas (1993): Nominalisations of perception verbs. In: UCL Working Papers in Linguistics 5, 23⫺44. Gisborne, Nikolas (1996): English Perception Verbs. London. Goldberg, Adele (1995): Constructions: A Construction Grammar Approach to Argument Structure. Chicago. Gorayska, Barbara (1985): The Semantics and Pragmatics of English and Polish with Reference to Aspect. London. Halliday, Michael (1961): Categories of the theory of grammar. In: Word 17, 241⫺92. Halliday, Michael (1967⫺8): Notes on transitivity and theme in English. In: Journal of Linguistics 3, 37⫺82, 199⫺244; 4, 179⫺216. Halliday, Michael (1985): An Introduction to Functional Grammar. London.
525
40. Word Grammar Hudson, Richard (1964): A Grammatical Analysis of Beja. London Hudson, Richard (1970): English Complex Sentences. An Introduction to Systemic Grammar. Amsterdam. Hudson, Richard (1976): Arguments for a Nontransformational Grammar. Chicago. Hudson, Richard (1980a): Sociolinguistics. Cambridge. Hudson, Richard (1980b): Constituency and dependency. In: Linguistics 18, 179⫺98. Hudson, Richard (1981): Panlexicalism. Journal of Literary Semantics 10, 67⫺78. Hudson, Richard (1984): Word Grammar. Oxford. Hudson, Richard (1989): Towards a computer-testable Word Grammar of English. In: UCL Working Papers in Linguistics 1, 321⫺39. Hudson, Richard (1990): English Word Grammar. Oxford. Hudson, Richard (1992): Raising in syntax, semantics and cognition. In: Roca, Iggy (ed.): Thematic Structure: Its Role in Grammar. The Hague, 175⫺ 98. Hudson, Richard (1993): Do we have heads in our minds? In: Corbett, Greville/McGlashen, Scott/ Fraser, Norman (eds.): Heads in Grammatical Theory. Cambridge, 266⫺91. Hudson, Richard (1994): The ENDuring depENDency trEND in practical syntax. In: Hurtley, Jacqueline/Aragay, Mireia/Celaya, Maria/Moya, Ana (eds.): Writing the End. Barcelona, 41⫺65. Hudson, Richard (1995): Word Meaning. London. Hudson, Richard (1996a): Sociolinguistics. Cambridge (2nd edition). Hudson, Richard (1996b): The difficulty of (socalled) self-embedded structures. In: UCL Working Papers in Linguistics 8, 283⫺314. Hudson, Richard (1997a): The rise of auxiliary DO: verb non-raising or category-strengthening? In: Transactions of the Philological Society 95, 41⫺72. Hudson, Richard (1997b): Inherent variability and linguistic theory. In: Cognitive Linguistics 8, 73⫺ 108. Hudson, Richard (1998): English Grammar. London. Hudson, Richard (2000): I amn’t. In: Language 76, 299⫺323. Jackendoff, Ray (1990): Semantic Structures. Cambridge, MA. Kaplan, Ron/Bresnan, Joan (1982): Lexical-functional Grammar: a formal system for grammatical representation. In: Bresnan, Joan (ed.): The Mental Representation of Grammatical Relations. Cambridge, MA., 173⫺281. Kreps, Christian (1997): Extraction, Movement and Dependency Theory. London.
Lakoff, George (1987): Women, Fire and Dangerous Things. What Categories Reveal about the Mind. Chicago. Lamb, Sidney (1966): An Outline of Stratificational Grammar. Washington, DC. Langacker, Ronald (1987): Foundations of Cognitive Grammar I. Theoretical Prerequisites. Stanford. Langacker, Ronald (1990): Concept, Image and Symbol. The Cognitive Basis of Grammar. Berlin. Luger, George/Stubblefield, William (1993): Artificial Intelligence. Structures and Strategies for Complex Problem Solving. Redwood City. Lyons, John (1977): Semantics. Cambridge. McCawley, James (1968): Concerning the base component of a transformational grammar. In: Foundations of Language 4, 243⫺69. Pinker, Steven (1994): The Language Instinct. Harmondsworth. Pinker, Steven/Prince, Alan (1988): On language and connectionism: Analysis of a Parallel Distributed Processing model of language acquisition. In: Cognition 28, 73⫺193. Pollard, Carl/Sag, Ivan (1994): Head-driven Phrase Structure Grammar. Chicago. Reisberg, Daniel (1997): Cognition. Exploring the Science of the Mind. New York. Robinson, Jane (1970): Dependency structures and transformational rules. In: Language 46, 259⫺85. Rosta, Andrew (1994): Dependency and grammatical relations. In: UCL Working Papers in Linguistics 6, 219⫺58. Rosta, Andrew (1996): S-dependency. In: UCL Working Papers in Linguistics 8, 387⫺421. Rosta, Andrew (1997): English Syntax and Word Grammar Theory. London. Shaumyan, Olga (1995): Parsing English with Word Grammar. London. Sugayama, Kensei (1991): More on unaccusative Sino-Japanese complex predicates in Japanese. In: UCL Working Papers in Linguistics 3, 397⫺415. Sugayama, Kensei (1992): A word-grammatic account of complements and adjuncts in Japanese (interim report). In: Kobe City University Journal 43, 89⫺99. Sugayama, Kensei (1993): A word-grammatic account of complements and adjuncts in Japanese. In: Proceedings of the 15th International Congress of Linguistics, Vol 2. Universite´ Laval, 373⫺6. Sugayama, Kensei (1996): Semantic structure of ‘eat’ and its Japanese equivalent ‘taberu’: a WordGrammatic account. In: Translation and Meaning 4, 193⫺202. Taylor, John (1989): Linguistic Categorisation: An Essay in Cognitive Linguistics. Oxford.
526
V. Dependenzielle Theorien
Tesnie`re, Lucien (1959) E´le´ments de Syntaxe Structurale. Paris. Touretsky, David (1986): The Mathematics of Inheritance Systems. Los Altos. Tzanidaki, Dimitra (1995): Greek word order: towards a new approach. In: UCL Working Papers in Linguistics 7, 247⫺77. Tzanidaki, Dimitra (1996a): Configurationality and Greek clause structure. In: UCL Working Papers in Linguistics 8, 449⫺84. Tzanidaki, Dimitra (1996b): The Syntax and Pragmatics of Subject and Object Position in Modern Greek. London.
van Langendonck, Willy (1987): Word Grammar and child grammar. In: Belgian Journal of Linguistics 2, 109⫺32. van Langendonck, Willy (1994): Determiners as heads? In: Cognitive Linguistics 5, 243⫺59. Volino, Max (1990): Word Grammar, Unification and the Syntax of Italian Clitics. Edinburgh. Zwicky, Arnold (1977): On Clitics. Bloomington. Zwicky, Arnold (1992): Some choices in the theory of morphology. In: Levine, Robert (ed.): Formal Grammar: Theory and Implementation. Oxford, 327⫺71.
Richard Hudson, London (United Kingdom)
41. Lexicase Grammar 1. 2. 3. 4. 5. 6. 7.
Background Range of coverage Theoretical perspective Specific constraints Notation Conclusion Select Bibliography
1.
Background
Lexicase dependency grammar began in America as part of an attempt to give Chomskyan ‘generative grammar’ more empirical content by making it more explicit and constrained. It evolved first by incorporating case relations from Fillmorean case grammar tradition and then by incorporating localistic case forms and ultimately the basic concepts and notation of European dependency grammar from the work of John Anderson. The only full-scale published explication of the theory to date is ‘The case for lexicase’ (Starosta 1988). The lexicase framework has been employed in synchronic and diachronic studies of more than seventy languages, primarily languages of the Pacific and of East, Southeast, and South Asia, with some additional work on African, European, and Native American languages. It has also been employed in some programmatic work on natural language processing, especially parsing.
2.
Range of coverage
The framework is intended to be a complete framework of analysis for human language. However, not all of the traditional core areas
of linguistic analysis have been covered in comparable detail. In particular, while it has long been assumed that phonological structure should be treated in dependency terms, nothing taking lexicase assumptions as a point of departure has as yet been published in this area. Morphology and syntax have developed in parallel since the time of the first lexicase dissertation, later published as ‘Case in Japanese’ (Taylor 1972), and much recent work has been devoted to ‘seamless morphology’, an approach to word formation being refined and extending in cooperation with Rajendra Singh and his colleagues at the Universite´ de Montre´al (cf. e. g. Ford/Singh/Martohardjono 1997). Most of the work in this framework has been done in syntax proper, in both relatively comprehensive studies of whole languages and in more narrowly focused studies of particular constructions in one or more languages. Much of this has taken the form of syntactic classifications of word classes, since a lexicalist dependency grammar is basically a statement of which words take which other words as dependents, in which combinations and in which orders. There has been no serious effort to work at the level of discourse in this framework, though recent work on coordination (Springer/Starosta 1997) has made a beginning in this direction by looking at the way in which certain kinds of fragments can be reconstructed based on their syntactic environments.
41. Lexicase Grammar
Semantics as such has not been a major focus in lexicase research. Lexical semantics and selectional restrictions have been occasionally touched on tangentially since the beginning, in connection with discussions of case relations, lexical derivation and syntactic relatedness. Of course semantic distinctions that are intimately connected with word order distinctions have been accounted for, as for example the difference in word order in English yes-no questions (‘Subject-AUX inversion’). The recovery of grammatically conditioned missing verbal arguments might also qualify as some kind of semantics. In recent years, though, semantic distinctions and the contrast between situational and perspectual meaning have become increasingly important in connection with questions of verb classification, transitivity, and ergative versus accusative case marking. Finally, following in the path of Prague School linguists, especially Petr Sgall and Eva Hajicˇova´, a beginning has been made in representing insights regarding topic, focus and information structure in a constrained and explicit analysis (cf. Starosta 1993).
3.
Theoretical perspective
3.1. Formalism vs. functionalism Lexicase dependency grammar is both ‘formalist’ and ‘functionalist’. It is hard for me to imagine how any serious theory of human language could be otherwise. Of course it is already functionalist just by being dependency grammar. As Halliday states, ‘Thirdly, each element in a language is explained by reference to its function in the total linguistic system. In the third sense, therefore, a functional grammar is one that construes all the units of a language ⫺ its clauses, phrases, and so on ⫺ as organic configurations of functions.’ (Halliday 1985, xiii⫺xiv)
If a dependency grammar is a representation of sentences in which each word is characterized in terms of its function as a regent and/or dependent of some other word or words, it is not hard to see DG as ‘functional’ in Halliday’s sense. Lexicase is functional in a second sense, one reflected in the -case part of the name ‘lexicase’. Lexicase is part of the case grammar tradition, so that each noun is interpreted as either being a predicate or as bearing a labeled role, a case relation, to some other word, typically a predicate. In a lexicase
527 grammar these roles are limited in number and determined perceptually and syntactically rather than situationally, as they are in other frameworks, so their meanings are rather vague and general, but they are meaningful nonetheless, and so can be considered at least partially semantic. There is a third way in which lexicase is emphatically not ‘functional’. Some linguists who consider themselves ‘functional’ regard grammatical structures as somehow triggered by external situations. However, I believe that anyone who tried to maintain such a claim and seriously formalize an analysis under that assumption would soon see why it cannot be correct. (Maybe that is why many people like to see ‘formalism’ and ‘functionalism’ as mutually exclusive: if you never formalize your claims, you may never have to face their invalidity.) I think most functionalism, especially Talmy Givo´n’s approach, is just fuzzy paraphrasing of English translations, but at least one functional framework, Systemic Functional Grammar, takes its job seriously and does an excellent job of formalizing the situational end of the language-situation bridge. The result, unfortunately, as some practitioners have discovered, is a significant loss of grammatical generalizations over on the language side. From the lexicase point of view, there is of course a bridge between language and situations, but it needs to be crossed in the other direction. Instead of trying to show how situations trigger particular structures or readings, we should instead look at the link intensionally: given a particular sentence or grammatically defined class of sentences, what range of external situations is it compatible with? If that is the right approach, we will get over the language-situation chasm much sooner by putting in more effort on the grammatical end of the bridge first. 3.2. Generativity Even before it found out it was dependency grammar, lexicase was concerned with ‘generativity’, where ‘generative’ is defined in the early Chomskyan way as ‘formal and explicit’. If linguistics is the science of language, as we can read in many introductory linguistics textbooks, and if a scientific statement is one that is capable of being disproved. Before we know a theory or analysis is wrong, we have to know exactly what it is claiming. It follows that linguistic statements must be explicit, so explicit that two researchers inde-
528
V. Dependenzielle Theorien
pendently testing a Theory T analysis of Language X will get the same result regarding the validity of the analysis. What may appear to be a lexicase obsession with formalism is founded on this chain of reasoning. 3.3. Constraints If a theory is made generative, so that we know exactly what it is claiming, it might very well turn out to be claiming that all things are possible. It is surely good to know that this is what the theory is claiming, but also disappointing, since if a scientific theory is one that can be disproved, a theory that allows everything can never be disproved and so is not a scientific theory. In fact, the real content of a theory is the list of things which it says are impossible, since those are the handles that allow it to be grasped and tested. The principal content of the lexicase theory then is its constraints, and the principal content of the next part of this article will accordingly be (i) constraints and (ii) notation. These two factors are given special emphasis in this paper because lexicase differs most from other dependency frameworks in one or both of these two areas.
4.
Specific constraints
The imposition of constraints can be seen as an attempt to delimit the outer boundaries of an unseen reality by gradually eliminating regions where it is found not to exist. Imposing constraints is a heuristic procedure for finding a better theory. In general, constraints are Good if they don’t exclude actually occurring phenomena, and some constraints are better than others if they support better grammar-internal generalizations and/ or are motivated or supported by information from adjacent disciplines. In the lexicase framework, constraints have been proposed in the areas of lexicon, morphology, syntax, and semantics. 4.1. Constraints on the lexicon 4.1.1. No empty words A lexical entry is a word, and a word is a triune sign, composed of those specifications of meaning, pronunciation, and distribution which can’t be predicted from other parts of the sign. All words have all three components. Thus there are no phonologically empty words (‘empty heads’, ‘empty categories’, ‘functional heads’, PRO, t, e, etc.), no
syntactically empty words (‘particles’) and no semantically empty words (‘function words’, ‘dummy pronouns’). Even ‘pleonastic’ words occurring in impersonal constructions, like German es, French il, and English it and there, have meaning as well as form and category. The fact that they do not have situational referents is grammatically irrelevant, and giving them special treatment, e. g. leaving them out of ‘deep structure’ and inserting them later by transformational rule, results in the loss of important grammatical generalizations (cf. Starosta, to appear c). 4.1.2. No polysemy As a consequence of the triune sign principle, there is no such thing as ‘polysemy’. Words which differ in any of the three aspects are separately listed, and separately learned. If words of identical form occur in parallel sets, as for example pairs of English transitive and intransitive verbs such as drink (transitive) and drink (intransitive), and if speakers can be shown to be aware of this fact, then it can be accounted for grammatically in terms of analogical formulae (‘derivation rules’). Listing homophonous words together under a single lemma as alternative forms of the ‘same word’ is a lexicographical tradition with no linguistic motivation. 4.1.3. Word classes Only the following syntactically definable word classes (‘parts of speech’) are possible across languages: V (verb), Adv (adverb), Adj (adjective), N (noun), Det (determiner), P (preposition/postposition), Cnjc (conjunction), and Sprt (sentence particle), and no word can belong to more than one of these classes at the same time. Any other word class labels must either be alternative names for one of these eight classes, refer to subclasses of these classes, or be in error. Thus there is no ‘Aux’ class, no ‘classifier’ class, no ‘Pronoun’ class, etc., unless these are taken to be subclasses of the basic eight classes. This constraint, like the others in this section, is not an ex cathedra decree. Rather, it has been found in lexicase work on more than seventy languages that this seems to be the maximum number of word classes a language may contain. By the rules of the constraints game, anyone who claims that more than these eight classes are needed will need to justify that claim by showing that there are data which cannot be handled without postulating additional classes, and/or that assuming this
41. Lexicase Grammar
set entails the loss of significant cross-linguistic generalizations. To date, this constraint has had very salutary consequences. For example, recognizing ‘auxiliaries’ as verbs, and forcing the reanalysis of ‘classifiers’ in Southeast and East Asian languages as nouns, has garnered some nice language-internal and cross-linguistic generalizations. 4.2. Features Lexical features are unordered. They are atomic or contextual (valency). They are either binary, marked by ⫹ or ⫺ if they contrast with their opposite, or unary, like word class features (N, V, etc.) or case form or case relation features (PAT, Nom, etc.), if they don’t. There are no rule features whose sole function is to condition the application of some grammatical rule. There can be morphological class features if they figure in agreement, e. g. Swahili noun class features and gender in European languages, but there is no lexical marking for conjugation or declension, for example, or for the various types of German plurals or English irregular verb types. 4.3. Phonology Phonological representations are composed of segments in dependency relations to each other, with the primary-stressed segment (if any) governing any lower-stressed syllabic nuclei, which in turn may govern ‘sonables’ (David Stampe, p.c.), which govern other consonants, etc. These dependency relations are similar to syntactic dependency relations except that a segment may sometimes be governed from two directions. Other than ‘constituency’ breaks between segments depending on two different regents, e. g. two different syllabic peaks, there are no internal boundaries of any kind in lexical representations. This having been said, it must be confessed that this is partly wishful thinking, since no serious work on dependency phonology has been done within the lexicase framework. The part about the absence of internal boundaries however may be well motivated, since it has been possible to find alternative accounts for putative boundary phenomena in the cases investigated so far. 4.4. Morphological constraints 4.4.1. No internal boundaries Lexicase morphology is ‘seamless morphology’, closely akin to the ‘word-based morphology’ espoused by Rajendra Singh and his
529 colleagues (cf. Ford/Singh/Martohardjono 1997). Words, including compounds, have no internal structure other than phonological structure, and no internal morphological boundaries. Phenomena accounted for in other frameworks in terms of morphological boundaries are either diachronic matters rather than syntactic phenomena, and/or can be accounted for in terms of word formation strategies that do not refer to or create internal morphological structure. 4.4.2. No bound morphemes It is a corollary of the ‘seamless morphology’ principle that there are no bound morphemes in the lexicon or anywhere else in a grammar. That is, there are no stems, no affixes, and no words inside of other words. In this respect, the seamless morphology position is more radical than that proposed in Anderson’s ‘A-morphous morphology’ (Anderson 1992), which allows for bound stems and for internal structure in compounds. 4.4.3. No stems In inflecting languages, every member of every paradigm is a separate lexical entry, with its own form, meaning, and distribution. There are no bound ‘stems’ abstracted from paradigms and stored as representatives of paradigms. Whether a given fully inflected entry is actually stored in active memory or constructed on the fly from representative members of the paradigm (‘principal parts’, ‘citation forms’) is a separate empirical question that has to be decided on a case-by-case basis (cf. Hudson 1984, 27⫺28), but what goes into a sentence is a fully specified inflected word. 4.4.4. No affixes The lexicon contains no bound affixes. In particular, it contains no affixes with elaborate argument structure properties such as those assumed in word formation approaches by linguists such as Williams, Selkirk, and Lieber (cf. Hendrick 1995, 302). Instead, lexicase accounts for ‘affixation’ in terms of seamless word formation strategies rather than segmental affixes, and thus avoids the problems with zero, discontinuous, and nonsegmental ‘morphemes’ that bedevil Chomskyan Item-and-Arrangement analyses and the earlier American structuralist IA analyses from which they are derived. Until recently, lexicase grammars kept the traditional distinction between inflectional and derivational
530
V. Dependenzielle Theorien
morphology that was still assumed in Anderson’s A-morphous morphology, for example, but now is inclining toward the position taken by Ford et al (Ford/Singh/Martohardjono 1997, 3) that this distinction cannot be maintained. 4.4.5. No compounds If compounds are words containing other words, then lexicase grammars can contain no compounds. Instead, ‘compounds’ turn out to be a special case of affixation, and fall under the seamless morphology stricture against internal morphological structure. This somewhat surprising conclusion is defended in several forthcoming papers by Singh and Dasgupta (Singh/Dasgupta 1998) and Starosta (Starosta to appear a, b). 4.5. Syntactic constraints 4.5.1. Dependency Syntactic structures are dependency structures. All grammatical relationships between words in a phrase or sentence are lexically specified directional dependency relationships between pairs of words, a regent and a dependent, and unlike Word Grammar for example, a given word in lexicase notation can depend on at most one regent, and two words cannot depend on each other. It has not been found necessary to relax the dependency constraint to allow for constituency analyses of particular constructions such as coordination (cf. Springer and Starosta to appear). 4.5.2. Projectivity There are no crossing dependencies. (In constituency terms, there are no discontinuous constituents.) If A and B are two words neither of which directly or indirectly depends on the other, if A precedes B in a sentence or phrase, if m and n are words that appear between A and B, and if m precedes n, …A…m…n…B… then it is not possible for m to depend (directly or indirectly) on B and n to depend on A. Projectivity has been a popular topic in dependency theory, and many examples have been given for the necessity of weakening this constraint. In the cases examined so far from a lexicase point of view, however (inversion, coordination, ‘free word order’ in Australian aboriginal languages like Dyirbal, and un-
bounded dependencies in topicalization and content questions), it has been possible to find analyses which are projective in this strict sense and also consistent with the other constraints outlined here. In the case of Latin poetry, on the other hand, we are dealing with an artificial artistic manipulation of grammar, one which does not need to be accounted for in a theory of natural language. It is anticipated that other cases of non-projectivity will turn out to fall under one of these two categories, but if there are intractable cases, of course, the constraint will have to be dropped. 4.5.3. Locality All dependency links are local. In X-bar terms, lexicase DG is a one-bar theory. There are no ‘bar levels’ intervening between a dependent word and its regent, and no (externally labeled) nodes in a dependency stemma. 4.5.4. Pan-lexicalism Because all grammatical information is present in the words in the lexicon, the lexicon generates the well-formed phrases (including sentences) of a language, in the mathematical sense of defining the well-formed strings of words in the language. A well-formed phrase is any string of words such that every word depends on and/or governs another word, and in which all the valency features are satisfied. All the grammatical rules are generalizations about the internal composition and external distribution of words in the lexicon, and about analogical patterns of correspondence between subsets of lexical items. This result, a variant of Richard Hudson’s ‘panlexicalism’ (cf. Hudson 1979a; Hudson 1979c, 11,19), evolved in lexicase at about the same time as it appeared in Hudson’s daughter-dependency grammar. It can be seen as a radical version of Chomsky’s lexicalist hypothesis, in that not just some but all grammatical generalizations are captured in terms of lexical rules, and there are no transformations or other operations on tree structures at all. The pan-lexicalist postulate is included under ‘constraints’ here because it limits the kinds of syntactic representations that can be constructed. As an example, it rules out structures generated by syntactic rules like NP J S which were used in earlier Chomskyan grammars to analyze certain embedded sentences as subjects or objects, or to analyze gerunds as verbs.
531
41. Lexicase Grammar
Given the claim that there are universally only eight ‘parts of speech’, the core of a dependency grammar is a statement of which of the 64 mathematically possible regent-dependent pairs are impossible, and a characterization of the regent-dependent relations and requirements obtaining in the combinations that are found to exist across languages or in individual languages. 4.5.5. Abstractness Abstractness is not bad in itself, but Occam’s razor admonishes us to avoid unnecessary abstractness. This is not just a matter of esthetics. When a theory allows too much abstractness, it becomes possible to construct multiple representations and explanations for the same phenomenon, and it may be difficult or impossible to decide among them empirically. A theory with some kind of empirical content, by contrast, should ideally allow only one answer for any given question. Many of the syntactic constraints in a lexicase grammar can be seen as a way of eliminating unnecessary abstractness. 4.5.6. Monostratality A lexicase grammar has only one level of representation. There are no operations that change one syntactic representation into another form. Thus there are no movement rules, no ‘adjunctions’, no deletions, no insertions, and no ‘fusions’ (Halliday 1985, 72). All structures are ‘base-generated’. 4.5.7. Lexical integrity Grammatical representations are composed of whole words linked together by lexically specified local dependency relations. There are no floating bound morphemes (-ing, Past), no empty categories (‘functional heads’ like AgrS, PRO, traces, missing heads, zeroes), no functionally labeled sockets (Spec, Predicate) and no non-lexical categories (particles or other unlabeled phonological material). This is a strong constraint, and rules out some of the worst excesses of Chomskyan grammar, including fanciful multi-level syntactic representations composed mainly of ‘functional projections’, as well as Abney’s analysis of gerunds as verbs (Abney 1987) and the analyses of noun phrases as ‘DPs’ (cf. 41.1 and 41.2) in sentences such as (1) and (2). (1) (2)
Writing a linguistic dissertation is difficult. Children love pets.
NP Det
S
-ing
V write
Fig. 41.1: Gerunds as verbs
DP D
NP
Ø
N children
Fig. 41.2: NPs as DPs
4.6. Semantic constraints: Perspective In the popular view, as well as in various linguistic frameworks and natural language processing systems, meaning is tied to situation. Two sentences have the same meaning if they refer to the same situation, and it is frequently assumed that it is the job of the linguist to provide a level of representation which represents situational meaning, so that two sentences which are paraphrases will have the same representation at this level. From the lexicase point of view, this is a very serious mistake. Sentences do not represent external situations, but rather speakers’ perceptions. Objectively identical situations may be perceived in different ways, and languages encode these perceptions rather than situations as such. Thus the four pairs of sentences (3a)⫺(6b) differ grammatically (and lexically) exactly because they encode different perceptions. (3)
a. Ferd is loading the spreader with manure. b. Ferd is loading manure in the spreader.
(4)
a. Mort is putting political appointees in all the committee positions. b. Mort is packing the committees with political appointees.
(5)
a. Luke is burying kernels of corn in the ground. b. Luke is planting corn.
532 (6)
V. Dependenzielle Theorien
a. Sheila caused Seymour to die. b. Sheila killed Seymour.
Whether or not they are paraphrases, that is, whether they encode the same objective situations, is not a linguistic question, and frameworks which assume that it is end up with inflated expressive power and the loss of important grammatical generalizations. One specific area in which this constraint has proven its worth is in the area of the treatment of expletive pronouns such as French il and y, German es, and English it and there in impersonal constructions. Because such pronouns have no obvious situational referents, Chomskyan linguistics and some other frameworks regards them as linguistically null, and leave them out of underlying representations, introducing them later by transformational rule. The result is, grammatically speaking, disastrous. Because of this assumption, control phenomena in English are fragmented into a number of different constructions: control, ‘raising’, ‘exceptional case marking’, ‘small clauses’, and auxiliary ⫺ verb constructions. By contrast, when the grammatical framework gives up the attempt to represent situational meaning, and when non-referential ‘expletive’ words and ‘idiom chunks’ are seen as having their own perceptual meanings, all these different control phenomena turn out to amenable to a single simple and unified control analysis, as shown in Starosta (to appear c). Liberating a grammar from the situational semantic orthodoxy has additional salutary effects. In particular, it allows grammars to assign different grammatical structures to pairs of sentences such as (7a)⫺(8b), which differ in transitivity or information structure, without having to struggle with philosophical questions of propositional identity. (7)
a. Fiona looked at the children. b. Fiona watched the children.
(8)
a. I would never turn my back on Thorkel. b. Thorkel I would never turn my back on.
As an example, lexicase work on ergativity in recent years has made productive use of the close correlation between semantic transitivity in Hopper and Thompson’s sense (Hopper/Thompson 1980) and grammatical transitivity. Trying to decide if (7a) and (7b) were paraphrases and thus had to have the same verb and/or the same structure at some level
would only have gotten in the way. Similarly, in work by Petr Sgall, a distinction between deep (‘tectogrammatical’) and surface levels in analyzing pairs of sentences such as (8a)⫺(8b) seems inspired by a linguistically unmotivated desire to have a level of analysis which is free from ‘function words’ (words which have no situational meaning), and which assigns the same unmarked constituent order to sentences with the same ‘propositional’ (situational) meaning. The result is not an increase in economy, as Sgall claims (Sgall 1997) but rather a loss of explicitness and an unnecessary increase in expressive power and complexity, obscuring what is otherwise a very insightful analysis (cf. Starosta 1997a). 4.7. Predication Following the thousand-year-old dependency grammar tradition (cf. Covington 1986), a lexicase grammar characterizes sentences as composed basically of noun-headed actants, which establish a link between a linguistic expression and perceived external reality, and predicates, which assign interpretations to these actants and establish labeled relations between them. Several lexicase constraints are related to the status of predicates and their relation with their dependents. 4.7.1. Possible predicates Predications can be headed by one of three lexical categories, V, N, or P. Of these, verbs are always predicates, while nouns and prepositions/postpositions may or may not be predicates. (9)
My dog doesn’t bite[V].
(10) (Thai; Indrambarya 1994, Chapter 3, (38a)) wan nı´i wanyu`t[N,⫹prdc] day this holiday ‘Today is a holiday.’ (11) (Tagalog) para[P,⫹prdc] sa bata ang regalo for at child the gift ‘The gift is for the child.’ There is of course no zero or underlying copula in non-verbal predicates such as (10) and (11), simply because there are no phonologically empty words and there is no ‘deep structure’.
533
41. Lexicase Grammar
4.7.2. Possible regent ⫺ nominal actant relations In most frameworks employing some version of ‘case relations’ or ‘thematic relations (hroles)’, the definitions are given in terms of situational semantics and the inventory of such roles is limited only by the investigator’s imagination. As a descendant of Fillmorean case grammar, lexicase too has its ‘case roles’, but they have evolved in a different direction. Instead of being defined in situational terms, they are now defined perceptually, and given that grammar encodes perception rather than situation as such, the justification for proposals about the proper inventory of case relations is primarily grammatical: the correct set of case relations is the set that facilitates the capture of the most language-internal and cross-linguistic grammatical generalizations. In the course of work on a considerable number of languages, the inventory of lexicase case relations has stabilized at five case relations and one macro-role, shown as (12). (12) Lexicase case relations PAT ‘Patient’ occurs with all predicate words AGT ‘Agent’ occurs with all transitive verbs LOC ‘Locus’ COR ‘Correspondent’ MNS ‘Means’ actr ‘actor’ the ‘macrorole’; coincides with the AGT of transitive verbs, else with the PAT Rudimentary semantic characterizations can be given for these terms (cf. (13)), but they are secondary, derived by looking for the common features in the sentences in which nouns appear, and not primary and a priori, as they are in situationally based systems. (13) PAT
the perceived perceptual center of an action or state AGT the perceived external instigator of an action or state LOC the perceived abstract or concrete location of the PAT (complements); or the perceived abstract or concrete location of the action or state (adjuncts) COR the entity perceived as corresponding to the PAT (complements); or the entity perceived as corresponding to the action or
state as a whole; typically a ‘beneficiary’ (adjuncts) MNS the entity perceived as necessarily involved in an action or state affecting the PAT (complements); or the entity perceived as being used by an AGT to effect an action or state as a whole; an ‘instrument’ (adjuncts) actr the entity perceived as instigating or carrying out an action or bearing the attributes of a state; the ‘protagonist’ There is no correlation between case relations and referentiality. Thus it in It is raining has the same case relations as it in It is growling. Given the lexicase characterization of Patient, it is possible to capture various semantic generalizations, including e. g. a generalization about semantic scope: other complement CRs have the PAT in their semantic scopes, in the sense that a complement LOC for example refers specifically to the PAT while the adjunct refers to the action or state as a whole. This is illustrated in (14)⫺(16). (14) The hero sleeps in a hayloft on that TV program. PAT
LOC compl.
LOC adjt.
(15) Rick made coffee in a tin can at the campground. PAT LOC compl.
LOC adjt.
(16) The cow kicked Nelly in the belly in the barn. PAT LOC compl.
LOC adjt.
This is also true in a slightly different sense for infinitival complements: the missing subject is coreferential with the regent PAT, as shown in (17)⫺(18). (17) Hilda tried D to tap dance D to get Sig’s PAT attention.
compl.
adjt.
(18) Granny told Hilda D to tap dance D to get Sig’s. PAT
compl.
adjt.
attention.
In working with lexicase case relations, two things need to be remembered. The first is that the grammatical definitions are primary. Thus the grammatical subjects of (19) and (20) are actors and Patients even though neither is ‘doing’ anything, and nothing is ‘happening’ to the ice. (19) Ice[actr,PAT] is frozen water. (20) Barney[actr,PAT] was bitten by a rabid chihuahua.
534
V. Dependenzielle Theorien
377727771
177727773
‘theta grid’ (set of valency features defined in terms of case relations), and neither can occur in the environment in which the other occurs ((3a’’)⫺(3b’’)).
377727771
177727773
Similarly, Jack and Abraham Lincoln are the respective Agent and Patient of (21), even though Jack isn’t doing much and Abe is doing nothing at all.
*tossing [+trsp] *loading [+trsp] (3) a’’. Ferd is the spreader with manure. covering [+afct] AGT PAT MNS loading [+afct] actr
*covering[+afct] (3) b’’. Ferd is *loading[+afct] manure in the spreader AGT tossing[+trsp] PAT LOC loading[+trsp] actr
(21) Jack[AGT,actr] resembles Abraham Lincoln[PAT]. The second thing to remember is that paraphrase plays no roles in identifying these case relations. In other frameworks, h-roles are constant across paraphrases: once a h-role, always a h-role. In a lexicase analysis, on the other hand, the same external entity may be encoded with a different case relation if it is perceived differently. (3a) and (3b) are repeated here with case relations indicated to exemplify this point. (3)
a’. Ferd is loading the spreader AGT PAT actr with manure. MNS b’. Ferd is loading manure AGT PAT actr in the spreader. MNS
Manure is MNS in (3a’) because it is the entity perceived as immediately affecting the PAT, spreader, but it is PAT in (3b’) because it is depicted as the entity perceived as moving to the LOC, spreader, with a verb of transportation. An important consequence of this approach to case relations, combined with the ‘triune sign’ postulate, is that the verb loading in (3a’) is lexically different from the verb loading in (3b’). Loading in (3a’) is an affect [⫹afct] verb, like covering, while loading in (3b’) is a transportation [⫹trsp] verb, like tossing. Each verb class has its own defining
Linguists and lay persons accustomed to situational or grammar-school definitions of terms like ‘actor’ and ‘Patient’ may find the lexicase usage counter-intuitive (i. e. different from what they are used to). The proof of a good set of terms though is in the range of grammatical generalizations that can be captured using them. For example, (22) The commandee of an imperative verb is always the actor. (23) The antecedent of a reflexive is almost always the actor. (24) Either the PAT or the actr (Ritsuko Kikusawa, p. c.) NP agrees with the verb morphologically if any NP does.
5.
Notation
In this section I will present and illustrate the basic notational conventions of lexicase dependency grammar. The system is basically simple: a sentence or phrase is a list of words connected by binary lexically specified links. This information may be optionally represented as a conventional stemma, but this is only a convenience; all the information on dependency and linear precedence is included as atomic and valency (contextual) features in the lexical matrices themselves. In a phrase or sentence, each word is given an index based on its linear position, and each word depends on at most one regent word and/or governs one or more dependent words. The binary link between words is formalized by copying the linear index of the dependent into a valency feature of the regent, as illustrated in 41.3.
535
41. Lexicase Grammar
[m [F a]]
send 1ndex 2 [N] money 2ndex N
mndex Fa Fa = any atomic feature(s) ‘Send money!‘
specifying their valence. A valence feature indicates the word’s combinatory potential with other words, including required and optional dependency links and linear precedence requirements. In effect, each word is a well-formedness condition on word sequences, and a phrase is well-formed if each of the words is the regent or dependent of one other word in the string, and if the valence of each word is satisfied. 41.4a and 41.4b (see p. 536) exemplify this point.
Fig. 41.3: Dependency links List notation
5.1. Features Lexical features in a lexicase dependency grammar are either atomic (non-contextual) or valency (contextual).
like 2ndex V 1 [N] 3 [N]
children, 1ndex N
pets 3ndex N
Stemma notation
5.2. Atomic features Atomic features may be polar or non-polar. Polar features come in contrasting pairs distinguished by ⫹ versus ⫺, e. g. (trns: transitive vs. intransitive. Non-polar features are non-contrasting specifications. For example, the features N ‘noun’ and Acc ‘accusative’ do not have negative counterparts -N or -Acc. Atomic features can be grammatical or semantic. Categorial features such as N or P and case features such as AGT or Acc are primarily grammatical, while lexical features like (anmt ‘animate’ and (telc ‘telic’ are primarily semantic. In general, however, all ‘grammatical’ features also have some sepgmantic implications, and ‘semantic’ features may be involved in grammatical rules in some languages but not others. As far as lexicase notation is concerned, these types are not formally distinguished. Since there are at most eight basic lexical classes in a language, there are at most eight word-class features: [V], [Adv], [Adv], [N], [Adj], [Det], [Cnjc], and [Sprt], though each of these may have fixed or variable (inflectional) subtypes. Thus English nouns are subcategorized into [(prnn] ‘pronoun’ and [(mass] ‘mass’ (fixed) and [(plrl] ‘plural’ (inflectional) subsets. (Conventionally, feature names consisting of four consonants are preferred.) 5.3. Valence features Most word classes in a lexicase grammar are marked with one or more contextual features
children, 1ndex N
like 2ndex V 1 [N] 3 [N]
pets 3ndex N
Fig. 41.4a: Lexicase dependency representations (first approximation, V)
5.4. Endocentric and exocentric constructions The most basic kind of valency feature is one marked on a whole syntactic class specifying which other class or classes are allowed or required as dependents. Such features may be optional or obligatory. For example, verbs as a class allow but don’t require nouns, adverbs, prepositions, verbs and/or sentence particles as dependents, depending on the language. This kind of dependency is stated in terms of optional categorial valency features, and will be referred to as an endocentric dependency. (25) V ? ([N]) ? ([Adv]) ? ([P]) ? ([V]) ? ([Sprt])
536
V. Dependenzielle Theorien List notation like, 3ndex V 2 [N] 5 [N]
children, 2ndex N 1 [Adj]
little, 1ndex Adj
pets, 5ndex N 4 [Adj]
gentle 4ndex Adj
Stemma notation like, 3ndex V 2 [N] 5 [N]
children, 2ndex N 1 [Adj]
pets, 5ndex N 4 [Adj] gentle 4ndex Adj
little, 1ndex Adj
Fig. 41.4b: Lexicase dependency representations (first approximation, V and N)
The ‘?’ in the valence feature is a variable which may be replaced by the linear index of another word in the same syntactic structure. Two word classes, P (prepositions and postpositions) and Cnjc (conjunctions) take required dependents as part of their definitions. Thus a preposition must have a preceding dependent to qualify as a P, and a conjunction must occur between two dependents of the same type to qualify as a conjunction. Note that by this definition a ‘stranded’ preposition is not a preposition but an adverb, and a ‘subordinating conjunction’ is not a conjunction but a preposition. The relation between a P or a Cnjc and its dependent(s) is referred to as an exocentric dependency, and is indicated in the lexical entry by an obligatory categorial valency feature (cf. (26) and (27)).
Endocentric
(26) P ? [N]
P ? [V]
(27) Cnjc ? [N] ? [N]
Cnjc ? [V] ? [V]
P ? [P]
This endocentric-exocentric distinction is represented in a stemma by drawing endocentric dependents in the usual way under slanting lines, but hanging exocentric dependents under longer arcs under a horizontal bar (cf. 41.5). Exocentric constructions have special grammatical properties that motivate their special treatment in this notational system. In particular, they share the property of being transparent to some valency requirements
Exocentric Coordination
PP P 2 [W]
[2 ([W])
2ndex W
Fig. 41.5: Centricity in stemmas
Cnjc 1 [W] 3 [W] 2ndex W
1ndex W
3ndex W
537
41. Lexicase Grammar
V 2 ([N])
2ndex N Nom Acc 1ctn assn trmn
V 2 ([N])
2ndex V +fint – fint
Fig. 41.6: Dependents of verbs
N 2 ([V])
2ndex V +fint – fint
N ([Det])
2ndex Det
N 2 ([Adj])
2ndex Det
N 2 ([V])
2ndex Det
N 2 ([P])
2ndex [P]
Fig. 41.7: Dependents of nouns
imposed by their regents. Among the P ⫺ dependent combinations, the P ⫺ V combinations might be noted. They are the ‘subordinating conjunctions’ of traditional grammar and some of the ‘complementizers’ of Chomskyan grammar, but are grouped together with traditional N-governing prepositions here because of their shared dependency property (contracting an exocentric dependency with a single dependent) and often their shared semantic specifications as well. Each word class may be further specified for the subclasses of dependents it allows or requires. Many of these subtypes are widespread or universal. Some of the typical configurations for verbs, nouns, prepositions and conjunctions are illustrated in 41.6. In a dependency grammar, the verb is the control center for the whole clause. In previous lexicase descriptive studies on a number of languages, five word classes have been found to depend on Vs: N, V, Adv, P, and Sprt. (Cnjc occurs too, but is grammatically transparent and functions as its immediate dependents.) V⫺N links are the backbone of a sentence. Every noun has a case form, lexically marked on the noun itself and/or imposed by its regent, typically a verb. The most common ones are Nom (‘grammatical
subject’), lctn (‘locative’; universally present) and Acc (present in every language). Verbs may also take other verbs as dependents, and are subcategorized into [(fact] subsets depending on whether they require the dependent verbs to be finite (allowing their own Nom dependent) or non-finite (excluding their own dependent Nom noun). Dependents of nouns are also numerous; so far Det, Adj, N, V, and P have been found in lexicase studies. V dependents of nouns are relative clauses or noun complements, and again are distinguished into finite and non-finite subtypes. There is a bit more cross-linguistic variation in the set of N dependents. Thus not all languages have Det or Adj categories, and in English, only gerund nouns allow N dependents. (The Chomskyan analysis of -’s and of NP modifiers as ‘Genitive’ NPs is not linguistically supportable 41.8.) As shown in this figure, we may usefully distinguish those prepositions that govern finite verbs (cf. English that, Thai waˆa) and those that govern non-finite verbs (English to, Thai haˆy). A language may also distinguish between conjunctions that conjoin ge¯n ‘and’) nouns (e. g. Mandarin Chinese and those that conjoin verbs (e. g. Mandahuo`zhe ‘or’). rin
538
P 2 ([N)]
V. Dependenzielle Theorien
2ndex N
P 2 ([N)]
2ndex V +fint – fint
P 2 ([P)]
2ndex P
1ndex
Cnjc 1 ([N]) 3 [N]
3ndex
N V
N V
Fig. 41.8: Dependents of Ps and Cnjcs
5.5. Complements and adjuncts Optionality is used in two different ways in lexicase valence features. When the features refer to primary syntactic classes (‘parts of speech’), optionality indicates endocentricity and obligatory features mark exocentric dependencies; thus nouns head endocentric constructions (1([Det]), 1([Adj]), etc.) and postpositions head exocentric constructions (1[N], 1[V], etc.) As noted earlier, the same information is indicated by slanting versus horizontal arcs when stemma notation is used (41.9).
To paraphrase: as a noun, portrait is allowed to have a Determiner dependent, but as a definite singular common noun, it must have a definite singular Determiner dependent. This distinction is generalized in 41.11. Complement
+W m [ Fi]
Adjunct
mndex Fi
+W m ([ Fi])
mndex Fi
Fig. 41.11: Complements vs. adjuncts N 1 ([Det]) 1ndex Det
P 1 ([N]) 1ndex N
Fig. 41.9: Endocentric vs. exocentric valence features and stemmas
In all other cases, obligatory valence features mark complements and optional features mark adjuncts. Thus although nouns head endocentric constructions and as a class may allow determiners, English common singular nouns require determiners; such determiners are complements. Adjectives by contrast seems to always be adjuncts across languages (41.10).
that 1ndex Det +dfnt – plrl
portrait N – prpr +dfnt – plrl ? ([Adj]) 1 ([Det]) 1 Det +dfnt +plrl
prpr = ‘proper’ dfnt = ‘definite’ plrl = ‘plural’
Fig. 41.10: Complement determiner
where αFi is not a single primary syntactic word class (‘part of speech’) feature. As a consequence of the assumptions made so far, there is no such thing as an optional complement. In a ‘non-pro-drop’ language such as French or English, a verb which occurs with a ‘direct object’ is in a different syntactic class from a verb which doesn’t. Thus in example (28)⫺(31), there are four different verbs, not three. (28) Orly ate a huge sandwich. (29) Orly devoured a huge sandwich. (30) Orly ate at seven thirty. (31) Orly dined at seven thirty. This runs counter to standard lexicographical practice, which in all but the most extreme cases (e. g. bank (for money)vs. bank (of a river)) treats words spelled the same way as ‘the same word’. However, this strict interpretation of the triune sign requirement allows a grammar to account for a much larger range of grammatical generalizations, and to account for semantic and derivational distinctions such as those encountered in describing the properties of transitive versus intransitive drink (cf. article 23, section 7, in this volume). A practical and theoretical problem for the definition of complements in terms of obliga-
539
41. Lexicase Grammar
tory presence is presented by ‘pro-drop’ languages such as Spanish, Japanese, Thai, and Chinese. These languages allow complements to be omitted under certain conditions, but the complement-adjunct distinction remains crucial for all other purposes. The lexicase solution to this complication is to state that such languages have extra discourse-level mechanisms for supplying external indices to valency features, including complement features (cf. Springer 1993). Such mechanisms may make reference to agreement morphology (Spanish), deference-marking morphology (Japanese), or neither (Thai and Chinese), but the bottom line is still the same for pro-drop and pro-clutch languages: a dependency representation in which obligatory valence features are not indexed is ill-formed. 5.6. Case In a lexicase grammar, every predicate is specified for its valence, the range of required and possible dependents with which the predicate co-occurs. These are represented in a lexical matrix by contextual features of the form [?[αFi]], where αFi represents the features expected of the dependent word and where ? is a variable replaced by the linear index of the word satisfying the valence feature. Valence features may be ‘skeletal’, requiring that a word have a dependent belonging to a particular part of speech (e. g. [?[N]]), ‘grammatical’, requiring that particular grammatical features appear on a dependent (especially agreement features), ‘selectional’, interpreting a dependent as having certain semantic features, or ‘functional’, interpreting a dependent as bearing a particular syntacticsemantic relation to its regent. Skeletal features establish the basic frame of the stemma, and other valence features interpret the dependents. As might be expected from the
(a)
(b)
(c)
[V]
[N]
[P]
N PAT AGT COR LOC MNS prdc
N COR LOC prdc
name of the lexicase theory, case is the most salient of these functional relationships. Following on from the Fillmorean case grammar tradition, the term ‘case’ in lexicase covers three categories: case relations, case forms, and case markers. 5.6.1. Case relations In a lexicase grammar, every noun is a predicate or bears one of five case relation to its regent (cf. (12)). Nouns may appear as the dependents of either verbs, nouns, prepositions or conjunctions, though which case relation (CR) may depend on which word class varies somewhat from class to class and from language to language. PAT and AGT occur only as complements, as grammatically required dependents of their regent lexical items (e. g. [?[PAT]]), while LOC, COR, and MNS may appear either as complements or as adjuncts, grammatically allowed but not required dependents (e. g. [?([⫹COR])]). (15) is repeated here in stemma form as 41.13 to illustrate this distinction (see p. 540). In this stemma, made interprets coffee as its PAT complement, in (and its dependents) as its LOC complement, and at (and its dependents) as a LOC adjunct. The appearance of the CRs is limited by the following constraints. Every noun must either bear a case relation or be a predicate [⫹prdc], and every predicate must have a PAT as one of its dependents (‘Patient centrality’). Only nouns and noun-headed exocentric constructions (PPs and coordinate NPs and PPs) may bear CRs. Thus a clause cannot have a case relation. The relation between a predicate and a non-N dependent is different in kind from relations between predicates and dependent nouns.
N COR LOC MNS prdc
Fig. 41.12: CR dependents of verbs, nouns, and prepositions
540
Rick
V. Dependenzielle Theorien
made V +trns 3 [PAT] 4 [LOC] 7 ([LOC])
coffee 3ndex N
in 4ndex P a Det
tin can N
at 7ndex P the Det
campground N
Fig. 41.13: Complement and adjunct Locus
Two instances of the same CR (‘case relation’ may not appear as dependents of the same regent word unless they encode segments of the same perceptual entity (the ‘One per Sent constraint’). This ‘unless’ phrase covers LOC in many if not all languages, e. g. in (32), Fargo and Buncombe both describe endpoints of the path traveled by the PAT, van. (32) Hans drove his old van from Fargo PAT LOC to Buncombe. LOC In Korean, however, it applies to all five case relations (cf. Jeong 1992, section 3.3). 5.6.2. Macrorole A category closely related to case relations is the ‘macrorole’ actor, the relation which corresponds with the AGT if any, else with the PAT. This term is taken from Foley and Van Valin’s ‘role and reference grammar’, though the lexicase version is more tightly tied to structure than its RRG counterpart. This is illustrated by the lexicase analysis of passive constructions illustrated in (33) vs. (34), in which the passive ‘agent’ isn’t an actor. (33) Walburga admired Herb. AGT PAT actr (34) Herb was admired by Walburga. PAT MNS actr Defining actr in the lexicase way makes it possible to capture language-internal and cross-linguistic generalizations about imperative constructions, clitic pronouns, and reflexives (cf. Starosta 1988, 151⫺154). 5.6.3. Case forms and case marking A case form (CF) is a set of grammatical configurations that mark the presence of a case relation. In a lexicase analysis, case forms are
established in strict accord with the grammatical patterns revealed by the language data and justified by the extent to which they facilitate the capture of language-internal and cross-linguistic grammatical generalizations. There is no fixed inventory of case forms, but there is one CF that appears in all languages, i. e. Nominative (Nom), and one that appears in all accusative languages, i. e. Accusative (Acc). Given the CR, CF, and macrorole categories of a lexicase grammar, it is possible to capture various language-internal and cross-linguistic grammatical generalizations, in particular statements that apply equally well to ergative and accusative languages. (35)⫺(38) are some examples. (35) An accusative language is a language in which the Nominative case form always marks the actor and vice versa. (36) An ergative language is a language in which the Nominative case form always marks the Patient and vice versa. (37) In an accusative language, PAT is always marked Acc in a grammatically transitive clause. (38) In both ergative and accusative languages, the Nominative category is typically the least morphologically marked of the case forms of a language (41.14). There is no formal place for the term subject in this system. The term ‘subject’ as used in eurocentric SAO analyses bears some similarity to the lexicase actr, but doesn’t quite match because of its confusion of form and function; comparable problems apply to Chomskyan ‘logical subjects’ or ‘deep structure subjects’ (‘Spec of VP’, etc.). Similarly, the lexicase Nom CF is not quite equivalent to ‘grammatical subject’ as commonly used, in that ‘grammatical subject’ is not a primitive in the lexicase framework. It could be defined derivatively as ‘the Nom-marked constituent bearing a CR’. However, this seems
541
41. Lexicase Grammar ACCUSATIVE: actr
ERGATIVE: PAT
Nom
PAT actr
PAT actr
[– trns]
AGT actr
[+trns]
Nom
AGT actr
PAT
Nom
Acc
Erg, Gen, Ins
PAT
Nom
Fig. 41.14: Accusative versus ergative case marking
never to be necessary: CFs, CRs, and the macrorole make possible better cross-language generalities than either kind of ‘subject’ category does. 41.15a⫺d illustrate case marking for transitive and intransitive sentences in accusative and ergative languages; tobiisi features have been omitted.
My 1ndex
horse 2ndex N
whinnied. 3ndex – trns +fint 2 ([N]) 2 [Nom]) 2 [actr] 2 [PAT]
Accusative languages: English Fig. 41.15a: Intransitive (acc)
Every 1ndex
the 2ndex N
deserves 3ndex +trns +fint 2 ([N]) 2 [Nom] 2 [actr] 2 [AGT] 5 ([N]) 5 [Acc] 5 [PAT]
Fig. 41.15b: Transitive (acc)
a 4ndex
hearing 5ndex N
5.6.4. Case linking In lexicase dependency notation, a valence feature on a regent does not require that certain features appear on its dependent. Rather, it interprets a dependent as having certain features. The well-formedness of the phrase or sentence then depends on how consistent these expectations are with the inherent properties of the actual dependents. In 41.15a, for example, whinnied interprets horse as a noun bearing the Nom CF, the PAT CR, and the macrorole actr. Horse is unmarked for these features, so there is no conflict. If we were to replace the horse by she, which is lexically [Nom], there is also no conflict, but if we replaced the horse by her, lexically [Acc], there would be a grammatical conflict, since a noun can have only one CF; it can’t be lexically accusative and be interpreted as Nom at the same time. Finally, if we were to replace horse by parrot, the resulting The parrot whinnied would be a bit odd. This is because whinnied has a selectional feature something like [?[PAT,⫹equs]] meaning ‘I interpret my Patient as a horse’. The noun parrot is not marked as [⫹equs] or [⫺equs], so there is no direct confirmation or violation of this expectation. Instead, the hearer must decide if he or she is prepared to think of a parrot as being able to do something that only horses are supposed to do. The correlation between CRs, CFs, and macroroles is referred to as ‘case linking’. In a lexicase grammar this is accounted for formally by means of tobiisi (‘stepping stone’) features (Springer 1993, 109) which pairs of case features from these separate inventories. A sample set is given as (39).
542
This 1ndex
V. Dependenzielle Theorien
software 2ndex N
is 3ndex – trns +fint 2 ([N]) 2 [Nom] 2 [actr] 2 [PA 4 ([V]) 4 [–fint]
protection 4ndex V –trns –fint 2 [actr] 2 [PA 5 ([P]) 5 [+path] 5 [MNS]
by 5ndex P +path a 6ndex
Fig. 41.15c: Intransitive passive (acc)
Tumakbo ran 1ndex V – trns +fint 3 ([N]) 3 [No 3 [PA 3 [actr]
ang the 2ndex Det Nom
lalaki ran 3ndex N
‘The man ran’
Fig. 41.15d: Intransitive (erg)
binili bought 1ndex V +trns +fint 3 ([N]) 3 [Ge 3 [AGT] 3 [actr] 5([N]) 5 [Nom] 5 [PAT]
ng of 2ndex De Gen
‘The man bought the rice’
Fig. 41.15e: Transitive (erg)
lalaki man 3ndex N
ang the 4ndex Det Nom
bigas rice 5ndex N
copy right. 7ndex N
543
41. Lexicase Grammar
binili bought 1ndex V – trns +fint 3 ([N]) 3 [Nom] 3 [PAT] 3 [actr] 5([N]) 5 [Gen] 5 [MNS]
ang the 2ndex Det Nom
lalaki man 3ndex N
ng of 4ndex De Gen
bigas rice 5ndex N
‘The man bought some rice’
Fig. 41.15f: Intransitive antipassive (erg)
(39)
? actr PAT
(intransitive verbs)
? actr AGT
(transitive verbs)
) ?( N Nom
(finite verbs)
? Nom actr
(finite verbs, accusative languages)
? Nom PAT
(finite verbs, ergative languages)
? Acc PAT
(accusative languages)
? Erg AGT
(ergative languages)
These features can be added to the appropriate matrices by redundancy rules, e. g. (40)⫺(43). (40) [+fint]
?( N ) Nom
(accusative languages; ‘pro-drop’)
? Nom actr (41) [–trns]
? actr PAT
(42) [+trns]
? actr AGT
(43) [+trns]
? Acc PAT
(accusative languages)
The fully specified matrix for whinnied in 41.15a then would have the features shown in 41.15a’.
544
V. Dependenzielle Theorien
which can function either as prepositions or postpositions (48).
5.7. Linear precedence So far, nothing has been said in this article about word order. Languages may differ in word order, so their grammars should differ too. In a lexicalist grammar, grammatical information is represented in the lexicon, so ordering information should be present in the lexicon too. The way this is done is for each word to tell its dependents whether they are supposed to precede it or follow it (or leave the ordering open). This is done by requiring a dependent’s linear index to be smaller than the regent’s index [?[X]⬍@] when the dependent is supposed to precede the head, or greater [@⬍?[X]] if the dependent follows. Here ‘@’ is a variable replaced in a phrase by the regent’s own linear index, and ‘?’ is a variable to be replaced by the linear index of the dependent. As an example, the lexical representations for Japanese kara ‘from’ and English from will be something like (44) and (45).
As long as prati has a noun to hold on to, it doesn’t care whether the noun precedes or follows it. Then what about ordered dependents, such as English Det and Adj? They can’t impose restrictions on each other because neither is the regent of the other. Thus their common regent has to impose relative order on them. This can again be done by means of a linear precedence feature on the regent noun requiring the Det’s index to be smaller than the Adj’s (50).
(44) kara [@ndex,P,⫹sorc,?[N],?[N]⬍@]
(50)
(45) from [@ndex,P,⫹sorc,?[N],@⬍?[N]] and PPs containing these words will look like (44’) and (45’). Placing the lexical entries for each structure in an unordered list ((46) and (47)) does not lose any of this information. (46) gakkoo [1ndex,N] kara [2ndex,P,⫹sorc,1[N],1[N]⬍2] (47) from [1ndex,P,⫹sorc,2[N],1⬍2[N]] school [2ndex,N] When each regent imposes linear order on its own dependents, the result is a well-formed dependency structure. It may be remarked at this point that multistratal dependency frameworks tend to ignore the step of accounting explicitly for ‘surface’ linear order. To the extent that they fail to do this, they do not generate the sentences of a language and cannot achieve observational adequacy. The astute readers of this article (non-restrictive reading for ‘astute’) may have one or two questions to raise at this point: (a) How does this notation handle free word order, and (b) how does it handle a situation in which two dependents occur on the same side of the regent but in a fixed order? The first is easily answered: if the order is free, don’t restrict it. Thus Sanskrit is said to have words
(48) (Rajendra Singh, p. c.) ganga prati ‘at the banks of the Ganges’ pratiskandha ‘at/on/upon the shoulders’ Such words can simply be specified without any linear precedence feature, e. g. (49) prati [@ndex,P,⫹sorc,?[N]]
house @ndex N ? [Det] ? [Adj] ? [Det] < @ ? [Adj] < @ ? [Det] < ? [Adj]
A phrase such as old this house which violates the last requirement will be ungrammatical, as shown in list as well as stemma notation (51). (51) house [3ndex,N,2[Det],1[Adj],2[Det] ⬍3,1[Adj]⬍3,2[Det]⬍1[Adj]] old [1ndex,Adj] this [2ndex,Det] since 2 is not smaller than 1. Finally, what about projectivity? As the linear precedence notation is defined so far, there is nothing to represent non-projective structures, at least in the list format. I think the constraint can be formalized rigorously using the linear index notation, though I haven’t tried to do it yet. I will maintain, for the time being at least, that there are no nonprojective structures, and that all counterexamples to this claim are better analyzed in projective ways. The apparent counterexamples should keep lexicase busy for a long time to come.
41. Lexicase Grammar
6.
Conclusion
A theory is unconvincing if there are no actual examples given to show what it can do, and how. The reader is referred to article 23 in this volume for a selection of such examples and formal analyses, and to the author’s web page (http://www2.hawaii.edu/~stanley) for more extensive exemplification. Like the authors of the other articles in this volume, I believe that a dependency approach is a good way to analyze language. I personally believe that it has the best chance of becoming a truly scientific framework of investigation. To merit this label, it must be explicit and constrained and general, and have been tested against a broad spectrum of languages. This article is an attempt to show how the lexicase version of dependency grammar is striving to meet these requirements.
7.
Select Bibliography
Abney, Steven Paul (1987): The English Noun Phrase and its sentential aspect. Ph.D. thesis. Cambridge, MA. Anderson, Stephen R. (1992): A-morphous morphology. Cambridge. Covington, Michael A. (1986): Grammatical theory in the Middle Ages. In: Bynon, Theodora/ Palmer, F. R. (eds.): Studies in the History of Western Linguistics. Cambridge, 23⫺42. Ford, Alan/Singh, Rajendra/Martohardjono, Gita (1997): Pace Pa¯n¸ini: Towards a word-based theory of morphology (⫽ American University Studies Series XIII, Linguistics; vol. 34). New York. Halliday, Michael A. K. (1985): An introduction to functional grammar. London. Hendrick, Randall (1995): Morphosyntax. In: Webelhuth, Gert (ed.): Government and binding theory and the minimalist program. Oxford, 297⫺349. Hopper, Paul J./Thompson, Sandra A. (1980): Transitivity in grammar and discourse. In: Language 56, 251⫺299. Hudson, Richard A. (1979a): Pan-lexicalism. Hull. Hudson, Richard A. (1979b). Constituency and daughter-dependency. Daughter-dependency working papers 6. London. Hudson, Richard A. (1984): Word Grammar. Oxford. Indrambarya, Kitima (1994): Subcategorization of Verbs in Thai. Ph.D. thesis. Honolulu.
545 Jeong, Hy-Sook Rhee (1992): A valency subcategorization of verbs in Korean and Russian: a lexicase dependency approach. Ph.D. thesis. Honolulu. Sgall, Petr (1997): On the usefulness of movement rules. In: Caron, Bernard (ed.): Actes du 16e` Congre`s International des Linguistes (Paris 20⫺25 July 1997). Oxford. Singh, Rajendra/Dasgupta, Probal (1999): On Socalled Compounds. The yearbook of South Asian languages and linguistics 1999. New Delhi/London/ Thousand Oaks. Springer, Hisami Konishi (1993): Perspective-shifting constructions in Japanese: a lexicase dependency analysis. Ph. D. thesis. Honolulu. Springer, Hisami/Starosta, Stanley (1997): A dependency analysis of coordination in English and Japanese. In: Caron, Bernard (ed.): Actes du 16e` Congre`s International des Linguistes (Paris, 20⫺25 July 1997). Oxford. Starosta, Stanley (1988): The case for lexicase: an outline of lexicase grammatical theory. London. Starosta, Stanley (1993): Word order and focus in constrained dependency grammar. In: Hajicˇova´, Eva (ed.): Proceedings of the conference: Functional description of language, Prague: 24⫺27 November 1992. Prague, 237⫺252. Starosta, Stanley (1997): Control in constrained dependency grammar. In: Simon-Vandenbergen, Anne-Marie/Davidse, Kristin/Noe¨l, Dirk (eds.): Reconnecting language: morphology and syntax in functional perspectives. Amsterdam, 99⫺138. Starosta, Stanley (1997a): Comments on Petr Sgall’s ‘On the usefulness of movement rules’. In: Caron, Bernard (ed.): Actes du 16e` Congre`s International des Linguistes (Paris 20⫺25 July 1997). Oxford. Starosta, Stanley (to appear a): Do compounds have internal structure? A seamless analysis. In Singh, Rajendra/Starosta, Stanley (eds.): Explorations in Seamless Morphology. New Delhi/London/ Thousand Oaks. Starosta, Stanley (to appear b): A seamless analysis of Micronesian noun incorporation. In: Singh, Rajendra/Starosta, Stanley (eds.): Explorations in Seamless Morphology. New Delhi/London/Thousand Oaks. Starosta, Stanley (to appear c): Non-referential arguments and control in constrained dependency grammar. In: Kapfo, Kedutso (ed.): Festschrift for E. Annamalai. Mysore. Taylor, Harvey M. (1972): Case in Japanese. South Orange.
Stanley Starosta †, Honolulu (Hawaii)
546
V. Dependenzielle Theorien
42. The Meaning-Text Theory 1. 2. 3. 4. 5. 6.
Meaning-Text theory postulates Utterance representation at different levels Meaning-Text models Paraphrasing and translation Conclusion Select Bibliography
The goal of Meaning-Text theory (MTT) is to write systems of explicit rules that express the correspondence between meaning and text (or sound) in various languages. Apart from the use of dependency rather constituency, MTT can be characterized by the massive relocation of syntactic information into the lexicon ⫺ anticipating on that characteristic, most of the contemporary linguistic theories ⫺ and a transductive, rather than a generative, presentation, which favors the direction of (speech) synthesis, rather than analysis (see Section 3.3). The Meaning-Text approach to language was put forward in Moscow, thirty-five years ago, by Zˇolkovskij and Mel’cˇuk (1965, 1967) in the framework of research in machine translation. Some of the central ideas of the Meaning-Text approach may be traced back to Zolkovskij/Leont’eva/Martem’janov (1961) and Zˇolkovskij (1964). During the following ten-year period, some twenty linguists contributed to the work on a Meaning-Text model of Russian around a nucleus composed of Mel’cˇuk, Zˇolkovskij and Apresjan (cf. Mel’cˇuk 1981 or Hartenstein/Schmidt 1983 for a fairly complete bibliography). A new group is now formed around Mel’cˇuk at the University of Montreal, where a dictionary and a grammar of French are being elaborated (Mel’cˇuk et al. 1984, 1988, 1992, 1999). Presentations of MTT can be found in (Mel’cˇuk 1974, 1988a, 1997, Polgue`re 1998a, Weiss 1999, Milic´evic´ to appear, Kahane 2001c). This presentation is widely inspired by Mel’cˇuk (1988a = DS), but integrates most of the recent developments of the theory; it contains also a tentative comparison with other frameworks. It is particularly oriented towards the formal aspects of the theory.
1.
Meaning-Text theory postulates
MTT postulates at first that a natural language L is a logical device that establishes the correspondence between the set of possible
meanings of L and the set of possible texts of L. Meanings, as well as texts, are taken to be distinguishable entities forming an infinite countable set. They are formalized by symbolic representations: semantic representations for meaning and phonetic representations for text. The first postulate of MTT can be compared to the Chomskyan (1957) viewpoint on the language based on the characterization of acceptable sentences. It is formally equivalent to describe the correspondence between semantic and phonetic representations than to describe the set of all acceptable sentences of the language, provided that an acceptable sentence is described as the correspondence of a semantic and a phonetic representation of the sentence. The second postulate of MTT is that each language L is described by a Meaning-Text model (MTM), that is, a symbolic model, including a finite set of rules, which defines the correspondence between the set of possible semantic representations of L and the set of possible phonetic representations of L. “For a given meaning, this logical device must ideally produce all texts that, in the judgment of native speakers, correctly express this meaning, thus simulating speaking; from a given text, the device must extract all the meanings that, according to native speakers, can be correctly expressed by the text, thus simulating speech understanding” (DS, 44). As Nakhimovsky (1990, 3) notices, an MTM is nothing else than a formal grammar. Nevertheless, this term was not retained probably for at least two reasons: The dominating role of the lexicon (which is opposed to the grammar proper) and the transductive presentation of the system ⫺ an MTM is not formalized by a generative grammar, but by a kind of transducer (cf. Aho/Ullman 1972, 212 ff., for a definition of sequence-to-sequence transducers). Although the correspondence between meanings and texts is bidirectional, “MTT is developed and presented strictly in the synthesis direction: from meanings to texts” (DS, 46). The reason for this is that speaking is a more linguistic task than speech understanding. In particular, the problem of disambiguation, specific to understanding, cannot be solved without using extralinguistic knowledge and reasoning capabilities. Otherwise,
547
42. The Meaning-Text Theory
the synthesis viewpoint gives a prominent position to the problem of lexical choices (which is one of the major preoccupations of MTT): for example, we say to make **do+ a mistake *decision+, but to do **make+ a favor *one’s job+ (while, from the analysis viewpoint, to make a mistake presents neither a problem, nor a particular interest). The correspondence between meanings and texts is many-to-many. All natural languages know synonymy (a meaning corresponds to many texts) and homonymy/polysemy (a text corresponds to many meanings). Synonymy is especially rich: a fairly complex sentence of 10 words can have thousands of paraphrases; the number of paraphrases is exponential as function of the number of words, and therefore a 20 (= 10 ⫹ 10) words sentence can have millions (= thousands of thousands) of paraphrases. “One can even say that a natural language is essentially a system designed to produce a great many synonymous texts for a given meaning” (DS, 48). “The words meaning and text are used here as purely technical terms whose content must be specified. ‘Meaning’ stands for ‘invariant of synonymic transformations’ and refers only to information conveyed by language; in other words, it is whatever can be extracted from or put into an utterance solely on the basis of linguistic skills, without recourse to encyclopedic knowledge, logic, pragmatics or other extralinguistic abilities” (DS, 44). In other words, ‘meanings’ are pur-
ely linguistic and language-specific objects. “ ‘Text’ stands for ‘the physical form of any utterance’ and refers to all linguistic signals (words, phrases, sentences, etc.)” (ibid.). To this day, all studies in MTT have been limited to sentences. An MTM is just a component of a global model of human linguistic behaviors. The correspondence between phonetic representations (which are discrete representations) and real sounds and the correspondence between semantic representations and cognitive representations (= discrete human representations of the continuous reality) goes beyond the scope of MTT. The former is the subject of acoustics and articulatory phonetics. The latter “is the subject of a science that does not yet exist as a unified discipline and is distributed among philosophy, psychology, cognitive science, logic, documentation, artificial intelligence, etc. […] This component must ensure the interaction between the cognitive representation, the internal thesaurus of the Speaker, the pragmatics of a given situation and the like, in order to produce the ‘meaning’ of a future utterance” (DS, 46 ff.). As most other linguistic theories, MTT postulates two intermediate-level representations between the semantic representation (= meaning) and the surface-phonological representation (= text): a syntactic representation and a morphological representation (it is the third postulate of the theory). All levels, except the semantic one, are further split into
Semantic representation (SemR), or the meaning Deep-syntactic representation (DSyntR) Surface-syntactic representation (SSyntR) Deep-morphological representation (DMorphR) Surface-morphological representation (SMorphR) Deep-phonological representation (DPhonR) Surface-phonological representation (SPhonR), or the text
¸ ˝ semantics ˛ ¸ ˝ deep syntax ˛ ¸ ˝ surface syntax ˛ ¸ ˝ deep morphology ˛ ¸ ˝ surface morphology ˛ ¸ ˝ phonology ˛
Fig. 42.1: Levels of utterance representation and modules of the Meaning-Text theory
548
V. Dependenzielle Theorien
deep- and surface levels, the former oriented towards the meaning, and the latter, towards the physical form (the text). This gives us a total of seven levels of representation. [In Fig. 42.1, acronyms used by Mel’cˇuk in all his publications have been introduced. They will not be used here.] Many contemporary theories assume syntactic and morphological levels. The particularity of MTT is to consider them as intermediate levels between the semantic level (the meaning) and the phonetic level (the text). Thus the correspondence between meanings and texts is completely modular: a correspondence between the semantic and deep-syntactic levels, a correspondence between the deep-syntactic and surface-syntactic levels, a correspondence between the surface-syntactic and deep-morphological levels, etc. An MTM is divided into six modules, each taking care of the correspondence between two adjacent levels, giving us a stratificational system, like Lamb’s (1966) system (Fig. 42.1). As a result, each module ensures the correspondence between representations of adjacent levels, but is not dedicated, contrary to a generative grammar, to caracterizing the representations it handles. Consequently, a syntactic or a morphological representation is not caracterized by a particular modular, but simply by the fact that it can be a possible intermediate representation between a well-formed semantic representation and a corresponding phonetic representation. In other words, well-formedness rules of the syntactic or morphological representations can be deduced from an MTM, but it is not the goal of an MTM to enounce them. As a consequence, MTT does not give any primacy to syntax.
2.
Utterance representation at different levels
I will now present the representations at the four deeper levels (semantic, deep-syntactic, surface-syntactic, deep-morphological), which are the levels concerned by dependency and valency. The lexicon and the correspondence rules of the three considered modules will be presented afterwards. 2.1. Semantic representation 2.1.1. In the Meaning-Text approach, a semantic representation specifies the meaning of a set of synonymous utterances, i. e. utter-
ances having the same meaning. Meaning is taken to be an invariant of synonymic transformations between such utterances. Thus the concept of “meaning” is based on the concept of “same meaning”. The precision with which the synonymy of two texts is established must be allowed to vary as a function of the nature of the task (a journalistic description vs. a legal formulation) and can be captured by the degree of specification of the semantic representation. Mel’cˇuk (DS, 52) adds that “a certain degree of approximation in the semantic representation is necessary, if we want to obtain linguistically interesting results.” Mel’cˇuk (2001, 15 ff.) even says: “During the process of sentence construction (= synthesis), lexical and syntactic choices carried out by the Speaker very often lead to the modification of the starting meaning, i. e. of the initial semantic representation, making it more precise and specific: The lexical units bring with them additional nuances of meaning that have not been present in the initial semantic representation. MTT tries to model this phenomenon; as a result, quite often the following situation obtains: Suppose that the synthesis starts with the representation ‘s ’ and produces sentences S1, S2,…,Sn; the sentences having as their common source the semantic representation ‘s ’ are considered to be synonymous. Now if we analyze these sentences semantically, the semantic ‘S1’, ‘S2’, …, ‘Sn’ obtained from this process may well be different from each other and from the initial semantic representation ‘s ’! […] The initial semantic representation is taken to be rather approximate ⫺ it need not necessarily fully specify the meaning of the sentences that can be obtained from it. The meaning can become more precise in the course of its lexicalization and syntacticization.“ By the primordial role it gives to synonymy, MTT is not so far from the generativetransformational approach (Chomsky 1965), even if the latter does not clearly identify an object as meaning: A deep-structure is rather a representative of a class of equivalent surface-structures than an object of a different level. But in sharp contrast to the generativetransformational approach, which only deals with the syntactic synonymy, MTT emphasizes lexical synonymy. Moreover, semantic representations are not only of use to represent the meaning of a sentence, but they are also used to represent the meaning of a word as it is done in a dictionary.
549
42. The Meaning-Text Theory
Unlike most semantic models (particularly truth-conditional ones), “the analysis of meaning itself goes beyond the scope of MTT: It does not distinguish “normal” meanings from absurdities, contradictions or trivialities. Discovering that something is stupid or absurd or detecting contradictions is by no means a linguistic task” (DS, 47). The semantic representation represents the meaning of an utterance regardless of its surface form: Distribution among words or phrases is ignored in a semantic representation as is its expression through different devices (lexemes, suffixes, syntactic constructions or prosody). 2.1.2. The main structure of the semantic representation, the semantic structure (or graph or network), reflects the meanings of the words of the sentence and their organization. Formally, it is a connected directed graph. Each node, or vertex, of a semantic graph is labeled by a semanteme, i. e. a language-specific semantic unit which corresponds to one particular word-sense or, more precisely, to the signifie´ of a (desambiguatized) lexical unit. (Consequently, semantemes, as well as lexemes, should be accompanied by a numerical index as it is done in a dictionary.) Semantemes are written between single quotes: ‘semanteme’. From a mathematical point of view, a semanteme is a functor or predicate, whose arguments are called the semantic actants of the semanteme (“functors” without arguments are called semantic names). The link between a semanteme and one of its actants is represented by an arc, or arrow, and is called a semantic dependency or predicateargument relation. The arc pointing on the ith argument, or semantic actant, of a semanteme is labeled by i. Arc labels are thus strictly distinctive and asemantic (even if the order in which actants are numbered is not arbitrary and follows, roughly speaking, the syntactic oblicity). A semantic graph (with some additional communicative features concerning the rheme-theme partition; see Section 2.1.7) is given in Fig. 42.2. This semantic representation can be expressed by a lot of (quasi-)synonymous sentences: (1)
a. John feels no revulsion at the sight of a dead animal. b. John does not feel revulsion in seeing a dead animal. c. John experiences no revulsion at the sight of some dead animal.
‘revulsion’
R 2
1
‘John’
T
‘not’
1
1
‘dead’
‘see’ 2
1
‘animal’
Fig. 42.2: A semantic representation
d. John experiences no revulsion when he sees some dead animal. e. John is not revolted by the sight of a dead animal. 2.1.3. Zˇolkovski & Mel’cˇuk (1965) are probably the first to formalize the distinction between actants and modifiers. Except for some cases such as raising or tough-movement, as noted by Tesnie`re (1959, 42), when a word B syntactically depends on a word A, there is a semantic dependency between ‘A’ and ‘B’. But, what Tesnie`re did not see is that this dependency can be directed from ‘A’ to ‘B’ as well as from ‘B’ to ‘A’. For instance, in the phrase a small river, small syntactically depends on river and, because the smallness is a property of the river, ‘river’ acts as an argument of the predicate ‘small’; conversely, in the clause the river swelled, river syntactically depends on swelled and, because the swelling is a property of the river, ‘river’ acts as an argument of ‘swell’. When the semantic dependency has the same direction as the syntactic dependency, B is an actant of A (river is an actant of swelled in the river swelled), while, when the syntactic and the semantic dependencies have opposite direction, B is a modifier of A (small is a modifier of river in a small river). 2.1.4. Semantemes can be decomposed in terms of simpler semantemes (Mel’cˇuk 1988b), except for a small set of semantemes ⫺ the semantic primitives. In principle, semantic decomposition can be carried on until semantic primitives, which are indecomposable semantemes, are reached. This ensures the non-circularity of the dictionary (Mel’cˇuk 1989). In Wierzbicka (1972, 1980
550
V. Dependenzielle Theorien
and 1985), a set of about fifty semantic primitives is proposed and argued for. The decomposition of a semanteme is its lexicographic definition. “The meaning of language signs reflects naive conceptions of objects, properties, actions, progresses, events, etc. […] The task of a lexicographer […] is to uncover the naive worldview in lexical meanings and reflect it in his system of definitions” (Apresjan 1974, 56 ff., from Nakhimovsky 1990). For instance, the semanteme ‘revulsion’ can be decomposed as follows (Mel’cˇuk 1998, 52): ‘X’s revulsion for Y’ ⬅ ‘X’s (strong) negative emotion about Y similar to what people normally experience when they are in contact with something that makes them sick and such that it causes X to want to avoid any contact with Y’. This decomposition can be represented by a semantic graph (Fig. 42.3). Some communicative specifications are needed: in particular, following Polgue`re (1990), the semanteme which “summarizes” the meaning of the decomposed semanteme, the generic meaning, called the (communicatively) dominant node, is underlined.
The number and the roles of the actants of a semanteme are determined by its decomposition. For instance, in accordance with its decomposition, the semanteme ‘revulsion’ has two semantic actants. The fact that the meaning ‘X kills Y’ can be roughly decomposed into ‘X causes Y to die’ indicates that the first actant ‘X’ of ‘kill’, which is the first actant of the primitive meaning ‘cause’ in the decomposition, is a causer. The determination of the “semantic role” of the second actant ‘Y’ needs a deeper decomposition of ‘kill’ (and consequently of ‘die’). The correspondence between a semanteme and its decomposition is a rule of the MTM encoded in the dictionary. Rules of semantic decomposition define an equivalence relation, noted ⬅, on semantic graphs (and more generally on semantic representations). (The relation ⬅ defines correspondences between structures of the same level; it must not be confounded with a correspondence between structures of two adjacent levels, noted ⇔.) Therefore the representation of a sentence meaning (viewed as an invariant of synonymy) is not exactly a semantic representation but rather an equivalence class of semantic
‘cause’
‘something’
1
2
2 1
‘sick’
‘somebody’
1
‘emotion’ 2
‘negative’
‘similar’
‘revulsion’ 1 1
‘X’
2
‘cause’
‘emotion’ 1
1 1
2
‘Y’ ‘want’
1
‘avoid’
Fig. 42.3: Semantic decomposition of ‘revulsion’
2 ‘Y’
‘X’ 1
2
1
1 2
2 ‘be in contact’
‘intensive’
551
42. The Meaning-Text Theory
representations (for the equivalence relation ⬅). Semantic decompositions are particularly useful to capture synonymy of sentences whose underlying semantemes do not correspond one to one. For example, the synonymy of sentences (2a⫺c) can be established in the following way: ‘hurry’ ⬅ ‘walk quickly’ and ‘cross’ ⬅ ‘walk across’ (Milic´evic´ 1999). (2)
2.1.5. In the semantic graph of Fig. 42.2, grammemes (= inflectional meanings) have been ignored. Mel’cˇuk proposes to represent them by the same type of device as lexical meanings. Rather than to introduce nodes labeled by grammemes, Mel’cˇuk represents them with the help of lexical semantemes: For example, one of the meanings of the present tense in (1) could be represented roughly as ‘at any time’. It is important to notice that not all grammemes are part of what the Speaker wants to say, but are rather part of what the language requires him to say. For instance, compare the two synonymous sentences (4a⫺ b) where the choice of a completive clause (in (4a)) forces the Speaker to introduce the tense on ‘see’, while the choice of an infinitive (in (4b)) does not.
a. Peter walked quickly across the road. b. Peter hurried across the road. c. Peter crossed the road quickly.
It seems that semantic decomposition rules are not sufficient to define ⬅ and that some other types of rules are needed. Consider for instance: a. John’s pushing of Mary caused her to fall. b. John caused Mary’s fall by pushing her. Sentences (3a) and (3b) are synonymous (barring communicative differences) and consequently their semantic graphs should be equivalent. But in the semantic structure of (3a), the first actant of ‘cause’ is ‘push’, while, in the semantic structure of (3b), ‘John’ and ‘push’ are related to ‘cause’ by way of a biactancial semanteme ‘means’ (expressed by by ⫹ -ing). The equivalence of these two configurations cannot be obtained without the use of a rule of equivalence such as the rule of Fig. 42.4 (with ‘P’ = ‘push’, ‘X’ = ‘John’ and ‘Y’ = ‘fall’). (Another solution, defended by Mel’cˇuk, consists in assuming two different semantemes ‘causel’ and ‘cause2’ and considering the rules of Fig. 42.4 as the semantic decomposition of ‘cause2’ according to ‘causel’.) (3)
(4)
And if the subjects of hope and see are not co-referential (as in (4c)), the Speaker must use a completive clause and thus has no other choice but to express the tense on ‘see’. In the spirit of the Meaning-Text approach, a semantic representation would contain what the Speaker wants to say. Therefore a semantic graph needs not necessarily contain configurations of semantemes for each grammeme required. And when it contains one it would be an approximate expression, e. g., ‘before now’ and/or ‘accomplished’ for the past tense. A real synthesis system might be able to compute the necessary grammemes (at subsequent stages of treatment) when the expression of an inflectional category is needed.
‘cause’ 1
a. I hope I’ll see you. b. I hope to see you. c. I hope he’ll see you.
‘means’ 2
1
2
‘P’
‘P’
‘cause’
‘Y’ i
i
1 ‘X’
2 ‘Y’
‘X’
Fig. 42.4: A rule of equivalence which is not a rule of decomposition
552
V. Dependenzielle Theorien
2.1.6. A semantic graph can be encoded in a more logical style. The translation of a semantic graph into a formula of predicate calculus needs to introduce a variable for each node in the graph (except for the nodes labeled by a grammatical semanteme). This variable represents the node and serves as an argument for any dependency pointing to the node. Adding the variables x, y, p, q, e and w for the lexical semantemes ‘John’, ‘animal’, ‘dead’, ‘not’, ‘see’ and ‘revulsion’, the semantic graph of Fig. 42.2 is thus translated into the formula (5): (5)
x : ‘I’ ∧ y : ‘animal’ ∧ p : ‘dead’(y) ∧ e : ‘see’(x, y) ∧ w : ‘revulsion’(x, e) ∧ q : ‘not’(w)
The variable attributed to a node can be incorporated in the valency of the semanteme (the semanteme is reified), giving us the equivalent formula (6): (6)
‘I’(x) ∧ ‘animal’(y) ∧ ‘dead’(p, y) ∧ ‘see’(e, x, y) ∧ ‘revulsion’(w, x, e) ∧ ‘not’(q, w)
Although they seem similar, the semantic representations of MTT must be distinguished from the semantic representations of the semantics descended from the Fregean logic, such as the Discourse Representation Theory (Kamp/Reyle 1993). In MTT, the semantic representation does not represent the state of the world denoted by the meaning, but the meaning itself. In particular, the variables that have been introduced in the reification do not refer to objects of the world (entities or events) as in fregean logic. The variables refer here to the semantemes, that is to the meanings of the words. Let us consider an example: In the meaning of a big ant, the semanteme ‘big’ is a unary predicate whose argument is the semanteme ‘ant’, and not the referent of ‘ant’. When we speak about a big ant, we do not want to say that the referent of ant is big in itself (nothing is big in itself), but that it is big as an ant. Perhaps it is even clearer for a big boss. In this case also, one does not want to say that the referent of boss is big, but that something in the meaning ‘boss’ is big: If a ‘boss’ is ‘someone who makes decisions’, a ‘big boss’ is ‘someone who makes big decisions’. Moreover, the semanteme ‘big’ can be the argument of another semanteme, like in a very big ant or a bigger ant than my finger, which needs to introduce a variable for ‘big’ which serves as argument for ‘very’ or ‘more’ (than my finger
is big)’ in the MTT semantic graph, without having to assume that big introduces a discourse referent. There is another difference between MTT semantic representations and logical calculus formulas adopted as representation by truthconditional semantic theories. Indeed, contrary to the MTT’s practice, in logicians’ representations, some semantemes are not interpreted by logic predicates but rather by quantifiers, connectors or more complex operators. If this differentiation of quantifiers is certainly necessary for logical deduction, it seems not to be needed for paraphrasing and translation (especially as only a small part of quantifiers are described by logicians). Nevertheless, it must be noted that the scope of a quantifier is not directly encoded in standard MTT semantic representations, where quantifiers are monoactancial semantemes whose argument is the quantified semanteme. Therefore nothing in the semantic graph of All the men are looking for a cat indicates whether or not a cat is in the scope of all. Mel’cˇuk (2001) considers that this must be indicated in the semantic communicative structure, but no serious study supports this idea. Polgue`re (1992; 1997) proposes to encode quantifiers as biactantial semantemes whose second argument is the scope, but having semantic dependencies pointing to areas of the graph (rather than a single node) is a serious complexification of the formalism of semantic representations. Dymetman/Copperman (1996) proposes a representation intermediate between a semantic graph and a logical calculus formula. 2.1.7. I will now introduce the other components of a semantic representation: the semantic communicative structure, the rhetoric structure and the referential structure. The semantic communicative structure specifies the manner in which the Speaker wants his message to be organized: what is said and what is spoken about; what should be explicitly asserted and what can be only presupposed; what should be emphasized and what can be left in the background; etc. Formally, the communicative structure is encoded by spotting out some areas of the semantic graph and labeling each of them with a communicative marker. As Polgue`re (1990) demonstrates, in each communicative area, it is necessary to indicate (e. g. by underlining) the communicatively dominant
42. The Meaning-Text Theory
node, that is the node which summarizes the semantic content of the area. Mel’cˇuk (2001, 77 ff.) proposes the following set of communicative markers, corresponding to eight communicative categories (communicative categories are considered by Mel’cˇuk as oppositions, and therefore a Neutral or Irrelevant value is added in certain categories, although this value never appears in semantic representations): 1. Thematicity: Rheme (i. e. Comment) vs. Theme (i. e. Topic) vs. Specifier; 2. Givenness: Given vs. New; 3. Focalization: Focalized; 4. Perspective: Foregrounded vs. Backgrounded; 5. Emphasis: Emphasized; 6. Presupposedness: Presupposed vs. Asserted; 7. Unitariness: Unitary vs. Articulated; 8. Locutionality: Signaled vs. Performed vs. Communicated. The semantic communicative structure will not be defined but just exemplified and commented upon. Consider: (7)
a. John feels no revulsion at the sight of a dead animal. b. The sight of a dead animal does not revolt John. c. As for John, he feels no revulsion at the sight of a dead animal. d. It’s John who feels no revulsion at the sight of a dead animal. e. What does not revolt John is the sight of a dead animal.
Every message is necessarily intended to say something (⬇ Rheme) about something (⬇ Theme) (only rhematic sentences such as It rains are also possible). The most neutral thematic division of (7a) is ‘John’ as Theme and ‘feel no revulsion at the sight of some dead animal’ (with ‘revulsion’ as dominant node) as Rheme (see Fig. 42.2, where the Theme area is marked by a T and the Rheme area by an R), because in English the Theme tends to be expressed as subject. With another distribution of thematicity, a different expression can be obtained: The same semantic graph with ‘John sees a dead animal’ as Theme and ‘John feels no revulsion’ as Rheme should be rather expressed by (7b). Givenness concerns what the Speaker believes is or is not in the Addressee’s active consciousness. “Roughly speaking, in languages having articles (i. e. grammatical ex-
553 pression of definiteness), the Given is regularly (but by no means always) characterized as definite and the New, as indefinite. In The book was on the table, both ‘book’ and ‘table’ are Given; but There was a book on the table, only ‘table’ is Given, while ‘book’ is New” (Mel’cˇuk 2001, 75). Givenness needs a further study and the links between it and the referential structure (see below) must be elucidated. Thematicity and Givenness are universally obligatory, in the sense that in any language, a semantic representation in which values of these categories are not explicitly specified cannot be uniquely turned into a sentence (although in a real process of synthesis the semantic representation can be underspecified and the Speaker might have to choose between different possible communicative structures or parts thereof when trying to synthesize the sentence he wants). A Focalized element is “a part of a meaning which the Speaker presents as being logically prominent for him ⫺ or, in other words, as being in the focus of his attention” (Mel’cˇuk 2001, 175). Typical devices expressing focalization in English are left dislocation, clefting and pseudo-clefting: in (7c), ‘John’ is a Focalized Theme, while in (7d), it is a Focalized Rheme; in (7e), ‘John feels no revulsion’ is a Focalized Rheme. Other communicative categories correspond to their standard definition and do not need particular comments. Let us just note that unitariness concerns the way in which the Speaker presents a complex event (for instance, KILL vs. CAUSE TO DIE). Melcˇuk (2001, 58) points out that “there is no logical necessity to formally separate genuinely semantic and communicative information: they need not be distinguished. It is technically possible to represent all communicative choices within the semantic graph by the same means as are used to represent propositional meanings. In other words, communicative choices can be represented by some special semantemes introduced just for this purpose ⫺ such as ‘be the theme of’, ‘be the rheme of’, ‘be given’, ‘be emphasized’, etc. […] In other words, we can introduce into the semantic graph the following obligatory functor, which constitutes, so to speak, an illocutionary frame: ‘About X I tell you Y’ (Sgall 1974, 71). Here, ‘about X’ represents the Theme and ‘I tell you that Y’ the Rheme. In much the same vein, Wierzbicka (1975; 1978, 124) has proposed that the Theme (=
554
V. Dependenzielle Theorien
Topics, in her terms) be specified by a genuine semantic component: ‘thinking of X, I say: …’.” (It must nevertheless be noted that semantemes pointing to the dominant nodes of the rheme and the theme do not suffice to indicate the limits of the rheme and theme, particularly if the semantic graph has cycles, and consequently does not exempt us from spotting out areas.) Even if there is no necessity, it is still preferable to separate what can be separated: “the semantemes reflect the world ⫺ or rather the conceptualization of the world by the Speaker, i. e. what he wants to express; the communicative elements reflect the Speaker’s wishes concerning how to express it, that is, how to structure the semantemes” (ibid). 2.1.8. The rhetoric structure “encodes the ‘artistic,’ or ‘aesthetic,’ intentions of the Speaker (whether he wants his utterance to be neutral, ironic, pathetic, humorous, etc.) and his stylistic choices” (Mel’cˇuk 2001, 13). Although theoretically provided by MTT, the rhetoric structure has unfortunately never been developed and the relevant information simply appears in the lexical entries of the MTT dictionaries, as it is done in traditional dictionaries. 2.1.9. The referential structure has been mentioned only recently (Mel’cˇuk 1997, 21; no mention in DS) and has never been developed, whereas it is the pillar of any truthconditional semantic theory. According to Mel’cˇuk (2001, 12), the MTT semantic graph “is aimed at representing exclusively propositional, or situational, meaning of a family of more or less synonymous utterances. In other words a semantic graph mirrors a situation ⫺ a state of affairs in the real or an imaginary world […], and it does so by mirroring situations as they are reflected in speech. This type of meaning is easily expressed by logical propositions; hence the name propositional meaning.” But the semantic graph is not an invariant of the “propositional meaning” without a referential structure. For instance, consider: (8)
a. The linguists who were tired stopped. b. The linguists who stopped were tired.
The sentences (8a) and (8b) have the same semantic graph (inflectional meanings in1 1 cluded) (‘stop’ J ‘linguist’ I ‘tired’), but they are not synonymous: they differ in communicative structure (the semantic theme of (8a)
1
is ‘linguist’ I ‘tired’, while (8b)’s one is ‘lin1 guist’ I ‘stop’), but especially in referential structure. In (8a), the referent of ‘linguist’ is 1 determined by the area ‘linguist’ I ‘tired’, while in (8b) it is determined by the area ‘lin1 guist’ I ‘stop’. (Note that Fregean logic used a significantly different device to encode the difference of “propositional meaning” between (8a) and (8b): (8a) corresponds to the formula ∀x[(‘linguist’(x) ∧ ‘tired’(x)) J ‘stop’(x)] and (8b) to the formula: ∀x [(‘linguist’(x) ∧ ‘stop’(x)) J ‘tired’(x)].) 2.2. Deep-syntactic representation 2.2.1. The main structure of the deep-syntactic representation, the deep-syntactic structure or tree, is an unordered dependency tree, whose nodes are labeled with semantically full lexemes. Semantically empty lexemes, such as governed prepositions and conjunctions, as well as auxiliary verbs, are introduced only in the surface-syntactic structure. Each lexeme comes with appropriate semantically full grammemes, such as number and definiteness for nouns or voice and mode-tense-aspect for verbs. Syntactic grammemes imposed by government and agreement, such as case for nouns, person and number for verbs or gender, number and case for adjectives, are excluded. Lexemes are put in upper case and grammemes, in subscript: LEXEMEgrammemes. The arcs, or branches, of a deep-syntactic structure are labeled with a very small set of deep-syntactic relations. Actantial relations are just numbered by increasing oblicity: I for the most salient actant, II for the next, etc. Three other relations are considered: an attributive relation, noted ATTR, for all kinds of modifiers (circumstantials and attributes); a coordinative relation, noted COORD, for all conjoined constructions (Mary, John and COORD II Peter: MARY COORD ¿¿¿¡ JOHN ¿¿¿¡ AND ¿¡ PETER); and an appenditive relation, noted APPEND, for parentheticals, interjections, direct addresses, and the like (Naturally, APPEND ø¿¿¿¿ [he] neglects nothing; [Where] are APPEND you going, ø¿¿¿¿ Kathleen?). Kahane/Mel’cˇuk (1999) introduces another relation: ATTRQUAL, in order to distinguish qualificative from restrictive modification, while Kahane (1998) argues for a specific relation for demoted actant (such as the agent complement). Deep-syntactic structure of (1a) is presented in Fig. 42.5. The dashed bidirectional arrow belongs to the deep-syntactic anaphoric
555
42. The Meaning-Text Theory
Oper1 active, ind, pres I
II
REVULSION sg, indef
JOHN sg, def ATTR
II
SIGHT sg, def NO
I
II
ANIMAL sg, indef JOHN sg, def ATTR
DEAD
Fig. 42.5: The deep-syntactic structure of (1a)
structure, which indicates the coreference between nodes corresponding to a same semantic node. The deep-syntactic representation contains also a deep-syntactic communicative structure, similar to the semantic one, and a deep-syntacticprosodic structure, which encodes such semantic prosodies as “question vs. affirmation, menace vs. indignation, irony, doubt, tenderness, secretiveness and the like” (DS, 67). 2.2.2. Some remarks are necessary concerning the lexemes appearing in the deep-syntactic structure, that is deep lexemes. On the one hand, phrasemes (= idioms = multilexical phraseological units, e. g. PULL SOMEONE’S LEG), which are semantically a whole, label a single node. On the other hand, due to the fact that only a small set of deep-syntactic relations are considered, some fictitious lexemes are needed to encode semantically non empty syntactic constructions (such as postposing the modifying numeral to the noun in Russian, which roughly means ‘approximately’: sto metrov ‘100m’ vs. metrov sto ‘approximately 100m’). Lastly, an important specificity of the Meaning-Text approach is the concept of lexical function, first introduced by Zˇolkovskij/ Mel’cˇuk (1965 and 1967). Lexical functions are used to describe paradigmatic and syntagmatic relations between lexemes, that is
derivation and collocation (“derivation” is used in a broad sense, not limited to morphological derivation). A lexical function, as its name indicates, is encoded by a mathematical function whose arguments (= keywords) and values are lexical units. MTT uses about sixty standard simple lexical functions; simple lexical functions can be combined into complex expressions which operate as simple ones. Here are some examples. Magn stands for a collocational modifier that means ‘very’, ‘to a high degree’ (= intensifier): Magn(belief) = staunch Magn(boreN) = crashing Magn(deserve) = richly Magn(workV) = as a Trojan, one’s guts out Operi stands for a light verb such that its 1st deep-syntactic actant is the ith semantic actant of the keyword and the keyword itself is its 2nd actant: = [to] deal [ART ⬃ to N] = [to] give [ART ⬃ to N] = [to] lend [ ⬃ to N] = [to] put up [ART ⬃ ], [to] offer [ART/π ⬃ ] Oper2(blowN) = [to] receive [ART ⬃ from N] Oper2(controlN) = [to] be [under N’s ⬃ ] Oper2(resistanceN) = [to] meet [ART ⬃ ], [to] run [into ART ⬃ ] Oper1(blowN) Oper1(orderN) Oper1(supportN) Oper1(resistanceN)
556
V. Dependenzielle Theorien
Reali stands for a collocational verb that means, roughly, ‘fulfill the requirement of’ (and such that its 1st deep-syntactic actant is the ith semantic actant of the keyword and the keyword itself is its 2nd actant). Real1(accusation) = [to] Real1(bus) = [to] Real1(illness) = [to] Real2(bus) = [to] Real2(law) = [to] Real2(hint) = [to]
prove [ART ⬃ ] drive [ART ⬃ ] succumb [to ART ⬃ ] ride [on ART ⬃ ] abide [by ART ⬃ ] take [ART ⬃ ]
Values of lexical functions, which are stored in the dictionary entries of their keywords, are introduced only in the surface-syntactic tree. More information on lexical functions can be found in Mel’cˇuk/Clas/Polgue`re (1995), Mel’cˇuk (1998), Steele (1990), Wanner (1994, 1996) and most of the publications concerning the ECD (see below). 2.2.3. The deep-syntactic representation is certainly the least defined level of representation of MTT. First, while semantic and surface syntactic dependencies have been relatively well defined (DS, 105 ff.; [article 19 of the Handbook]), the deep-syntactic dependencies have not been sufficiently characterized (see nevertheless Zˇolkovskij/Mel’cˇuk 1967). Consequently in case of discontinuities between the semantic and the surface syntactic level, no criteria are available to decide what dependencies to choose. For instance, in Peter is drinking a glass of beer, ‘beer’ is the semantic argument of ‘drink’ (‘Peter is drinking beer,
which is in a glass’), while GLASS is the surface syntactic dependent of DRINK. What happens on the deep-syntactic structure ? Mel’cˇuk (1974) proposes that GLASS depends on BEER by an ATTR relation, because GLASS is here a quantifying expression, but there is no general principle for justifying the decision. Second, the deep-syntactic relations have never been argued for. Why are actancial relations only classified according to their oblicity degree? For instance, the actancial relation II covers just as well direct objects, indirect objects, prepositional complements or agent complements; conversely, an indirect object can be II or III expecting on the presence/absence of a direct object. In view of this, it seems strange to say, as Mel’cˇuk (1988, 63) does, that “each deep-syntactic relation stands for a family of specific syntactic constructions of particular languages, representing them in a generalized way.” Third, which grammemes must be present in the deep-syntactic tree? For instance, must finite and non-finite verbs be distinguished? (In many cases, the choice between finite and non-finite form of a verb depends on the government pattern of the governor, which is considered in the transition from deep-syntactic to surface-syntactic level.) And if finite and non-finite verbs are not distinguished, must grammemes of tense be always present ? 2.2.4. A last point: the deep-syntactic structure is not exactly a tree, but rather a rooted dag (= direct acyclic graph); see, e. g., (Aho/
THINK I
THINK II
II I
LATE
LATE
BROTHER
I I II
BROTHER BROTHER
II
MARY MARY
Fig. 42.6: Deep-syntactic tree vs. dag for Mary’s brother thinks he is late
557
42. The Meaning-Text Theory
Ullman 1972, 39) for a definition. The reason is that pronominalization is performed in the transition from the deep- to the surface-syntactic tree and a tree with its co-refential structure is formally equivalent to a dag (identifying all coreferential nodes). The representation by a dag is justified for at least two reasons. First, if a set of co-referential nodes of the tree have dependents, these dependents cannot be attached to one node rather to another one and they consequently “float” between all their potential governors. The question does not arise in a dag where all these potential governors are represented by a single node (cf. Fig. 42.6). Second, the rules of pronominalization cannot treat independently the different coreferential nodes of a deep-syntactic tree. Therefore, rather than to separate the different nodes of a given relation of coreference, it is simpler to apply to each node of the deep-syntactic dag that have more than one governor a single pronominalization rule, which separates the deep-syntactic node
into as many surface syntactic nodes as necessary and decides which of these nodes will not be pronominalized. 2.3. Surface-syntactic representation A surface-syntactic representation specifies the organization of a particular sentence, much as a deep-syntactic representation does; but unlike the latter, a surface-syntactic representation is geared to the surface form: to morphologization and linear ordering of the nodes (= of wordforms). The surface-syntactic representation consists of four structures corresponding to the four representations of the deep-syntactic representation. The main structure of the surface-syntactic representation, the surface-syntactic structure or tree is an unordered dependency tree, whose nodes are labeled with actual lexemes of the sentence. “Five differences between the nodes of surface-syntactic structure and those of deep-syntactic structure should be indicated. First, in a surfacesyntactic structure all the lexemes of the sen-
FEEL pres subject
dir-object
REVULSION sg JOHN sg restrictive
adnominal
AT NO prepositional
SIGHT sg determinative adnominal
OF THE prepositional
ANIMAL sg determinative modificative
A
Fig. 42.7: The surface-syntactic tree of (1a)
DEAD
558
V. Dependenzielle Theorien
tence are present, including semantically empty (i. e. structural) words. Second, all the idioms are expanded into actual surface-syntactic trees. Third, the values of all the lexical functions are computed (using the dictionary) and spelled out as actual lexemes, replacing the lexical function symbols. Fourth, all the fictitious lexemes of the deep-syntactic structure are expressed in the surface-syntactic one by the corresponding surface-syntactic relations and thus disappear. And fifth, all the pronominalizations […] are carried out, so that a surface-syntactic node can be a pronoun. However, generally speaking, there is no one-to-one mapping between the nodes of a surface-syntactic structure and the actual wordforms of the sentences: either a surfacesyntactic node may correspond to a zero wordform, or two surface-syntactic nodes may correspond to one amalgamed wordform” (DS, 68). Each lexeme is accompanied by grammemes as in the deep-syntactic structure; some deep syntactic grammemes are translated by analytic constructions (such as voices and some tenses in English) and do not appear as grammeme at the surface-syntactic level. Conversely, agreement and government grammemes (such as cases) are only surface grammemes (Mel’cˇuk 1993; [article 19]). An arc, or branch, of surface-syntactic tree is labeled with a surface-syntactic relation. These relations are language-specific and describe particular syntactic constructions of particular languages. In the framework of MTT, lists of surface-syntactic relations have been proposed for Russian (Mel’cˇuk 1974, 221–235), English (Mel’cˇuk/Pertsov 1987, 85– 156; Apresjan et al. 1989, 71–121) and French (Apresjan et al. 1984–1985; Iordanskaja/Mel’cˇuk, to appear). The last paper proposes criteria to establish such an inventory (for the actants of a verb). (cf. Fig. 42.7) Information about surface-syntactic representation of many linguistic phenomena can be found in (Mel’cˇuk/Pertsov 1987; DS and [article 19]).
full set of corresponding grammemes (including agreement grammemes which appear at this level); these are in fact the deep-morphological representations of the wordforms of the sentence (Fig. 42.8).
2.4. Deep- and surface-morphological representations A deep-morphological representation specifies the form of a particular sentence in terms of its wordforms and their linear order. The main structure of the deep-morphological representation, the deep-morphological structure or string, is an ordered string (in the speech order) of lexemes accompanied by a
A Meaning-Text model [MTM] is a model (= formal grammar) of a particular natural language. It is made up of a lexicon and six correspondence modules, which define the correspondence between semantic representations (= meanings) and the surface-phonological representations (= texts) of this language. The presentation of the MTT lexicon will be followed by a presentation of the three
JOHNsg FEELind, pres, 3, sg NO REVULSIONsg AT THE SIGHTsg OF A DEAD ANIMALsg
Fig. 42.8: The deep-morphological string of (1a)
The deep-morphological string is complemented by the deep-morphological prosodic structure which indicates the grouping of the words into prosodic units labeled by prosodic markers calculated from the communicative markers of the corresponding grouping in the surface-syntactic representation. The real prosodic structure will be introduced at the phonological level and calculated from the morphological prosodic structure and the phonological properties of the words (which are not taken into account at the morphological level where the phonemes are not considered). Gerdes/Kahane (2003) proposes, following the classical topological model for Germanic languages, to build at the morphological level a phrase structure that, contrary to phrase structure grammars based on the X-bar Syntax, does not encode the syntactic structure of the sentence, but rather its morphological prosodic structure. The surface-morphological representation is similar to the deep-morphological one, but it stresses the internal organization of wordforms. The surface-morphological representation of a wordform is the set of morphemes making it up (with no formal distinctions between lexical and grammatical morphemes). About all questions of morphology, see the extensive book of morphology of Mel’cˇuk (1993⫺2000).
3.
Meaning-Text models
559
42. The Meaning-Text Theory
first correspondence modules. A last part concerns the definition of the correspondence described by an MTM.
with something that makes them sick and such that it causes that X wants to avoid any contact with Y. (See Fig. 42.3.)
3.1. Meaning-Text lexicon: The Explanatory Combinatorial Dictionary The MTT lexicon is called the Explanatory Combinatorial Dictionary [ECD]. It describes the behavior of the deep lexical units of a language. A first ECD for Russian was proposed by Mel’cˇuk/Zholkovsky (1965) and developed in Mel’cˇuk/Zholkovsky (1984). An ECD of French is being developed at the University of Montreal (Mel’cˇuk et al. 1984, 1988, 1992, 1999; see also Mel’cˇuk 1992a and Iordanskaja/Mel’cˇuk 1995). ECD entries for English can be found in Mel’cˇuk/Polgue`re (1987), Ilson/Mel’cˇuk (1989) or Steele (1990). Presentations of an ECD can be found in Mel’cˇuk/Polgue`re (1987), Mel’cˇuk/Zholkovsky (1988) and Mel’cˇuk/Clas/Polgue`re (1995). Further studies about the specific surface lexical units, such as pronouns, articles, auxiliaries, lexical function’s values, empty words or parts of idioms, are needed to decide where information about them must be encoded: in the correspondence rules, in the general ECD, or in a specific surface-ECD. A sample lexical article, ECD-style, of the headword REVULSION will follow (it is a revised version of the article in Mel’cˇuk 1998). As every article of an ECD, it is divided into three major zones:
Government Pattern
⫺ a semantic zone: the lexicographic definition or semantic decomposition of the headword; ⫺ a syntactic zone: the government pattern (= subcategorization frame), which specifies, for each semantic actant (X, Y, …) the corresponding deep-syntactic relation (I, II, …) and lists of all surface means of expressing them in the text (N’s, against N, …); some particular conditions follow, such as: if Y is expressed by toward N, N must denote people (CII.4 means Column II, line 4); examples show what is possible and what is not; ⫺ a lexical cooccurence zone: lexical functions, which describe the restricted lexical cooccurence of the head-word; let us recall that the numbers in the names of lexical functions refer to the government pattern. Revulsion Semantic definition X’s revulsion for Y ⬅ X’s (strong) negative emotion about Y similar to what people normally experience when they are in contact
X=I
Y = II
1. N’s 2. Aposs
1. 2. 3. 4.
against N at N for N toward N
(1) CII.2 : N denotes something that happens and can be seen or felt (2) CII.4 : N denotes people
Lexical Functions Syn∩ : repugnance; repulsion; disgust; loathing; distaste Anti∩ : attraction Conv21Anti∩ : appeal A1 : revulsed Able2 : revulsive Magn⫹Able2 : of utmost ⬃√Y = SCENE, SIGHT Magn : deep < extreme < utmost AntiMagn : slight Propt : in, out of [⬃] Adv1Manif : with [⬃] Oper1 : experience, feel [⬃] Magn⫹Labor12 : fill [N=X with ⬃] IncepLabor12 : drive [N=X to ⬃] Examples He did it out of deep revulsion against the bitterness of the sectarian strife. Any revulsion they might feel from fat-ass bastards they ran up against professionally was ad hominem and not ad genus [Alison Lurie]. Kathleen turned her head away in revulsion. I felt no revulsion for her maternal phantasies, only a practical concern. She met his advances with revulsion. It was a scene of utmost revulsion. Pam was driven to revulsion (by the sight of the dead animal). Revulsion at slaughter cut was short [newspaper heading].
Note that the government pattern should be more precise than it is in present ECDs; in particular, the explicit indication of surfacesyntactic relations is necessary. 3.2. Correspondence modules I will now present the first three correspondence modules of an MTM (which ensure the correspondence from the semantic level to the deep-morphological level). Each module of an MTM contains a set of correspondence rules having the form: X ⇔ Y √C
560 where X and Y stand for fragments of utterance representation at two adjacent levels (e. g., semantic and deep-syntactic levels) and C is a set of conditions under which this correspondence holds. The rule must be read “if conditions C are verified, X can be translated into Y ” in the synthesis direction and “if conditions C are verified, Y can be translated into X ” in the analysis direction. In fact, it is not the whole configurations X and Y which are translated into each other by the rule, but only a part, which is printed in bold (Kahane/ Mel’cˇuk 1999). The rest indicates the context and allows us to put together the configurations produced by the rules. Following the classification proposed in Kahane/Mel’cˇuk (1999), the correspondence rules are separated into nodal and sagittal rules, that is, rules where the part of X that is actually handled by the rule is a node, respectively an arrow (Lat. sagitta = arrow = arc of a graph or branch of a tree). We will now see some examples of rules before giving additional comments on the formalism. 3.2.1. The semantic module The semantic module of an MTM establishes the correspondence between semantic and deep-syntactic representations of sentences. It ensures two basic operations: the lexicalization and the hierarchization or arborization of the semantic graph. The hierarchization is ensured by the sagittal semantic correspondence rules. Among the sagittal rules, positive and negative rules are distinguished: In a positive rule, the semantic arc is translated into a deep-syntactic branch going in the same direction, that is, an actancial dependency, while, in a negative rule, the semantic arc is translated into a branch going in the opposite direction, that is, an ATTR, COORD or APPEND dependency. The hierarchization consists in choosing an entry node in the graph, which yields the root node of the tree, and running through the whole graph from this entry node. Sagittal semantic rules for the translation of semantic dependency 1 are shown in Fig. 42.9. Each semantic dependency is attached to two semantic nodes ‘X’ and ‘Y’ whose deep syntactic correspondents are X and Y; these labels allow us to correctly join the sagittal rule with the nodal rules that translate ‘X’ into X and ‘Y’ into Y. The big arrow at the left of the rule indicates the communicative hierarchy between the nodes ‘X’ and ‘Y’, which corre-
V. Dependenzielle Theorien
sponds to the direction of the running and is related to the communicative structure (notably by the fact that the entry node must be the communicatively dominant node of the rheme or the theme): A positive rule is triggered when the semantic dependency and the communicative hierarchy go in the same direction and a negative rule when they go in opposite directions. Note that all the rules presented here are local, meaning that they translate a limited part of the semantic graph into a limited part of the deep-syntactic tree. Nevertheless, there can be serious mismatches between the two structures, which need non-local rules to be dealt with (see Kahane/Mel’cˇuk 1999 where rules for extractions are presented). A nodal semantic rule associates a semantic node labeled by a semanteme ‘s’ to a deepsyntactic node labeled by a deep lexeme whose signified is ‘s’ (= a lexicalization of ‘s’) or a more complex configuration, such as the copular verb BE with an adjective or a light verb with a predicative noun. Inflectional rules, which produce deep grammemes, will not be considered here. I will also leave out the communicative rules, which produce the deep-syntactic communicative structure. Note that an important part of the information contained in the semantic communicative structure is already used by the structural rules, notably in the arborization process ⫺ by specifying whether a positive or a negative sagittal rule must be triggered off ⫺, as well as in the choice of the diathesis ⫺ by controlling the lexicalization and the inflectional rules that introduce the voice grammemes (see Polgue`re 1990; Kahane/Mel’cˇuk 1999; Bohnet/Wanner 2003). 3.2.2. The deep-syntactic module The deep-syntactic module of an MTM establishes the correspondence between deepand surface-syntactic representations. It ensures the introduction of all the surface lexical units of the sentence (which corresponds one-to-one to the words of the sentence). Sagittal deep-syntactic rules generally translate a deep-syntactic dependency into a surface-syntactic dependency; these rules also introduce prepositions controlled by the government pattern (Fig. 42.10). Nodal deep-syntactic rules translate deep lexical units into surface lexical units. If a deep lexical unit is a phraseme, it corresponds to a complex surface-syntactic configuration. If a deep lexical unit is a lexical func-
561
42. The Meaning-Text Theory
‘X’
X
1
I
X is an N or X is aV not in the passive voice
X
X
II
ind-object X is a V and X has [II: to N] in his GP
TO ‘Y’
Y
Y
prepositional
John refused; John’s refusal
Y [Mary] talked to John ‘X’
X
1
II
‘Y’
X is aV in the passive voice
X
X
I
subject X is a finite V
Y
[the book was] stolen by John
Y
Y John refused
X ‘X’
X
X
1
ATTR
‘Y’
Y
(X is a N and Y is an Adj.) or (X is not an N and Y is an Adv)
I
possessive
Y
Yposs
X is a N and Y is a N
John’s refusal red coat; very red; quickly refused
X
ATTR
Y
Fig. 42.9: Three sagittal semantic rules
X
modificative
Y red coats
X is N and Y is an Adj.
562
V. Dependenzielle Theorien
Y
X
noun-comp
subject
X ATTR OF
X is a N and Y is a Nnum
prep
Y < X
X is not the main verb of an interrogative sentence
Y
Y John refused; it is [raining]
X a glass of wine; two metres of material
Fig. 42.10: Five English sagittal deep-syntactic rules
tion, it corresponds to a value of this function. Nodal deep-syntactic rules also include pronominalization rules: If several deep lexical units are in a coreferential relation, some of them must be pronominalized. 3.2.3. The surface-syntactic module The surface-syntactic module of an MTM establishes the correspondence between surface-syntactic and deep-morphological representations. It ensures the linearization, the agreement and the government (Fig. 42.11). See Mel’cˇuk/Pertsov (1987) for a detailed presentation of sagittal surface-syntactic rules of English. Sagittal surface-syntactic rules such as the rules presented here do not suffice to control linearization, for two reasons. First, they do not say anything about the linearization of co-dependents: Different solutions are possible, such as to extend the rules by indicating which co-dependents can be found between X and Y (Mel’cˇuk/Pertsov 1987; Nasr 1996), by specifying the distance between X and Y (Mel’cˇuk 1967; Kahane 2000; 2001c) or by introducing morphological constituents with different fields for the different co-dependents (Gerdes/Kahane 2001). Second, in non projective constructions, such as extractions, non-local rules are needed, because some nodes are not positioned towards their governor but towards an ancestor of their governor. Nodal surface-syntactic rules are trivial. Agreement grammemes are introduced on deep-morphological nodes by specific agree-
X subject
X < Y
X is the remaining verb of an interrogative sentence or X is an intransitive verb with a topicalized dependent
Y Is it [raining?]; [Here] comes [the] nurse
Fig. 42.11: Two English sagittal surface-syntactic rules
ment rules, which are generally part of sagittal surface-syntactic rules (because agreement between two lexical units is triggered by the type of the dependency holding between them; for example, in English, a finite verb agrees with its subject). 3.3. Definition of the correspondence described by an MTM We will now see how the correspondence between meanings and texts that models a natural language is defined with an MTM. 3.3.1. The nature of the correspondence An MTM module defines more than a correspondence between two sets of structures: For each structures S and S⬘ that are put in correspondence by an MTM module, partitions of S and S⬘ are defined (which are the fragments considered by the correspondence rules), as well as a one-to-one mapping ›(S,S⬘) between the components of these two partitions. We call this a supercorrespondence between two sets of structures. The super-correspondence defined between sets of structures ⬘ is mathematically equivalent to a family of product structures (S,S⬘,›(S,S⬘)), with S 苸 , S⬘
563
42. The Meaning-Text Theory
feels obj
subj
revulsion
John restr
adn
no
at
obj
prep
subj
sight det
John feels
its
John feels
no revulsion at
its
restr
prep adn
no revulsion at
det
its
sight
sight
Fig. 42.12: Equivalence between a tree and a linear order in correspondence and a linearly ordered tree
苸 ⬘ and ›(S,S⬘) a correspondence between the components of partitions of S and S⬘. For instance, the surface-syntactic module of an MTM defines not only a correspondence between the set of surface-syntactic dependency trees and the set ⬘ of deep-morphological strings, but also, for each couple (S, S⬘) where S and S⬘ are in correspondence, S is a dependency tree of and S⬘ is a morphological string of ⬘, a one-to-one correspondence ›(S,S⬘) between the nodes of S and S⬘ (due to the surface-syntactic nodal rules, which translate a node into a node). Each triple (S,S⬘,›(S,S⬘)) ⫺ the product of a dependency tree and a linear order ⫺ is equivalent to a linearly ordered dependency tree (Fig. 42.12). In other words, the surface-syntactic supercorrespondence is equivalent to a family of linearly ordered dependency trees. From this point of view, an MTM surfacesyntactic module is not so far from a generative grammar, whose production is a family of ordered trees ⫺ the derivation trees (see Kahane 2001a). But, if the two approaches ⫺ MTT and the generative frameworks (in the sense of Chomsky 1957) ⫺ are mathematically equivalent, they are different from the theoretical point of view: Only MTT explicitly models a natural language as a (super)correspondence. 3.3.2. Structural rules The correspondence rules, which simply establish correspondences between limited fragments of structures, are generally not sufficient to encode all properties of the correspondence, so that some structural rules must be
stated. First of them are properties which ensure the well-formedness of the structures in correspondence, notably the rules which control that the structures are trees, strings, … But there are also properties which involve simultaneously two structures in correspondence, that is, properties on the product structures. Consider again the surface-syntactic module, where the correspondence between a dependency tree and a string obeys some global properties. One of the most known properties of compatibility between a dependency tree and a linear order is projectivity, which state that if a, b, c and d are four nodes such that a < b < c < d, then the nodes a and c and the nodes b and d cannot be both linked by a dependency (which means that two ordered dependencies cannot cross each other). Although most of the linguistic constructions are projective, there are some phenomena in natural languages, such as cliticization or extraction, which create non projective constructions. Consequently only a weaker property than projectivity can be stated, but it is not possible not to state any property. Mel’cˇuk/Pertsov (1987), following Iordanskaja (1963), propose to give a list of couples of syntactic relations that can cross each other, that is, that can violate the projectivity. Another solution, proposed in Kahane (1997; 2000; 2001b), is to state projectivity not directly on the linearly ordered dependency tree, but on a “bubble tree” obtained by grouping together some strings of nodes into bubble, which can occupy a node of the tree.
564 3.3.3. From the correspondence rules to the correspondence itself To give a set of correspondence rules does not suffice to define a correspondence. Anyone who has been nurtured on the generative grammars knows that a formal grammar cannot be reduced to its set of rules. Even if we want to avoid the generative framework, something more or less equivalent to a derivation process is needed. Before proposing different ways to define an MTM correspondence, it must be recalled that a complete definition of the correspondence is generally missing in the presentations of MTT. For example, (DS, 45) reduces a module of an MTM to a set of rules and justifies this saying: “The transition mechanism, i. e., the dynamic device, or procedure, for moving from actual complex semantic representations to actual complex phonological representations and vice-versa is not considered [by MTT]. I believe that such a dynamic device, while necessary to put the above static mapping to work, lies outside the field of linguistics, at least as yet. The MTM can be compared to a bilingual dictionary, which presupposes, but does not include, rules looking up the words it contains; then the dynamic device driving the MTM corresponds to the psychological ability of a human to use these rules in order to actually look up any given word. It stands to reason that such an ability is not part of the dictionary and should not concern the lexicographer too much.”
I think there is a confusion between two notions in Mel’cˇuk’s explanations: the “derivation” (or something equivalent), which only states how to theoretically prove that two structures correspond to each other, and a real procedure of synthesis or analysis (eventually cognitively or computationally motivated). If we want to present a real procedure of analysis or synthesis, it is much more complicated because we have to take into account the question of multiple choices between rules (and, consequently, problems of memorization, choices, backtracking and parallelism). Moreover, a cognitively motivated algorithm cannot do the processing level by level (i. e. it cannot construct the whole representation of level n before beginning the construction of the representation of level n ⫹ 1), but must manage all the levels of representation simultaneously (Kahane, 2001c). I will now define the correspondence proper, based on the correspondence rules,
V. Dependenzielle Theorien
and I will propose three ways to do that: the transductive, the generative and the equative presentations of an MTM (Kahane, 2001a). 3.3.4. Transductive presentation The transductive presentation is the most natural and useful presentation of an MTM, because the goal of an MTM is to synthesize or analyze a sentence, that is, to transduce a semantic representation into a sentence (synthesis) or to do the converse (analysis). In a transductive process, a source structure S is given and an MTM module is used to produce a corresponding target structure S⬘ of an adjacent level of representation. A transductive model can be compared to the well known string-to-string transducer (e. g. Aho/ Ullman 1972), although, in our case, we want to transform a graph into a tree or a tree into a string (or vice versa). Roughly speaking, the process consists in reading the whole source structure and partitioning it, then triggering a correspondence rule for each component of the partition and finally putting together pieces of the target structure obtained by applying the correspondence rule. A rule R : X ⇔ Y √C can be applied to a part A of the source structure S if A is an X and if the condition C is verified by the product structure (A,A⬘), where A⬘ is the piece corresponding to A by R. For example, the last sagittal semantic rule R of Fig. 42.9 can apply to the part A = 1 ‘dead’ J ‘animal’ of the semantic structure S of Fig. 42.2 in order to produce the part A⬘= ATTR ANIMAL ¿¿¡ DEAD (of the deep-syntactic structure of Fig. 42.5). Note that the lexicalization of ‘animal’ into ANIMAL and ‘dead’ into DEAD is made possible by separate nodal rules, whose application is controlled by the condition C of R which imposes that ‘dead’ be lexicalized by an adjective if ‘animal’ has been lexicalized by a noun. Each module needs a particular procedure, because the reading and the assembling of a graph, a tree or a string are different operations. More exactly, each module needs two procedures: one for the synthesis and one for the analysis. Although the rules are bidirectional, the process of transduction cannot be easily inverted. The first formal presentation of an MTM, a transductive presentation for the synthesis, was proposed by Boyer/Lapalme (1984). Another transductive presentation (again for the synthesis) can be found in Iordanskaja/Polgue`re (1988); Iordanskaja
565
42. The Meaning-Text Theory
(1990) and Polgue`re (1990). Kahane/Mel’cˇuk (1999) contains a detailed transductive presentation of the semantic module for the synthesis. For a comparison between global procedures (the rules are triggered in one shoot) and structure-driven procedures (the rules are triggered running through the source structure), see Kahane (2001a); Bohnet/Wanner (2001; 2003). 3.3.5. Generative presentation It is also possible to use the correspondence rules of an MTM in a generative way, in order to generate the couple of structures in correspondence. In this case, a correspondence rule is viewed as a couple of fragments of structure. A derivation process consists in putting together correspondence rules and building a couple of structures. Such a generative presentation, inspired from tree rewriting systems such as TAG, is proposed by Nasr (1995; 1996); Kahane (2000; 2001b; 2002). In my opinion, the differences between transductive and generative presentations are very tenuous and, generally, a presentation of one type gives naturally a presentation of the other type. In particular, the derivation generally favors one structure over the other in the product structure, that is, the derivation will be guided by one of the two structures. For example, in the generative presentation of the surface-syntactic module by Nasr (1995; 1996), the derivation of a linearly ordered tree is guided by the tree structure and not by the linear order, exactly as it is done in a context-free grammar. Consequently, this presentation is very near to a transductive presentation for the synthesis (= from the tree to the linear order). Conversely, a generative presentation of the surface-syntactic module that favors the linear order will look like a push-down automaton (Kahane 2001a). 3.3.6. Equative presentation As we had seen, the main difference between a transductive and a generative presentation is that the former presupposes that one of the two sets of structures in correspondence is available (and produces the other one), while the latter produces directly both ones. The third way of defining the correspondence, the equative one, presupposes that both sets of structures are available: The process consists in filtering all the couples of structures which correspond to each other. The correspondence rules are used as a set of equations or
constraints to be satisfied. For a purely mathematical point of view, it is the simplest definition of the correspondence and also the least procedural one: A product structure is given and each piece of the structure must be validated by a correspondence rule. In other words, the equative presentation is the declarative presentation of an MTM. Nevertheless, such a presentation is not very useful from computational or cognitive points of view, because, in such cases, meaning and text are never available together. And, in fact, another device is needed which generates couples of structures, the equative grammar being only used to filter the couples of structures that really correspond to each other.
4.
Paraphrasing and translation
I will finish this presentation of MTT by reminding the reader that it was initially designed for translation and paraphrasing. Paraphrases are sentences which have nearly the same meaning. Given a sentence S, it is possible to obtain all its paraphrases by extracting its meaning ‘S’ (the sentence S is considered in one of its possible interpretations) and then synthesizing all the sentences that have the meaning ‘S’. Nevertheless, it is not necessary to obtain the meaning of S and the paraphrasing can be performed at an intermediate level. Zˇolkovski/Mel’cˇuk (1967), Mel’cˇuk (1974, 146⫺176) and Mel’cˇuk (1992b) proposed paraphrasing rules at the deep-syntactic level (Fig. 42.13).
Oper1 Labor12 I
II
I
II III
L
X II
Y
X
L
Y X experiences [= Oper1] revulsion [= L] for Y = Y fill [= Labor12] X with revulsion [= L]
Fig. 42.13: A deep-syntactic paraphrasing rule
Note that correspondence rules and paraphrasing rules are in competition: if a semantic element A corresponds to a deep-syntactic
566
V. Dependenzielle Theorien
element B by a rule R and to a deep-syntactic element B⬘ by a rule R⬘, then there is a rule of paraphrasing R⬙ between B and B⬘. Therefore, B⬘ can be synthesized directly from A by R⬘ or by composition of R and R⬙ (Fig. 42.14).
ues for Able2, e. g. de´gouˆtant or re´pugnant. Thus the rule of paraphrasing of Fig. 42.15 can be triggered, yielding the translation C’e´tait une sce`ne absolument re´pugnante (where absolument is a value of Magn for RE´PUGNANT). See (DS, 99) for other examples.
A R
LF
R'
Magn+LF ATTR B'
B R''
Magn
Fig. 42.14: Correspondence and paraphrasing
With a deep-syntactic module of paraphrasing, only a subset of semantic rules is necessary to synthesize all the sentences corresponding to a given meaning, because, if at least one deep-syntactic representation can be synthesized, all the other ones can be synthesized from it by paraphrasing. Moreover, with a deep-syntactic module of paraphrasing, the semantic correspondence module is almost unnecessary for a system of reformulation: In order to reformulate a given sentence, it suffices to get its deep-syntactic representation, to activate the module of paraphrasing and to synthesize a new sentence (see Nasr 1996 for such a system). Paraphrasing is also used in translation systems. One strategy for translation is as follows: For a given sentence S of the source language, we get its semantic representation ‘S’, translate ‘S’ into a semantic representation of the target language and synthesize it. But, this strategy has never been implemented because of the lack of study of semantic representations (in particular of communicative structure) and semantic modules. Another strategy consists in building only the deep-syntactic representation R of S and translating it into a deep-syntactic representation R⬘ of the target language. But, this R⬘ is not necessarily synthesizable, for example, if some nodes are labeled by a lexical function that has no value for the keyword concerned. For instance, suppose you want to translate the sentence It was a scene of utmost revulsion in French; REVULSION will be ˆ T and OF UTMOST translated by DE´GOU ⬃ is the value of the lexical function ˆ T has no value Magn⫹Able2. But DE´GOU for Magn⫹Able2, although it has several val-
of utmost revulsion [= Magn+Able2] extremely [= Magn] revulsive [= Able2]
Fig. 42.15: Another deep-syntactic paraphrasing rule
Therefore a translation system that carries out the translation at an intermediate level is possible, provided it contains a module of paraphrasing. Schubert (1987; 2001) has developed a similar translation system, where the translation and paraphrasing rules function at the surface-syntactic level. From a cognitive point of view, paraphrasing modules seem equally justified, because speakers always resort to reformulations, as studies of oral corpora show (e. g. BlancheBenveniste et al. 1990).
5.
Conclusion
Mel’cˇuk and Zˇolkovski are probably the first, with the Meaning-Text theory, to say explicitly that a natural language must be modeled as a correspondence between meanings and sounds, thirty years before the generativists adopted this view with the Minimalist Program. As an example, Brody 1997’s monograph on MP begins with the following sentences: “It is a truism that grammar relates sound and meaning. Theories that account for this relationship with reasonable success postulate representational levels corresponding to sound and meaning and assume that the relationship is mediated through complex representations that are composed of smaller units”. And, as it is done in MTT, MP considers that sound and meaning representations correspond to the interface of the gram-
42. The Meaning-Text Theory
mar (= the linguistic model, in our terms). But, as opposed to MTT, which considers a lot of intermediate levels of representation, MP puts forward the “minimalist” hypothesis that the grammar contains no non-interface levels (Chomsky 1993). And even for previous generativist models which use intermediate levels, such as the deep- and surfacestructures, these intermediate levels are not laid out as in an MTM: The surface-structure, the logical form (= the meaning representation) and the phonological form (= the sound representation) are derived in parallel from the deep-structure, which suggests the primacy of syntax in these approaches. Although there is now a consensus about the fact that grammars describing natural languages must relate meanings and texts, few formalisms model languages as correspondences between meanings and texts explicitly. Another particularity of the Meaning-Text approach is to favor the synthesis direction in the presentation of a language, while most of the linguistic studies in other frameworks favor the analysis direction. The real knowledge of a natural language is to be able to speak it and not to understand it. Some important characteristics of languages, such as lexical functions, actually emerge when they are studied in the synthesis direction. One mastery of MTT is that several engineering text-generation systems based on MTT has been successfully developed: FoG (Kittredge/Polgue`re 1991), the first system to produce actual weather forecasts (in English and French), LFS (Iordanskaja et al. 1992, 1996), a system generating stockmarket reports, RealPro, a generic system based on the previous ones and developed by CoGenTex (Lavoie/Rambow 1997), as well as LexiGen (previously AlethGen), developed by LexiQuest (Coch 1996a, 1998b) and used in a reclamation letters answer system (Coch 1996b) and MultiMeteo, a system which produces multilingual and multistyle weather forecasts for the biggest European meteorology offices (Coch 1998a). Last, but not least, I could mention two machine-translation systems (French-to-Russian: ETAP-1; English-toRussian: ETAP-2; Apresjan et al. 1984⫺1985, 1989, 1992), which were fully developed within the MTT framework.
6.
Select Bibliography
Aho, Alfred/Ullman, Jeffrey (1972): The Theory of Parsing, Translation and Compiling, Vol. I: Parsing. London.
567 Apresjan, Jurij (1974): Leksicˇeskaja semantika [Lexical Semantics]. Moscow. Apresjan, Jurij/Boguslavskij, Igor/Iomdin, Leonid/ Lazurskij, Aleksandr/Percov, Nikolai/Sannikov, Vladimir/Tsinman, Leonid (1984⫺85): Lingvisticˇeskoe obespecˇenie sistemy francuzsko-russkogo avtomaticˇeskogo perevoda E`TAP-1. Preprinty Problemnoj gruppy po e`ksperimental’noj I prikladnoj lingvistike, vyp. 154, 155, 159, 160, 166, 167, 174. Moscow. Apresjan, Jurij/Boguslavskij, Igor/Iomdin, Leonid/ Lazurskij, Aleksandr/Percov, Nikolai/Sannikov, Vladimir/Tsinman, Leonid (1989): Lingvisticˇeskoe obespecˇenie sistemy E`TAP-2. Moscow. Apresjan, Jurij/Boguslavskij, Igor/Iomdin, Leonid/ Lazurskij, Aleksandr/Percov, Nikolai/Sannikov, Vladimir/Tsinman, Leonid (1992): E`TAP-2: The Linguistics of a Machine-Translation System. In: Meta 37, 97⫺112. Blanche-Benveniste, Claire/Delofeu, Jose´/Stefanini, Jean/van den Eynde, Karel (1990): Le franc¸ais parle´. Etudes grammaticales. Coll. Sciences du langage. Paris. Bohnet, Bernd/Wanner, Leo (2001): On using a parallel graph rewriting formalism in generation. In: Workshop on Natural Language Generation, Association for Computational Linguistics (ACL) 2001. Toulouse. Bohnet, Bernd/Wanner , Leo (2003): On grammar organisation in a Meaning-Text Model. In: Wanner, Leo (ed.): Selected Lexical and Grammatical Topics in the Meaning-Text Theory. In honour of Igor Mel’cˇuk. Berlin. Boyer, Michel/Lapalme, Guy (1985): Generating paraphrases from Meaning-Text semantic networks. In: Computational Intelligence 1, 103⫺117. Brody, Michael (1997): Lexico-Logical Form: A Radically Minimalist Theory. Cambridge. Candito, Marie-He´le`ne/Kahane, Sylvain (1998): Une grammaire TAG vue comme une grammaire Sens-Texte pre´compile´e. In: Proceedings of the TALN’98 (Le Traitement du Langage Naturel). Marseille, 102⫺111. Chomsky, Noam (1957): Syntactic Structures. The Hague. Chomsky, Noam (1965): Aspects of the Theory of Syntax. Cambridge. Chomsky, Noam (1993): A Minimalist Program for Linguistic Theory. In: Hale, Ken/Keyser, Samuel Jay (eds.): The View from Building 20: Essays in Linguistics in Honour of Sylvain Bromberger. Cambridge. Coch, Jose´ (1996a): Overview of AlethGen. In: Proceedings of the 8th International Workshop on Natural Language Generation (INLG’96). Herstmonceux, Vol. 2, 25⫺28. Coch, Jose´ (1996b): Evaluating and comparing three text production techniques. In: Proceedings
568 of the International Conference on Computational Linguistics (COLING) ‘96. Copenhagen, 249⫺ 254. Coch, Jose´ (1998a): Interactive generation knowledge administration in MultiMeteo. In: Proceedings of the 9th International Workshop on Natural Language Generation (INLG’98). Niagara-on-theLake, 300⫺303. Coch, Jose´ (1998b): Application industrielle de la ge´ne´ration: pourquoi et comment. In: Traitement Automatique des Langues (T.A.L.) 39, 89⫺105. Dymetman, Marc/Copperman, Max (1996): Extended dependency structures and their formal interpretation. In: Proceedings of the International Conference on Computational Linguistics (COLING) ‘96, 255⫺261. Fontenelle, Thierry (1997): Turning a bilingual dictionary into a lexical-semantic database. Tübingen. Gazdar, Gerald/Klein, Ewan/Pullum, Geoffrey K./ Sag, Ivan A. (1985): Generalised Phrase Structure Grammar. Cambridge, MA. Gerdes, Kim/Kahane, Sylvaine (2001): Word order in German: A formal dependency grammar using topological hierarchy. In: Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL) 2001. Toulouse. Gerdes, Kim/Kahane, Sylvain (2003): Phrasing it differently. In: Wanner, Leo (ed.): Selected Lexial and Grammatical Topics in the Meaning-Text Theory. In honour of Igor Mel’cˇuk. Berlin. Hartenstein, Klaus/Schmidt, Peter (1983): Kommentierte Bibliographie zum “Smysl ⇔ Tekst”Modell. In: Wiener Slawistischer Almanach 11, 355⫺409. Hudson, Richard (1990): English Word Grammar. Oxford. Ilson, Robert/Mel’cˇuk, Igor (1989): English BAKE revisited (BAKE-ing an ECD). In: International Journal of Lexicography 2, 325⫺345. Iordanskaja, Lidija (1963): O nekotoryx svojstvax pravil’noj sintaksicˇeskoj struktury (na materiale russkogo jazyka) [On some properties of correct syntactic structure (on the basis of Russian)]. In: Voprosy jazykoznanija 4, 102⫺112. Iordanskaja, Lidija (1990): Ot semanticˇeskoj seti k glubinnosintaksicˇeskomu derevu: pravila naxozˇdenija versˇiny dereva [Du re´seau se´mantique a` l’arbre syntaxique profond: les re`gles pour la de´termination du sommet de l’arbre]. In: Saloni, Zygmunt (ed.): Metody formalne w opisie je˛zyko´w słowian´skich. Białystok, 33⫺46. Iordanskaja, Lidija/Kim, Myunghee/Kittredge, Richard I./Lavoie, Benoit/Polgue`re, Alain (1992): Generation of Extended Bilingual Statistical Reports. In: Proceedings of the International Conference on Computational Linguistics (COLING) ‘92. Nantes, 1019⫺1023. Iordanskaja, Lidija/Kim, Myunghee/Polgue`re, Alain (1996): Some Procedural Problems in the Imple-
V. Dependenzielle Theorien mentation of Lexical Functions for Text Generation. In: Wanner, Leo (ed.) (1996), 279⫺297. Iordanskaja, Lidija/Mel’cˇuk, Igor (1995): Traitement lexicographique de deux connecteurs textuels du franc¸ais contemporain: EN FAIT vs EN RE´ALITE´. In: Bat-Zeev Shyldkrot, Hava/Kupferman, Lucien (eds.): Tendances re´centes en linguistique franc¸aise et ge´ne´rale. Amsterdam, 211⫺236. Iordanskaja, Lidija/Mel’cˇuk, Igor (to appear): Towards establishing an inventory of surface-syntactic dependents of the verb in French. In: Polgue`re, Alain/Wanner, Leo (eds.): Selected Topics in Dependency Grammar. Amsterdam. Iordanskaja, Lidija/Polgue`re, Alain (1988): Semantic processing for text generation. In: Proceedings of the First International Computer Science Conference ‘88. Hong Kong, 310⫺318. Kahane, Sylvain (1997): Bubble trees and syntactic representations. In: Proceedings of the 5th Meeting of the Mathematics of Language (MOL5). Saarbrücken. Kahane, Sylvain (1998): Le calcul des voix grammaticales. In: Bulletin de la Socie´te´ de Linguistique de Paris 93, 325⫺48. Kahane, Sylvain (2000): Extractions dans une grammaire de de´pendance lexicalise´e a` bulles. In: Traitement Automatique des Langues (T.A.L.) 41, 211⫺243. Kahane, Sylvain (2001a): What is a natural language and how to describe it? Meaning-Text approaches in contrast with generative approaches. In: Gelbukh, Alexander (ed.): Computational Linguistics and Intellingent Text Processing. Heidelberg, 1⫺17. Kahane, Sylvain (2001b): A fully lexicalized grammar for French based on Meaning-Text Theory. In: Gelbukh, Alexander (ed.): Computational Linguistics and Intelligent Text Processing. Heidelberg, 18⫺31. Kahane, Sylvain (2001c): Grammaires de de´pendance formelles et the´orie Sens-Texte. Tutoriel. In: Le Traitement Automatique du Langage Naturel (TALN) 2001. Tours. Kahane, Sylvain (2002): Grammaire d’Unification Sens-Texte. Vers un mode`le mathe´matique articule de la Langue, Hdr thesis. Universite´ Paris 7. Paris. Kahane, Sylvain/Mel’cˇuk, Igor (1999): Synthe`se des phrases a` extraction en franc¸ais contemporain (Du graphe se´mantique a` l’arbre de de´pendance). In: Traitement Automatique des Langues (T.A.L.) 40, 25⫺85. Kahane, Sylvain/Polgue`re, Alain (2001): Formal foundation of lexical functions. In: Daille, Be´atrice/Williams, Geoffrey (eds.): Workshop on Collocation, ACL 2001. Toulouse, 8⫺15. Kamp, Hans/Reyle, Uwe (1993): From Discourse to Logic. Dordrecht. Kittredge, Richard I./Polgue`re, Alain (1991): Dependency grammars for bilingual text generation:
42. The Meaning-Text Theory inside FoG’s stratificational models. In: Proceedings of the International Conference on Current Issues in Computational Linguistics. Penang, 318⫺ 330. Lavoie, Benoit/Rambow, Owen (1997): RealPro ⫺ A fast, portable sentence realizer. In: Proceedings of the 5th Conference on Applied Natural Language Processing (ANLP’97). Washington, 265⫺268. Lamb, Sydney (1966): Outline of Stratificational Grammar. Washington. Mel’cˇuk, Igor (1967): Ordre des mots en synthe`se automatique des textes russes. In: T.A. Informations (= Revue Internationale du Traitement Automatique du Langage) 8, 65⫺84. Mel’cˇuk, Igor (1974): Opyt teorii lingvisticˇeskix modelej «Smysl⇔Tekst» [Toward a Theory of Meaning-Text Linguistics Models]. Moscow. Mel’cˇuk, Igor (1981): Meaning-Text Models: A recent Trend in Sovjet Linguistics. In: Annual Review of Anthropology 10, 27⫺62. Mel’cˇuk, Igor (1988a): Dependency Syntax: Theory and Practice. Albany, NY. Mel’cˇuk, Igor (1988b): Semantic description of lexical units in an Explanatory Combinatorial Dictionary: basic principles and heuristic criteria. In: International Journal of Lexicography 1, 165⫺188. Mel’cˇuk, Igor (1989): Semantic primitives from the viewpoint of the Meaning-Text linguistic theory. In: Quaderni di semantica 10, 65⫺102. Mel’cˇuk, Igor (1992a): CHANGER et CHANGEMENT en franc¸ais contemporain (e´tude se´manticolexicographique). In: Bulletin de la Socie´te´ de Linguistique de Paris 87, 161⫺223. Mel’cˇuk, Igor (1992b): Paraphrase et lexique: La The´orie Sens-Texte et le Dictionnaire explicatif et combinatoire. In: Mel’cˇuk, Igor et al. (1992), 9⫺58. Mel’cˇuk, Igor (1993): Agreement, government, congruence. In: Lingvisticae Investigationes 17, 307⫺373. Mel’cˇuk, Igor (1993⫺2000): Cours de morphologie ge´ne´rale. Vol. 1⫺5. Montreal. Mel’cˇuk, Igor (1997): Vers une Linguistique SensTexte. Lec¸on inaugurale au Colle`ge de France. Paris. Mel’cˇuk, Igor (1998): Collocations and lexical functions. In: Cowie, Anthony Paul (ed.): Phraseology. Theory, Analysis and Applications. Oxford. Mel’cˇuk, Igor (2001): Communicative Organization in Natural Language: The Semantic-Communicative Structure of Sentences. Amsterdam. Mel’cˇuk, Igor/Pertsov, Nikolaj (1987): Surface Syntax of English. A Formal Model within the MeaningText Framework. Amsterdam. Mel’cˇuk, Igor/Polgue`re, Alain (1987): A formal lexicon in the Meaning-Text Theory (or how to do lexica with words). In: Computational Linguistics 13, 261⫺275.
569 Mel’cˇuk, Igor/Clas, Andre´/Polgue`re, Alain (1995): Introduction a` la lexicologie explicative et combinatoire. Paris. Mel’cˇuk, Igor/Zˇolkovskij, Aleksandr (1984): Explanatory Combinatorial Dictionary of Modern Russian. Vienna. Mel’cˇuk, Igor/Zˇolkovskij, Aleksandr (1988): The Explanatory Combinational Dictionary. In: Evens, Marta (ed.): Relational Models of the Lexicon. Cambridge, 41⫺47. Mel’cˇuk, Igor et al. (1984, 1988, 1992, 1999): Dictionnaire explicatif et combinatoire du franc¸ais contemporain Vol. 1, 2, 3, 4. Montre´al. Milic´evic´, Jasmina (to appear): A short guide to the Meaning-Text linguistic theory. In: Gelbukh, Alexander (ed.): Intelligent Text Processing and Computational Linguistics. Berlin. Nakhimovsky, Alexander (1990): Word meaning and syntactic structure: some comparative notes. In: Steele, John (ed.): Meaning-Text Theory. Ottawa, 3⫺17. Nasr, Alexis (1995): A formalism and la parser for lexicalised dependency grammars. In: 4th International Workshop on Parsing Technologies. Prague, 186⫺195. Nasr, Alexis (1996): Un mode`le de reformulation automatique fonde´ sur la The´orie Sens-Texte ⫺ Application aux langues controˆle´es. The`se de Doctorat. Universite´ Paris 7. Pollard, Carl/Sag, Ivan A. (1994): Head-driven Phrase Structure Grammar. Chicago. Polgue`re, Alain (1990): Structuration et mise en jeu proce´durale d’un mode`le linguistique de´claratif dans un cadre de ge´ne´ration de texte. The`se de l’Universite´ de Montre´al. Polgue`re, Alain (1992): Remarques sur les re´seaux se´mantiques Sens-Texte. In: Clas, Andre´ (ed.): Le mot, les mots, les bons mots. Montre´al, 109⫺148. Polgue`re, Alain (1997): Meaning-Text Semantic Networks as a Formal Language. In: Wanner, Leo (ed.): Recent Trends in Meaning-Text Theory. Amsterdam, PA, 1⫺24. Polgue`re, Alain (1998a): La the´orie Sens-Texte. In: Dialangue 8⫺9, 9⫺30. Polgue`re, Alain (1998b): Pour un mode`le stratifie´ de la lexicalisation en ge´ne´ration de texte. In: Traitement Automatique des Langues (T.A.L.) 39, 57⫺76. Schubert, Klaus (1987): Metataxis: Contrastive Dependency Syntax for Machine Translation. Dordrecht. Schubert, Klaus (2000): Metataxis: Translation at the Core of Grammar Design. In: Polgue`re, Alain/ Wanner, Leo (eds.): Selected Aspects of Dependency Theory. Amsterdam, PA. Steele, John (ed.) (1990): Meaning-Text Theory: Linguistics, Lexicography and Implications. Ottawa.
570
V. Dependenzielle Theorien
Tesnie`re, Lucien (1959): E´le´ments de syntaxe structurale. Paris. Wanner, Leo (ed.) (1994): Lexical Functions. Amsterdam. Wanner, Leo (ed.) (1996): Lexical Functions in Lexicography and Natural Language Processing. Amsterdam. Weiss, Daniel (1999): Sowjetische Sprachmodelle und ihre Weiterführung. In: Handbuch der sprachwissenschaftlichen Russistik und ihrer Grenzdisziplinen. Wiesbaden. Wierzbicka, Anna (1972): Semantic Primitives. Frankfurt a.M. Wierzbicka, Anna (1975): Topic, Focus and Deep Structure. In: Papers in Linguistics 8, 59⫺87. Wierzbicka, Anna (1980): Lingua Mentalis: The Semantics of Natural Language. Sydney. Wierzbicka, Anna (1985): Lexicography and Conceptual Analysis. Ann Arbor, MI. Zˇolkovskij, Aleksandr (1964): O pravilax semanticˇeskogo analiza [On Rules for Semantic Analy-
sis]. In: Masˇinnyj perevod I prokladnaja lingvistika 8, 17⫺32. Zˇolkovskij, Aleksandr/Leont’eva, Nina/Martem’janov, Jurij (1961): O principial’nom ispol’zovanii smysla pri masˇinnom perevode [On Fundamental Use of Meaning in Machine Translation. In: Trudy Instituta Tocˇnoj Maxaniki i Vycˇisl. Texniki ANSSSR 2, 17⫺46. Zˇolkovskij, Aleksandr/Mel’cˇuk, Igor (1965): O vozmozˇnom metode i instrumentax semanticˇeskogo sintesa [On a possible method and instruments for semantic synthesis (of texts)]. In: Naucˇnotexnicˇeskaja informacija [Scientific and Technological Information] 6, 23⫺28. Zˇolkovskij, Aleksandr/Mel’cˇuk, Igor (1967): O semanticˇeskom sinteze [On semantic synthesis (of texts)]. In: Problemy kybernetiki [Problems of Cybernetics] 19, 177⫺238. [Fr. transl. (1970). In: T.A. Informations (= Revue Internationale du Traitement Automatique du Langage) 2, 1⫺85.]
Sylvain Kahane, Paris (France)
43. Dependency Syntax in Functional Generative Description 1. 2. 3. 4. 5. 6. 7. 8. 9.
1.
Dependency syntax and underlying structure Topic-Focus Articulation Status of Underlying Structure Lexical and Grammatical Information Specification of Underlying Representations Sentence and discourse Formal semantics and focus sensitive particles Reconciling functional and formal views Select Bibliography
Dependency syntax and underlying structure
1.1. Introductory remarks The development of linguistic thinking, as was noticed, has not been studied and taken into account to a sufficient degree. Thus, some schools of modern theoretical linguistics have not been able to avoid certain fallacies which were recognized in other quarters. One example of the major trends not having selected the optimal solution may be seen in the use of the notion of (immediate) constituent, which has been taken over by Chomsky and others from Bloomfieldian linguistics, although Chomsky has found the descriptivist view of language unsatisfactory perhaps in all other basic points.
Along with the theoretical approaches to syntax based on constituency (phrase structure), also approaches based on categorial grammar and on dependency exist. The first two of these approaches were found, at certain stages of their development, to face serious problems connected especially with the socalled free word order. In fact, this type of word order is present, to a certain degree, even in English (esp. with positions of adverbials). It is usually closely connected with the topic-focus articulation (TFA) of the sentence, and to a great part the mentioned problems make it difficult to include an account of this articulation into a systematic description of language. To be able to handle such issues, the two approaches were enriched by means basically corresponding to ingredients which were intrinsically present in the third approach, in dependency based syntax. This development has led to such essentially hybrid theories as those using ‘flexible constituents’, the head driven variants of phrase structure, or ⫺ along with the difference between heads and modifiers ⫺ to the introduction of theta grids and X-bar theory. With a few exceptions, the major among which is Fillmore’s Case Theory, the two trends have not registered that European
43. Dependency Syntax in Functional Generative Description
structural linguistics elaborated a view of syntax based purely on dependency. This view was given a classical formulation by Tesnie`re (1959) and was then further developed especially in connection with the methods of the Prague School of functional and structural linguistics. In other contexts, the dependency based approaches have been oriented mainly ⫺ but by far not only ⫺ at formulating theoretical bases for computational implementation. The late B. Vauquois and his Grenoble group have gained much experience in a detailed description of syntax; I. Mel’cˇhuk, J. Apresjan and others have brought a substantial new insight also in issues of the structure of the lexicon; P. Hellwig has very systematically combined dependency with unification both in theory and in natural language processing; R. Hudson has analyzed different aspects of the grammatical background of an implemented system, J. Kunze, S. Starosta, J. Sleator and many other linguists and mathematicians have devoted attention to dependency based parsers and to a mathematical elaboration of respective formal descriptions. Also our research group of formal and computational linguistics at Charles University in Prague has been convinced for long decades that the dependency based approach is adequate for a theoretical, formal description of language based on a functional view, as well as for automatic processing of natural language. The framework elaborated by this group, Functional Generative Description (FGD in the sequel) has been first introduced by Sgall (1967) and discussed in detail by Panevova´ (1974), Hajicˇova´ (1979; 1993), Hajicˇova´ and Panevova´ (1984) and Sgall (1980; 1992), in a synthetic way by Sgall et al. (1973; 1986); more recently, an inquiry oriented on formal semantics was presented by Hajicˇova´, Partee and Sgall (1998). Long before relational grammar came into being, there emerged formalizations of dependency grammar, see Gaifman (1965), Pla´tek et al. (1978; 1984), Hajicˇova/Sgall (1980). Various versions of dependency-based grammars are used as generative components of a complex description. After Gaifman (1965) and others had established the high degree of equivalence between context-free and dependency grammars, it was often argued that due to this equivalence, dependency grammars could not be more adequate than context-free ones. Later, it was pointed out that the degree of
571
empirical adequacy of two equivalent devices should be evaluated according to linguistic criteria. Another critical claim was formulated, according to which the equivalence referred to above was not strong enough, since in Gaifman’s dependency grammars the use of nonterminal symbols was limited. However, FGD uses dependency rules (which have a general form) for individual edges of the trees, rather than for whole subtrees (see Sgall et al. 1969; 1986; Pla´tek et al. 1984, Petkevicˇ 1995). Thus, the number of sister nodes is not severely limited with our framework, and the limitations on strong equivalence are substantially weaker. Consequently, the mathematically based objections against dependency-type grammars have been found to be invalid. With FGD, the use of nonterminals in the derivations of sentence representations is relatively free. It is an important thing that the representations contain only terminal symbols, so that the structure of the sentence is immediately captured by the terminal representation generated by the grammar, rather than by a shortened record of the derivation history (as is the case of P-markers and of some other structural trees). As will be seen in Sect. 5 below, this approach makes it possible to capture the core of the structure of natural language in a way coming close to propositional calculus, i. e. to what many logicians understand as patterns naturally accessible to human beings. We shall see in the rest of Sect. 1 how the dependency based view is supported by functional considerations that have been fundamental for European structural linguistics and how the basic ingredients of a formalization of this view can be achieved. In Sect. 2 we point out how topic and focus can be handled in a dependency based framework. Sect. 3 deals with issues concerning the relationships between syntax and morphemics. In Sect. 4 we conclude that a dependency-based model of syntax allows for a great deal of grammatical information to be included in lexical entries. Sect. 5 aims at a substantiation of the view that FGD is also suitable for a specification of the representations of sentences by means of a very economical mechanism, based on a few general and natural principles. We turn then to the relationships between sentence and discourse (Sect. 6), to issues concerning formal semantics and focus sensitive particles (Sect. 7), and we close by
572
V. Dependenzielle Theorien
pointing out that functional and formal views on linguistic description can be reconciled (Sect. 8). 1.2. Functional Background of Dependency Syntax It is widely accepted today that language is a system based on human interaction. Natural languages have developed in the conditions given by human communication and they exhibit properties shaped under the impact of these conditions. One of the basic properties of this kind is the anthropocentrism of syntax. Let us briefly recall along which lines the way of thinking proper to the Prague School may contribute to understand this aspect of sentence structure. The prototypical sentence patterns have either the shape of a (human) action (N1 V N2 as in (1), or N V, as in (2)), or that of a property (N is A, as in (3)): (1)
The man built a house.
(2)
The girl walks.
(3)
The boy is tall.
Referring to a relationship between two participants other than a simple action of one of them affecting (or effecting) the other, it is often necessary to use the action scheme, although from a cognitive viewpoint this would not be seen as fully appropriate. Thus, e. g. (4) is structured in the same way as (1), although it contains no element having the cognitive role of Agentive. (4)
The boy sees the girl.
Similarly, (5) is structured in analogy with (2), and (6) with (3), although their cognitive patterns differ. (5)
The sun shines.
(6)
The man is older than you.
In (6), a relation between two members is referred to, and the structure of many languages makes the speaker to treat one of the members as prominent, expressed by the subject, i. e. to handle the relation like a property of this member. Similarly, with actions more complex than those for which the structure of natural language was primarily prepared, it is often necessary to choose one of the participants as the (analog of the) deliberate causer or initiator of the action, although this may not be cognitively appropriate; thus, e. g. with (7) at least a certain degree of activity (approval) is necessary on both sides.
(7)
Jim bought a car from Philip.
Thus, an action constitutes the prototypical content of an assertion. This corresponds to the conditions in which language came into being, and also to those in which language acquisition normally starts. The lexical counterpart of an event is a verb, and one of the points in which the communicative function of language has been decisive for sentence structure is the central role of the verb in the sentence. The grammatical categories corresponding to modal, temporal and aspectual parameters of actions generally accumulate on the verb, and the valency of the verb determines the possible and the necessary ingredients of the sentence. The lexical units filling these valency slots display their own valency and, together with their dependents, they specify, step by step, the content of the sentence, the main point of which (the action or another event, state, etc.) is referred to or denoted by the verb. With such a view of the basis of syntax, it may be understood that constituency, although now accepted by several major trends of theoretical linguistics, is not the only possible point of departure. The dependency approach based on views known from classical European structural and functional linguistics may constitute a challenge for the main trends in the theory of language. The above characterized approach helps to describe the language system not just as an abstract mechanism enumerating sentences with their structural description, but rather as substantially influenced by communicative factors. The sentence should be described with due regard to its position in the context, including the aspects often analyzed under headings such as theme, topic or ground and rheme, comment or focus. An elaboration of the classical Praguian views has led to an understanding of the topic-focus articulation (TFA) as reflecting, in an anthropocentric way, the impact of communication on the structure of natural language. We subscribe to the view that this layer belongs to the basic hierarchies in the sentence structure. As illustrated in Sect. 2, TFA is expressed by grammatical means and is semantically relevant, so that it should be described within grammar. This is well possible with dependency syntax, whereas in phrase-structure based descriptions the treatment of topic and focus faces serious difficulties. Since neither topic nor focus need have the shape of a con-
43. Dependency Syntax in Functional Generative Description
stituent of whichever level, even those constituency based approaches working with some kind of focus inheritance find it difficult to account, e. g., for cases in which the focus consists of something more than a single NP, but less than the whole VP; cf. Koktova´ (1988). Similar difficulties concerning the topic often lead to an unnecessary distinction between topic-comment and background-focus. Also other complications of the description (such as requiring more levels of language structure or a specific placement of topic with base generation) appear to inhibit constituency based theories to provide space for an explanation of the secondary character of sentences such as Jim moved to a village from a large town, which in FGD can be described and analyzed on the basis of systemic ordering (see Sect. 2). 1.3. The levels of the system of language If the description of the system of language is based on its partition into levels such as syntax (underlying and, perhaps, surface), morphemics, phonology and phonetics, this means that the relationship between the signifiant and the signifie´ of F. de Saussure’s sign can be divided into several steps. A morpheme is then regarded as a function of a morph (string of phonemes) and, at the same time, the morpheme has its own syntactic and semantic functions (cf. the syntactic relations, the lexical meanings and the grammatemes, as discussed in Sect. 1.5 and 5). The distinction between primary and secondary functions, as well as markedness rules, are useful in describing the relationships between units of adjacent levels. The concept of (surface) subject (as differing from Actor, or underlying, tectogrammatical subject) certainly is necessary, since the choice of subject is semantically relevant in some cases (e. g. with passivization of a sentence including an adverbial of attitude). This also concerns the relation of control, since it is the subject of the infinitive (active or passive), not realized on the surface, that is the controllee. Thus the identification of subject should be handled as immediately concerning underlying, tectogrammatical representations, TRs; in such a case the notion of subject would not represent a support for the alleged necessity of a separate level of surface syntax. Items deleted in the outer shape of the sentence can be understood as present in the TRs, although absent from the morphemic
573
representations; this concerns different kinds of deletion, including that of the controllee with certain verbs, that of subject in pro-drop languages, as well as deletions made possible by a specific context, cf. (What does Mary like most?) I think (she likes) bananas. Surface word order can be understood to belong to the level of morphemics, where the representation of the sentence has the shape of a string without parentheses, rather than that of a tree (or even of a more complex network, or of its linearization). To work with an immediate transition from TRs to the level of morphemics may offer a possibility how to handle the issue of “non-projective” constructions. They are strictly limited and the question is how to account for them as for exceptions. It appears that they may be described as such by means of shallow rules changing the underlying projective order under certain specific conditions (see Sect. 3.2 below). Also word order shifts connected with a marked position of the intonation center can be handled by similar shallow rules, cf. Sect. 2.1 and 3.2. The partition of the relation of sign (i. e. that between form and function) into several levels embodies different asymmetries, one of which comprises ambiguity and synonymy, another concerns the fact that a simple unit of one level can be realized by a complex unit of the next lower level; there are also more marginal cases in which restricted classes of units display functions that primarily belong to units of another class, cf. complex prepositions such as in order to, complex verb forms and idiomatic phraseological items. It should be recalled that the underlying structure (and valency slots or kinds of the dependency relations as its main syntactic units) can be understood as the linguistic patterning of the cognitive content. This patterning constitutes one of the levels of the system of language (of linguistic competence) and is language dependent in what concerns its repertoire of units (lexical items, values of grammatical categories, valency slots) and even of their categories. On the other hand, the patterning of the content itself is not immediately determined by an individual language. 1.4. Valency as the Core of Syntax If dependency is understood as a fundamental relation, then the syntactic properties of a lexical unit can be described on the basis of its possible (and/or necessary) dependents,
574 including restrictions on their combinations, their relationships to the surface (morphemic) shape of sentences, and so on. The syntactic valency of a word, characterized from this viewpoint, can be specified in the form of the valency frame, in which the (optional and obligatory) types of dependents of a head are listed and described with respect to their combinatoric properties, to their function of (optional or obligatory) controllers, to restrictions on their movement, to their surface deletability, and to their subcategorization properties. In a broader sense of the term, a valency frame includes a list of both the arguments (inner participants) and the adjuncts (free modifications); a valency frame in the narrow sense contains only arguments and those adjuncts which are obligatory for the given head word. In a valency based description not only dependents determined (sub-categorized) by individual heads in the sense of configurationality or similarly (arguments) can be handled systematically, but also the whole classes of free modifications (adjuncts, especially adverbials). The orientation (direction) of the dependency relation can be specified by means of an operational criterion, based on the syntactic omissibility of one of the members. This can occur in a lexically specified pair of words, as is the case with the endocentric syntagms, or at the level of word classes: e. g. in ((very) slow) progress the syntactic potential of the heads prototypically is identical to that of the whole groups; in Jim met Sally nothing can be deleted, but we know from other cases that the verb is always present (without a specific context), whereas Objective (Patient, underlying object) can be absent e. g. with read, and Actor (underlying subject) is absent e. g. with rain (where the E. pronoun is just a morphemic filler, having no semantic relevance, since there is no other option). Certain questions open to discussion are difficult for every kind of syntactic description, cf. e. g. the boundary line between so-called equi- and raising-verbs in English; such issues have to be discussed as concerning individual languages, having in mind the specific relationships between their underlying structures and the outer shape of sentences. Function words are not connected with such problems, since in the syntactic structure of the sentence they do not occupy autonomous positions. Except specific peripheral cases, articles and prepositions are al-
V. Dependenzielle Theorien
ways connected with nouns, auxiliary verbs and conjunctions with verbs, and they cannot be freely complemented. Thus it appears not to be appropriate to assign them the same status as autosemantic lexical units have. Their counterparts in the (underlying) syntactic representations are more adequately handled as parts of complex symbols (node labels), i. e. as indices of lexical symbols themselves, which denote the values of categories such as definiteness, number, tense, modality, and the syntactic relations, be they expressed by morphs (endings, affixes, function words), alternations, or by word order. If the modifications (valency slots, or kinds of dependency) are classified into inner and free ones (or, in other terms, arguments and adjuncts, or participants and circumstantials, etc.), it is often not taken into account that the character of individual dependents as such (as types) has to be distinguished from the relationships of their tokens to their individual heads, for which they can be obligatory or optional. Thus, in our approach, Actor, Addressee, Objective, Origin and Effect, most of which are illustrated by (8), are understood as inner participants; the main criterion applied here is that each of them can occur at most once with a head-verb token (if neither coordination nor apposition is present), be they obligatory or optional with a given verb. (8)
Mother changed her hairdo from a braid Actor
Objective
Origin
into bobbed hair. Effect
While inner participants are obligatory in the prototypical case, the free modifications, i. e. adverbials or adjuncts are primarily optional. Only in secondary (marked) cases they are obligatory with individual head words, such as the modification of Directional-to with to arrive, that of Manner with to behave, that of Appurtenance with brother, and so on. Thus it is necessary to work with four possibilities, three of which (marked by “⫹” in Fig. 43.1) have to be specified in individual lexical en-
relationship to the head: inner participant: “free”, adjunct:
(i) obligatory (b) optional + + + –
Fig. 43.1: The two classes of dependents, their possible relationships to their heads and the necessity to include them (⫹) or not (⫺) into lexical entries.
43. Dependency Syntax in Functional Generative Description
tries (perhaps by means of indices identical for small groups of words having identical distributional properties), whereas the fourth one (that of optional free modifications, with “⫺”) can be handled uniformly for a whole word class (with a single index common to the lexical entries of the class). Some of the dependents which are present (or even obligatory) in underlying structure can be deleted on the surface (if the speaker assumes that the specific context makes them easily recoverable for the hearer). A suitable operational criterion can be seen in Panevova´’s (1974) ‘dialogue test’: If A says: Jim already arrived, this includes an assumption that the hearer will know whether here or there has been deleted; however, if this assumption is not met and the hearer asks Where to?, then A cannot answer I don’t know. (Note that in a specific situation where, e. g., the question is whether the arrival occurred at a particular hotel or at a railway station in the given town, a deletion is present in the question already.) This shows that such a dependent is obligatory, although deletable. The following examples of valency frames (cf. Sect. 4 below for their more complete description) illustrate our classification of dependents (the optional ones are inserted in parentheses); the symbol of the word class allows for a generally available list of free modifications (adverbials, adjuncts) to be identified (we present a tentative list for the valency of verbs, with many omissions, in Sect. 5 below): change V Actor Obj (Orig) Eff give V Actor Addr Obj rain V brother N Appurt
glass N (Material) man N full A Material green A
Other problems concern the boundary line between underlying structure (with valency slots, i. e. kinds of the dependency relations as its main syntactic units) and the domain of cognition (the ontological content). Underlying structure can be understood as the level of linguistic meaning (i. e. of a language specific patterning of content) in the sense of F. de Saussure, L. Hjelmslev, E. Coseriu and their followers (from a certain viewpoint also in the sense of R. Jakobson’s invariants). This structure constitutes one of the levels of the system of language (of linguistic competence), whereas the cognitive content itself is not directly patterned by language and is not
575
immediately accessible to human observation. One of the symptoms of the adequacy of dependency syntax can be seen in the fact that, as we mentioned in Sect. 1.1, its elements are present in theories overtly based on other approaches. Thus, e. g., Fillmore’s account of ‘deep cases’, which includes a continuation of Tesnie`re’s valency, has eventually found a reflection in Chomsky’s theory: theta roles and theta grids represent an intrusion of valency into the theory of Principles and Parameters, as well as into the Minimalism framework. Already in the preceding stages of Chomsky’s approach, several notions derived from dependency were present: although this had no firm basis in the formal framework of the approach, such terms as ‘head’ and ‘modifier’ have always been used, and the use of such names of categories as NP, AP, etc., makes it evident that phrases are understood to have their heads, their governors. Moreover, the X-bar theory can be directly compared with dependency syntax formalisms, be it the one known from Gaifman (1965) or those formulated in FGD and elsewhere. Thus we can state that ingredients inherent to a dependency based approach are combined with constituency not only in approaches proclaiming a basic attention to functions and relations, such as Lexical Functional Grammar, Relational Grammar or Head Driven PSG, but also in Chomskyan theory. We may then ask whether the theta roles can be understood as primitive notions, instead of being derived from constituent structure, i. e. whether a more economical description without constituency can be found. This concerns not only the theta roles proper, i. e. arguments, but also the free (adverbial) modifications, or adjuncts. If their number is considered to be too large for such an account, it should be recalled that most of the kinds of modifications are underlying counterparts of prepositions, subordinating conjunctions or similar morphemes, which most theories do understand as primitives. These cannot be regarded as purely lexical items, since they clearly function as grammatical means (expressing syntactic relations or values of morphological categories); they cannot be freely syntactically expanded. Thus we do not consider their underlying correlates to be lexical units, and we treat them as parts (indices) of complex labels of nodes of a syntac-
576
V. Dependenzielle Theorien
tic tree, rather than as corresponding to specific nodes (cf. above). Other combinations of dependency with constituency (cf. Goralcˇ´ıkova´ 1974) have been found to be redundant, since an account of dependency may cover the whole domain of sentence syntax, if properly combined with a treatment of such relationships as control (grammatical coreference), of TFA, and also of coordination and apposition. As a matter of fact, the last two syntactic relations correspond to another dimension than syntactic dependency, which has always been recognized in European linguistics; a formal treatment has been presented by Petkevicˇ (1993; 1995). 1.5. Dependency trees The basic pattern of the structure of the sentence can be described by a dependency tree, i. e. a connected finite graph in which every pair of nodes is connected by a single path (sequence of edges) and in which a single node is determined as the root of the tree; a linear order is defined on the set of the nodes of the tree (the edges are interpreted as instances of dependency, and the linear order as a “left-to-right” scale). A detailed discussion of the dependency trees used as basic parts of sentence representations, and of operational criteria for a classification of their ingredients can be found in Sgall et al. (1986). An example of a dependency tree, corresponding to the preferred reading of sentence (9), is presented in Fig. 43.2. (9)
My friend Jim worked in the domain of archeology.
work-Pret-Declar Actor friend-Sing-Def Appurt
Ident
I-Sing
Jim
Loc domain-Sing-Def Ident archeology
Fig. 43.2: A simplified representation of the syntactic structure of sentence (9), with the morphological indices (grammatemes) for Preterite, Declarive, Singular, Definite, and syntactic symbols for Actor/Bearer, Locative, Appurtenance, Identity.
The complex labels of the nodes of our trees indicate (a) lexical meanings (which should be denoted by abstract symbols reflecting their inner lexico-semantic composition, but are just substituted here by the graphemic shape of words), and (b) values of grammatemes, i. e. of categories such as tense (see Panevova´ and Sgall 1998), aspect, number, etc. The labels of edges indicate the valency slots or kinds of the dependency relation (Actor, Addressee, Objective, Means, Locative, etc.); cf. Sect. 1.4, as for the orientation of the dependency relation. Let us recall that articles, prepositions, auxiliary verbs, etc., are not concerned, since in the syntactic structure of the sentence they do not occupy specific positions (their tectogrammatical counterparts are grammatemes or functors, i. e. indices of autosemantic items in node labels). 1.6. Coordination and projectivity Along with dependency, the syntactic representations include a specification of several further relations. One of these is the TopicFocus articulation (TFA), expressed mainly by an interplay of word order and sentence prosody (esp. the position of intonation center); in our trees it is represented by the leftto-right order of the nodes with the boundary line between topic, standing to the left, and focus, to the right of this line (we deal with TFA in Sect. 2 below). Other kinds of syntactic relations are those of coordination (conjunction, disjunction and others) and of apposition. Their interplay with dependency cannot be accounted for with full adequacy by trees; more than two dimensions are needed. However, it is important that the relationships of the different dimensions are strongly restricted by such conditions as that of projectivity: a dependency tree is projective if for every threeelement set of nodes a, b, c present in the tree, it holds that if a depends on c, and b is placed between a and c in the left-to-right order, then b is subordinated to c, where “subordinated” means the transitive closure of “depends” (to put it less formally: “b is subordinated to c” means “b immediately or through mediation of other nodes depends on c”). Similar restrictions hold for the relationships between coordination and the basic two dimensions of the tree; see Kucˇerova´ (19956). Thanks to these restrictions, the representations can be handled by limited means, although basically they have more than two dimensions. They can be denoted by a linear-
577
43. Dependency Syntax in Functional Generative Description
ized version of the network, namely by a string of complex symbols with every dependent node being included into a pair of parentheses and every string of items connected by a relation of coordination or apposition having such a pair. The valency slots and the kinds of coordination are written as indices of parentheses. The possibility to use such a framework to describe most different combinations of the two kinds of relations can be illustrated by the following example, where (10b) is a simplified underlying representation of the sentence (10a), i. e. the representation of one of its readings. (10) a. Ann and Jim, Martin’s brother, who are a nice pair, moved from a town to a village. b. ((Ann (Jim (Martin).Appurt brother. Def.Sing).Appos).Conj (.Restr (Rel).Actor be.Pres.Declar (.Obj pair.Specif.Sing (.Restr nice)))).Actor move.f.Pret.Declar (.Dir-1 town.Specif.Sing) (.Dir-2 village.Specif.Sing)
The symbols for Appurtenance, Restrictive Adjunct, Actor, Directional-1 and -2 as kinds of dependency (written as indices of parentheses, indicating by their position at the left or the right parenthesis the direction from the dependent item to its head), for Conjunction (versus Disjunction, Apposition and other values) as a kind of Coordination (denoted by indices of the righthand parentheses), and for Definite, Specifying, Singular, Present, Preterite, Declarative, etc., as values of morphological categories, should be self-explaining; Rel denotes the (prototypical case of a) relative pronoun; the index f indicates that the verb is a part of the focus; the difference between the underlying and the surface word order positions of the noun pair and the adjective nice is due to the scale of communicative dynamism differing from the surface word order, cf. Sect. 2.2 below; in the prototypical case, an adjective is more dynamic than its head noun. Further examples (with highly simplified representations): Charles and Jim have caused our victory. (11’) ((Charles.Sing Jim.Sing).Conj).Actor cause.Declar.Perf (.Obj (we).Appurt victory.Sing.Def) (11)
(12) My friend’s daughter, Mary Smith, and her husband are a very nice couple.
(12’) (((((I).Appurt friend.Def.Sing).Appurt daughter.Def.Sing (Mary).Restr Smith).Appos (she).Appurt husband.Def.Sing).Conj).Actor be.Pres.Declar (.Obj couple.Spec.Sing (.Restr (very).Amount nice.Posit) On the morphemic level, the sentence representation has the form of a string of symbols (morphemes and their parts, the ‘semes’, such as cases, values of Tense, Gender, Number, Definiteness). Some of these items are understood as expressions of tectogrammatical morphological categories (Tense, Aspect, Definiteness, etc.) or of syntactic relations, others as relevant only for syntactic agreement. Therefore, the issue of projectivity does not arise on this level, and e. g. the sentence (13) could now be described with the help of a shallow rule bringing the heavy relative clause to the end of the sentence in a similar vein as prepositions (the sources of which are among the grammatemes as parts of complex node labels in the underlying representations) are brought to the beginning of their nouns’ projections. The same holds for the conjunction and the verb’s projection in (14), where since is derived from the underlying syntactic item (subscript), characterizing the dependent verb in this case as occupying the position of the head of an adverbial of Cause, cf. Sect. 3.2 below. (13) I met a man yesterday who asked me for your address. (14) Jim visited Claire since he wanted to ask her for help.
2.
Topic-Focus Articulation
2.1. Topic-focus articulation as one of the syntactic hierarchies The structure of a sentence is to be seen with due regard to the communicative conditioning of language, and thus the sentence (with regard to its position in the context) should be described together with its TFA. The appurtenance of TFA to the sentence structure reflects the impact of communication on the structure of natural language. Language has developed during hundreds or thousands of millennia as a means of human communication, and those factors that are determined by the “given ⫺ new” strategy, inherent to human communication, have highly influenced its structure. In order to be easily
578 understood, in formulating a sentence a speaker usually selects certain items that s/he assumes to be readily accessible in the hearer’s memory. These items are then set into (new) relationships with other items (possibly new for the hearer). TFA can be systematically described if the tectogrammatical representations (TRs) fulfill the following requirements: (a) The primitive notion of contextual boundness is introduced; we understand as contextually bound (CB) those items (i. e., those nodes in the dependency tree) that refer to well established entities, supposed by the speaker to be easily accessible to the hearer and “spoken about”, whereas the non-bound (NB) nodes contain “new information”, or, at least, bring the established entitities into relations new for the hearer. The opposition of CB and NB, as systematically patterned in the structure of the language, does not precisely correspond to the etymology of these terms, but is determined rather by grammatical and prosodic properties. (b) Underlying word order (communicative dynamism, CD, known from Firbas’ 1957; 1992 analysis of ‘functional sentence perspective’) is distinguished from the surface one; it is represented as the order of nodes in a TR. In the outer shape of the sentence, it is expressed by various means: surface word order, the position of intonation center, and different syntactic or morphemic means. Within such a framework, the definition of topic (T) and focus (F) can be anchored in the concepts of contextual boundness and of CD. The verb itself and any of its immediate dependents belong to T iff they are CB (with a specific proviso for cases where all these items are CB). If a node n belongs to T, so do all nodes dependent on it. The rest of the TR is the focus of the sentence. An outline of an automatic identification of T and F was presented by Hajicˇova´ et al. (1995). The articulation of a given sentence into T and F can be operationally tested by the socalled question test (used already several decades ago and given a more specific formulation in FGD in late seventies, where it was also used for the specification of the scale of systemic ordering of dependents of governing nodes). This test is most useful in cases when the surface word order does not correspond to the underlying one (cf. (15)) or in case of ambiguities of surface structures (capitals in-
V. Dependenzielle Theorien
dicate a marked position of the intonation center). (15) KENNEDY was killed. (15’) a. What happened? b. Who was killed? As a reply to (15’a), i. e. as a thetic judgement, the sentence (15) can be said to be an ‘all-focus’ (or, in our older terminology, a ‘topicless’) sentence; however, (15), with the same placement of the intonation center, can be also a reply to (15’b), i. e. a statement ‘about’ an assassination, in which the verb is in T and the only element of F is Kennedy. The main functionalist views on TFA agree with each other in many aspects; to specify our position among them, let us recall our standopints in the following questions, in which the views do differ: (i)
in the discussion whether one or two articulations are present in the sentence structure, there are good reasons to prefer the “combining” approach (as do J. Firbas, E. Vallduvı´, E. Engdahl, M. Steedman and some others), arguing that, although the first position in the sentence prototypically is thematic, it has a rhematic (focal) character whenever bearing the intonation center; (ii) the sentence is understood to be divided in two, rather than three parts (although we admit that the outcome of the semantic-pragmatic interpretation should contain a main operator dividing the content of T from that of F); in the prototypical case, the verb is the least dynamic item in F; (iii) we understand the relationship of TFA to word order and sentence prosody as an instance of the opposition of signifie´ and signifiant; (iv) it is essential to register and describe the semantic (not just pragmatic) relevance of TFA, see Sect. 2.3 below. 2.2. Systemic ordering The repertoire of the types of dependents (valency slots) displays a certain basic (canonical), or ‘systemic’ ordering (SO), which, as discussed by Sgall et al. (1986, Chapter 3), within the focus of a sentence (i. e. within its NB part) is reflected by its CD. Only if one or more of the dependents occur in a sentence as CB, then their position in CD can switch more to the left than what would correspond to SO. Such a switch can be il-
43. Dependency Syntax in Functional Generative Description
lustrated by example (16), if compared to (10a) above: (16) Martin and Ann moved to a village from a town. This sentence (pronounced with normal intonation, i. e. with the intonation center at its end) is less ambiguous than (10a), in that here the to-group belongs to T (is CB) in all readings, whereas the from-group belongs to T in some of the readings of (10a) and to F in others; the rightmost group, bearing the intonation center, always belongs to F. This points to Dir-1 (from) preceding Dir-2 (to) under SO. With other pairs of dependents, a similar relationship can be found, see the following examples: (17) a. They went by car to the river. b. They went to the river by car. (18) a. Jim dug a ditch with a hoe. b. Jim dug a DITCH with a hoe. (19) a. Ron cannot sleep quietly in a hotel. b. In a hotel Ron cannot sleep quietly. (20) a. Dutch companies published many books on linguistics. b. Many books on linguistics were published by Dutch companies. (21) a. Jim made a canoe out of a log. b. Jim made a log into a canoe. Here again, the most dynamic dependent in each of the sentences (the rightmost group, with the exception of (18b), where it is the bearer of the intonation center in its secondary placement, indicated by capitals) belongs to F. Each of the (a) examples is ambiguous: in some of its readings the last-but-one dependent belongs to the focus and in other to the topic. The (b) examples are less ambiguous in that the group that is not most dynamic here belongs to the topic in all readings (with the given intonation pattern). Let us add that the “free” word order, which to a certain degree is present also in English, as especially the examples (16) and (17) show, is not actually free, but is determined by TFA, more precisely, by the scale of CD, i. e. underlying word order. The limitations of surface word order in English are connected with the fact that a secondary placement of intonation center occurs relatively often here, as (18b) illustrates. Also, in some cases such syntactic devices as passivization or inverse verb constructions are used to allow for the
579
surface word order to correspond to the underlying one, see (20b) and (21b). These and similar examples have been analyzed with several series of psycholinguistic tests (for Czech, German, recently also for English, see Sgall et al. 1995), with the result that SO differs from one language to the other. It appears that for some of the main dependents of English the scale of SO is as follows: Actor ⫺ Addressee ⫺ Objective ⫺ ⫺ Origin (Source) ⫺ Effect ⫺ Manner ⫺ ⫺ Dir.from ⫺ Means ⫺ Dir.to ⫺ Locative Czech, and probably also German, differ from English in that the positions of Objective and Effect in these languages are more to the right, after most of the adverbial modifications. This may be conditioned typologically, since in English the participants, expressed without a function morpheme, could not be easily recognized if separated from the verb by a series of prepositional groups. In German, Means probably precedes Objective under SO, so that (22a) is ambiguous as for the position of Means (CB or NB), whereas (22b) lacks this ambiguity (Objective always belongs here to the topic): (22) a. Jim hat mit einer Hacke eine Rinne gegraben. b. Jim hat eine Rinne mit einer Hacke gegraben. Since Indo-European languages, thus, differ from each other in the shape of SO, it has to be admitted that SO changes during the development of a language. Thus (such a change being only slow) it may be assumed that there are transition periods, in which the position of a given pair of dependents in SO of a language varies stylistically, locally, or with individual verbs; e. g. the order of Addressee and Objective in English seems to be undergoing a change similar to that which in French has already yielded the order of Objective ⫺ Addressee under SO: with a relatively recent verb such as donate, the Addressee can be less dynamic than Objective only if the Addressee is CB (e. g. in He donated two HOUSES to a foundation); on the other hand, with an older verb such as give, this order is the primary one, normally present also if both the arguments belong to F (He gave a foundation two houses). 2.3. The semantic relevance of TFA As most of the functional approaches point out, the opposition of T and F is not only a matter of contextual positions of sentences,
580 of pragmatics (or of stylistics), but it is semantically relevant, even from the viewpoint of truth conditions. Using mostly examples taken from earlier discussions, we can show that this is true not only of sentences with such overt complex quantifiers as those illustrated by the well known examples (23) and (24), but also of other sentences, e. g. those in (25)⫺(27): (23) a. Everybody in this room knows at least two languages. b. At least two languages are known to everybody in this room. (24) a. John talked to few girls about many problems. b. John talked about many problems to few girls. (25) a. I exercise in the mornings. b. In the mornings I exercise. (26) a. John saw an explosion. b. Mary saw an explosion. c. John and Mary saw an explosion. (27) a. An explosion was seen by John. b. An explosion was seen by Mary. c. An explosion was seen by John and Mary. d. An EXPLOSION was seen by John and Mary. With (26c) John and Mary could have seen different explosions, which is not the case with (27c), at least on the preferred reading. It is worth noting that the mere change of the position of the intonation center in (27d) gives a reading different from (27c), namely the same reading as that of (26c). Thus, also the semantic interpretation immediately concerns TFA, not only in connection with focus sensitive operators and with other differences in truth conditions proper (where the opposition of truth versus falsity is at play), but also in other, specific issues. The question whether a definite noun group triggers a genuine presupposition or just a weaker kind of entailment depends on the appurtenance of the noun group to the topic of the sentence (more exactly, on the contextual boundness of this group): in (28) the preferred reading (in which the definite subject is included in the topic) is connected with the presupposition of the existence of the king of France in the world spoken about and in connection with the obvious reference assignment; thus, presupposition failure is present with respect to the world we (believe to) live
V. Dependenzielle Theorien
in; neither an utterance of the positive sentence, nor that of its negative counterpart are true, i. e. the sentence cannot be appropriately used in such a case. (28) The king of France is bald. (29) Yesterday Prague was visited by the king of France. On the other hand, with (29), where the cited noun group belongs to the focus, no such presupposition is triggered; the negative counterpart is true, so that there is no presupposition failure present, and an utterance of the positive sentence is false. What is entailed by the positive sentence (the existence of the king of France in the world spoken of) is neither entailed nor excluded by its negative counterpart, as was pointed out by Hajicˇova´ (1971; 1984), who calls this kind of entailment an allegation.
3.
Status of Underlying Structure
3.1. Two levels of syntax, or syntax and morphemics? As we have already mentioned in Sect. 1.3, the underlying structure can be characterized as the level of linguistic (literal) meaning, i. e. as the structuring of the cognitive content proper to a particular language. The underlying structure and its description can serve as a useful interface between linguistics in the narrow sense (as the theory of language systems) on one side and such interdisciplinary domains as that of semantic(-pragmatic) interpretation, which includes reference assignment based on inferencing using contextual and other knowledge, further metaphorical and other figurative meanings, or that of discourse or text linguistics. Another question concerns the remaining vagueness of meaning; e. g. using expressions such as young people or small towns, the speaker may not know where to draw the boundary in the grey zone towards other people or towns. An account of vagueness can be based on P. Vopeˇnka’s (1979) analysis of classes with unclear membership (Nova´k 1993). A mathematical theory of this kind may also be of great importance for the handling of the relationships between the core of the language system and its peripheral layers. In several approaches based on syntactic dependency, as well as in those based on constituency, a level of surface syntax is or was used side by side with a level of underlying
43. Dependency Syntax in Functional Generative Description
sentence structure. Certainly, this was useful in the first studies concerning grammatical ambiguity and synonymy in a framework using explicitly characterized levels. However, it is not certain whether strictly synonymous syntactic constructions exist. Such examples as the following were taken to be synonymous in some of the studies quoted above, including those of the Prague group: (30) a. After he arrived, we started to discuss this. b. After his arrival we started to discuss this. (31) a. She allowed them to sing. b. She allowed them that they sing. However, in (30b) the after-group does not express tense; the fact that the time point of arrival precedes that of the utterance is only inferred from the combination of the meanings of after and of (the Preterite in) started. On the other hand, e. g. in (32) such an inference cannot take place and the temporal relationship then remains indistinct; i. e., (32) corresponds semantically either to (33a) or to (33b). (32) After his arrival we will start to discuss this. (33) a. After he arrives, we will start to discuss this. b. (Now,) after he has arrived, we will start to discuss this. Thus the synonymy is at least dubious here. This is similar with (31), where in (a) the coreference between them and the deleted subject of the infinitive is grammatical (intrasentential, a case of ‘control’), whereas in (b) the coreference is textual, expressed by a pronoun the reference of which, in general, is indistinct, so that (as for restrictions determined by grammar) the referential identity is not ensured, cf. (34), where in (b) them refers to Mary and Paul, whereas they refers to their children: (34) a. She allowed Mary and Paul that their children sing. b. (Mary and Paul asked the hostess if their children may sing during the break.) She allowed them that they sing. Also in the case of passivization it is not yet clear whether an actually synonymous pair of constructions is present. In those languages where in contrast to English an active sen-
581
tence and its passive counterpart can display the same word order (so that often they share their TFA) it would be possible to look for synonymy between active and passive verb forms. However, if a sentence contains such an adverbial as inadvertently, or with great pleasure, then again the underlying structures of the active and the passive sentences appear to differ, since this adverbial has a specific relationship to the subject. The concept of subject (as opposed to Actor, or underlying subject) is certainly necessary, since, as we have just seen, the choice of subject is semantically relevant in some cases. This choice is also relevant in what concerns the ‘control’ relation, since the subject of the infinitive (be it active or passive) is the controllee. Therefore, the opposition between active and passive, i. e. the choice of subject seems to be necessary for underlying representations. This means that the usefulness of the notion of subject does not support the assumed necessity of a separate level of surface syntax. Moreover, it seems that surface word order can be interpreted as belonging to the level of morphemics, where the representation of the sentence is a string without parentheses, rather than a tree (or a more complex network) or its linearization. An immediate transition from the underlying level to that of morphemics would then offer a possibility to cope with the difficult issue of projectivity. Seemingly non-projective constructions are strictly limited and probably they may be described as such by means of shallow rules changing the underlying projective order under certain specific conditions. In the output of these rules on the morphemic level, the condition of projectivity is absent, cf. Sect. 1.6 above. Also, word order shifts concerning a marked position of the intonation center should be handled by similar shallow rules, to which we turn in Sect. 3.2; cf. the difference between the primary morphemic shape of (17a) above and of (35); in the latter example, the to-group belongs to the topic in all readings of the sentence, similarly to (17b). (35) They went by CAR to the river. An open question concerns English sentences with an indefinite subject belonging to F, which often bears the intonation center, although this perhaps is not obligatory, cf. (36). In Czech, which has a higher degree of
582 “free” word order, such a F is placed at the end, cf. (37): (36) A CANADIAN proved this theorem. (37) Tuto veˇtu doka´zal Kanada`n. Lit.: this theorem.Acc proved Canadian. In this way, even if a description with several levels of representations is to be used, it seems to be possible to reduce the number of levels (cf. Sgall 1992; a reduction of the number of levels can be found also elsewhere, esp. in Chomsky’s ‘minimalist program’, which, however, at least in its original formulation does not work with a level of morphemics). 3.2. Syntax and morphemics For a theoretical description, and also for a parser if understood as aiming at a syntactic representation of the sentence in the sense of identifying the basic grammatical roles of the individual word form occurrences (i. e. with its applications including such as communication with intelligent data bases, information retrieval or machine (assisted) translation), the output should specify all grammatical oppositions relevant for semantic-pragmatic interpretation. This is similar with the syntactic annotation of a corpus, as can be illustrated by the three-level annotations of texts from the Czech National Corpus in the Prague Dependency Treebank (with morphem-ics, “analytic”, and slightly modified tectogrammatical representations, see Hajicˇova´ 2000). Let us recall the claim that function words are to be distinguished from autosemantic lexical items (see Sect. 1.4 above). Similarly as other function morphemes, function (synsemantic) words are syntactically fixed to certain lexical (autosemantic) words, without allowing for their unconstrained complementation. As far as they are relevant just for grammatical agreement, they concern only the relationship between the syntactic representation (which has the shape of a tree, or, taking coordination into account, of a more complex network) and the morphemic one (which is a string of symbols). The latter case is that of gender, number and case with adjectives in many languages, as well as of person, number with verbs, the (surface) symbols for which are present only in the morphemic string. If we distinguish the underlying word order, correlated with communicative dynamism
V. Dependenzielle Theorien
(CD), from the surface one, then the correlates of function words may be described as not playing an independent role in CD (except for certain secondary cases, such as He DID read it), but they are present as specific elements in the morphemic representation and are relevant for the surface word order. The surface word order can be derived from the underlying one by movement rules responsible for those cases in which a secondary placement of the intonation center corresponds to a marked position of focus (not in the rightmost position), as well as for grammatically determined positions of word forms belonging to specific groups. At least the following issues have to be accounted for, and we indicate below how this can be done (cf. Hajicˇova´ 1991 and Sgall 1992): (a) Sentences with a secondary (other than rightmost) placement of the intonation center, which marks the position of focus, cf. (18b) and (27d) above; the rule may transfer the righmost item of the TR to the leftmost (or to an intermediate) position, marking the moved item as the bearer of the intonation center of the sentence (which then, in phonemics, gets a falling, or rising-falling, stress). (b) Grammatically determined positions of verbs, adjectives, clitics, and so on, in different languages; the adjective primarily is more dynamic than its head noun, but it is placed to its left in English surface word order. In Czech clitics usually are placed in the “second” (Wackernagel’s) position (with certain exceptions, similar to those concerning e. g. the structure of the ‘Vorfeld’ in German), even if they depend on an infinitive standing after the main verb (cf. point (d) below as for handling the seeming non-projectivity), cf. (38) and its TR in Fig. 43.3: (38) Martin mi ji tu hodlal uka´zat. Martin to-me her here intended to-show Martin intended to SHOW her to me here.
hodlal.Pret
Martin.Act
ukázat.Pat
mi.Addr
ji.Pat
tu.Loc
Fig. 43.3: A simplified TR of sentence (38).
583
43. Dependency Syntax in Functional Generative Description meet.Pret
I.Act
yesterday. Temp-when
man.Pat
ask.Pret.Restr
who.Act I.Addr
address.Pat
you.Appurt
Fig. 43.4: A simplified TR of sentence (42).
This may also concern other dependents of an infinitive, if they belong to the topic:
The order in the TR: I ⫺ yesterday ⫺ met ⫺ a man, who … (see Fig. 43.4).
(39) Martin mi Milenu zamy´sˇlel Martin to-me Milena-Acc intended uka´zat. to-show Martin intended to SHOW me Milena.
Similarly as with (38) and (39) above, the TR then has a projective shape; the seeming deviations from projectivity are reflected by the differences between the CD (order of the nodes in the TR) and the surface (morphemic) word order. Specific problems are connected with long distance dependencies, with which e. g. a wh- item can land at the beginning of a clause to the verb of which it is subordinated. During parsing, the assignment of underlying (i. e. CD) positions to function words is relatively simple if ⫺ as is done in FGD ⫺ their underlying counterparts are handled as parts (indices) of complex node labels of the corresponding autosemantic units. To cope with the other differences between the surface word order and the scale of CD (such as marking the underlying counterpart of the bearer of the intonation center as the most dynamic part of the TR, or that of an adjective as more dynamic than its governing noun, etc.), we can use either rules reflecting the movements between TRs and morphemic representations, or e. g. numerical indices for the underlying positions (cf. Starosta 1993). It would deserve a systematic investigation to see whether an approach of the latter kind allows for a natural account not only for the subtle relationships between surface word order, communicative dynamism and the systemic ordering, but also for those concerning the different positions of quantifiers or of ‘focalizers’, cf. Hajicˇova´ et al. (1998) and Sect. 8 below. An important methodological requirement is to minimize the number of movement rules, and of all dis-
Wackernagel’s position, into which the moved items usually are placed, can be specified, in the prototypical case, as the position immediately following the leftmost node of the uppermost part of the tree (and, if the leftmost node differs from the verb, also after all nodes subordinated to the leftmost one). (c) Positions of function words (articles, prepositions, conjunctions, auxiliaries): in the morphemic string (i. e. in the surface word order) they are usually placed at the beginning of their word groups; the rules describing these movements are to be combined with changing the indices in the complex node labels into symbols of articles, prepositions, etc.; cf. the positions of since, to, for in (14) above, reproduced here as (40): (40) Jim visited Claire, since he wanted to ask her for help. (d) Also other cases of apparent non-projectivity (i. e. peripheral, strongly limited cases) can be described by movement rules concerning morphemics, cf. ex. (41) and ex. (13) above, reproduced here as (42): (41) a larger town than Boston: The order in the TR: larger ⫺ than Boston ⫺ town. (42) I met a man yesterday, who asked me for your address.
584
V. Dependenzielle Theorien
tinctions between morphemic strings and syntactic representations, be they treated as constituting two layers of description or as corresponding to different subsets of symbols within complex node values. TRs of the form described in Sect. 1.6 can be transduced to morphemic representations (strings) by retaining prototypically the leftto-right order of their nodes and changing it only in specific cases. We present here (in a highly simplified form) illustrations of how such rules could be formulated. We use context sensitive rules, which ⫺ if completed ⫺ might be applied in natural language processing. A different issue is that of a theoretical description. Since perhaps in all cases the landing sites of the moved items can be specified by relatively clear criteria (the beginning of the given syntagm or phrase, Wackernagel’s position, etc., cf. above), it should be feasible to formulate the rules in a shape equivalent to context-free grammars (e. g. with the use of a pushdown transducer); however, such a formulation still is connected with open questions. One type of such movement rules takes care of placing the most dynamic item (the bearer of the intonation center of the sentence) more to the left. In English this concerns first of all those cases in which the syntactic functions of participants (arguments) and adjuncts determine certain restrictions of their surface positions. Thus, e. g. sentence (43) can be derived from the TR by means of the rule M1, which is presented here with many simplifications; the simplified TR in (43’) uses the chosen linearization of TRs (see Sect. 1.6) with a slight modification concerning the syntactic indices (with “f ” denoting (a part of the) focus and “t/f ” denoting an item that on different readings belongs either to T or to F): (43) My sister was visited by a painter in PARIS last week. (43’) ((I).Appurt sister).Obj ((last).Restr week).Temp visit (.Actor painter.t/f) (.Loc Paris.f) Rule M1: If x.Loc as the rightmost item of a TR is preceded by its head verb V.i and by y.Temp such that y.Temp depends on V.i and precedes V.i, then y.Temp may be moved to the right of x.Loc in the morphemic string; the rule can be technically written (with many simplifications) as follows:
X’ V.i Y (Z x.Loc) J X V.i Y (Z x.F.Loc)(U y.Temp W) where X, Y, Z, W, U are (possibly empty) sequences of well parenthesized strings, the string (U y.Temp W) is contained in X (not in X’) with y depending on V.i, x and y each stand for a noun, pronoun, adverb or verb, the index F denotes the placement of the intonation center of the sentence, X V.i Y (Z x.Loc) is a well formed TR (according to Sect. 5.3), and the parentheses are supposed to be removed by one of the last steps of the procedure transducing TRs into morphemic strings. Rules of a similar kind can determine the movement of the subject (be it derived from Actor, or, with passivization, from Patient or Addressee) to the left of the verb in case its tectogrammatical source is more dynamic than the verb and thus stands to the right of the verb in the underlying order. Another kind of rules concerns the changes of tectogrammatical values such as Plural, Preterite, Feminine, Comparative into morphemic items (endings, alternations, affixes, function words) and the placement of these morphemic items. Thus, e. g. for the treatment of nouns rules as the following one are needed: Rule M2: If x in a node label x.Num.Def is a noun, Num the value of Number (Sg or Pl) and Def that of Definiteness (⫹ or ⫺), then (i) rewrite ⫹ (⫺) into Artdf (Artin) and place this symbol to the left of the nodes subordinated to node x (including x itself); recall that ‘subordinated’ is the transitive closure of ‘depending’; Artdf will be transduced into the phonemic and phonetic (or graphemic) shape of the, and Artin into a, an, or (with plural) into zero, (ii) rewrite Pl (Sg) into -s (0) (this certainly requires to take into account also several specific sets of exceptions before Rule M2 is applied, cf. forms like mice, oxen, loaves); -s will be then changed into the surface shape of the Plural ending by the subsequent components of the procedure. The simplified technical form of M2 is: (Z x.Num.Def W) J (Art Z x.End W)
43. Dependency Syntax in Functional Generative Description
where x stands for a noun, Z and W are (possibly empty) well parenthesized strings (dependents of x), Art is Artdef (Artin) if Def is ⫹ (⫺), End is -s (0) if Num is Pl (Sg). Still another type of movement rules is needed for apparently non-projective constructions, illustrated by ex. (41) above, repeated here for convenience: (41) a larger town than Boston Rule M3: ((Art.2 X A.Comp (than U Art.1 N.1.End) W N.2.End Z) J Art.2 X A.Comp W N.2.End.2 Z than Art.1 U N.1.End.1 where N.1 and N.2 are nouns, A.Comp is an adjective in Comparative, X, Z, U and W are (possibly empty) well parenthesized strings, Art.i is Artdef or Artin (or zero, with a proper name), End.i is -s or 0 for i ⫽ 1, 2. Rules of the last mentioned type are supposed to be applied after rules of the types M1 and M2. Many technical as well as empirical issues are still open and constitute interesting topics for further research.
4.
Lexical and Grammatical Information
The dependency-based approach meets the well known requirement according to which much of grammatical information is found in the lexicon (especially in the valency frames or grids); the word is thus understood as one of the central units of the language system. This point of view was reflected quite clearly in European classical linguistics, e. g. in the work of L. Tesnie`re, and this is similar in the Meaning ⬍⫺⬎ Text Model of I. Mel’cˇuk, D. Apresjan and others. Recent developments of generative approaches also stress the significance of the lexicon. If valency is given priority over constituency in the description of the core of syntax, such a view can be clearly outspoken, since with valency frames (see Sect. 1.4) it is possible to specify the (underlying) structure of the sentence on the basis of properties of individual words and word classes (the latter being technically specified e. g. by means of indices in the individual lexical entries). In our approach, a lexical entry contains the following parts: (a) The underlying representation of the lexical unit itself, i. e. of its lexical meaning. In case of ambiguity there are several represen-
585
tations (i. e. several lexical entries), whereas in case of vagueness we have a single meaning (vagueness is a property of meaning and is ⫺ partially ⫺ resolved during semantic interpretation, by inferencing based on contextual and other knowledge). (b) The specification of the values of relevant grammatical categories, i. e. of grammatemes belonging to the given word class (e. g. number and definiteness with nouns, or tense, aspect, different kinds of modalities, etc., with verbs, degrees of comparison with adjectives). Restrictions on the combinations of these values are listed for every word class as a whole, only exceptions have to be registered in individual lexical entries. (c) The valency frame of the given lexical unit, the basis of which is the list of its possible dependents (Actor, Addressee, Objective, Effect, Origin, Locative, Instrument, Manner, Cause, etc.), ordered in accordance with SO, cf. Sect. 1.5 above. In the frame, inner participants and obligatory dependents are indicated by means of specific indices. Since they may be either deletable (as Directional-2 with to arrive) or not deletable (as Objective with to create), it is denoted by a specific index whether a dependent is deletable with the given head. Also the optional or obligatory function of an item as controller is specified here (e. g. Actor is an obligatory controller in the case of to try, an optional one in the case of to decide; Addressee is an optional controller in the case of to advise, to forbid). Furthermore, indices of the individual dependents characterize them as being able to occupy certain specific positions in the clause (e. g. that of subject, or of a whelement) or to appear as barriers for movement. (d) Subcategorization conditions determined with the individual kinds of dependents in the frames, e. g. the Objective of a verb possibly having (or not) the shape of a noun group, of a verb clause, etc. Note that in some cases different lexical entries share their lexical part proper, i. e. the lexical unit. Those lexical entries differ only in their frames, which provide different starting points for semantic interpretation. This concerns such verbs as to swarm (either with an obligatory Means as in The garden swarms with bees, or without it as in Bees swarm in the garden) or to load (either with an obligatory, though deletable Means as in They
586
V. Dependenzielle Theorien
loaded the truck with hay, or with an obligatory Directional-2 as in They loaded hay on the truck).
(ii) b. if a right daughter is being generated, a NB marker and a dependent from the left end of the frame of n is assigned to it.
5.
Analogously to the primary values of the grammatemes, the NB marker can be understood as primary, i. e. as the absence of a marker.
Specification of Underlying Representations
The class of underlying representations can then be specified either by means of a generative procedure, or by a corresponding declarative definition, either of which can use a small number of general principles to describe the core of grammar. The generative procedure for underlying representations is based on the following points: (i) To generate a node n means (i) a. to create the node n either as the root of a representation, or as a node that is dependent on another one and is placed to the right of all its sister nodes, and also (i) b. to choose n’s lexical value and the values of its grammatemes; this is to be done taking into account the subcategorization conditions of the mother node and the restrictions on the combinations of grammatemes (as we have mentioned, these are specified in the lexical entry of the head or in the data concerning the respective word class); the technique used to realize these conditions and restrictions is unification; e. g. if n is the Objective of a verb that subcategorizes its Objective as a verb, then the lexical unit in the label of n has to be accompanied by the symbol identifying its word class as verb; (i) c. if n is a root, the lexical part of its label is a verb, and its grammatemes determine it as a finite verb form of the main clause; n is then specified either as CB (i. e., as belonging to the topic) or as NB (i. e., as belonging to the focus). (ii) If the symbol of a dependent (inner participant or adjunct) is present in the frame of the node n, then it is possible to generate either a left or a right daughter of n; (ii) a. in case a left daughter is being generated, a CB marker and a dependent (dependency value) chosen from the frame of n is assigned to it;
(iii)
If the chosen dependent is an inner participant, it is deleted in the frame of n (as having been saturated).
NOTE: Choosing a dependent “from the left end” means that optional dependents can be skipped (it should be recalled that the dependents are ordered in accordance with SO in the frames). The skipped dependents are deleted in the frame of n; if the last one present there has been deleted, no more daughter nodes can be generated in this step, and point (iv) below is carried out. (iv)
(v)
If no dependent is present in the frame of n, then the procedure goes back to the mother node of n, which now is to be considered as node n; if no mother node is present, the procedure is finished. Only representations that contain a focus are understood as underlying representations of sentences; more exactly, only those whose branch that contains only rightmost daughters starting from the root includes a NB node; this condition can be handled in such a way that the first occurrence of the NB marker (in the label of a node that is subordinated to no node having a more dynamic sister) is registered as saturating this point.
A declarative specification of underlying sentence representations can be formulated in accordance with these lines, using unification. The set of representations meeting the conditions specified in the lexical entries of the head words (including the order of the NB dependents under SO) can be specified in this way. To this aim, the notion of unification has been enriched so as to allow to check the order of nodes and to make a distinction between saturated and non-saturated items (see Petkevicˇ 1993). The deletion of a saturated inner participant, mentioned in the Note above, ensures that an inner participant occurs at most once in a clause. This restriction does not concern free, adverbial depen-
587
43. Dependency Syntax in Functional Generative Description
dents, cf. the three Temporal adverbials in Yesterday she came late to the office in the morning). As was stated above, this specification of underlying representations covers only the core of sentence syntax. It has to be completed in several respects, especially in what concerns coordinated structures (corresponding to a third dimension of the network) and the position of such syntactically specific items as the operator of negation and other focalizers (only, even, also, etc., cf. Sect. 7 below). It is important that the linearized form of TRs (with bracketed strings of lexical symbols and their indices, i. e. grammatemes and functors as unary and binary operators) is not substantially stronger than propositional calculus. This does not mean that the intrinsic structure of the core of grammar might correspond to strings; however, the basically simple patterning of linearized TRs points to the possibility to understand this core (as exhibiting a tree-like structure) to be patterned in a way fundamentally closely related to structures which logicians usually understand as directly correlated with general human abilities. Thus, using dependency syntax in combination with a partially “free” word order in the syntactic representations and including a large portion of grammatical information in lexical entries, it is possible to describe the core of syntax in a relatively economical way. The general character of the principles constituting this description allows us to consider this approach as a useful alternative to Chomsky’s Universal Grammar. In this way, a highly natural account of innate properties that allows for the acquisition of language as anchored in interactive communication (with the sentence embedded in context) may be gained. Such an account might also be of importance as a step on the way towards establishing the theory of language as an intrinsic part of the theory of human mind. This moment is crucial for the evaluation of the theoretical approach to sentence structure. It does not follow, of course, that such a theoretically well motivated framework is the only possible starting point for a particular task belonging to natural language processing. Practical considerations, esp. those concerning the software means available, can lead to a decision to use some hybrid or complex framework for tasks connected with the
construction of a grammar checker, with syntactic annotation of texts from a corpus, with machine (assisted) translation, and so on.
6.
Sentence and discourse
Among the functions of language, discussed in the classical Prague School especially by R. Jakobson, the communicative function is not the most primitive, but it has exercised the deepest influence on the structure of language (cf. Section 1.2 above). The description of language should pay due attention to the impact of this function. One of the main requirements now put on theoretical linguistics is the fundamental significance of the interactive nature of language. The very basic object of linguistics is the process of communication, rather than the system of language, or linguistic competence. We would not like to follow this requirement that far as to see the core of a new linguistic paradigm in adopting an orientation towards regularities of communication instead of those of language system. Rather, we interpret the mentioned basic requirement so that (a) the regularities of communication should be accounted for, and (b) the utterance should be understood as an operation on the state of mind of the hearer, i. e. the sentence representation should serve as a reliable basis for specifying the effect of an utterance of the given sentence in a certain context. The regularities of the use of language in communication and the existence of varieties of a national language make it necessary to work not only with the notion of an ‘ideal speaker’, but rather with language both as an interactively based psychological entity (as in neurolinguistics) and as an abstract object, internalized by its speakers only to a certain degree. Thus, a crucial task is to proceed from a description of the sentence structure (meaning) to that of the intension (the truth conditions), relativized to a class of contexts, and then to the impact of the utterance of a sentence as an operation on the hearer’s memory. In the writings of I. Heim, H. Kamp, N. Asher and others (concentrating on the logical analysis of intersentential links in discourse), first steps are taken towards the elaboration of a formalism that would include a description not only of the sentence structure, but also of the regularities in the coherence of discourse, including anaphoric
588 and coreferential links. Systematic attention to TFA is mandatory here (see Hajicˇova´ 1993, Hajicˇova´ et al. 1995b). By context-dependence of items in an utterance we do not mean only their dependence on the verbal cotext, but also their dependence on the situation of the discourse. This impact of the situation includes the effect of the speaker’s intention, with ‘mutual belief’ and the layers of speech acts and of illocution and perlocution. If the semantics of discourse is described using the means developed in DRT and in dynamic logic, the context change potential of the sentence may be viewed as the proper object of sentence semantics. Wanting to describe how an utterance affects the hearer’s information state, we have to distinguish between the contextually bound items contained in the sentence, which serve to indicate the specific positions in the information state that are to be modified, and the non-bound items, which bring the information on the modification to be made (see Sect. 2 above; cf. Engdahl and Vallduvı´ 1995). In any case, it is important to distinguish between the system of language (including the level of linguistic meaning as the interface between language and cognition) and the use or functioning of language in communication. We understand the notion of discourse as belonging to the latter domain, i. e. to that of parole, performance, rather than to constitute a unit of the language system, which would be (always?) ‘larger than the sentence’. If sentence is understood as a unit of the system of language, then discourse should preferably be viewed as consisting of sentence occurrences, i. e. of utterances, rather than of sentences. A basic difference between these two concepts can be seen in the following points: To understand (the meaning of) a sentence means to resolve its ambiguities as far as this is possible on the basis of the intrasentential context (and to identify those cases of ambiguity for the handling of which intersentential context or factual knowledge is needed) and to specify its linguistic meaning as determined by the expressions the sentence contains and by their syntactic combinations. On the other hand, to understand an utterance means also to remove the remaining ambiguities and the vagueness displayed by the linguistic meaning of the sentence, as well as to specify the reference of the included referring expressions.
V. Dependenzielle Theorien
Other such steps concern the identification of the presuppositions of the (sense of the) utterance, checking the utterance as for absence of presupposition failures, contradictions or paradoxes (see Sgall 1994), for stylistic and other connotations, and also making the choice between possible figurative meanings and hyperbolic ways of speaking, identifying the illocutionary force of the primary or secondary speech act determined on this basis, further (with declarative sentences) the truth conditions of the utterance (or, in other cases, its felicity conditions) and, after their confrontation with the situation spoken about, also the truth value of the utterance. As is well known, the pragmatically conditioned reference assignment plays a crucial role in the cohesion of a discourse. It is then important to analyze the form of a finite mechanism that enables the hearer to identify the specification of reference in correspondence with the speaker’s intention. As pointed out by Hajicˇova´ et al. (1982; 1995; 1998), it appears that such a mechanism is based on the degrees of salience of the items contained in what the speaker assumes to be the hearer’s stock of information at the given time point. Prototypically, the referent of an expression included in the focus of the preceding utterance is the most salient item. What was referred to in the topic of that utterance, is one degree less salient. In the presence of such a small difference in salience, a weak pronoun is not sufficient to disambiguate, a strong pronoun is; thus (44) can be followed by (45) with it being ambiguous, whereas this can only refer to cloth (or to (44) as a whole). (44) The table was covered by a green cloth. (45) It/This was old and shabby. If an activated item is not mentioned in the next utterance, its salience is reduced more than by one degree, so that a reference by a weak pronoun is less probable. The development of discourse from the viewpoint of the degrees of salience may also be useful in establishing interdependencies between the topic of the sentence and that of (a given segment of) a discourse.
7.
Formal semantics and focus sensitive particles
7.1. TFA and tripartite structures In the tradition of TFA studies in continental linguistics (characterized by such names as H. Weil, G. von der Gabelentz, Ph. Wegener,
43. Dependency Syntax in Functional Generative Description
V. Mathesius, J. Firbas and many others), topic and focus (or, in a different terminology, theme and rheme, topic and comment or the like) have been understood as two parts of the sentence (or of its structure, of its syntactic representation). These two parts can be informally paraphrased as ‘what is spoken about’ and ‘what is asserted about it’, respectively. Under these approaches, focus sensitive particles (focalizers, rhematizers, i. e. negation, only, even, also) are treated as specific items, the position and interpretation of which is closely connected with the general phenomenon of TFA. J. Jacobs, M. Rooth, M. Krifka and others start their analyses from the other end: they begin with such overt focalizers, sometimes adding one or more covert ones, such as e. g. ASSERT: if negation acts as a focalizer, it seems plausible to recognize a positive operator as its counterpart. It is an interesting question whether the two approaches can be reconciled. In cooperation with B. H. Partee (see Hajicˇova´ et al. 1998), we have arrived at the following suggestions: Prototypically, a focalizer (f) has the focus of the sentence (F) as its focus (ff), as can be illustrated by the following examples: (46) a. John only / introduced / Bill / to Sue. b. John only / introduced / BILL % to Sue. The slashes in (46a) indicate the possible positions of the boundary between the topic and the focus of the sentence, and, consequently, the position of the focalizer only in the underlying structures of (46a) (this sentence being ambiguous as for its TFA). In (46b), the sign “%” indicates that Bill is the last element of the underlying structure of this sentence on all its readings, which means that to Sue belongs to the topic of (46b) on all the readings. (46b) is again ambiguous as for the position of the boundary between T and F, but this time only two-ways ambiguous, as indicated again by the slashes. Since F is not always a (single) constituent, it belongs to the advantages of dependency syntax that it allows for a relatively simple and perspicuous description of sentences such as (47): (47) (We did not go for the whole vacations to Mallorca.) We only went for a weekend to Granma. Here both the prepositional phrases belong to F and thus are more dynamic than the fo-
589
calizer only, which, in the English surface word order, may precede the verb even in case the verb is less dynamic than the focalizer. There exist also peripheral cases in which a focalizer is present in the topic of the sentence (here belong also the cases of a ‘second occurrence’ focalizer in Krifka’s 1995 terms). Such a situation has been observed in the analysis of negation by Hajicˇova´ (1973; 1984) and in that of many kinds of focalizers by Koktova´ (1986), cf. (48), if answering e. g. Why doesn’t Jim sleep?, and (49) in the context indicated by the sentence in parentheses. (48) Jim does not sleep / because of his illness. (49) (All of us were worried). If even Paul was worried, then the situation clearly was critical. Example (49) shows that a literal repetition is not necessary; however, it is necessary to take into account the prosodic properties of the sentence (e. g. the kind of ⫺ phrasal? ⫺ stress on Paul), cf. the rich literature on pitch accent and phrasal boundary tones: Pierrehumbert, Hirschberg, Selkirk, and others, esp. Bartels (1997) on the character of the stress on the foci of second occurrence focalizers as compared with the pitch accent on the carrier of the intonation center. Thus it seems to be a plausible alternative to assume that all constructions are focussensitive: focus makes a difference in principle and only in certain specific cases it may happen not to make a difference in truth conditions. A similar view can be taken for the cases of quantifier scope: it is semantically relevant in the general case, although in some cases the inversion of two particular quantifiers might happen to leave the truth conditions unaffected. Such an approach does not deny that focus always presupposes the existence of a set of alternatives. In a grammatically based account as proposed here (as an alternative to the heavily degrammaticized theories of Rooth 1992 and von Fintel 1994), the scope, focus and background of a focalizer could then be characterized as follows: (i)
The scope of a focalizer is the maximal projection (in dependency syntax) of the head on which the focalizer depends (i. e. the subtree that contains all the nodes subordinated to this head); the scope of a focalizer in the topic is limited to the topic.
590 (ii)
The focus of a focalizer is the focus of that projection (if that projection is a sentence or a finite verb clause). More exactly, the focus of a focalizer comprises those items within the scope that are more dynamic than the focalizer, ending with a contrastive part of the topic. (iii) The background of a focalizer equals its scope minus its focus (if the focalizer is in T). These notions can be illustrated by an analysis of the sentence (50): in (a) the scope of only is the that-clause (i. e. the maximal projection of liked), the focus of only is the dancer (i. e. the focus of the that-clause), and the background of only is Mary liked; in (b) the scope is the whole sentence and the focus of only is the that-clause on some readings, while it also contains the main verb on others; (c) differs from (a) in that liked belongs to the focus of only on some of the readings. (50) a. He said that Mary liked only the dancer. b. He only said that Mary liked the dancer. c. He said that Mary only liked the dancer. As mentioned above, a focalizer may occur also in the topic of the sentence (although not necessarily repeated from the context), as is the case in (51): (51) (Paul is very good at mathematics.) This year only Paul (or: he) was able to qualify to the final round of the Mathematical Olympics. In (51), the scope of only is Paul, i. e. that part of the maximal projection that belongs to T; the focus of only is Paul (i. e. that part of the scope that is more dynamic than the focalizer) and the background of only is zero (the set of alternatives underlying the choice of focus is restricted just by the extrasentential context). A similar analysis can be provided for (52) (i. e. Rooth’s 1992 example discussed also by Krifka); we assume that the stress on grow is that of a contrastive (part of) T; on one reading of (52) the focus of only is constituted by the CB noun rice (its second occurrence): (52) Farmers that GROW rice often only EAT rice. In a formal-semantic account the treatment of TFA can be based on the concept of tri-
V. Dependenzielle Theorien
partite stuctures, known from the writings by B. Partee, H. Kamp and I. Heim (now see Hajicˇova´ et al. 1998). It can then be assumed that the counterpart of the focalizer is the Operator, that of its background is the Restrictor, and that of its focus is the Nuclear Scope. In the case of a secondary placement of the focalizer, the tripartite structure of the sentence is complex, so that also the focalizer, its background and its focus are reflected as an Operator, a Restrictor, and a Nuclear Scope, respectively. 7.2. Illustrations Let us now present some of the relevant sentences discussed above (corresponding to the chosen TRs) and specify (with a maximally simplified notation) what parts of their individual readings belong to the Operator (O), Restrictor (R) and Nuclear Scope (N) of the corresponding tripartite structures. We are aware of the fact that it is to be further examined in which of these cases the Restrictor or the Nuclear Scope are complex (exhibiting tripartite structures of their own), where it may be appropriate to work with an implicit operator such as J. Jacobs’ ASSERT, and so on. Only in some specific cases, we indicate such complexity of R or of N. Also our use of the operators if and since is simplified; we only want to make perspicuous the points which are most relevant to the present discussion. We repeat the selected examples here, adding the slashes that indicate the possible divisions into T and F (not always quite exactly, as for the position of the verb), and also a few other examples. (46) a. John only / introduced / Bill / to Sue. (i) O only, R John, N introduced Bill to Sue (ii) O only, R John introduced, N Bill to Sue (iii) O only, R John introduced Bill, N to Sue b. John only / introduced / BILL % to Sue. (i) O only, R John to Sue, N introduced Bill (ii) O only, R John introduced to Sue, N Bill (47)
(We did not go for the whole vacations to Mallorca.) We / only went / for a weekend to Granma. (i) O only, R we went, N for a weekend to Granma.
591
43. Dependency Syntax in Functional Generative Description
(ii) O only, R we N went for a weekend to Granma. (50) a. He said that Mary liked / only the dancer. (i) O only, R he said that Mary liked, N the dancer b. He only / said / that Mary liked the dancer. (i) O only, R he, N said that Mary liked the dancer (ii) O only, R he said, N that Mary liked the dancer c. He said that Mary / only liked / the dancer. (i) O only, R he said [about] Mary, N [that she] liked the dancer (ii) O only, R he said that Mary liked, N the dancer (51)
8.
This year only Paul / was able to qualify for the final round. (i) O ASSERT, R (O only, R this year N Paul), N was able to qualify for the final round …
Reconciling functional and formal views
Functional and formal perspectives do not exclude each other, as is sometimes claimed. If the use of a formal framework is understood as serving to formulate results of empirical research as explicitly as possible, then all the aspects of functionalism mentioned above can well be combined with attempts at formal description. However, if the core of a formal approach to language is seen in describing language purely on the basis of the outer shape of sentences, without paying due attention to semantically relevant oppositions, then the suitability of the outcome may be weakened. A description of the sentence structure based exclusively on constituency meets difficulties concerning the fundamental aspects of syntax. The large portion of grammaticalized word order in English makes it possible to describe a part of syntax (the relationships between verb, subject and object) on this basis, but for an account of the circumstantials, of the semantic relevance of word order (TFA) and of other aspects of syntax it probably is necessary to use notions based on dependency syntax. We are convinced that it belongs to the basic properties of language systems that in the primary, unmarked situation, morphemes
(endings, affixes, prepositions, subordinating conjunctions) express dependency relations and values of morphological categories (number, definiteness, tense, aspect, modalities, degrees of comparison), whereas surface (morphemic) word order expresses the basic scale of the topic-focus articulation, i. e. that of communicative dynamism (underlying word order). Prototypically these two orders are identical, the differences are restricted and can be described by a limited number of rules. In a functionally oriented and dependency based formal description of sentence structure, much of grammatical information can be stored in the lexicon. In Functional Generative Description, the lexical entry contains, along with a representation of the lexical unit itself, a specification of the values of relevant grammatical categories, the valency frame of the given lexical unit, and subcategorization conditions. As we have seen in Sect. 5, the class of underlying representations can then be characterized either by means of a generative procedure, or by a corresponding declarative definition, using a small number of general principles to describe the core of grammar. This core can then be understood as restricted to patterns coming close to general human mental abilities.
9.
Select Bibliography
Bartels C. (1997): Acoustic correlates of ‘second occurrence’ focus: toward an experimental investigation. In: Kamp, Hans/Partee, Barbara (eds.): Context Dependence in the Analysis of Linguistic Meaning 2. Proceedings of the Workshops in Prague and Bad Teinach, 1995. University of Stuttgart Working Papers, 11⫺30. Engdahl, Elisabeth/Vallduvı´, Enric (1995): Information packaging and grammar architecture: A constraint-based approach. In: Engdahl, Elisabeth (ed.): Integrating information structure into constraint-based and categorial approaches. DYANA 2. Amsterdam, 39⫺79. von Fintel, Kai (1994): Restrictions on Quantifier Domains. Ph. Diss. U Mass, Amherst. Gaifman, Haim (1965): Dependency systems and phrase structure systems. In: Information and Control 8, 304⫺337. Goralcˇ´ıkova´, Alla (1974): On one type of dependency grammars. In: Prague Bulletin of Mathematical Linguistics 21, 11⫺26. Hajicˇova´, Eva (1979): Agentive or Actor/Bearer? In: Theoretical Linguistics 6, 173⫺190. Hajicˇova´, Eva (1993): Sentence structure and discourse patterns. Prague.
592
V. Dependenzielle Theorien
Panevova´, Jarmila/Sgall, Petr (1998): Verbal categories, meaning and typology. In: Typology of verbal categories. Papers presented to Vladimir Nedjalkov on the occasion of his 70th birthday. Tübingen, 205⫺213.
Petkevicˇ, Vladimir (1993): Underlying structure of sentence based on dependency. Technical report. Prague. Pla´tek, Martin/Sgall, Jiri/Sgall,Petr (1984): A dependency base for a linguistic description. In: Sgall, Petr (1984), 63⫺97. Pla´tek, Martin/Sgall, Petr (1978): A scale of context-sensitive languages: Applications to natural language. In: Information and Control 38, 1⫺20. Rooth, Mats (1985): Association with focus. Ph.D. thesis. Amherst, MA. Rooth, Mats (1992): A Theory of Focus Interpretation. In: Natural Language Semantics 1, 75⫺116. Sgall, Petr (1967): Functional sentence perspective in a generative description. In: Prague Studies in Mathematical Linguistics, 2, 203⫺225. Sgall, Petr (1980): Case and meaning. In: Journal of Pragmatics 4, 525⫺536. Sgall, Petr (ed.) (1984): Contributions to functional syntax, semantics and language comprehension. Amsterdam/Prague. Sgall, Petr (1992): Underlying structure of sentences and its relations to semantics. In: Reuther, T. (ed.): Wiener Slawistischer Almanach. Sonderband 33. 273⫺282. Sgall, Petr (1994): Meaning, reference and discourse patterns. In: Luelsdorff, Philip (ed.): The Prague School of Structural and Functional Linguistics. Amsterdam, PA, 277⫺309. Sgall, Petr/Pfeiffer, Oskar/Dressler, Wolfgang U./ Pu˚cˇek, Martin (1995): Experimental research on systemic ordering. In: Theoretical Linguistics 21, 197⫺239. Sgall, Petr/Hajicˇova´, Eva/Benesˇova´, Eva (1973): Topic, focus and Generative Semantics. Kronberg/ Taunus. Sgall, Petr/Hajicˇova´, Eva/Panevova´, Jarmila (1986): The meaning of the sentence in its semantic and pragmatic aspects. Ed. by Jacob L. Mey. Dordrecht/Prague. Sgall, Petr/Nebesky´, Ladislav/Goralcˇ´ıkova´, Alla/ Hajicˇova´, Eva (1969): A functional approach to syntax in generative description of language. New York. Starosta, Stanley (1993): Word order and focus in constrained dependency grammar. In: Hajicˇova´, Eva (ed.): Functional description of language. Prague, 237⫺252. Tesnie`re, Lucien (1959): Ele´ments de syntaxe structurale. Paris. Vopeˇnka, Petr (1979): Mathematics in the alternative set theory. Leipzig.
Petkevicˇ, Vladimir (1995): A new formal specification of underlying structures. In: Theoretical Linguistics 21, 7⫺61.
Eva Hajicˇova´ und Petr Sgall, Prague (Czech Republic)
Hajicˇova´, Eva (2000): Dependency based underlying-structure tagging of a very large Czech corpus. In: Kahane, Sylvain (ed.): Les grammaires de de´pendance. Traitement Automatique des Langues 41, 57⫺78 Hajicˇova´, Eva/Hoskovec, Toma´sˇ/Sgall,Petr (1995): Discourse modelling based on hierarchy of salience. In: Prague Bulletin of Mathematical Linguistics 64, 5⫺24. Hajicˇova´, Eva/Panevova´, Jarmila (1984): Valency (case) frames of verbs. In: Sgall (1984), 147⫺188. Hajicˇova´, Eva/Partee, Barbara/Sgall, Petr (1998): Topic-focus articulation, tripartite structures, and semantic content. Dordrecht/Boston/London. Hajicˇova´, Eva/Sgall, Petr (1980): Participants and roles in a question/answering system. In: The Prague bulletin of mathematical linguistics 34, 45⫺58. Hajicˇova´, Eva/Sgall, Petr/Skoumalova´, Hana (1995): An automatic procedure for topic-focus identification. In: Computational Linguistics 21, 81⫺94. Hajicˇova´, Eva/Vrbova´, Jarka (1982): On the role of the hierarchy of activation in the process of natural language understanding. In: Proceedings of the International Conference on Computational Linguistics Coling 1982. Amsterdam, 107⫺113. Koktova´, Eva (1986): Sentence Adverbials in a functional description. Amsterdam/Philadelphia. Krifka, Manfred (1995): Focus and the Interpretation of Generic Sentences. In: The Generic Book. 238⫺264. Kucˇerova´, Jana (1995⫺96): The extension of the condition of projectivity for structures with coordination. Part 1. in: Prague Bulletin of Mathematical Linguistics 63, 67⫺84; Part 2. in: Prague Bulletin of Mathematical Linguistics 65⫺66, 67⫺92. Nova´k, Vile´m (1993): The alternative mathematical model of linguistic semantics and pragmatics. New York. Panevova´, Jarmila (1974): On verbal frames in Functional Generative Description. Prague Bulletin of Mathematical Linguistics 22, 3⫺40; 23 (1975), 17⫺52.
593
44. Dependency Unification Grammar
44. Dependency Unification Grammar 1. 2. 3. 4. 5. 6. 7. 8. 9.
Introduction The formalism The morpho-syntactic system The syntactic system The unification of attributes Extensions of the formalism Transformation The semantic system Select Bibliography
1.
Introduction
A grammar is a theory about a language. Theories may be formulated in a natural language, describing the properties of the object in question. Another way of providing information about an object is designing a model. A model is an artificial construct resembling the object in certain respects. In linguistics, formal models play a major role. A formal model (or formalism) consists of a set of symbols and a set of instructions for symbol manipulation. A popular type of formal model in linguistics is graphs consisting of nodes and edges, especially a particular type of graph called a “tree”. The object of study and the formal model must be related by isomorphism. Therefore, the debate among grammarians centers around two questions: Firstly, what are the empirical facts of language? Secondly, what should the model be like in order to be isomorphic with the facts? The answer is a matter of choice rather than a matter of truth. On the one hand, the choice of facts depends on our interest and the problems we want to solve. On the other hand, the same fact can be modeled by a great variety of formal means. What is important is to be aware that the model is not the reality. There are no trees in natural languages! At best there are some properties in a language that are analogous to properties of tree graphs. Nevertheless, the choice of a formalism does matter. Imagine mathematics with Roman numerals; Arabic numerals are far more practical and provide more insights. The same might be true of some grammar formalisms as compared to others. Dependency Unification Grammar (DUG) has been developed at the University of Heidelberg in the course of attempts to process natural languages by computer. The first ver-
sion, called Valency Grammar, was published in Hellwig (1978). The DUG formalism is, as it were, the linguistic programming language of the natural language processing system PLAIN (Programs for Language Analysis and Inference, cf. Hellwig 1980). Meanwhile, the application of PLAIN covers deductive question answering, machine translation, grammar checking, and automatic text summarizing. Broad coverage is a prerequisite of realworld applications. As a consequence, the formal grammar in a language processing system must be able to mirror the most intricate phenomena of real texts. On the other hand, the formalism has to be perspicuous and simple so that grammarians and lexicographers can easily draw up large data resources. DUG is based on the assumption that the solution to this problem is a formalism that is as close as possible to the informal descriptions of languages which fill the libraries of linguistic departments. If such a formalism is at hand then opening up the wealth of existing knowledge to the formal treatment by computers is just a matter of translation. Dependency grammars are more natural, in a number of respects, than constituency grammars. Therefore, dependency has been chosen as the basic relationship in our formal model. However, pure dependency trees, like any simple graph structure, cannot represent all the phenomena observed and described in the linguistic literature. DUG is characterized by a number of enrichments of the dependency approach which will be outlined below. Future enrichments are likely to occur, since there will always be new phenomena to be dealt with. The idea is to pair each predicate occurring in traditional linguistic statements with an equivalent in the formal model. Whereas traditional descriptions refer to a certain behavior of the linguistic material, the constructs of the DUG formalism induce a certain operation of the computer so that its input and output are similar to the originally observed material. The goal of this article is to show how DUG copes with various linguistic phenomena. The article also discusses which properties might be ranked amongst the essentials of dependency grammars in general.
594
2.
V. Dependenzielle Theorien
The formalism
Data in the PLAIN system, including grammatical resources, are drawn up in Standard Generalized Markup Language (SGML). The format is precisely delineated in a special Document Type Definition (DTD). Such a format is not suitable for human readers, though. Therefore, a semi-formal BNF-definition of the DUG formalism is chosen in this article. Constituents are expanded only as far as necessary to identify them conceptually. The shape of constructs is often illustrated by an example rather than being defined in detail. The hierarchy of rules is relaxed in favor of the perspicuity of the introduction. Some of the definitions are temporary and will be refined later. The numbers of such temporary rules are marked with an apostrophe. The task of any analysis is to delineate elementary units, to determine the relationship between the elements, and to describe their properties. In linguistics, segmentation, commutation, and classification are the fundamental operations used to solve this task. A grammar formalism must be suitable for representing the resulting units, structure, and properties. Dependency grammars as well as phrase structure grammars use trees (directed acyclic graphs) in order to depict the units and the structure of a given phrase or sentence. However, the isomorphism between the formal model and the original phrase is quite different in the two approaches. The edges in a phrase structure tree represent the composition of larger phrases from elementary ones. Each level in a phrase structure tree denotes another segmentation of the original sentence or phrase. The topmost node covers the whole expression, subordinated nodes cover smaller parts of the same expression and so on. In contrast, each node in a dependency tree refers to an elementary segment (e. g. a word) of the corresponding phrase or sentence. All nodes belong to the
(R-01) (R-02) (R-03) (R-04) (R-05) (R-06) (R-07)’ (R-08)
⬍DUG formalism⬎ ⬍list⬎ ⬍term⬎ ⬍projection⬎ ⬍left dependent⬎ ⬍right dependent⬎ ⬍attribute⬎ ⬍value⬎
:⫽ :⫽ :⫽ :⫽ :⫽ :⫽ :⫽ :⫽
same unique and complete segmentation. Composed segments are present only as a combination of elementary segments which are associated with the nodes of a partial or complete dependency tree. The general shape of the DUG-formalism is defined as follows. Dependency trees are the conceptual backbone of the DUG formalism. The graphic display of trees is unwieldy for input and output by computer, though. Therefore a linear representation called “list” has been introduced. A list starts with a (heading) term. Each term is surrounded by brackets and may contain one or more (dependent) terms each of which is surrounded by brackets as well. The resulting bracketed expression is isomorphic to a directed acyclic graph. The terms correspond to the nodes; the hierarchy of brackets corresponds to the edges between the nodes of the tree. Dependency trees as well as the corresponding bracketed expression fail to display the concatenation of the strings that are associated with the nodes or terms. Especially the location of the head among the dependents is unclear in a simple dependency tree. The unequivocal projection of the terms of a list onto the linear plane is achieved in DUG by a special projection marker included in the dependent terms. If a dependent unit is situated to the left of its head then its term is marked by “⬍”; if it is situated to the right of the head unit then its term is marked by “⬎”. If two dependents are situated on the same side of a head then their projection with respect to each other is simply represented by the sequence of their terms in the list. The left dependent and the right dependent marker are also used to describe extra-positioned (non-projective) dependencies. A left dependent symbol or a right dependent symbol occurring n times means that the unit corresponding to the term in question is located to the left or the right of the unit that is n levels higher in the hierarchy of terms. Examples
⬍list⬎⫹ ⬍term⬎ “(” ⬍projection⬎? ⬍attribute⬎* ⬍term⬎* “)” ⬍left dependent⬎ | ⬍right dependent⬎ {“⬍”}⫹ {“⬎”}⫹ ⬍identifier⬎ “[” ⬍value⬎ “]” ⬍feature⬎ {“,” ⬍feature⬎}*
595
44. Dependency Unification Grammar
will be given when we turn to discontinuous word order below. Any grammar formalism should provide flexible means for the description and classification of linguistic entities. This is achieved by an arbitrary number of attributes that can be listed within each term. A list with attributes is equivalent to a dependency tree with labeled nodes. As a rule, an attribute consists of two parts: an identifier and a value. The identifier reveals the type of the attribute. The value is enclosed in square brackets and consists of a single feature or a disjunction of features separated from each other by commas. Identifiers and features are denoted by arbitrary names. The same identifier cannot occur more than once in a term. The semantics of the attributes is discussed in detail below. As pointed out earlier, the DUG formalism is supposed to provide attributes that correspond to statements in traditional linguistic descriptions. The interpretation of attributes is realized by particular operations of the computer. With respect to its formal properties, DUG ranks amongst attribute grammars in the sense of Knuth (1968). Attribute grammars are an extension of
Fig. 44.1: A list in DUG format.
context free grammars. They give a meaning to every derivation tree of the underlying context free grammar by assigning values to various attributes associated with the nodes of the tree. It depends on the type of attributes whether the resulting grammar is still context-free. With its standard attributes DUG is mildly context-sensitive. (1)
The robot picks up a big red block.
Figure 44.1 is the parser output for sentence (1). One can visualize a dependency tree in the representation if rotating the list clockwise by 90 degrees and drawing edges between each heading term and all directly indented terms. Some attributes in Figure 44.1 should be evident, others may be puzzling. At the moment, the only purpose of the example is to illustrate the syntax of the formalism. Apart from its syntax, a formalism is defined by the operations that are performed with its symbols. Two types of operations are characteristic for the DUG-formalism: feature unification and tree transformation. Feature unification provides the means to construct a complete well-formed formal representation of a given sentence. Tree trans-
596
V. Dependenzielle Theorien
formation is used for simulating all actions that are performed on given sentences in order to form new ones, e. g. paraphrasing, translating, summarizing etc. Formation and transformation are kept strictly separate in DUG. For any sentence or phrase there is a definition of its formation which does not rely on any transformation. A representation like Figure 44.1 is a model of a sentence. Lists like Figure 44.1 substitute for the original sentences in the knowledge base which is drawn up in the PLAIN system for the purpose of information retrieval or question answering. A grammar, on the other hand, is the collection of all the resources needed in order to automatically assign a formal representation to a linguistic fragment. This assignment of a formal representation to instances of natural language is distributed among the following components: ⫺ ⫺ ⫺ ⫺ ⫺
the morpho-syntactic system, the syntactic system, the lexical-semantic system, the logical-semantic system, the system of text cohesion and coherence.
Each of these systems is relatively independent and has its own resources. What the systems share (at least in part) is the dependency list structure of the representation. Words, sentences and texts are passed from one system to the other in the form of lists as defined above. The present article concentrates on the morpho-syntactic and the syntactic system of DUG. The other components will only be outlined briefly. (R-09)’ ⬍DUG⬎ (R-10)’ ⬍morpho-syntax⬎ (R-11)’ ⬍form⬎
3.
The morpho-syntactic system
3.1. A list of forms The nodes in a dependency tree as well as the terms in a list correspond to those linguistic units that are elementary within the syntactic system. Except for a few questionable cases, these elementary units coincide with words. The elementary status of words is supported by spaces or punctuation marks which separate them in written language. Words occur in phrases and sentences in inflected forms. Depending on its form a word has a particular syntagmatic capacity which must be accounted for by attributes in the corresponding term. Since morphology and syntax intertwine on the elementary level, the term “morpho-syntax” is used for the DUG component that deals with the form of words. At the interface to syntax, the morphosyntactic system consists of strings associated with a term. In exceptional cases more than one term is possible. The string corresponds to an inflected word, and the terms provide the morpho-syntactic features characterizing the word form. The mapping of strings and terms is utilized in the PLAIN system both for the analysis and for the generation of utterances. Figure 44.2 shows a few examples. The listing in Figure 44.2 is the simplest type of a morpho-syntactic lexicon. Note that the attributes provide much freedom in grammar writing; lexical meaning, word class, and grammatical features are all included in the description. Figure 44.2 also illustrates the use of disjunctive features as attribute values.
:⫽ ⬍morpho-syntax⬎ :⫽ ⬍form⬎⫹ :⫽ ⬍string⬎ ⬍term⬎⫹
Fig. 44.2: Morpho-syntactic classification of word forms
597
44. Dependency Unification Grammar
Fig. 44.3: Multi-word morphs and portmanteau-morphs
This concise representation of ambiguous forms reduces the number of elements the parser has to check for compatibility. The person attribute in Figure 44.2 may seem odd. Of course, the traditional attributes ‘number[singular,plural]’ and ‘person[first,second,third]’ could have been used as well. This would result in more lexical entries, though. The simple model of associating a string (a morph) with attributes (morphemes) faces difficulties if a lexeme is associated with a sequence of more than one word or if one word represents more than one lexical morpheme. The first case is dealt with by admitting spaces within elementary strings. The second case (portmanteau morphs) lead to the stipulation that more than one term may be assigned to one string. See Figure 44.3 for examples. Of course, the decision to treat a given phenomenon one way or the other is controversial. 3.2. The item-and-arrangement model At the bottom of the DUG morphology is the item-and-arrangement model (cf. Spencer 1991, ch. 2.3.1). Words are broken down into smaller segments, especially stems and endings. The segments are rearranged in such a way that the inflection and derivation of words is displayed correctly. Inflection tables in traditional grammars serve as an example. A set of forms in a particular paradigmatic relationship is called a “paradigm”. One paradigm may contain stems, other paradigms may contain endings of particular inflection classes, and still other paradigms may contain derivational affixes. Each segment may
(R-10)’ (R-11) (R-12) (R-13)
⬍morpho-syntax⬎ ⬍form⬎ ⬍paradigm⬎ ⬍continuation⬎
:⫽ :⫽ :⫽ :⫽
consist of a character string of any length, including the empty string. For each segment, separate lexical or grammatical information may be specified. Accordingly, we augment the definition of the morpho-syntactic system of a DUG as follows. Technically, the concatenation between the segments of an inflected or derived word is realized by a finite state transition network (FTN). Each paradigm is implemented as a sub-net with a particular ID. Each sub-net has an initial state; each entry in the paradigm corresponds with an edge leaving the initial state. The target state of each edge depends on the correct linking between the given segment and the segments to follow, if any. The successor segments, e. g. a particular set of endings, must be gathered in a paradigm, i. e. another sub-net. Therefore the target of a continuation is specified in terms of a paradigm ID. The paradigm ID always leads to the initial state of the identified sub-net. Each stem in Figure 44.4a is marked for continuation in a number of ending paradigms displayed in Figure 44.4b. Allomorphs among endings simply result in alternative ending paradigms. Variation within stems is a bit more complicated. If one does not want to give up the item-and-arrangement principle, each variant of a stem must be inserted separately in the stem-paradigm and linked with the appropriate subset of ending paradigms. All word forms can then be generated by finite state transition. All the attributes that are encountered during one path through the paradigms are collected in one
⬍form⬎⫹ | ⬍paradigm⬎⫹ ⬍string⬎ ⬍term⬎? ⬍continuation⬎? ⬍paradigm id⬎ ⬍comment⬎? ⬍form⬎⫹ ⬍paradigm id⬎⫹
598
V. Dependenzielle Theorien
Fig. 44.4a: A fragment of the paradigm of English verb stems
Fig. 44.4b: A few paradigms of English verb endings
term. The result of this mechanism is a mapping of strings and terms identical to the one in Figure 44.2. Let us check up on some other morphological phenomena. Zero morphs as in call-0 versus call-s could be represented by the empty string. Another possibility is to consider the space after a word a part of the ending. In this case, a zero morph is represented by the space character, as in Figure 44.4b. Derivation by means of affixes is treated in the same way as inflection. For example, the last paradigm in Figure 44.4b results in
the derivation of nouns from verbs by means of the ing-suffix. The FTN-model is especially efficient for languages with rich inflection and derivation. For instance, inflecting adjectives can be derived from the present participle of most verbs in German. For this purpose, the stem of the verb lieben (to love) is linked to the paradigm of present participles, containing the affix -end- (loving), which in turn is linked to the ordinary paradigm of adjective inflection, yielding 24 adjectives like lieb-end-e, lieb-end-er, lieb-end-es etc.
599
44. Dependency Unification Grammar
Fig. 44.5: Contextual constraints by means of attributes in German morphology
Compounds are at the borderline between word formation and syntax. If the parts of a compound represent distinct lexical meanings, each part should be stored separately in the lexicon and the building of the compound should be left to the syntax module. In general, an elementary syntactic unit (a word) is created if a path trough the transition network of paradigms exists, starting at the initial state and ending at a form with no continuation. When a form with no continuation is reached, the finite state automaton jumps back to the initial state of the whole network, assuming that a new word follows. This mechanism is suitable for single words as well as for multi-word units. It works with compounds as well. For example, the string steamboats is decomposed automatically into the two words steam and boat-s, if both words are stored in the network. The relationship between the two parts of the compound is then a matter of syntax rather than morphology. So far, our model of morphology is equivalent to a right linear grammar. In terms of the Chomsky hierarchy such grammars define regular languages (type-3 languages). Discontinuous morphs, like the past partici-
(R-10)’ (R-14) (R-15) (R-16) (R-17) (R-18)
⬍morpho-syntax⬎ ⬍morphclass⬎ ⬍inflection⬎ ⬍derivation⬎ ⬍morphunit⬎ ⬍stem⬎
:⫽ :⫽ :⫽ :⫽ :⫽ :⫽
ple with the prefix ge- and the suffix -en in German, are beyond the capacity of such grammars. If it is necessary to extend the capacity of the grammar in a controlled way, DUG makes use of attributes and the device of unification. Regarding morphology, it is stipulated that the values of attributes that are gathered in the course of the transition through the morphological paradigms must not contradict each other. The transition network realized in Figure 44.5 accepts the infinitives geb-en and vergess-en and the past participles ge-geb-en and ver-gess-en because the attributes ‘geprefix’ and ‘form’ are in agreement in these cases. It rejects *geb-en and *ge-vergess-en as past participles due to the conflict regarding ‘ge-prefix’ and it prevents the form ge-geb-en from being accepted in paradigm ‘vinf’ because of the conflicting values of ‘form’. 3.3. Morphological classes and morphological units The morphological system described so far is beneficial for computer usage. A few constructs should to be added in order to improve data acquisition and maintenance.
⬍form⬎⫹ | ⬍paradigm⬎⫹ ⬍morphclass⬎⫹ ⬍morphunit⬎⫹ ⬍morphclass id⬎ {inflection | derivation}⫹ ⬍stem no⬎? ⬍prefix⬎? ⬍suffix⬎? ⬍paradigm id⬎ ⬍stem no⬎? ⬍prefix⬎? ⬍suffix⬎? ⬍case⬎? ⬍paradigm id⬎ ⬍lexeme⬎ ⬍reading⬎? ⬍morphclass id⬎ ⬍stem⬎ (⬍stem no⬎ ⬍string⬎ )⫹
600
V. Dependenzielle Theorien
Fig. 44.6a: The specification of morphological units in the lexicon
Fig. 44.6b: Morphological classes as referred to in morphological units
Obviously it is inefficient to list the ending paradigms with each word. Each identical set of continuations represents a particular morphological class (a morphclass). Each of these classes is given a name (a morphclassid). The cases of inflection and derivation that make up the particular class are described in a separate data set. Each case of inflection is defined by a variant of the word stem (identified by a number), the prefix or suffix added to the stem if any, and the ID of the appertaining ending paradigm. The specimens of derivation are described in the same
way except that a change from upper case to lower case or vice versa can also be stated (e. g. derivations from verb to noun or from noun to adjective in German). A morphological unit (morphunit) represents one individual instance of morpho-syntactic behavior. A morphunit is not necessarily associated with a single lexical meaning. Since words are often ambiguous, a distinction is made between “lexeme” and “reading”. A lexeme is the basic lexical morpheme of a (possibly ambiguous) word, a reading is one of the meanings of the word. A reading
601
44. Dependency Unification Grammar
must be specified in a morphological unit only if the inflection or derivation depends on it. For example the plural of the German noun Bank is Bank-en if the reading is bank and it is Bänk-e if the reading is bench. Any morphunit specification is completed by the morphological class and a numbered list of stems. Figure 44.6a and 44.6b illustrate the interplay of morphological units and morphological classes. Compare the contents of these tables with Figure 44.4a. 3.4. Cardinal forms and the item-andprocess model Specifying morphunits manually is cumbersome. An old arrangement for memorizing the inflection of words is known as cardinal forms. A cardinal form must display enough of the peculiarities of a word so that the whole inflection can be deduced. Figure 44.7 displays cardinal forms of the three verbs that were used for illustration in Figure 44.6a.
pattern (cardlpat). A cardinal pattern contains a number of cardinal terms (cardlterm), each of which defines one item of the cardinal forms. An item may be a constant like the particle to in Figure 44.7 or it may be composite. One of the components is the word stem which can be automatically identified by removing the specified prefix or suffix, if any. The detected stems are associated with numbers (stem no). One of the items among the cardinal forms should be flagged as the citation form of the word. This form is usually the one that is used as the value of the lexeme attribute. If the stem undergoes changes in the inflection then these must be described in the pattern. The possibilities are to replace or to add characters. Figure 44.8 shows the patterns necessary to interpret the cardinal forms in Figure 44.7.
Fig. 44.7: Cardinal forms
In order to draw up morphunits from cardinal forms automatically, a computer program must separate stems and endings, extract the lexeme and the various stems and detect the morphclass on the basis of the demonstrated inflection. This task is not difficult if the program is provided with patterns of the cardinal forms. Including this extension, the final definition of the morpho-syntactic system is the following. (see below) Cardinal forms (cardlform) consist of a sequence of items as shown in Figure 44.7. Optionally, there may be an explicit specification of the lexeme and reading. Cardinal forms are supposed to identify a morphological class whose ID is indicated in a cardinal
(R-10) (R-19) (R-20) (R-21)
Fig. 44.8: Cardinal patterns
Cardinal forms and cardinal patterns not only simplify the creation of the morpho-syntactic lexicon, they represent a theoretically important extension of the DUG model. The
⬍morpho-syntax⬎ :⫽ ⬍form⬎⫹ | ⬍paradigm⬎⫹ ⬍morphclass⬎⫹ ⬍morphunit⬎⫹ ⬍cardlform⬎⫹ ⬍carldpat⬎⫹ ⬍cardlform⬎ :⫽ ⬍lexeme⬎? ⬍reading⬎? ⬍item⬎ ⬍cardlpat⬎ :⫽ ⬍morphclass id⬎ ⬍cardlterm⬎⫹ ⬍cardlterm⬎ :⫽ {⬍constant⬎ | ⬍stem no⬎ ⬍citation form⬎? ⬍prefix⬎? ⬍replace⬎? ⬍add⬎? ⬍suffix⬎? }
602
V. Dependenzielle Theorien
item-and-arrangement model is ideal for computer implementation. However, it is suited only to agglutinative languages which combine morphological elements without changes of form or loss of meaning. In many languages an item-and-process model (cf. Spencer 1991, ch. 2.3.1) would be more appropriate, because the morphological elements of these languages vary due to phonological, psychological, etymological or other reasons. Formalisms have been invented that model such processes, for example the influential two-level morphology introduced by Koskenniemi (1983). Koskenniemi’s morphology works with an underlying lexical level and the surface morpho-syntactic level. So-called transducers derive the surface word forms from the lexical representation, e. g. the past tense fell from the canonical representation fall. This is done on the basis of a set of intricate replacement rules. Cardinal forms in DUG cope with the same phenomenon. They deal with the changes by just giving an example. The replacement rules themselves are encoded in the cardinal patterns. While two-level morphology applies processes to words at runtime, the DUG implementation simulates the morphological process while the morpho-syntactic lexicon is drawn up. What is eventually stored in the computer lexicon is surface forms only.
4.
The syntactic system
4.1. Syntactic structure Two approaches are currently in competition as means for representing the syntactic structure of languages: sentence orientation and word orientation. The first approach has been prevalent since Chomsky (1957) defined a language as a set of sentences and provided the formal means to (theoretically) generate this set. Since then, formal syntax is usually conceived of as an abstract structure which results from the recursive division of non-terminal units into immediate constituents. Words are just filling material for such an abstract structure. Context restrictions that have to be accounted for are dealt with by so-called “lexical subcategorization”. The second approach is distinctive for dependency grammars. In this view, syntax is almost entirely a matter of the combination capacity of words. Words are not just fillers of a-priori existing structural patterns; they are the very source of such patterns. From
the formal point of view, the essential concept of dependency grammar is the complement. A standard syntactic construction consists of a head element and a number of constituents that complete the head element. This division of syntactic constructions into head and complements follows from lexical semantics. Natural language is used to assign attributes to objects and to state relationships between objects in the real world. For this purpose, there are words that denote the relation and expressions that denote the objects. In the absence of complements a qualifying or relating word is unsaturated. However, the number and the kind of syntactic constructs that are suitable for complementing the particular word are predictable. If this prediction of complements plays a major role in the syntax formalism then we are dealing with dependency grammar. Certainly, the intuitive distinction between head and complements is a prerequisite of any syntactic analysis. A formal description of syntax must reveal the distribution of linguistic units relative to each other. This program of taxonomic linguistics can be carried through only if the discovery procedures, especially permutation and substitution, conform to the levels of the head-complement hierarchy and the borders between complements. Any successful constituency analysis implicitly contains a correct head-and-complement division. The difference is that dependency grammars make this division explicit. At this point I must mention what is in my opinion a severe misconception of dependency grammars. It is the assumption that dependency is a relationship between words only and that, therefore, no non-terminal constituents exist in a dependency grammar. If the concept of complement is fundamental for the analysis of syntactic structure, as I think it is, then a grammar cannot do without non-terminal constituents. Obviously complements consist of an arbitrary number of words. For example, the verb persuade has three complements (and hence dominates three subtrees in the dependency tree). (2)
The vice-president persuaded the head of the department to attend the conference.
The three complements are the vice-president, the head of the department and to attend the conference and not just president, head, attend. While the heads are terminals, complements are non-terminal constituents! Each
603
44. Dependency Unification Grammar persuaded
president
the
vice
to
head of
the
attend
department
conference the
the
Fig. 44.9: Dependency as a relationship between heads and complements
complement as a whole is characterized by a grammatical function; most morpho-syntactic features (case, agreement, word order) apply to the whole complement and not just to one word in it. The mentioned misconception is due to the usual visualization of dependency trees. Since internally each complement is structured again according to the head-complement principle, it looks as if its internal head is the one which is in relationship with the external head and dependency is just a word-to-word relationship. In reality, it is not the edge between two nodes that represents the dependency relation but an edge between a node and a complete tree depending from that node. In Figure 44.9 the dependent trees are included in boxes in order to elucidate this fact. Each box embraces a complement. The dependency relation exists between words and such implicit boxes. Contrary to other dependency grammars, the notion of constituent is endorsed in DUG. However, it is a specific constituent structure that results from dependency analysis. Let us define a constituent as the string that corresponds to a node in a dependency tree together with all nodes subordinated to that node (directly or mediated by other nodes). Then, any dependency tree can be dispersed into smaller trees until nodes with no dependents are reached. Each of these trees corresponds to a constituent of the sentence or phrase in question. In terms of the DUG-notation, this definition can be reformulated as follows: any term in a list together with all terms included by it (directly or mediated by other terms) corre-
sponds to a constituent. In Figure 44.9 the boxes delineate the constituents, and the recursive inclusion of boxes depicts the hierarchy of constituents. This constituency structure is isomorphic with the recursive inclusion of trees in a dependency tree. Note that heads are not complete constituents; they must be accompanied by complements before they form a constituent. Constituents can be easily identified in the DUG notation: Everything included in the same pair of brackets represents one constituent (compare Figure 44.1). The outlined constituent structure is more restrictive than ordinary phrase structure, due to the underlying head-complement principle. Therefore, only special phrase structure grammars might prove to be equivalent to dependency grammars of the DUG type. The best candidate is Head Driven Phrase Structure Grammar (HPSG), described in detail in Pollard & Sag (1994). The emphasis on dependency as a wordto-complement relationship rather than a word-to-word relationship is justified above all from a functional point of view. The boxes in Figure 44.9 are so-to-speak containers for largely divergent material that possesses the same function. (3)
a. The vice-president persuaded the head of the department to attend the conference. b. The Conservative Party’s victory in April’s general election persuaded John Brown to run for President again.
A set of categories must be available to denote the functional identity of complements.
604
V. Dependenzielle Theorien
Fig. 44.10: Representation of a big red block
In the case of (3a) and (3b), the grammatical functions “subject”, “object” and “infinitival complement” are needed in order to perform the appropriate substitutions, for example when generating answers to questions: (4)
a. Who/what persuaded him to do so? (subject) The vice president. The Conservative Party’s victory in April’s general election. b. Who was persuaded to do so? (direct object) The head of the department. John Brown. c. What was he persuaded to do? (infinitival complement) To attend the conference. To run for President again.
On the one hand, the dependency tree notation implies that each node (or term) corresponds to an elementary segment (a word) of the natural language input. Accordingly, terms embrace attributes of lexical entities provided by the morpho-syntactic system. On the other hand, we insist that non-terminal constituents are necessary in order to cope with complements. As a consequence, the governing term of a tree might incorporate certain attributes that characterize the whole constituent rather than its lexical head. The values of these attributes are often propagated upwards from dependent terms to the head term. For technical as well as theoretical reasons, the category of each constituent and the part of speech of its head coincide. The same category may refer to an unsaturated lexical item or to a completed constituent with complements and specifiers. The difference is made explicit by means of attributes which have an effect similar to that of x-bar levels in x-bar theory (Jackendoff 1977).
Figure 44.10 (a subset of Figure 44.1) comprises attributes of the mentioned types. ‘string’, ‘lexeme’, ‘number’, ‘person’ are features characterizing individual words. ‘role’ indicates a grammatical function and clearly refers to the constituent composed of the given term and all terms below it. For example, the whole list is a direct object (‘dir object’). Attribute values marked by ‘C’ are propagated upwards, values marked by ‘U’ have been passed through from below. In this way, the attribute ‘determined’ signals the presence of a determiner and turns the category ‘noun’ into ‘category[noun] deternbmined[⫹]’, i. e. into a noun phrase. The attribute ‘determined[⫹]’ is an exclusive feature (cf. below) which prevents the noun from being complemented by another determiner again. 4.2. The generative device of the grammar A formal grammar is, theoretically, an automaton which generates or accepts all and only the well-formed expressions of a language. When a new formal grammar is established, the way it generates or accepts expressions must be determined. The best known device of this sort is rewriting rules, as introduced in Chomsky’s generative grammar. Conceptually, rewriting rules reflect the division of larger strings into immediate constituents (Wells 1947). The question is, how can the dependency approach, based on words and complements, be turned into a fullfledged formal grammar with it own generative mechanism. A generation device can be quite different from the adopted structural representation, as for example rewriting rules and phrase structure trees. But this is not necessarily so. DUG describes syntactic structures directly as fragments of the target tree representation.
605
44. Dependency Unification Grammar
The generative mechanism consists of operations on tree graphs which substitute for the language proper. A nice name for this method is “tree adjoining”, elaborated in the framework of Tree Adjoining Grammar (Joshi 1975), though Tree Adjoining Grammar works with constituency trees. Given the shape of dependency trees, the idea suggests itself of putting together elementary nodes to form trees and of inserting trees into other trees in order to form larger trees. This process can be controlled in the form of requirements which are stated with a given node and which must be satisfied by other nodes in the environment. A similar model exists in chemistry. The capacity of atoms to combine with each other is defined in terms of their “valency”. Tesnie`re (1959) borrowed this term from chemistry and applied it to words. This has been more than just a nice metaphor, it was the introduction of a formal model which might be as enlightening in linguistics as it is in chemistry. Figure 44.11 illustrates the basic constellation.
potentially subordinated terms delineate the complements which can be expected if the word in question occurs in a sentence or phrase. Attributes characterizing a potentially superordinated term in the formalism delineate the class of words that would accept the given word (or phrase) as adjunct. The syntactic and semantic features specified for the potential head and dependents must be precise enough to exclude any ungrammatical combination. The concept of complement goes together with the concept of slot. The boxes in Figure 44.9 can naturally be seen as slots that must be filled by particular material. In terms of operations on directed acyclic graphs, a complement is a complete tree; a slot is a dependent node labeled with the required attributes of a potential complement; fitting a complement into a slot means replacing the node of the slot by the head node in the complement tree. In order to implement this device, the DUG formalism is extended as follows.
(R-09)’ ⬍DUG⬎ :⫽ ⬍morpho-syntax⬎ ⬍syntax⬎ (R-22)’ ⬍syntax⬎ :⫽ ⬍template⬎⫹ ⬍synframe⬎⫹
?
given node
?
?
?
Fig. 44.11: Combinatorial potential of a node in a dependency tree
The possible links of a node in a directed acyclic graph (a tree) reflect the syntagmatic relationships that pertain to a word according to dependency theory. There are top-down and bottom-up relations which we interpret as follows. The number and the attributes of
(R-23) ⬍template⬎ (R-24)’ ⬍template head⬎ (R-25)
⬍slot term⬎
The syntactic component of a particular DUG grammar comprises a set of templates and a set of syntactic frames. Templates are general descriptions of all the syntagmatic relationships observed in the language. They are weakly equivalent to rules in a phrase structure grammar. Templates are assigned to individual words in a data structure called a syntactic frame (synframe). Syntactic frames are more or less equivalent to the lexical subcategorization component in a phrase structure grammar. The definition of template is (see below). A template is a list consisting of two terms: a head and a slot. Each template refers exactly to one edge between two nodes in the dependency tree and describes a single syntagmatic relationship, for example the relation between verb and subject, between verb and object, between noun and determiner,
:⫽ “(” ⬍template head⬎ “)“ :⫽ ⬍template name⬎ ⬍main category⬎? ⬍grammatical features⬎? ⬍slot term⬎ :⫽ “(” ⬍projection⬎ ⬍slot type⬎ ⬍role⬎ ⬍main category⬎? ⬍grammatical features⬎? ⬍lexical selection⬎? “)“
606
V. Dependenzielle Theorien
Fig. 44.12: Templates for subject, phrasal verb and direct objects
between noun and adjective, between preposition and noun phrase, etc. If a given word has more than one complement then more than one template must be ascribed to it, one for each complement. This modular organization distinguishes DUG templates from phrase structure rules or from rule-based dependency grammars in the style of Gaifman (1965). Describing a single syntagmatic relationship is much easier than drawing up rules for several immediate constituents at once. The head term comprises a name which provides the means to refer to the template in a synframe. Furthermore the template head contains a collection of attributes which characterize the dominating element in the syntagmatic relationship and thus constrain the applicability of the template. Among the possible attributes is the main category and other grammatical features which are discussed below. The head term dominates the slot term (represented by term inclusion). The core of each slot is the grammatical function of the syntagmatic relationship in question. Grammatical functions are distinguished by means of the role attribute within the slot term. The projection feature in the slot term divides dependents on the right of the head from those and on the left. The distinction between slot types plays a role in the case of complicated syntactic constructions. The other attributes in the slot term constrain the appropriate fillers with respect to category, grammatical features or lexical meaning. Figure 44.12 shows the templates assigned to the verb pick which have been filled in the example of Figure 44.1 by the subject the robot, the phrasal particle up and the direct object a big red block. The head terms in these three templates refer to one and the same word in the sentence, the verb. Three templates are displayed because the verb pick has three complements, a fact which results in a threefold branching in the dependency tree. Of course, the attributes in
the templates’ heads must not contradict each other, for example ‘category[verb]’ and ‘s-position[6]’. The contribution of each template to the head term may vary, though. The subject template in Figure 44.12 requires that the verb be finite and/or subjunctive; the direct object requires that the verb be in active voice. As we mentioned before, head terms are representatives for whole constituents. That is why templates may introduce nonterminal attributes as well. The sentence type (‘s-type[statement]’) in the subject template is an example. The verb as such is not restricted to a particular sentence type. However, the fact that a subject occurred to the left of the verb conforms to a statement rather than to a question or command. DUG postulates that all of the attributes of non-terminal constituents can be obtained in this way. Surface variations of complements, due to particular morpho-syntactic conditions, are handled by alternative templates. As long as the grammatical function is the same, the templates carry the same name. This provision is similar to alternative phrase structure rules with the same symbol on the left-hand side of the rule. The applicability of each template is constrained by means of the attributes in the head term. Figure 44.13 introduces a few more subject templates for the sake of illustration. The templates in Figure 44.13 cover sentences like (5)
a. HE/SOMEONE comes I/YOU/THEY/ALL come b. Did THE GIRLS sleep? Is SUNSHINE (dangerous?) Whom did JOHN see? c. WHO came? WHAT gives you that idea? The girl WHO spoke to him The table WHICH stands in the corner
Notice the fine-tuning by means of the morpho-syntactic attributes ‘pro-form’ (with the
44. Dependency Unification Grammar
607
a) Subject pronoun in statements:
b) Subject pronoun in question:
c) Interogative and relative pronoun as subject:
Fig. 44.13: Alternative subject templates
possible values ‘clausal’, ‘nominal’, ‘reflexive’, ‘reciprocal’, ‘interrogative’, ‘relative’), the attribute ‘case’ (with the values ‘subjective’, ‘objective’) and the attribute ‘gender’ (with the values ‘personal’, ‘non-personal’). A particular assortment of syntagmatic relationships appertaining to a word is called a syntactic frame. A syntactic frame (synframe) is defined in DUG as follows (see below). The frame head identifies the given word. The specification of the lexeme is mandatory, because lexical meaning is assumed to be the source of syntactic dependencies. As mentioned in 3.3., a lexeme represents a word as such, like a keyword in a dictionary. If the word has more than one lexical meaning, disambiguation is achieved by means of the reading attribute. Usually a different reading of a word goes with a different syntactic frame. Lexeme and reading together provide a unique key to the entries in the lexical database. It is possible to add a part of speech
(R-26) ⬍synframe⬎ (R-27)’ ⬍frame head⬎ (R-28) (R-29) (R-30) (R-31)
category. The purpose of the additional attributes in rule (R-27) is explained below. One synframe embraces one set of syntagmatic relationships that combine with the given word at the same time. If there are conflicting syntagmatic relationships then several synframes must be drawn up. The syntagmatic counterparts of a given word divide in complements and adjuncts. They are reflected in the frame by an arbitrary number of references to complement or adjunct templates. (So far we have dealt with complements only, adjuncts will be discussed below.) Each entry in a synframe describes exactly one syntagmatic relationship (i. e. one edge in Figure 44.11), the core of which is its grammatical function. We explained above that surface variation is described by alternative templates with the same name. It is sufficient to enter this name once in the synframe in order to cover all the morpho-syntactic variations. This method cannot be applied if some
:⫽ “(” ⬍frame head⬎ “)” :⫽ ⬍lexeme⬎ ⬍reading⬎? ⬍main category⬎? ⬍additional attribute⬎* {⬍complement⬎ | ⬍adjunct⬎ | ⬍expected adjunct⬎ }⫹ ⬍complement⬎ :⫽ “(” “complement” “[” { ⬍template name⬎ | “none” } {“,” ⬍template name⬎}* “]” ⬍lexicial selection⬎? “)“ ⬍lexical selection⬎ :⫽ ⬍lexeme⬎ | ⬍hyperonym⬎ | ⬍quote ⬎ ⬍adjunct⬎ :⫽ “(” “adjunct” “[” ⬍template name⬎ {“,” ⬍template name⬎}* “]” “)” ⬍expected adjunct⬎ :⫽ “(” “expected adjunct” “[” ⬍template name⬎ {“,” ⬍template name⬎}* “]” “)”
608
V. Dependenzielle Theorien
Fig. 44.14: Lexical assignment of syntagmatic frames
of the surface variations of a particular grammatical function occur with a lexical item while others don’t. In this case we need distinctive template names, for example for subjects as noun phrase, as that-clause and as toinfinitive clause. (6)
a. His reactions surprised me. b. That he should make such mistakes surprises me. c. To see him here surprises me.
An arbitrary subset of applicable templates with the same grammatical function can be formed by means of a disjunction in the complement and adjunct assignments. The constant “none” is admitted in a complement assignment as well, separately or as part of a disjunction. In isolation this value explicitly introduces a syntactic frame with no complement, usually in contrast to other frames of the same word that do require complements. Occurring in a disjunction this value causes the complement to be interpreted as optional. Finally, it is possible to constrain complements lexically. This can be done by a lexeme (‘lexeme’), a generic term (‘hyperonym’) or a quoted expression (‘quote’). Figure 44.14 displays synframes for some of the words which occurred in previous examples. The syntax of a language is now defined by means of the following generative mechanism. For all morpho-syntactic word forms of the language, all synframes are consulted.
For each synframe, all the templates are collected that are mentioned in the frame. The attributes of the template heads are accumulated within one term if they agree with the attributes of the word form and with each other. All slot terms in the collected template are subordinated to this term. In each case, the result is a list whose dominating term represents a word and whose dependent terms function as variables for other lists. Any list of this sort is compared with any other list. If the attributes in the head of one list agree with the attributes of one of the slots of the other list then a new list is formed by replacing the slot term in the second list with the head term of the first list, leaving the links to other terms unchanged. The resulting list is compared with any other list, and so forth. Those lists that contain no slot terms (any more) form the particular subset of saturated lists. This set corresponds to the set of wellformed phrases and sentences of the language. Concatenation of the strings in the terms of these lists yields the expressions of the language. The mathematical properties of this mechanism deserve to be studied. Probably its computational complexity is lower than the one of systems with phrase structure rules. As Barton, Berwick & Ristal (1987) point out in detail, the prerequisite of a computationally tractable problem is its modular, constrained and local structure. In a concrete application
609
44. Dependency Unification Grammar
Fig. 44.15: Initial list stored in a well-formed substring table
of DUG, the number of lists to be tested is far more restricted than the definition above may suggest. A parser, for example, is faced only with the lists appertaining to the words in the input sentence. These lists are stored in a well-formed substring table (also called a “chart”). For example, when parsing sentence (1), the synframe for the verb pick in Figure 44.14, in combination with the morpho-syntactic paradigm ‘vpr-s’ in Figure 44.4b and the templates displayed in Figure 44.12, leads to the following entry (see below). In the same way, lists are assigned to the other words of sentence (1). After determiners and adjectives have been combined with their nouns (which will be discussed below), the constituents the robot, up, the big red block are part of the well-formed substring table. The attributes in the head terms of these constituents agree with the slots of Figure 44.15. The insertion of the respective lists into the slots yields the list in Figure 44.1. The testing of attributes is completely local. Normally, only two terms are compared: the slot term in the main list and the head term in the filler list. In the case of congruence (symbol “C” in the attribute), the attribute values of the filler and the head in the main list (e. g. the term for pick in Figure 44.15) are compared as well. As a result, attribute values might be propagated from one term to the next higher one. This is a very short distance as opposed to the long paths necessary in phrase structures. The search for compatible lists can be further refined. For a comparison of the slot-filler device with other prototypes of parsers see Hellwig (1989). DUG makes a technical and theoretical distinction between complements and adjuncts. Technically, each dependency relationship can be defined in two ways (cf. Figure 44.11): Either the dominating term is provided with a description of an appropriate dependent term, or the dependent term is provided with a description of an appropriate
dominating term. So far we have concentrated on the first alternative, the assignment of complement slots to the head term. Valency Grammar, the first version of DUG, had no other option in order to construct dependency trees. Subsequently the second alternative was developed as well, the description of the dependency potential of a word by means of adjunct templates. Formally, there is no distinction between complement and adjunct templates. A template always consist of a head term and a slot term, describing an asymmetric syntagmatic relationship between a word and a constituent. What makes the difference is the place where the template is introduced in the lexicon. Complement templates are specified in the synframe of the dominating word; adjunct templates are specified in the synframe of the depending word. The mechanism of attribute testing is the same again; just known and unknown are converted. While in a complement frame the head term represents the known and the slot represents the searched for, in an adjunct frame the dependent term represents the known and the head term is searched for. The advantage of adjuncts is a gain in efficiency when parsing optional dependents. While complement slots must be processed although the dependent might not be existing in the input at all, adjuncts are processed only if the optional dependent really exists in the input. Our present DUG of English treats determiners and adjectives as adjuncts, because they are optional components of noun phrases. A small subset of determiner templates is shown in Figure 44.16. Note that these templates are still constructed from the point of view of the dominating noun expecting a determiner, although they work as a device for a determiner to select a noun. The reason for uniform templates is the fact that both complements and adjunct are dependents. A complement speci-
610
V. Dependenzielle Theorien
a) Determiner compatible with singular count noun:
b) Determiner compatible with plural count noun:
c) Determiner compatible with non-countnoun:
Fig. 44.16: A subset of templates for determiners
fied in a synframe is an instruction to attach a constituent below the given word in the dependency tree, an adjunct in a synframe is an instruction to attach the given word to something above it in the tree. A template is in both cases an instruction stating how a dominating and a dependent term are to be connected. The following figure displays a few assignments of adjunct templates to determiners (44.17). The theoretical status of adjuncts is under debate among dependency grammarians. Usually this distinction between complements and adjuncts is in accordance with the division of phrases into objects and adverbials. The main criterion is grammatical function in connection with lexical semantics.
Complements are dependents of a lexical item that are required by the word’s inherent semantics; adjuncts augment the dependency structure by their own virtue. (7)
a. The cooking time depends on the size of the potato. Drugs act on the central nervous system. The soldiers asked for food. b. He slept on the deck. She kissed him on the cheek. They kissed for half a minute.
The prepositional phrases in the sentences (7a) are presented as complements, while the prepositional phrases in (7b) are adjuncts. In the case of complements, the prepositional
Fig. 44.17: Lexical assignment of determiners as adjuncts
611
44. Dependency Unification Grammar
phrase refers to a genuine participant in the depend-event. The meaning of on can be understood only in relation to the verb depend. As opposed to complements, adjuncts like time, place, direction, and manner can be understood in isolation, because they are inherent in many events. The preposition on denotes a local or directional relationship between two entities, one of which is the verb of which on is an adjunct, the other one is the complement of on. The absence of a complement leaves the dominating word unsaturated while an adjunct may or may not be present from a grammatical point of view. That is why mandatory or optional occurrence is often suggested as a criterion. The situation is not always as clear-cut, though. On the one hand, complements can often be omitted if they are known in the situation. On the other hand, time, place, direction, manner and other adverbials must be interpreted as genuine and compulsory participants of some verbs. (7)
c. The book is lying on the table. She puts the book on the table. The event lasts for a particular length of time.
In the framework of lie and put, the place seems constitutive , and in the framework of last a time period is crucial. According to the aforementioned criterion, the prepositional phrases in (7c) would be complements. On the other hand, the examples in (7c) share
their semantic function and their syntactic behavior with the adjuncts in (7b) rather than with the complements in (7a). (8)
Where is the book lying? Where does he sleep? *Where does the cooking time depend?
The solution of this problem are so-called expected adjuncts. Expected adjuncts are real adjuncts and they are covered by the same templates as optional adjuncts. The same grammatical function is assigned to both kinds. However, since expected adjuncts must be present in the syntactic framework of a particular governing word they are added to the synframe of that word. The DUG parser recognizes an adjunct that is expected; if the expected adjunct does not appear then the phrase or sentence is rejected. Here are the frames of the verbs and prepositions occurring in (7c). Synframes are the repository for one more kind of information. It is possible to assign arbitrary additional attributes to the given word in the top term of a synframe. This possibility is motivated as follows. There are two complementary uses of attributes. On the one hand, attributes are the means to state conditions under which certain items are acceptable, for example, as fillers of a slot. On the other hand, attributes must be ascribed to the individual items that are supposed to meet these conditions. So far, the only way of classifying items has been the morpho-syntactic
Fig. 44.18: Syntagmatic frames including complement, adjuncts and expected adjuncts
612
V. Dependenzielle Theorien
Fig. 44.19: Attribute assignment in syntagmatic frames
lexicon. There are features, however, that are syntactic or semantic in nature and are not reflected by morphology. Synframes can be used to ascribe such attributes to the words in question. The parser includes these attributes in the head term of the initial list which represents the given word in the well-formed substring table. Here are examples regarding the attributes ‘noun-type’ and ‘hyperonym’ occurring in Figure 44.17 and 44.18.
5.
The unification of attributes
5.1. The types of categories At the present state of linguistics, it is possible to discern a family of unification grammars, independent of the distinction between constituency and dependency. One essential ingredient of all these grammar formalisms is the special form of categories. Words, phrases and sentences are classified with a set of features rather than with a single category. Each feature is divided into the indication of the feature type (attribute) and the feature itself (value). Instead of ‘accusative’ or ‘singular’, one writes ‘case[accusative]’ and ‘number[singular]’. There are many different conventions about the details of such categories in different formalisms. Some theories allow attribute-value pairs in which the values may again be attribute-value pairs. The advantage of all kinds of feature structures is the possibility to state general relationships in terms of feature types (attributes). For example, the well-known rule for the expansion of S into NP and VP can be refined as follows: (9)
S J NP number[x] person[y] ⫹ VP number[x] person[y]
If only the concrete features ‘singular’, ‘plural’, ‘1st’, ‘2nd’, ‘3rd’ were available, one would need six rules to cover all the cases of agreement between NP and VP. Complex features have been used in computational linguistics for a long time. The original formal-
ism with attribute-value pairs in Hellwig (1978) relied on Brockhaus (1971) and Kratzer, Pause, von Stechow (1974). Nowadays, the computation of feature structures is called unification, a term which originates from theorem proving. What is the essence of the unification mechanism? Technically, it is a kind of bi-directional pattern matching. Conceptually, it means that a grammar is conceived of as a set of equations which are to be resolved, rather than a set of rules which are to be applied consecutively. The instantiations of the variables in the grammatical equations are supplied by the lexicon. These instantiations are then propagated through the equations. In my opinion, this view is an important change in the concept of grammar writing, so that the label “unification grammar” is more than just a fashionable accessory. The mechanism of unification is not uniform in DUG. The semantics of the attributes varies and therefore the method of their unification varies as well. Remember that we aim at simulating descriptive statements of traditional linguistics in the DUG formalism. Therefore, the grammar writer should be provided with the kind of attributes that suit his descriptive demands. The following types of attributes are currently available in the syntactic component of DUG. Together with choosing an identifier, the linguist has to specify what type the attribute in question is supposed to be. ⬍LX⬎ lexeme ⬍RD⬎ reading ⬍HY⬎ hyperonym ⬍RL⬎ role ⬍MC⬎ main category ⬍DF⬎ disjunctive feature ⬍CF⬎ conjunctive feature
single, multiple, unique single, unique single, multiple, unique, C single, unique single, multiple, unique zero, single, multiple, C zero, single, multiple, C
613
44. Dependency Unification Grammar
⬍EF⬎ exclusive feature ⬍OF⬎ overwriting feature ⬍UT⬎ utterance feature ⬍CH⬎ character string ⬍QU⬎ quotation ⬍LP⬎ left punctuation mark ⬍RP⬎ right punctuation mark ⬍CS⬎ upper or lower case ⬍LT⬎ left dependent ⬍RT⬎ right dependent ⬍SC⬎ succession feature ⬍AJ⬎ adjacent feature ⬍MG⬎ margin feature ⬍SL⬎ slot indicator and flags ⬍TP⬎ template ⬍CP⬎ complement in synframe ⬍AD⬎ adjunct in synframe ⬍EA⬎ expected adjunct in synframe
⫺ part of speech (MC), ⫺ grammatical features (DF, CF, EF, OF, UT), ⫺ word order features (LT, RT, SC, AJ, MG), ⫺ surface form (CH, QU, LP, RP) and ⫺ a set of system tags (SL, TP, CP, AD, EA).
zero, single, multiple, C single, C zero, fixed, unique single, unique single, unique zero, single, multiple, unique zero, single, multiple, unique fixed, unique, C fixed, unique fixed, unique single, multiple, C fixed, unique fixed, unique fixed, multiple, unique single, unique single, multiple single, multiple single, multiple
In the SGML representation of DUG data, the type of each attribute is made explicit by a special tag, indicated in the first column of the above list. In semi-formal representation, the type of each attribute is implicit in the identifier. The following groups of attributes can be distinguished:
The third column in the list is to be interpreted as follows: ⫺ single: the attribute consists of a single arbitrary value; ⫺ fixed: the attribute consists of one ore more values with a fixed meaning; ⫺ multiple: the attribute may consist of several fixed or arbitrary values; ⫺ zero: the absence of the attribute can be queried by means of a special value; ⫺ unique: the same type of attribute must occur at most once in a term; ⫺ C: the attribute may be propagated upwards and checked for congruence with the head term. Before we are able to define the semantics of the attributes, the relationship between the terms that are to be unified must be taken into account. Figure 44.20 depicts the typical constellation. The given term represents one classification of a given word. The given term may be constrained due to previous unification with other templates. One of the synframes of the given term is selected which leads to a template with a head term and a slot term. A potential filler is available. In this constellation, three pairs of terms are subject to unification:
⫺ semantic features (LX, RD, HY), ⫺ grammatical function (RL),
Synframe
(i) The unification of the given term with the template results in a possibly constrained head term, called “unihead”, or in the rejection of the template. This test is necessary because there may be templates with the same name that are designed for other morpho-syntactic circumstances.
Given term
Former template
Template head Filler term
< Slot term >
Fig. 44.20: Relationships between terms
Filler term
614 (ii) The unification of the slot term with the head term of a filler candidate (to the left or to the right of the given word) results in a term with unified attributes called unislot or in the rejection of the filler. (iii) The unification of the term “unislot” with the term unihead reflects the requirements of agreement between head and dependent and results in a possibly constrained unislot term and a possibly constrained unihead term or in the rejection of the filler. Due to its nature as bi-directional pattern matching, unification does not preserve the original terms. When attaching the complement to the original term, the original term is replaced by unihead and the head term of the inserted filler list is replaced by unislot. 5.2. The unification of given term and template We turn now to the semantics of attributes in the three relationships. The first case of unification relates the given term and the head term of the template. The given term comprises the morpho-syntactic categories of the given word as well as the additional attributes introduced by the head term of the synframe. There might also be attributes that were passed to the given term in previous slot-filling operations. A template is chosen if one of the values of ‘complement’, ‘adjunct’ or ‘expected adjunct’ in the corresponding synframe is identical with the value of the attribute ‘template’ in the template. It is the only function of the system tags TP, CP, AD, EA to provide this link. Note that adjunct templates, as in Figure 44.21, emanate from the synframe of the dependent term rather than from the given term. The template ‘%dete count singular’ characterizes determiners like every, each, either, neither, another. The goal of the grammar writer is to discard those templates that do not agree with
V. Dependenzielle Theorien
the attributes of the given term. For example, a template designed for count nouns must not be associated with non-count nouns. Conditions of this sort involve the part of speech attribute (MC) and an arbitrary number of grammatical features (DF, CF, EF, OF, UT). The values of the part-ofspeech attribute must be identical in both terms. The grammatical feature attributes must contain at least one value that is present in both terms, i. e. there must be a non-empty intersection of values for each tested attribute. If the test is successful then the attribute is copied into the resulting term provided with only those values that are part of the intersection. Only those attributes are tested that are present in both terms. Attributes that occur in only one of the terms are interpreted as additional features. They are copied right away into the resulting term. That is the case because attributes present in the given term but missing in the template are just irrelevant on the level of abstraction which characterizes the template. Attributes present in the template but missing in the given term play a specific role. As mentioned before, attributes are needed that characterize a whole constituent rather than the topmost word. Such attributes are introduced in the head term of templates. They often denote properties which adhere to the constituent after the slot is filled. That is why they are ignored during the applicability test of the template. 5.3. The unification of slot and filler The second case of unification relates a slot term and the head term of a potential filler list. The slot term in Figure 44.22 belongs to a subject template (compare Figure 44.13). The filler term belongs to the pronoun what. A slot term is recognized by the system tag ‘slot’ (SL). Each slot term contains a role attribute (RL) which is taken over into the resulting term without testing. The part-of-
Fig. 44.21: Unification of a given term with the head term of an adjunct template
615
44. Dependency Unification Grammar
Fig. 44.22: Unification of a slot term with the head term of a filler candidate
speech attribute (MC) and grammatical features (DF, CF, EF, OF, UT) provide the means to constrain the potential fillers just as much as to avoid any ungrammatical combination and, at the same time, obtain a maximal level of generality. The slot term in Figure 44.22 covers pronouns in interrogative as well as relative sentences; however the word what can be used only in an interrogative context as is specified in its term. The intersection between both terms, the attribute ‘pro form[interrogative]’, is the result of the unification. The attribute ‘case’ is unified the other way around. Here the word what is able to satisfy two values, ‘subjective’ and ‘objective’ (as opposed to he, who and him, whom); the slot requires the value ‘subjective’. The latter value is the intersection of values and therefore stored in unislot. The value “C” will be explained later; it is always copied from the slot term to the resulting term. As opposed to the relation between a given term and the template head, all attributes that are included in the slot term must be present in the filler term, except for the role attribute and the word order attributes. That is, most attributes in a slot are conditions. It is assumed that a condition is not met if the attribute is missing in the filler term. An exception is the zero value. If the zero value is the only value or is among the disjunction of values in an attribute then a filler is accepted exactly if the attribute is absent in the filler. It is desirable to possess means for the individual selection of words or larger entities. Fixed selectional restrictions may be specified in a slot. Usually, lexical selection is encoded in the syntactic frames. All attributes that enrich a complement in a synframe are copied into the slot term of the corresponding template. In this way, lexical collocations can be precisely described. If a template requires selectional information from the synframe, e. g. the template for phrasal parts in Figure 44.12, then the slot tag must contain the value ‘select’.
A lexical selection may consist of a lexeme (LX) with a single or a disjunctive value. The condition is met if one of the values matches the lexeme in the filler term. A lexical restriction can also be achieved by means of a generic attribute (HY) with a single or a disjunctive value. This condition is met if one of the required generic values has been previously assigned to the filler. In the framework of the syntactic system, such an assignment may take place as an additional attribute in the head term of a synframe. On a larger scale, generic attributes are provided by the lexical-semantic system via a specific interface. The reading attribute (RD) is not used for selection in a slot, because the filler term usually lacks this information. However, a reading can often be determined in the course of slot filling. While morpho-syntactic features are relatively independent of particular meanings, the opposite is true about the syntagmatic properties. They usually differ with each reading of a word. That is why readings should be specified in synframes. If this is done, there is a good chance to disambiguate a given word. At first, a great variety of syntactic frames are retrieved on the basis of just the lexeme. Eventually, few frames or even one syntactic frame is left with all the slots filled. The reading that has been specified in the successful frame is the appropriate reading of the word. Selectional constraints can also be imposed on the surface form of the filler. The character string and the quotation attributes (CH,QU) are used for this purpose. The character string attribute can be used in regular slots; its values must be identical in the slot term and in the head term of the filler. The quotation attribute is part of a special type of slot, which is recognized by the tag ‘quote’. The value of the quotation attribute in the slot term must be identical to the string associated with the whole filler list. Filling such a slot results in a single term comprising
616 no other filler information than the quotation attribute and its value. This device is convenient in the case of fixed phrases and idiomatic expressions. The literal citation of the fixed or idiomatic part of a constituent prevents these expressions from being exposed to an unnatural dependency analysis. (10) a. I finally came to terms with myself. b. But how could he kick the bucket if he was dead? The examples in (10a) and (10b) can be handled by means of a general template and syntactic frames with quoted complements (see Figure 44.23 below). Punctuation is another surface phenomenon which seems to resist dependency representation. This phenomenon can be integrated into the formalism, however, if the concept of constituents is accepted as advocated by DUG. Punctuation marks delineate clauses and phrases. It is reasonable to treat them as attributes of the constituents they mark. We introduce two such attributes, punctuation to the left (LP) and punctuation to the right (RP) of a constituent. The values of these attributes are the various punctuation marks such as comma, colon, period etc. It is assumed that punctuation is usually in accordance with the functional structure formed by complements and adjuncts. Therefore, punctuation attributes must occur in slots if a particular punctuation is required for the constituent in question. The attribute is satisfied if one of its values is the same as the real punctuation mark attached to the constituent which is filling the slot; otherwise the filler is rejected. If a punctuation mark is optional then it must be specified in disjunction with the zero value. The zero value is satisfied if no punctuation mark is attached to the filler. The absence of a punctuation
Fig. 44.23: Treatment of fixed or idiomatic expressions
V. Dependenzielle Theorien
attribute in a slot must always match with the absence of a punctuation mark around the filling constituent. It must be mentioned that some punctuation marks carry meaning, like the full stop or the question mark at the end of the sentence. These signs are treated as word-like elements which take a sentence as complement (cf. the first term in Figure 44.1). Capitalization is another attribute that often applies to constituents rather than to terminals. For example, one cannot avoid referring to the sentence as a constituent when specifying the regularities of capitalization at the beginning of a sentence. This holds for other constituents as well. A special upper and lower case attribute (CS) is available which may be included in a slot term. The attribute is satisfied if its value is in accordance with the first letter of the slot filling constituent; otherwise the filler is rejected. Note that the constituent is not the same as the string corresponding to its topmost term. A fundamental syntactic relationship is word order. As mentioned in section 2, the dependency trees of DUG are made projective ⫺ and thus encounter the same problems of coping with discontinuity and free word order as phrase structure grammars. The key for a satisfactory explication of word order phenomena lies in the attributes. Formalisms like DUG belong to the class of attribute grammars. Attributes may be introduced that go beyond context free grammars. For example, a language of the type an bn cn is recognized by a grammar that includes a count attribute. In the same way an attribute grammar can be extended in order to cope with all phenomena of word order. It is easy to program a computer so that it examines the linear order of the segments that are associated with the nodes of a dependency tree.
617
44. Dependency Unification Grammar
DUG offers a variety of position features whose concrete values are computed in this way. The computed values are then subject to unification with the required ones in slot terms. A general way of indicating the position of a linguistic unit is by means of its offset, i. e. the number of characters that it is away from the beginning of the file it is stored in. With regard to dependency trees, we are interested in the offset of the beginning and the end of the string associated with the head term and the offset of the beginning and the end of the string associated with each dependent term. Obviously the following relations hold: (11) a. offset-of-begin-of-head w offset-ofend-of-head b. offset-of-begin-of-dependent w offset-of-end-of-dependent The attributes left dependent (LD) and right dependent (RD) provide a relative positioning of each dependent to the left or the right of its head. One of the two attributes must be specified in every slot because the DUG parser relies on this information. (12a) states the condition under which the attribute left dependent is satisfied, (12b) states the condition under which the attribute right dependent is satisfied. (12) a. offset-of-end-of-dependent ⬍ offsetof-begin-of-head b. offset-of-begin-of-dependent ⬎ offset-of-end-of-head Word order is relatively fixed in some languages and even if the word order is free it is possible to distinguish certain absolute positions in a syntagma. In the DUG of English, 30 positions of verb dependents are established. Here is a tentative list of the first seven (see Figure 44.24). The positions of the head segment and the immediate dependent constituents are forced
into a numeric order by means of the succession attribute (SC). It is possible to define several attributes of this type for different constructions, e. g. positions of constituents in a sentence (‘s position’) or in the noun phrase (‘n position’), compare Figure 44.1. The succession attribute is satisfied if the following is true for any pair of items formed from the head term and an immediately dependent term or from two immediate dependent terms: (13) a. offset-of-end-of-item-with-smallervalue ⬍ offset-of-begin-of-item-withgreater-value b. for any value: value-of-one-item ⫽ value-of-another item (in a regular slot) Varying word order is coped with in two ways. Firstly, several templates can be drawn up with different succession values according to the word order variation of a given complement or adjunct. For example, the three templates in Figure 44.13 describe the subject occupying the second, fourth, and seventh position in the sentence. Secondly, the succession attribute in a slot can have disjunctive values describing alternative places where the complement might occur. Compare the template for the phrasal verb pick in Figure 44.15. The phrasal part can occur before and after the direct object: pick up the block versus pick it up. Therefore its word order attribute is ‘s position[14,19]’ while the object is in ‘s position[17]’. The condition (13b) determines that usually no position can be occupied twice. (An exception to this rule will be explained below.) Due to this rule, free word order can be constrained elegantly. Different constituents may be possible in a particular position; as soon as the position is occupied by one of the candidates the other constituents must accommodate the rest of the positions. This process is continued until one particular order emerges.
Fig. 44.24: Positions at the beginning of English sentences
618 The succession attribute must have just one value in template heads, as opposed to the slots with their disjunctive succession values. It is necessary to have a fixed head position in order to compute the possibilities of multiple disjunctive values within the slots. Any new slot filling must be tested to determine if its succession value is compatible with the previous assignments. In order to organize these checks, the succession value of each filled slot is passed up and included in the succession attribute of the head term. The values of the attribute in the head term reveal which positions are already taken in the emerging constituent. We mentioned an exception to the rule (13b). Under certain circumstances one may want to deviate from the restriction that each slot must be occupied just once. An example are the adjectives big, red in Figure 1: a big red block. It is subject to debate whether the role of these adjectives is the same and whether an arbitrary number of such adjectives may modify the noun. To be on the safe side, DUG provides a special type of slot that can be filled several times. The slot tag must contain the value ‘multiple’. Since the same template is re-used in this case, the succession values of the fillers of such a slot are identical. There are two more position attributes. The attribute adjacent (AJ) has just one value and is satisfied if either (14a) or (14b) is the case: (14) a. offset-of-end-of-dependent ⫽ offsetof-begin-of-head minus 1 b. offset-of-begin-of-dependent ⫽ offset-of-end-of-head plus 1 The attribute margin (MG) has two fixed values: adjacent to left margin and adjacent to right margin. Its purpose is to define the boundaries of a constituent, especially those of a compound or a sentence. (15a) states the condition under which the first value is satisfied, (15-b) states the condition for the second value: (15) a. offset-of-begin-of-filler-string ⫽ offset-of-begin-of-whole-constituent b. offset-of-end-of-filler-string ⫽ offsetof-end-of-whole-constituent 5.4. The unification of head and dependent The third case of unification relates the term of a candidate dependent (unislot) with the term of the dominating element (unihead).
V. Dependenzielle Theorien
The head term in Figure 44.25 (see p. 619), is derived from the lexical attributes of the verb surprises and the template for interrogative and relative pronouns as subject, introduced in Figure 44.13. The dependent term is the result of matching the word what with the slot in this template, as demonstrated in Figure 44.22. The unification of head and dependent is confined to those attributes that are marked with the symbol “C” (congruence) in the unislot term. Any other attributes are left unchanged. If the operation has been successful then the symbol “U” (unified) is added to the values of the corresponding attribute in the unihead term. The two types of unification we discussed before regulated the appropriate substitution of templates and instances. The unification of head and dependents accounts for all kinds of correlations between entities in syntactic constructions. Morpho-syntactic agreement between particular words belongs to this type, as well as the compatibility of close or distant constituents. Remember that the head term in a list does not only stand for a word, but also stands for the whole constituent. That is why the well-formedness of the whole construction can be tested by means of unifying each dependent separately with the head. The attributes differ with respect to the tests and the resulting values. Disjunctive features (DF) are the first choice for enforcing many kinds of compatibility between items. The hyperonym attribute (HY) works in the same way. If both the dependent term and the head term comprise a particular attribute of this type, then the intersection of values is formed. If the intersection is empty then the unification fails, otherwise the old values are replaced by the intersecting values both in the head term and in the dependent term. If only the dependent term contains the attribute then this attribute with its values is copied into the head term. This mechanism allows upwards propagation of attributes which are not anticipated in the head term. As soon as the attribute is passed to the head term, any other dependent must form a nonempty intersection in order to unify with this attribute. In this way the agreement between two or more dependents can be computed via the head term. Another goal of passing attributes upwards is to qualify a formerly unspecified head to enter in a particular slot. Of course, the propagation of attributes can be continued by means of other templates all the
619
44. Dependency Unification Grammar
Fig. 44.25: Unification of a head term with the congruent attributes of a dependent term
way up in the hierarchy of the dependency tree. Conjunctive features (CF) simply record the occurrence of particular phenomena without testing their compatibility. The case feature (CS) works the same way. The values of the attribute in the head term are replaced by the union of values of the dependent term and the head term. If only the dependent contains the attribute then the attribute is copied into the head term. The head-dependent unification of this type of attribute can never fail. Note, however, that these attributes behave in the slot-filler unification as restrictively as the other types. Exclusive features (EF) are appropriate for adjuncts that must occur only once in a certain construction. The value of the attribute in the dependent term must not be present in the head term already, otherwise the unification fails. For example, the first attachment of a determiner to a noun results in the value ‘determined[⫹]’ in the head term. Because this is an exclusive attribute, no more determiners are accepted. Admittedly, the overwriting feature (OF) has been designed especially for the English determiners a and an, but perhaps it is usable for other purposes too. The value of this attribute is overwritten in the head term by the value of the dependent term. For example, nouns and adjectives are lexically provided with the attribute ‘vowel[⫹]’ or ‘vowel[⫺]’ depending on their first letters. By means of the value ‘vowel[C]’ in the adjective slots, this value is overwritten in the head term each time an adjective is attached to the noun. Slot filling always starts with the closest dependents first, the more distant ones later. So in front of the noun, the attachment of adjectives proceeds from right to left. Eventually, the determiners a or an try to link up as adjuncts; a includes ‘vowel[⫺]’, an ‘vowel[⫹’] in the template head. The unifica-
tion of given term with template head yields the desired result. The values of the succession feature (SC) are computed as described in (13a) and (13b). The succession value of a slot is automatically stored in the head term, as soon as the slot is filled. The marker “C” is not necessary for that. If “C” is specified with a succession attribute, the values of the same attribute in the filler are accounted for as well. In this way the numerical order of positions can be extended across several levels of dependency.
6.
Extensions of the formalism
We now turn to a number of enrichments of the DUG formalism which are all due to shortcomings of the simple dependency model. Although the solutions may be idiosyncratic, the problems should be of common interest. 6.1. Sentencehood Sentences and clauses have an additional semantic quality that goes beyond the meanings of the participating words. (16) a. The robot picks up a red block. b. Does the robot pick up a red block? In (16a) and (16b) the difference between statement and question is supplemental to the word dependencies. (17) a. THAT WE NEED MORE EQUIPMENT is obvious. b. I wonder WHETHER WE NEED MORE EQUIPMENT. In (17a) and (17b) the conjunctions that and whether indicate the propositional character of the complements. (18) a. HOW THE BOOK WILL SELL depends on its author. b. I knew HE WAS WRONG.
620
V. Dependenzielle Theorien
Fig. 44.26: Templates assigned to full stop and question mark
There is no conjunction in the subclauses of (18a) and (18b). This causes problems with the role attribute. Obviously, the clause how the book will sell is subject of depends and hence the role in the top-most term of the clause should be ‘subject’. On the other hand, the top-most term sell is the predicate within the clause and therefore the role attribute in the term must be ‘predication’. If the topmost term in the clause would simply substitute for the subject slot, there would be two role attributes in one term ⫺ a case that must be ruled out. (19) a. the girl WHO ARRIVED b. the car HE REPAIRED The relative clauses in (19a) and (19b) cause similar problems. The relative pronoun cannot function as conjunction because it has to fill a grammatical function within the relative clause (subject, object) or it is even missing as in (19b). While phrase structure grammars provide constituents that represent sentencehood (like S, S’), there seems to be no room in dependency representations to reflect the se-
(R-24) (R-32)
mantic force of propositions. The reason is the extreme word-orientation of dependency grammars. The measure taken by DUG is to “lexicalize” the propositional character of clauses and sentences as well. Special terms are introduced on top of clauses and sentences and are provided with appropriate role and lexeme attributes. Where do these terms come from? There are certain surface phenomena that denote sentencehood, for example punctuation marks. Full stop and question mark at the end of the sentence are treated by DUG as words with the lexical meaning “statement” or “question” (cf. the top-most term in Figure 44.1). These lexical items are associated via synframes with templates like the ones in Figure 44.26. In the same way, conjunctions like that, whether, if are interpreted as lexical representations of the force of the clauses they dominate. They have complements and can fill slots themselves. In many cases, there are no such lexical anchors for clauses. We have to introduce artificial terms. There is a particular kind of template in which an artificial term intervenes between the head term and
⬍template head⬎
:⫽ ⬍template name⬎ ⬍main category⬎? ⬍grammatical features⬎? {⬍intermediate term⬎ | ⬍slot term⬎} ⬍intermediate term⬎ :⫽ “(” ⬍role⬎ ⬍lexeme⬎? ⬍slot term⬎ “)”
Fig. 44.27: Templates with an intervening term between head and slot
621
44. Dependency Unification Grammar
the slot term. The definition of templates is revised accordingly. The intermediate term contains a role attribute, the slot term contains another one. In this way a clash of roles is avoided. The templates in Figure 44.27 handle the examples (18a) and (18b). The second template describes a “zero” that-clause and is an alternative to the template with the same name that describes the real that-clause. While clausal complements can be dealt with as shown, clausal adjuncts create new technical problems. The next figure presents a template for relative clauses, like the ones in (19a) and (19b).
In principle, dependency grammar faces fewer problems with discontinuity than phrase structure grammar. Traditional phrase structure trees cannot ignore the linear concatenation of constituents while dependency trees usually focus on functional relationships and may avoid the question of linear succession all together. Figure 44.29 shows a dependency tree representation of (20). Information about the word order must be added to dependency trees in form of labels. Certainly, a simple numbering of words, as in Figure 44.29, won’t do. But in principle there is no limitation to enriching a dependency tree by explicit attributes which may describe
Fig. 44.28: Template for relative clauses
(R-27)’ ⬍frame head⬎ :⫽ {⬍lexeme⬎ ⬍reading⬎? ⬍main category⬎? | {⬍lexeme variable⬎ ⬍main category⬎ }⬍additional attribute⬎* {⬍complement⬎ | ⬍adjunct⬎ ⬍expected adjunct⬎ }⫹ Relative clauses are adjuncts rather than complements. There is no lexical item, though, which could serve as a keyword in order to introduce such an adjunct. The artificial lexeme ‘relative-clause’ is not available in the lexicon. It seems that we have to assign these adjuncts to any verb that may be the head term in a relative clause. The definition of synframes is refined for this purpose. This definition provides an alternative access to a synframe besides lexemes. Since the lexeme can be substituted by a variable, it is now possible to associate a synframe with a part of speech category.
7:? 2: have
3: you
4: been 5: looking 6: at 1: what
6.2. Discontinuity The problem of discontinuity depends to a certain extent on the adopted formalism rather than on the language itself, because the way a constituent is defined and recognized is in part a theoretical decision. Nevertheless, there will always be phenomena which can hardly be covered by a strictly continuous arrangement of constituents. (20) What have you been looking at?
Fig. 44.29: Dependency tree with discontinuous word order
any kind of word order. The positional attributes that have been chosen in the DUG have been described in 5.3. A considerable restriction is imposed upon the possible linear sequence by means of the left-dependent (⬍) and right-dependent (⬎) markers. Here is a representation of (20) in this format:
622
V. Dependenzielle Theorien
Fig. 44.30: A dependency representation with projectivity markers
Fig. 44.31: A template for a discontinuous complement
Ascending in the hierarchy, each dependent string is concatenated to the left or the right of the string on the next higher level. If the projection symbol is repeated n times then the dependent string is concatenated to the left or the right of the string that has been formed on a level n times higher in the hierarchy. In this way the string ‘what’ ends up to the left of ‘have you been looking at’. According to this mechanism, extra-positioned parts of constituents must be adjacent to a dependential mother constituent. It is subject to further study whether this limitation on discontinuity is empirically adequate. A mother constituent is the string that corresponds to a node higher in the hierarchy than the given one together with all nodes subordinated to it. Adjacency to the mother constituent does not necessarily imply adjacency to the head in that constituent. DUG provides a special slot type for describing complements and adjuncts that are extra-positioned. An example is the following template for the pronoun what in (20). This complement is assigned to the preposition at (see Figure 44.31). The template consists of the usual description of the dominating term and the dependent slot. The slot tag must have the value ‘discontinuous’. In a second list the head of the mother constituent is described that allows the adjacent concatenation with the filler of the slot. A template like this is shifted by the parser until a mother constituent has been formed which is in agreement with the
second list in the template. At this moment the discontinuous slot is released for adjacent filling. 6.3. Nucleus and valency propagation So far, the dominating terms in the dependency tree have been simple words. How does DUG account for composite heads of phrases? (21) a. b. c. d.
Terry is eager to test the robot. That he is ill is a fact. To whom is John going to speak? That I was ill did not concern her.
Obviously the type of the subject in sentences like (21a) and (21b) is determined by the predicative adjective or noun rather than by the copula verb. The complements in (21c) and (21d) depend functionally on the main verbs speak and concern rather than on the auxiliary verbs. On the other hand, there is no doubt that the subjects depend morphosyntactically on the finite verb. If the unification of agreement features should be carried out as usual, then the subject must be subordinated to the term with the finite verb. Consequently, valency information must be propagated from the adjective to the copula and from the main verb to the top-most auxiliary. It has been suggested that copula verb and adjective or auxiliary and main verb be treated as one complex entity which, as a whole, dominates complements and adjuncts. Tesnie`re (1959) introduced the concept of
623
44. Dependency Unification Grammar
Fig. 44.32: Specification of templates to be raised in a nucleus framework
“nucleus” for this purpose. Järvinen and Tapanainen (1997) stress that nucleus is the genuine syntactic primitive of dependency grammars rather than the word. In their theory, the nodes of the dependency tree should represent nuclei. For example, chains of verb like is going to speak or did not concern should be associated with a single node. DUG in principle adopts the nucleus as a theoretical concept. Predicates can be modified, leading to composite heads. This does not spare us, however, from having to describe the internal structure of nuclei. In order to do so, the nodes of the dependency tree continue to represent elementary segments of the input language. Nuclei consist of several such segments and are therefore distributed among several terms in the DUG list representation. There is no explicit representation of nuclei except for choosing specific role attributes. The composition of nuclei follows the usual slot-filling lines. Regarding the above examples, there must be a complement template for is which can be filled by eager or nice, there is another template for is which can be filled by going, and there must be a complement template for going which can be filled by any infinitive with to. The difference with nucleus slots is that selected templates from the synframe of the slot filler are raised to the head. This is enforced by special entries in the synframe of the head (see below). The following figure illustrates the new feature (see Figure 44.32). Unfortunately, the head in a nucleus is not always adjacent to the complement from
which a particular template must be raised. This causes technical problems for a parser that combines adjacent constituents from left to right. For example, in (21c) the subject template of to speak must first be passed to going and then to is. However, the string John intervenes between is and going so that the latter cannot fill the slot of is and pass the subject template upwards. If ‘nucleus complement’ is specified in a synframe the parser must be ready for discontinuous behavior. The formal machinery can be used for other kinds of complement raising (see Figure 44.33 at p. 624). (22) a. Picking up blocks seems to bore the robot. b. Terry is easy to please. c. That Bob refused to play with the robot is hard to believe. The raising verb seem is treated similar to auxiliaries. The synframes of the adjective easy incorporates an infinitive phrase from which a ‘⫹patient’ template is to be raised. This template is obtained from a direct object by means of a synframe extension which will be sketched below. Finally, there is a synframe for be, distinct from the copula, which accepts the adjective and receives the patient complement from it. The latter can be a noun phrase or a that-clause, depending on the type of the object of the embedded verb. If necessary, raised templates can be distinguished from the original ones by means of special constraint attributes. Usually a distinction is made between raising verbs and control verbs. While a raising verb takes a complement that is not one of
(R-27)’ ⬍frame head⬎ :⫽ {⬍lexeme⬎ ⬍reading⬎? ⬍main category⬎? } | {⬍lexeme variable⬎ ⬍main category⬎ } ⬍additional attribute⬎* { {⬍complement⬎ | ⬍adjunct⬎ | ⬍expected adjunct⬎ }⫹ | ⬍nucleus complement⬎ ⬍raising ⬎ }
624
V. Dependenzielle Theorien
Fig. 44.33: Synframes for raising verbs and adjectives
its a genuine arguments, a control verb dominates its complements by virtue of its own inherent properties. The following sentences contain control verbs. (23) a. Sue tried to pile up the cubes. b. Sue persuaded Terry to pile up the cubes. The infinitive clauses in these examples are normal complements. Since the subjects of the embedded predicates are identical to the subject or object of the control verb, the subject is missing in the infinitive clause. It is not necessary to reconstruct the omitted subjects, but we need a means to cancel part of the valency requirements of the embedded verbs. Elliptic slots serve this purpose. An elliptic slot must be introduced if a complement in a syntactic frame can or must be omitted in a particular context. The valency requirements of a word are fulfilled by an elliptic slot to the same extent as by a filled slot. The first template in Figure 44.34 accounts for the omission of the subject, if the verb is not finite. The second template licenses the omission of an object in a relative clause, as in sentence (19b) the car he repaired. The slot tag must contain the value ‘elliptic’. If the tag includes the value ‘remove’ then the dependent term will be removed from the representation, otherwise it will be kept as a trace of the deleted element.
Fig. 44.34: Elliptic slots
6.4. Coordination At the first sight, coordination seems at odds with the dependency representation. Dependency trees have been designed for modeling the hierarchy of semantically unsaturated elements and their complements. Coordination involves a linear grouping of surface elements orthogonal to the dependency relations. Therefore the integration of coordinative constructions is a challenge to dependency formalisms. (24) a. The robot passed a block to Terry and a pyramid to me. b. Terry goes to New York on Wednesday and to Washington on Friday. c. The robot grabs and crunches pyramids. One is inclined to describe coordination as an operation rather than a structure. Intuitively, a certain pattern is copied from the left of the conjunction and filled with new material on the right of the conjunction. The copied portion may involve one or more complements, one or more adjuncts and even the head of the underlying dependency structure. Other complements, adjuncts or the head may stay outside of the scope of this operation, which implies that their grammatical roles must now agree with the functional structure in both conjuncts.
625
44. Dependency Unification Grammar
Fig. 44.35: The robot passed a block to Terry and a pyramid to me
In the formal framework, these operation might be modeled by transformations. Genuine (semantic) coordination might be restricted to fully specified sentences. Actual coordinative constructions might result from the deletion of identical portions of the original sentences. In the other direction, ellipted portions might be reconstructed in the course of parsing, so that the eventual formal representation is a full-fledged sentence coordination. “The best way of dealing with coordination in syntax is not to deal with it at all, but ‘process it away’ immediately” (Lobin (1993). DUG does not follow this direction. The design of DUG is based on Carnap’s conception of the logical syntax of language (Carnap 1934) which implies a strict separation of formation and transformation. Formation rules determine exhaustively how the sentences of the language can be constructed. Transformation rules determine how from given sentences we may infer others. The semantic component of the grammar may incorporate transformation rules that derive a coordinative construction from coordinated sentences and vice versa (see the next chapter). But first we need an independent representation of any phrase or sentence as the basis for these operations. The structural representation of coordination within the dependency framework is faced with problems. Coordination is another relation than dependency. The grammatical functions as well as the morpho-syntactic attributes within the conjuncts are clearly determined by the original head in the dependency tree and not by the conjunction. Therefore, the conjunction cannot function as a normal head node. Introducing a new type of edges in the dependency tree (Tesnie`re’s “junction”) does not help either. Any graph representation is faced with the problem to hold apart and, at the same time, to relate the pairs or triples of constituents that
arise if more than one complement or adjunct is in the scope of the coordination, for example, a block to Terry on the one hand and a pyramid to me on the other. The solution elaborated within the DUG framework is shown in Figure 44.35. It is the representation of sentence (24a); all attributes except significant roles and lexemes have been removed for perspicuity. Conjunctions like and dominate exactly one conjunct, usually the one to the right of the conjunction. A conjunct contains one or more constituents in the DUG sense. A constituent is, according to our definition, a string that corresponds to a node in a dependency tree and to all nodes subordinated to that node. Each constituent has a grammatical function which is represented by the role attribute in the top-most term. The main idea now is to conceive the conjunction as a special kind of term which is “transparent” with respect to the ordinary dependency relationships. The conjunction dominates the elements in the conjunct directly, but regarding dependency it is a “pseudo-head”. The complements in the scope of the conjunction continue to depend morphologically and functionally on their original head. This head must exist exactly one level higher in the dependency tree than the conjunction. There is a “view” on the representation which ignores the intertwining conjunction and interprets the constituents in the conjuncts as direct dependents of the term one level above the conjunction. This term is the one that gives rise to the existence and the roles of the dependents within the conjunct. Logically, there is always an antecedent conjunct and a postcedent conjunct in a coordination. Both conjuncts can be introduced by a coordinator, as in the case of either ⫺ or, both ⫺ and, neither ⫺ nor. Infix coordinators like and and or are treated as pseudoheads of the postcedent conjunct only. The
626
V. Dependenzielle Theorien (illocution: statement' (predication: will (subject: the robot) (part_of_predicate: stack uo (direct_object: the red blocks)) (conjunct: and (part_of_predicate: put (direct_object: a green cube) (conjuct: or (direct_object: a pyramid)) (place_adjunct: on Top))))))
Fig. 44.36: Multiple coordination and a “view” on one of the included dependency trees
scope of the antecedent conjunct remains unmarked. Implicitly the antecedent comprises exactly those complements or adjuncts under the same (real) head that bear the same role labels as the complements and adjuncts in the postcedent. It is left to the semantic component of DUG to extract the appropriate portions of the dependency tree if necessary. Leaving the antecedent conjunct unmarked allows so-called incremental parsing (and understanding). The beginning of (24a) the robot passed a block to Terry is processed like a sentence without coordination. Within a conjunct, no role must occur more than once. That is why the role labels suffice for correlating the complements or adjuncts in the antecedent and postcedent conjuncts, for example a block and a pyramid (dir object) and to Terry and to me (indir object). A conjunct headed by a conjunction is a constituent according to our definition of constituents. There is no constituent, though, corresponding to the whole coordinated portion of the sentence (compare Gazdar et al. 1985, ch. 8, for a similar treatment in GPSG). This is due to the dependential basis of coordination. Each conjunct embraces one or more dependents; in this way it conforms to the dependency structure. No such correspondence would exist if the conjunction were to be interpreted as the head of the whole coordination.
tours of several simple dependency trees emerge from this representation. The one that comprises the shaded elements corresponds to sentence (26): (26) The robot will put a pyramid on top. Note that coordination can occur within a nucleus; the nuclei will stack up and will put are split into a common part and a coordinated part. This is why a nucleus cannot be represented by a single term. So far, we have avoided introducing terms that had no counterpart on the surface. The formal representation has been as concise as the described sentences. However, there are cases of gapped coordination, especially if head terms are coordinated, where the reconstruction of ellipsis can no longer be circumvented. (27) Mary saw a butterfly and laughed. In reality, Mary in (27) is outside of the linear scope of the coordination and hence can function as a joint subject of the verbs in both conjuncts. The dependency representation cannot reflect this finding. According to the principle of incremental parsing, the subject must be made dependent of the first verb.
(25) The robot will stack up the red blocks and put a green cube or a pyramid on top. Constituents can be coordinated on any level of the structural hierarchy and coordinations can be nested. Figure 44.36 is a rough outline of the way sentence (25) is represented. If the conjunctions are viewed as mere relays of dependency relations then the con-
Fig. 44.37: Gapped coordination
627
44. Dependency Unification Grammar
Fig. 44.38: Templates for conjuncts with subject and object
Since the joint subject is now included in the antecedent conjunct, the postcedent conjunct is lacking a subject. The general regulation is the following: If a conjunct is missing part of the predicate-argument structure and if the missing part is not available in the dependency tree that results from viewing the conjunction as a mere relay, then a trace of the missing element must be created. This trace consists of a term with a role attribute and an ellipsis marker. Due to the slot-and-filling approach, it is not difficult to create such a term in a DUG. What is expected (and then missing) is listed in the synframe of the respective head. The only additional thing left to do is to turn the expected slot into an elided slot. Having more or less determined the representation of coordinative constructions in DUG, we must define a specification format. The specification of coordinated constituents is divided into three tasks: (i) describing the internal structure of each conjunct, (ii) describing the correct attachment of conjuncts within the rest of the sentence, (iii) classifying conjunctions with regard to both their conjuncts and their attachment. (28) a. The robot and Terry passed a block and a pyramid to me. b. The robot picked up a block and Terry a pyramid. Antecedent conjuncts with no conjunction, like the robot and a block in both examples, need no separate description because they are part of the basic sentence structure. For any constituent that occurs in a headed conjunct, there must be a template for the coordinated version of that constituent in addition to the uncoordinated case. This looks like much effort for the description of phenomena that
(R-27)
might be accounted for by a general and uniform operation. However, DUG is committed to declarative rather than procedural specification, and the coordinative constructions in different languages are by no means the same. As compared to the original complements and adjuncts, the templates within conjuncts are restricted and easily drawn up. The complement templates in Figure 44.38 are specified in the synframes of conjunctions like and and or. Of course the synframes of conjunctions include many other templates. ‘c position’ regulates the internal word order within the conjunct, usually reflecting the word order of the uncoordinated case. The ‘dependent’ attribute is necessary to propagate information about the occupied roles in the conjunct when these are checked for conformity with the antecedent conjunct. Each conjunction, together with the conjunct it dominates, must be inserted at an appropriate position into the matrix tree. Special templates describe this connection. Similar to adjuncts, these templates are listed in the synframe of the dependent conjunction rather than in the synframe of the functional head. A conjunct searches for a head rather than having a head marked to expect a conjunct. The syntax of the synframes is augmented for this purpose by the entry ‘⬍conjunct⬎’ (see below). The following templates are needed for attaching the conjuncts to the verb in sentences (28a) and (28b). The ‘dependent’ feature enforces the presence of the respective role or roles in the matrix structure. Any information from other conjuncts must be propagated via the head term, because the parser does not allow a direct inspection of sister nodes. As a consequence, all templates that can form part of
⬍frame head⬎ :⫽ {⬍lexeme⬎ ⬍reading⬎? ⬍main category⬎? } | {⬍lexeme variable⬎ ⬍main category⬎ } ⬍additional attribute⬎* { {⬍complement⬎ | ⬍adjunct⬎ | ⬍expected adjunct⬎ | ⬍conjunct⬎ }⫹| ⬍nucleus complement⬎ ⬍raising ⬎ }
628
V. Dependenzielle Theorien
Fig. 44.39: Templates for conjunct attachment
Fig. 44.40: Partial description of the conjunction and
the (unmarked) antecedent conjunct must contain the ‘dependent’ attribute, too. A conjunct is attached adjacently to the right of the corresponding constituent in the matrix structure. The same succession value is used for both the original constituent and the conjunct. The rules for the succession feature (cf. (13a) and (13b) above) must be augmented by (13) c. offset-of-end-of-matrix-item-withsame-value ⫽ offset-of-begin-of-conjunct-with-same-value minus 1 (in a conjunct slot) The figure 44.40 exemplifies the combination of all information needed for (28a) and (28b) in the synframe of the conjunction.
7.
Transformation
7.1. General mechanism There are phenomena of language which involve a transition from one instance of representation to another one, for example para-
(R-33) (R-34) (R-35) (R-03)
⬍rule⬎ ⬍rule head⬎ ⬍pattern⬎ ⬍term⬎
(R-07)
⬍attribute⬎
phrases, translation equivalents, inferences. The formal means to relate different representations in the DUG formalism are rules (see below). Each rule consists of a head term and a variety of patterns which mirror dependency trees. The value of the rule attribute denotes the kind of operation the rule applies to, e. g. translation, paraphrasing, deduction. The rule attributes guarantee that the right set of rules is chosen for the given purpose. In the simplest case, a rule consists of two patterns, a condition pattern and a construction pattern. If the condition pattern matches an instance of a dependency tree then a new tree is constructed according to the construction pattern. Each pattern is a list starting with a term. Pattern conjunction and pattern disjunction are special terms which are used to combine several patterns within one rule. A pattern is made more general by means of variables. All variables are recognized by their names. The first character of each name must be the asterisk (*). Variables are not distinguished by
“(” ⬍rule head⬎ “)” ⬍rule attribute⬎ ⬍pattern⬎ ⬍pattern⬎⫹ ⬍term⬎ | ⬍pattern conjunction⬎ | ⬍pattern disjunction⬎ “(” { { ⬍projection⬎? ⬍attribute⬎⫹ ⬍attribute variable⬎?} | ⬍term variable⬎ } ⬍term⬎* “)“ :⫽ ⬍identifier⬎ “[” ⬍value⬎ | ⬍value variable⬎ “]”
:⫽ :⫽ :⫽ :⫽
44. Dependency Unification Grammar
content but on a graph-theoretical basis. Each variable stands for a particular part of a dependency tree, e. g. an attribute value, a number of attributes, a single term or a number of terms. If the variable occurs in a condition pattern than the matching part of the given tree is bound to the variable; if the same variable occurs in a construction pattern then the bound part is incorporated in the emerging tree. A value variable binds the value of the specified attribute in an instance term. An attribute variable occurs in a term together with other attributes. The other attributes restrict the applicability of the pattern. Applied to an instance, the attribute variable binds all attributes in the instance term except for the attributes explicitly mentioned. A term variable must occur alone in a term of the pattern. Applied to an instance, this variable binds a whole term on the given level of dependency. In addition, the variable binds the terms of sister nodes as well, if these are not covered by other term variables. If the term is a leaf in the pattern then the term variable also covers all subordinated terms, i. e. the variable stands for a subtree rather than a single term. With these instruments, practically any labeled dependency tree can be transformed into any other labeled tree. 7.2. Syntactic frame extension Active and passive sentences can be derived systematically from one another. That is why only one of the two syntactic structures, usually the active version, is encoded in the synframes of the respective verbs. The templates for the derived structure are associated with the lexical items by means of syntactic frame extensions. The definition of the DUG formalism is augmented accordingly: (R-22) (R-36)
⬍syntax⬎ ⬍synframeextension⬎
629
Fig. 44.41: Synframe extension rule for passive constructions refers to the lexeme and possibly other attributes of the original synframe; the attribute variables *1 and *2 stand for any other information in addition to the required complements; the term variable *3 substitutes for any other complements or expected adjuncts which may be present in the synframe. The second part of the rule is the blueprint for the synframe to be created. Applied to the synframe of pick up in Figure 44.14, the following new synframe is formed.
Fig. 44.42: Derived synframe for the verb pick up in the passive The target templates ‘⫹patient’ and ‘⫹agent’ must be drawn up like any other template in the overall set of templates describing all kinds of syntactic constructions. ‘⫹patient’ is the subject and ‘⫹agent’ is the prepositional phrase in passive sentences. The ‘⫹phrasal’complement has been taken over from the
:⫽ ⬍template⬎⫹ ⬍synframe⬎⫹ ⬍synframe-extension⬎* :⫽ “(” ⬍rule head⬎ ⬍synframe pattern⬎ ⬍synframe pattern ⬎ “)”
Frame extensions are rules, consisting of the rule head and two patterns. The fist describes the lexically encoded synframe, the second one describes the synframe to be created. (29) a. The robot picks up a block. b. A block is picked up by the robot. The first part of the rule defines the applicability of the rule. The attribute variable *lex
old into the new synframe via the variable ‘*3’. Many other templates for complicated constructions can be drawn up and then linked to the lexicon by means of frame extensions. (30) a. That Bob won is hard to believe. b. It is hard to believe that Bob won. c. What have you been looking at?
630
V. Dependenzielle Theorien
For (30a) we need a that-clause as patient which is obtained by extension from the direct object clause of believe and then raised via the adjective to the copula. A template for the anticipating it is used in (30b) which is extended from all synframes with thatclauses. Instead of treating (30c) as an instance of discontinuity (see section 6.2.), one could draw up two templates, one for the extrapositioned pronoun and another one for the preposition with no complement, and then write an extension rule which derives an extra synframe with these two templates from all synframes with a prepositional object. Note, that all these synframe derivations are not transformations of the corresponding sentences into one another. The principle of separating formation and transformation stands. Synframe extension is just an economical way of providing all the templates needed for a purely declarative description of any syntactic construction.
8.
The semantic system
8.1. The domain of semantics A grammar formalism is relatively futile if it is not paired with a concept of semantics. In principle, we share Wittgenstein’s view that the meaning of a language is its use. In a formal system, the use of a language can be manifest only in form of symbol manipulations allegedly reflecting operations that humans perform with real expressions. This fact leads to a definition of the domain of semantics in the framework of computational linguistics: Semantics is anything (sensible) the system does with the input after syntactic analysis. If one adopts this view then any successful application of a natural language processing system contributes to the elucidation of semantics. DUG distinguishes neatly between three kinds of meaning: lexical meaning, referential meaning, sentence meaning. Lexical meaning deals with the differences between the elements of the vocabulary. We assume that the use of words reflects the understanding of the object domain shared by the current speech community. Lexical meaning intertwines with world knowledge; the relationships within the vocabulary mirror the prototypes of objects,
(R-09) (R-37)
⬍DUG⬎ ⬍semantics⬎
properties and relations which are recognized (or imagined) in real life. Since the collective understanding of the world is a process, lexical semantics has a dynamic character. The next type, referential meaning, is concerned with the concrete denotation of a word in an utterance. Leaving out the contribution of lexical semantics to reference, determination and anaphora remain as the genuine domains of referential semantics. The functioning of articles and pronouns and the cohesion of texts are the central issues. The third kind of semantics is sentence meaning. The essence of sentence semantics becomes clear if one subtracts from it the contribution of lexical meaning and referential meaning. What is left is the logical form of sentences. Dependency structure is a very convenient basis for the formulation of rules which reflect semantic relationships. Usually the semantic rules in a DUG are confined to the role and lexeme attributes of syntactically well-formed dependency trees. This format provides a smooth interface between the syntactic and the semantic system (see below). 8.2. Canonical representation A first set of rules may be drawn up to turn the plain representation of surface structure into a form which is better suited for semantic operations. Anything in syntax you did not like from a semantic point of view can be changed now. For example, the separate lexemes pick and up in the phrasal verb construction may be replaced by a single lexeme pick up:
Fig. 44.43: The rule for changing the representation of the phrasal verb pick up
Rules for substituting phrasal coordination by sentence coordination are another example. They would turn the original analysis of (31a) into the same representation the parser associates with (31b):
:⫽ ⬍morpho-syntax⬎ ⬍syntax⬎ ⬍semantics⬎ :⫽ ⬍semantic rule⬎⫹
631
44. Dependency Unification Grammar
(31) a. The robot passes the blocks to Terry and the pyramids to me after checking them. b. The robot passes the blocks to Terry after checking them and the robot passes the pyramids to me after checking them. Canonical rules may also undo the separation of the extrapositioned pronoun and the preposition with no complement we discussed when dealing with sentence (30c). The pronoun can now be subordinated to the preposition in order to arrive at a uniform representation of prepositional objects. If one follows this strategy in all similar cases, the parser could be spared completely from discontinuity. 8.3. Inferences The capacity to draw inferences is a practical goal of natural language processing systems. The grammar must provide the entities which are relevant to specifying the logical behavior of sentences. (32) All borogoves were mimsy. The mome raths are borogoves. Hence: The mome raths were mimsy. The domain of logical relationships embraces all cases where the possible truth values of two or more sentences are not independent of one another. Logical relationships depend on the structure of sentences and the role of certain words like all, the, be (were, are) rather than on the lexical meaning of the descriptive words and the associated world knowledge. Obviously, the syllogism (32) is valid whatever the words borogoves, mimsy, mome, raths mean. If the two premises in the syllogism are true (i. e. if they are acknowledged by the speaker and the hearer) then the conclusion is true (i. e. it must be acknowledged as well). Just as grammatical constituents can be identified by permutation within well-formed constructions, logical constituents can be detected by permutation within the sentences of a syllogism without destroying the validity of the inference. The patterns of English sentences in Figure 44.44 match the Aristotelian syllogism in (33) as well as the premises and the conclusion in (34). Variables are inserted after the words they match. (33) All men (*role1, *lex2) are mortal (*lex1). Socrates (*lex3) is a man (*lex2). Socrates (*role1, *lex3) is mortal (*lex1).
Fig. 44.44: The classical syllogism in DUG representation
(34) This rule (*terms2) covers (*lex1) all cases (*role1, *lex2) of categorical propositions (*terms1). Most (*terms3) sentences (*lex3) with an all-quantifier (*terms3) are cases (*lex2) of categorical propositions (*terms1). This rule (*terms2) covers (*lex1) most (*terms3) sentences (*role1 *lex3) with an all-quantifier (*terms3). There are two possible strategies to cope with the Logical Form of sentences. If one assumes that there is a principled difference between syntactic and logical constituents, the solution is a translation of syntactic structures into some “deep structure” or into predicate calculus. If one believes that grammatical form and logical form coincide, then the syntactic formalism must directly reveal the logical relationships between syntactic units. The examples above suggest that a dependency representation with functional categories meets this requirement. Syllogisms are based on the syntax of natural language. They provide a natural way to demonstrate how the possible truth values of sentences depend on each other. The following examples relate quantifiers and propositional adverbs. Inferences of this sort go beyond common predicate calculus, because there is no translation equivalent for quantifiers like many, some and few and no truth value similar to probably and might. Insert whatever you like for borogove, rath and mimsy. (35) a. Every borogove is mimsy. This rath is a borogove. Hence: This rath is mimsy.
632
V. Dependenzielle Theorien
b. Many borogoves are mimsy. This rath is a borogove Hence: This rath is probably mimsy. c. Some borogoves are mimsy. This rath is a borogove. Hence: This rath might be mimsy. d. Few borogoves are mimsy. This rath is a borogove. Hence: This rath is probably not mimsy. The formal means exemplified so far suffice for implementing an algorithm for automatic inference. Figure 44.44 can be paraphrased as follows: If a sentence matches the first pattern and if another sentence matches the second pattern then a new sentence can be constructed according to the third pattern. If we have a closer look, we notice that the three sentences share certain constituents and that the status of the two premises is different. The Greeks distinguished between major and minor premise. The major premise (the first sentence in the syllogisms above) is a statement about a general relationship which makes it possible to proceed from the minor premise (the second sentence) to the conclusion. As Toulmin (1958, 98) puts it, the major premise is the “warrant” or “inference license” for drawing a conclusion from a given fact. What we need to do is to turn the general sentence into a real inference rule. In the DUG approach, the three-part scheme of the classical syllogism is divided into two transformation rules of different types: a meta-linguistic rule drawn up by the linguist for the transition from a general statement to an inference rule, and this inference rule itself which controls the transition from the second premise to the conclusion in an actual case. Instead of illustrating this method in detail with the example in Figure 44.44, let us consider the classical modus ponens: (36) a. if α then β. α. --------β. b. (if α then β.) ⇒ (α. |- β.) “⇒” is a rule attribute denoting the transition from a sentence to an inference rule, “|-” is a rule attribute denoting the transition from a minor premise to a conclusion. Metalinguistic rules like (63b) are drawn up for any general sentence. If a sentence matches the pattern ‘if α then β.’ then a new representation is created according to the pattern
‘α. |- β.’ and stored in a knowledge base. If a factual sentence occurs that matches the pattern ‘α.’ in the inference rule then a new sentence can be created according to pattern ‘β.’ The advantage of this approach to logic is that it is purely syntactic. Any syntactic construction expressing regularities in an object domain (e. g. the major premises in 35a through 35d) can be the input to a meta-rule and thus turned into an instruction for automatic inferring. As opposed to an artificial expert system, a natural language inference system gains its actual deductive capacity by being fed with knowledge drawn up in natural language. The task of inferring is formally defined in the PLAIN program as the expansion of a premise p by the conjunction of all conclusions kl to kn, which can be generated from p on the basis of the given inference rules. The task of proving a sentence (or answering a question) is defined as the expansion of a conclusion k by a disjunction of all the sets of premises p1 to pm from which k results on the basis of the given inference rules. Applied in question answering, the system affirms a sentence, if one of the derived sets of premises is present in the knowledege base. If not, the system may output the derived premises in the form of requests for more information. In practice, the rules for the two kinds of expansion differ slightly from (36b). Firstly, if ‘α. |- β.’ is valid then ‘not β. |- not α.’ is valid as well (so-called contraposition). One would prefer one expansion rule for both inferences. Furthermore, expansion rules are not always binary. In the case of a general sentence with complex coordination (i. e. with several nested conjunctions) the transformations eventually result in a representation which is known in logic as a disjunctive normal form. This canonical form consists of an arbitray number of components which are either simple (asserted or negated) statements (so-called literals) or simple statements coordinated by ‘and’. All the components of the fomula are coordinated by ‘or’. In order to match this representation, expansion rules in DUG are adapted to tautological exclusion rather than to a tautological implication: (37) (or (α.) (β.) … (ω.)) ⇒ ( ä (α.) (β.) … (ω.)) “ä” is the rule attribute denoting a non-binary expansion rule. Each disjunct in the canonical form of the input sentence is reflected by a separate pattern in the expansion rule.
633
44. Dependency Unification Grammar
In order to carry out an inference, the rule is applicable to any sentence that matches the negation of one of the patterns in the rule. The result of the application is a disjunction of the sentences which are formed according to the rest of the patterns in the rule. The sylogisms in (38a) justify this usage of the rule: (38) a. or (α.) (.) … (ω.) not α. --------------or (β.) … (ω.)
⬍NO⬎ ⬍AN⬎ ⬍OR⬎ ⬍TR⬎ ⬍FL⬎
or (α.) (.) … (ω.) not β. --------------or (α.) … (ω.)
In order to carry out a proof, the rule is applicable to any sentence that matches one of the pattern in the rule. The result of the application is a conjunction of the negations of the sentences which are formed according to the rest of the patterns in the rule. The sylogisms in (38b) justify this usage of the rule: (38) b. or (α.) (β.) … (ω.) and (not β.) … (not ω.) --------------------α.
implement the described concept of inference and proof:
(39) a. If a dissertation is accepted it is of considerable length or it contains a convincing argument b. (NOT the dissertation is accepted) ä (the dissertation is of considerable length) ä (the dissertation contains a convincing argument) c. NOT the dissertation contains a convincing argument Inferred: (NOT the dissertation is accepted) OR (the dissertation is of considerable length) d. The dissertation contains a convincing argument Proven by: (The dissertation is accepted) AND (NOT the dissertation is of considerable length) (39a) is the original sentence in natural language; (39b) displays the principal structure of the expansion rule. The rule is used for deriving conclusions from a given premise in (39c) and for generating premises that prove a given conclusion in (39d). The list of attributes introduced in 5.1. is augmented by the following items in order to
not and or true false
single, single, single, single, single,
fixed, fixed, fixed, fixed, fixed,
unique unique unique unique unique
or (α.) (β.) … (ω.) not ω. --------------or (α.) (β.) …
8.4. Meaning postulates Carnap (1952) suggests defining the lexical meaning of predicates in predicate calculus by means of meaning postulates. His example is (40) (x) (Bx Mx) (i. e. for all x: if B applies to x then M applies to x)
or (α.) (β.) … (ω.) and (not α.)… (not ω.) --------------------β.
Here is a concrete example:
logical logical logical logical logical
or (α.) (β.) … (ω.) and (not α.) (not β.) … --------------------ω.
B stands for being bachelor and M for being married. The essence of Carnap’s proposal is the formulation of meaning rules in the same language to which they apply. This is in accordance with the way meaning is explained in daily life or in dictionaries. Meaning postulates are major premises which can be turned into inference rules like any other general sentence: (41) a. A bachelor is a man who was never married. b. (NOT someone is a bachelor) ä (someone is a man) (NOT someone is a bachelor) ä (NOT someone is married) (42) a. When two people marry, they legally become husband and wife in a special ceremony. b. NOT two people marry) ä (two people legally become husband and wife in a special ceremony) The definitions in (41a) and (42a) were taken from Collins COBUILD Learner’s Dictionary 1996. (41b) and (42b) sketch the structure of expansion rules which are derived
634 from these definitions due to their logic form. Obviously, these rules reflect the inferences which someone is able to draw if he knows the lexical meaning of bachelor and marry. What are needed, then, are just carefully worked out dictionary definitions in natural language. Should one view meaning postulates as analytic, i. e. as sentences which are true due to language conventions? It is striking that meaning postulates can be converted into inference rules by means of the same meta-linguistic rules which turn general descriptions of object domains into inference rules. This suggests dropping the distinction between linguistic and encyclopedic knowledge in lexical semantics and considering meaning postulates as part of world knowledge. This is justified, because world understanding and the acquisition of meaning go hand in hand. If someone does not know the meaning of a word he often does not know the object the word denotes. While he comes to know the object he learns how to use the corresponding word. One must admit that in practice it is awkward to formulate every meaning relationship in natural language, because the natural means of expression are not precise enough. Therefore, the linguist may draw up meaning postulates in a semi-formal format. Here are a few examples relating the verbs buy, sell, charge, cost. (43) a. someone buys something from someone for a certain sum L someone sells something to someone for a certain sum (relation: equivalence (predication: buy (subject: *1) (dir object: *2) (prep object: from *3) (prep object: for *4)) (predication: sell (subject: *3) (dir object: *2) (indir object: *1) (prep object: for *4))) b. someone sells something to someone for a certain sum L someone charges a certain sum for something (relation: implication (predication: sell (subject: *3) (dir object: *2) (indir object: *1) (prep object: for *4)) (predication: charge (subject: *3) (dir object: *4) (prep object: for *2))) c. someone charges a certain sum for something L something costs a certain sum (relation: implication (predication: charge (subject: *3) (dir object: *4) (prep object: for *2)) (predication: cost (subject: *2) (supplement: *4)))
V. Dependenzielle Theorien
The relations ‘equivalence’ and ‘implication’ are transformed into disjunctive normal form and then yield expansion rules which operate on the full-fledged syntactic patterns of the verbs. Translation is another case of equivalence. The logical consequences to be drawn from both the source sentence and the target sentence must be the same. Syntactic differences between source and target language can be easily accounted for: (44) a. Meine Arbeit macht mir Spaß L I like my job (relation: equivalence (predication: machen (subject: *1) (indir object: *2) (supplement: Spaß)) (predication: like (subject: *2) (dir object: *1))) b. Er wird wohl zu Hause sein L I guess he will be at home (relation: equivalence (predication: *1 (prop adverb: wohl) (*2)) (predication: guess (subject: I) (complement: *1 (*2))) The examples show that DUG advocates a truth conditional approach to semantics. Concepts are meaningful as far as they are used to infer (see Brandom 2000 for recent philosophical support for this position). As opposed to model theoretic approaches in semantics, deriving from Montague (1970) and others, truth values are treated in DUG as a pragmatic matter. Actual inferences depend on the willingness of the speaker and hearer to assume certain regularities in the object domain. Whenever a regularity is understood it can be expressed. Consequently, actual inferences can be derived from the major premises which are accepted by the parties in an argument. However, such general sentences are negotiable; they change. The meanings of descriptive terms are negotiated as well and change. Meaning postulates are prototypical rather than analytic. There is no independent basis for truth values beyond communication. What are analytic indeed are the meta-linguistic rules that turn contingent sentences into inference licenses. These rules rely completely on the syntactic structure and on a few non-descriptive terms. Meta-rules assign truth conditions to syntactic structures in the form of patterns for expansion rules. No world knowledge, no model, is involved in drawing up such rules. This approach is viable for two reasons: Dependency representa-
44. Dependency Unification Grammar
tions closely reflect the structure of predicates and arguments; role attributes identify exactly those units which are relevant from the perspective of logical form.
9.
Select Bibliography
Barton, G. Edward/Berwick, Robert C./Ristad, Eric Sven (1987): Computational Complexity and Natural Language. Cambridge, MA. Brandorn, Robert B. (2000): Articulating Reasons: An Introduction to Inferentialism. Cambridge, MA. Brockhaus, Klaus (1971): Automatische Übersetzung. Braunschweig. Carnap, Rudolf (1934): Logische Syntax der Sprache. Wien. Carnap, Rudolf (1952): Meaning Postulates. In: Philosophical Studies 3, 65⫺73. Chomsky, Noam (1957): Syntactic Structures. The Hague. Collins COBUILD Learner’s Dictionary (1996). London. Gaifman, Haim (1965): Dependency systems and phrase-structure systems. In: Information and Control 8, 304⫺337. Gazdar, Gerald/Klein, Ewan/Pullum Geoffrey K./ Sag, Ivan A. (1985): Generalized Phrase Structure Grammar. Oxford. Hellwig, Peter (1977a): Ein Computermodell für das Folgern in natürlicher Sprache”. In: Eisenberg, Peter (ed.) (1977): Semantik und künstliche Intelligenz. Beiträge zur automatischen Sprachbearbeitung II. Berlin/New York, 59⫺85. Hellwig, Peter (1977b): Dependenzanalyse und Bedeutungspostulate ⫺ eine Alternative zur generativen Transformationsgrammatik. In: Linguistische Berichte 52, 32⫺51. Hellwig, Peter (1978): Formal-desambiguierte Repräsentation. Vorüberlegungen zur maschinellen Bedeutungsanalyse auf der Grundlage der Valenzidee. Stuttgart. Hellwig, Peter (1980): PLAIN ⫺ A Program System for Dependency Analysis and for Simulating Natural Language Inference. In: Bolc, Leonard (ed.) (1980): Representation and Processing of Natural Language. München/Wien/London, 271⫺376. Hellwig, Peter (1986): Dependency Unification Grammar (DUG). In: Proceedings of the 11th International Conference on Computational Linguistics (COLING 86). Bonn, 195⫺198. Hellwig, Peter (1988): Chart Parsing According to the Slot and Filler Principle. In: Proceedings of the 12th International Conference on Computational Linguistics (COLING 88). Budapest, 242⫺244. Hellwig, Peter (1989): Parsing natürlicher Sprachen. In: Ba´tori, Istva´n/Lenders, Wilfried/
635 Putschke, Wolfgang (eds.) (1989): Computational Linguistics. Ein internationales Handbuch zur computerunterstützten Sprachforschung und ihrer Anwendung (⫽ Handbücher zur Sprach- und Kommunikationswissenschaft). Berlin, 348⫺431. Hellwig, Peter (1993): Extended Dependency Unification Grammar. In: Hajicˇova´, Eva (ed.) (1993): Functional Description of Language. Prague, 67⫺ 84. Jackendoff, Ray (1977): X-Bar Syntax: A Study of Phrase Structure. Cambridge, MA. Järvinen, Timo/Tapanainen, Pasi (1998): Towards an implementable dependency grammar. In: Kahane, Silvain/Polguere, Alain (eds.): Processing of Dependency-Based Grammars. Montreal, Canada, 1⫺10 Joshi, Aravind K./Levy, Leon S./Takahashi, Masako (1975): Tree Adjunct Grammars. In: Journal of Computer abd System Sciences, Vol. 10⫺1. Knuth, Donald E. (1968): The Art of Computer Programming. Fundamental Algorithms. Reading, Massachusetts. Koskenniemi, Kimmo (1983): Two-level morphology: a general computational model for word-form recognition and production. Publication No. 11. Helsinki. Kratzer, Angelika/Pause, Eberhard/von Stechow, Arnim (1974): Einführung in die Theorie und Anwendung der generativen Syntax. Zweiter Halbband: Anwendung. Frankfurt/M. Lobin, Henning (1993): Linguistic Perception and Syntactic Structure. In: Eva Hajicˇova´ (ed.) (1993): Functional Description of Language. Prague, 163⫺ 178. Montague, Richard. (1970): English as a formal language. Reprinted in: Thomason, Richard H. (ed.) (1974): Formal philosophy. Selected papers of Richard Montague. New Haven, 188⫺221. Montague, Richard. (1973): The proper treatment of quantification in ordinary English. Reprinted in: Thomason, Richard H. (ed.) (1974): Formal philosophy. Selected papers of Richard Montague. New Haven, 247⫺270. Pollard, Carl/Sag, Ivan A. (1994): Head-Driven Phrase Structure Grammar. Chicago. Spencer, Andrew (1991): Morphological Theory. An Introduction to Word Structure in Generative Grammar. Oxford. Tesnie`re, Lucien (1959): E´le´ments de syntaxe structurale. Paris. Toulmin, Stephen E. (1958): The Uses of Argument. Cambridge. Wells, Rulon S. (1947): Immediate constituents. In: Language 23, 81⫺117.
Peter Hellwig, Heidelberg (Germany)
636
V. Dependenzielle Theorien
45. Metataxe: ein Dependenzmodell für die computerlinguistische Praxis 1. 2. 3. 4. 5. 6. 7.
1.
Grammatikmodellgestaltung als Entwurfsaufgabe Syntax und maschinelle Übersetzung Einsprachige Dependenzsyntax im Modell Metataxe Die eigentliche Metataxe: dependenzsyntaktische Strukturübertragung Modellentwurf und dependenztheoretisches Umfeld Fazit Literatur in Auswahl
Grammatikmodellgestaltung als Entwurfsaufgabe
Zwei Grammatikmodelle, die in der Lage sind, dieselben empirischen Fakten zu beschreiben, können sehr unterschiedlich gestaltet sein, ohne dass notwendigerweise das eine richtiger wäre als das andere. Auch lässt sich nicht immer a priori entscheiden, ob ein Modell „besser“ ist als ein anderes. Vielmehr ist eine gut begründete Auswahlentscheidung im Falle alternativer Modelle oft sinnvollerweise von der Frage nach dem Zweck bestimmt, dem nach diesem Modell erstellte Grammatiken dienen sollen. Dieser Beitrag beschreibt eine dependenzielles Grammatikmodell, das anders ist als andere, weil es einem speziellen Zweck dient: das Modell Metataxe, das ich für die maschinelle Übersetzung entwickelt habe. Viele Grammatikmodelle dienen in erster Linie der einsprachigen Deskription und sind statischer Natur. Auch viele Grammatikmodelle, die transformativ oder generativ heißen, sind in dem hier gemeinten Sinne statisch. Ihr generatives Element liegt auf der Theorieebene und dient dazu, durch Regeln aus Axiomen und Grundelementen sprachliche Formen zu erzeugen. Es stellt nicht die Umsetzung tatsächlicher Texte in andere tatsächliche Texte dar. Übersetzungsgrammatiken dagegen beschreiben gerade diesen Vorgang: die Übertragung eines in einer Ausgangssprache formulierten Inhalts in eine Zielsprache. Ich nenne diesen Typ der Grammatik daher dynamisch. Grammatiken, die nicht allein der Übersetzung, sondern spezieller der maschi-
nellen Übersetzung dienen, sind in einem besonderen Sinne auf Dynamik gerichtet, da sie Grundlage eines automatisierten Umsetzungsprozesses sind. Die maschinelle Übersetzung stellt an eine Grammatik spezifische Anforderungen. Eine Grammatik, die diesem Zweck dient, braucht jedoch nicht selbst als ausführbares Programm direkt in einer Programmiersprache formuliert zu werden. Zu den hier anzuwendenden Grundsätzen gehört als wesentliche Komponente das Prinzip der Modularität. Modularität ist ebenso eine Notwendigkeit professionellen softwaretechnischen und sprachtechnologischen Arbeitens, wie sie auch essentielle Voraussetzung aussagekräftiger und nachvollziehbarer linguistischer Theoriebildung ist. Auf dem Gebiet der maschinellen Übersetzung legt das Prinzip der Modularität es neben vielem anderen nahe, die vier Ebenen (1) des sprachübergreifenden Grammatikmodells, (2) der Grammatik einer bestimmten Sprache, (3) der Formalisierung dieser Grammatik und (4) ihrer Implementierung getrennt zu erarbeiten, zu testen und zu pflegen (vgl. auch Schubert 1988a). In größeren, interdisziplinären Teams ist dies auch deshalb sinnvoll, weil die für die einzelnen Aufgaben erforderlichen Qualifikationen unterschiedlich sind: Modellentwurf und Grammatik sind Sache von Linguisten und Übersetzungswissenschaftlern, die Formalisierung obliegt Computerlinguisten und die Implementierung Softwaretechnologen. Auf die ersten beiden Ebenen gehe ich hier ein; die dritte und vierte liegen im Wesentlichen außerhalb des Rahmens dieses Beitrags (vgl. aber Hellwig 1986; 1989, 358⫺359; Schubert demn.). Das hier beschriebene Modell trägt den Namen Metataxe. Lucien Tesnie`re (1959/ 1982, 283) hat die Bezeichnung me´tataxe für die syntaktische Strukturveränderung eingeführt, die ein Satz bei der Übersetzung erfährt, also etwa für das, was die maschinelle Übersetzung heute Strukturübertragung oder strukturellen Transfer nennt. Ich verstehe den Begriff durchaus im Tesnie`reschen Sinne, verwende ihn jedoch als Etikett für das ganze Grammatikmodell, das sowohl die einsprachige Syntax als auch die Syntax des Über-
45. Metataxe: ein Dependenzmodell für die computerlinguistische Praxis
637
setzungsvorgangs (die eigentliche Metataxe) umfasst. Dies ist nicht als Ummünzung des Begriffs Metataxe gemeint, sondern als ein Name, der das Typische einer Theorie hervorhebt, die ⫺ technischer als Tesnie`re es meinte ⫺ auf die „technique de la traduction“ (Tesnie`re 1959/1982, 284) und damit auf eine dynamische Anwendung der Grammatik gerichtet ist. (Tesnie`re 1959/1982, 50⫺51 verwendet den Gegensatz statisch-dynamisch in einem anderen Sinne; vgl. Bechraoui 1992.) Das Grammatikmodell Metataxe stammt aus dem Projekt Distributed Language Translation (DLT) und ist dort zum ersten Mal dokumentiert (Schubert 1986, 1987). DLT war ein umfangreiches Forschungs- und Entwicklungsprojekt zur maschinellen Übersetzung in weltweiten Kommunikationsnetzen, das in den Jahren 1982 bis 1990 von dem Softwarehaus BSO/Buro voor Systeemontwikkeling BV in Utrecht (Niederlande) betrieben wurde und mehrere funktionierende Prototypen eines maschinellen Übersetzungssystems hervorgebracht hat, die sich des hier beschriebenen Grammatikmodells bedienten (zu Einzelheiten des Projekts vgl. Witkam 1983; Schubert 1988b, demn.; Sadler 1991). Der vorliegende Beitrag beschreibt eine weiterentwickelte Fassung des Modells Metataxe.
tisch alle marktgängigen Systeme, die zumindest minimalen Qualitätsansprüchen gerecht werden, verwenden heute die eine oder andere Art der Transferarchitektur. Zwischensprachsysteme überführen den Inhalt des Ausgangstextes zunächst in eine von Ausgangs- und Zielsprachen unabhängige Zwischenrepräsentation, aus der in jede beliebige Zielsprache weiterübersetzt werden kann. Eine solche sprachunabhängige Zwischenrepräsentation ist ein theoretisches Konstrukt. Meines Erachtens kann kein künstliches Symbolsystem die erforderliche Ausdrucksfähigkeit erreichen, sodass als Zwischenrepräsentation nur eine bereits existierende Sprache in Frage kommt (vgl. Hjelmslev 1963, 101; Schubert 1992a, 83⫺85). Wählt man jedoch als Zwischenrepräsentation eine Sprache, so ist die Systemarchitektur nichts anderes als zwei aufeinander folgende Transferdurchläufe üblicher Art. Das Grammatikmodell Metataxe ist für das maschinelle Übersetzungssystem DLT entworfen, das eine solche doppelte Transferarchitektur aufwies, wobei als Zwischensprache ein syntaktisch eindeutig gemachtes Esperanto fungierte (Schubert 1988d/1997, 1992a). Das Modell umfasst darum eine einsprachige Syntax, die jeweils der Analyse oder der Synthese dient, sowie eine zweisprachige Übertragungssyntax, die eigentliche Metataxe.
2.
2.2. Entscheidungsraum und Entscheidungsmechanismus Das Grammatikmodell Metataxe ist auf maschinelles Übersetzen gerichtet. Der Entwurf des Modells orientiert sich daher vor allem an der Übersetzungsfunktion. Eine Grundidee des Modells ist eine möglichst klare Trennung von Form und Inhalt des sprachlichen Zeichens. Das Modell ist rein syntaktischer Art, wobei ich unter Syntax nicht nur den Satzbau verstehe, sondern alle Regelmäßigkeiten, die sich ohne Zuhilfenahme des Inhalts aus der Form des sprachlichen Zeichens erklären lassen (Schubert 1987, 14⫺16). (Manche Autoren nennen dies Syntaktik im Gegensatz zur Syntax = Satzbau.) Die Syntax beschreibt Regeln der formalen Kombinierbarkeit sprachlicher Zeichen; zur Syntax in diesem Sinne zählen daher Regelmäßigkeiten der Kombination von Morphemen in Wörtern, Wörtern in Syntagmen, Syntagmen in Gliedsätzen, Gliedsätzen in Sätzen und Sätzen in Texten.
Syntax und maschinelle Übersetzung
Bevor das Grammatikmodell entworfen werden kann, soll ein Blick auf seinen Verwendungszweck klären, welchen Anforderungen es zu genügen hat. 2.1. Analyse, Übertragung, Synthese Die Theorie der maschinellen Übersetzung unterscheidet drei grundlegende Systemarchitekturen: Direkt-, Transfer- und Zwischensprachsysteme. Igor’ Mel’cˇuk nennt diese drei Architekturen morphologisch, syntaktisch und semantisch (Mel’cˇuk, private Mitteilung 22. 10. 1998), womit die typische, aber nicht die alleinige Operationsebene der jeweiligen Systeme bezeichnet ist: Direktsysteme übersetzen Wörter und feste Wortverbindungen isoliert und erreichen in der Rohübersetzungsqualität meist nicht die Verständlichkeitsschwelle. Transfersysteme übersetzen syntaktisch analysierte (geparste) Sätze. Prak-
638 Die Diskussion um die Rolle der Semantik in der Syntax wird immer wieder geführt. Im Falle des Modells Metataxe liegt dem Streben nach semantikfreier Syntax eine bewusste Entwurfsentscheidung zugrunde. Syntaktische Regeln weisen im Allgemeinen klare Voraussetzungen und klare Bedingungen auf. Im Falle prozeduraler Regeln kommen klare Aktionen hinzu, die ausgelöst werden, wenn die Bedingungen erfüllt sind. Syntaktische Regeln basieren auf Ja-nein-Entscheidungen. Falls unterschiedliche Bedingungskonstellationen gleichzeitig erfüllbar sind, erlauben solche Regeln mehrere alternative Lösungen und lassen also Ambiguität zu. Semantische Regeln sind dagegen im Allgemeinen vage und unscharf. Sie basieren auf relativen Entscheidungen („besser als“, „ähnlicher als“ …). Sie erlauben es daher oft, aus einer Menge angebotener Alternativen eine als die beste auszuwählen, und können in diesem relativen Sinne für Eindeutigkeit sorgen. Einer computerlinguistischen Formalisierung lassen sich syntaktische Regeln sehr viel einfacher zuführen als semantische, da Softwaresysteme formale (syntaktische) Bedingungen und Aktionen schnell und zuverlässig verarbeiten können, während ihnen ⫺ da sie keine denkenden Wesen sind, denen direktes Verstehen des wiedergegebenen Inhalts möglich wäre ⫺ Bedingungen und Aktionen auf der Inhaltsseite des sprachlichen Zeichens nur auf dem Umweg über eine simulierende Formalisierung zugänglich sind. Geht man von der Diagnose aus, dass Syntax verhältnismäßig einfach formalisierbar aber ambig ist, Semantik dagegen unscharf aber zu relativer Eindeutigkeit fähig, so ergibt sich im maschinellen Übersetzungsvorgang eine deutliche Arbeitsteilung zwischen Syntax und Semantik. Die Syntax erkennt und repräsentiert alternative Möglichkeiten, aus denen Mechanismen auswählen, die von semantischem, pragmatischem und außersprachlichem Wissen gesteuert sind. Das Modell Metataxe ist jener Teil dieses Ganzen, der auf der Formseite des sprachlichen Zeichens arbeitet. Die Syntax erfüllt die Funktion des Bereitstellens von Möglichkeiten im Laufe des maschinellen Übersetzungsvorgangs mehrmals in unterschiedlicher Form. Beim Parsing stellt die einsprachige Syntax die nach den sprachlichen Regelmäßigkeiten zulässigen Strukturen bereit, die die grammatischen Beziehungen zwischen den Elementen eines sprachlichen Ausdrucks beschreiben. Bei dem
V. Dependenzielle Theorien
zu analysierenden Ausdruck kann es sich um ein komplexes Wort, ein Syntagma, einen Gliedsatz, einen Satz oder einen Text handeln. Die Analysesyntax lässt in vielen Fällen für eine bestimmte Kette sprachlicher Zeichen mehrere unterschiedliche Analysen zu. Sie löst also Ambiguitäten nicht, sondern repräsentiert sie. Wo mehrere Lösungen syntaktisch zulässig sind, liegt die Aufgabe der Auswahl bei Melchanismen, die von Inhaltswissen gesteuert sind. Grundlage dieser Mechanismen ist die Semantik; ihre Formalisierung ist Gegenstand der Wissenstechnik. Wo das Wissen fehlt oder nicht ausreicht, treten in der Praxis der maschinellen Übersetzung willkürliche Auswahlmechanismen in Aktion (wie z. B. „die zuerst gefundene Lösung verwenden“). Die Qualität maschineller Übersetzungen ermisst sich hier wesentlich am Verhältnis zwischen Wissen und Willkür. In ähnlicher Form funktioniert die zweisprachige Syntax im Strukturübertragungsschritt. Für eine zu übertragende ausgangssprachliche Struktur kann die Metataxe mehrere, syntaktisch gleichermaßen zulässige zielsprachliche Äquivalente bereitstellen, wobei die Auswahl wiederum Mechanismen überlassen bleibt, die auf der Inhaltsseite des sprachlichen Zeichens agieren. Die Frage, ob Auswahlmechanismen erst eingreifen, wenn alle syntaktisch möglichen Alternativlösungen erzeugt und notiert sind, oder ob sie vielmehr schon während des syntaktischen Bearbeitungsschritts aktiv zu werden haben, ist im Wesentlichen computerlinguistischer Natur, da sie erst dann Bedeutung erlangt, wenn es um die Umsetzung der Grammatik in Bearbeitungsprozeduren geht. Die Grammatik selbst ist deklarativ; erst ihre computerlinguistische Formalisierung ist prozeduraler Art. Eine Syntax nach dem Modell Metataxe hat also die Aufgabe, die Menge der zur Auswahl stehenden alternativen Lösungen zu identifizieren und dadurch den Entscheidungsraum festzulegen, in dem dann ein aus inhaltlichen Wissensquellen gespeister Entscheidungsmechanismus operieren kann. 2.3. Strukturübertragung und lexikale Übertragung Der Übertragungsschritt ist der Übergang von der Ausgangs- zur Zielsprache. Als solcher ist er Angelpunkt des Übersetzungsvorgangs und Ausgangspunkt des Grammatikmodells, das nach dieser zentralen Phase des Übersetzungsvorgangs benannt ist. Wegen
45. Metataxe: ein Dependenzmodell für die computerlinguistische Praxis
der in 2.2 beschriebenen Notwendigkeit, formale von inhaltlichen Bearbeitungsschritten zu trennen und ihnen unterschiedliche Funktionen zuzuweisen, konzipiere ich auch die Übertragungsphase des maschinellen Übersetzungsvorgangs in dieser Form. Die Strukturübertragung oder eigentliche Metataxe umfasst die Umsetzung der Struktur ausgangssprachlicher Zeichenketten in zielsprachliche Strukturen. Dieser Bearbeitungsschritt lässt Ambiguität zu und eröffnet damit den Entscheidungsraum für inhaltsgesteuerte Entscheidungsmechanismen. In sehr enger Verflechtung mit der Strukturübertragung operiert die lexikale Übertragung. Ihr obliegt es, die Wörter zu übertragen. Hier eröffnet das Wörterbuch den Entscheidungsraum, indem es sehr oft für ein ausgangssprachliches Wort eine Reihe zielsprachlicher Übersetzungsentsprechungen zur Auswahl anbietet. Die Entscheidungsmechanismen haben auch hier semantisches, pragmatisches und außersprachliches Wissen einzusetzen, wobei bei marktgängigen Systemen bislang die Willkür das Wissen bei weitem überwiegt. Die lexikale Übertragung ist eine der größten ungelösten Aufgaben der maschinellen Übersetzung. Nach heutigem Kenntnisstand darf man annehmen, dass sie nicht vollständig automatisierbar ist, dass jedoch der mögliche Automatisierungsgrad noch lange nicht erreicht ist (Schubert 1997, 24). Die lexikale Übertragung und ihre Entscheidungsmechanismen stehen außerhalb des Rahmens dieses Beitrags. (Beschreibungen der semantischen Mechanismen, die mit dem Modell Metataxe zusammen entwickelt wurden, geben Sadler 1989 und van Zuijlen 1992; vgl. auch 5.) Die Wortübertragung und die Strukturübertragung stehen jedoch in einer sehr unmittelbaren Wechselbeziehung, da die Wortübertragung die syntaktische Struktur des Syntagmas oder des Satzes über das hinaus verändern kann, was die Strukturübertragung bewirkt. Dies ist dann der Fall, wenn die syntaktische Struktur übersetzungsäquivalenter lexikaler Einheiten nicht in beiden Sprachen gleich ist (vgl. Schubert 1996, 101⫺104). Hier greifen die Strukturübertragung und jener grammatikalisierte Wortartwechsel ineinander, den Tesnie`re (1959/1982, 361) translation nennt (vgl. Werner 1993, 111). 2.4. Isomorphie oder Implizität? Für ein auf maschinelles Übersetzen gerichtetes Syntaxmodell ist die Strukturübertragung der naheliegendste Ausgangspunkt. Hat der
639
linguistische Systementwurf festgelegt, wie der Übertragungsschritt erfolgen soll, so können sich die Eigenschaften und Funktionen der vor und nach diesem zentralen Bearbeitungsschritt liegenden Systemkomponenten hieran orientieren. Zwei Typen von Lösungen sind denkbar, jede mit einer Vielzahl möglicher Ausgestaltungen. Der eine Lösungstyp ist der der isomorphen Syntaxen, der andere beruht auf dem Implizitätsprinzip. In 2.1 war von der Systemarchitektur der Zwischensprachsysteme die Rede und davon, dass es die hierfür erforderliche Zwischensprache nicht gibt, es sei denn in der Form einer existierenden Sprache. Während eine echte Zwischensprache über eigene, von Ausgangs- und Zielsprachen unabhängige strukturelle und lexikale Elemente zu verfügen hätte, ist auch versucht worden, eine hybride Lösung zu verwirklichen, die auf Isomorphie der Syntaxen beruht. Hierbei entstammen die lexikalen Elemente jeweils den Ausgangs- und Zielsprachen, die Analyse des Ausgangssatzes wird jedoch so weit fortgeführt, bis eine syntaktische Struktur entsteht, die für übersetzungsäquivalente Sätze aller am System beteiligten Sprachen übereinstimmt. Ein solcher Ansatz setzt voraus, dass die Syntaxen der Ausgangs- und Zielsprachen auf einen gemeinsamen Nenner gebracht werden können, der dann auf der Ebene der Struktur als Zwischenglied fungiert. Das Projekt Rosetta ging von einem solchen Ansatz isomorpher Grammatiken aus (Landsbergen 1987, 1994; Hutchins 1988, 38⫺39). Ein wesentliches Problem dieses Ansatzes lag darin, dass die isomorph gemachten Grammatiken aller beteiligten Sprachen jedes Mal überarbeitet werden mussten, wenn eine weitere Sprache hinzugefügt werden sollte. Dieser theoretisch durchaus viel versprechende Ansatz, bei dem die Satzstruktur von ihrer lexikalen Füllung getrennt behandelt wurde, hat also die für eine echte Zwischenrepräsentation erforderliche Unabhängigkeit von Ausgangs- und Zielsprachen nicht erreicht. Das Grammatikmodell Metataxe geht einen anderen Weg. Sein Ausgangspunkt ist ein Grundsatz, den ich Implizitätsprinzip nenne (Schubert 1988c). In der kontrastiven Grammatik, der grammatisch orientierten Übersetzungswissenschaft und speziell in Arbeiten zur Strukturübertragung ist oft davon die Rede, dass in bestimmten Fällen ein Satz bei der Übertragung aus einer Sprache in eine andere einer Strukturumformung unterzogen
640
V. Dependenzielle Theorien
werden müsse (vgl. etwa die Beispiele bei Koch 1996, 211). Diese Sichtweise setzt stillschweigend voraus, dass die Syntax von Ausgangs- und Zielsprache weitgehend gleich ist und Umformungen nur in Sonderfällen notwendig werden. Das Modell Metataxe fußt demgegenüber auf der Idee, dass die Struktur jedes einzelnen Satzes (wobei der Satz hier immer stellvertretend für andere mögliche Übersetzungseinheiten steht) bei der Strukturübertragung vollständig zerlegt und in der Zielsprache neu wieder aufgebaut wird. Die eigentliche Metataxe ist also ein Regelsystem zur vollständigen Abbildung aller zulässigen ausgangssprachlichen Strukturen auf zielsprachliche. Sie heißt implizit, weil ihre Regeln sprachliche Formen auf sprachliche Formen abbilden, ohne dabei deren Inhalt in Form einer Metarepräsentation wiederzugeben. Das Aufstellen einer Metataxeregel setzt voraus, dass Ausgangs- und Zielstruktur bedeutungsgleiche Übersetzungsentsprechungen sind. Die Übersetzungsäquivalenz wird hier durch den Autor der Regel festgestellt, während das maschinelle Übersetzungssystem ausschließlich mit Regeln auf der Formseite des sprachlichen Zeichens arbeitet. Andere Ansätze bemühen sich darum, den Inhalt der Übersetzungseinheiten in einer semantischen Repräsentation, einem logischen Formalismus oder in anderer Weise niederzuschreiben, und machen ihn dadurch explizit. Der implizite Ansatz ist für die Arbeit der Grammatikentwerfer auch deswegen vorteilhaft, weil er es erlaubt, die einsprachigen Syntaxen der Ausgangs- und Zielsprachen in vollständiger Unabhängigkeit voneinander zu gestalten. Selbst wenn Wortarten und Dependenztypen (vgl. 3.2) oft in den Syntaxen verschiedener Sprachen gleich lautende, traditionelle Namen (wie Adjektiv oder direktes Objekt) erhalten, so liegt hierin noch keinerlei Festlegung darauf, dass einer so benannten ausgangssprachlichen Struktur in einer bestimmten Zielsprache eine ebenso benannte Struktur zu entsprechen habe. Wollte man dies voraussetzen, so bekäme man auf einer anderen Ebene ganz ähnliche Synchronisierungsprobleme wie bei einem Isomorphieansatz.
3.
Einsprachige Dependenzsyntax im Modell Metataxe
Für den Menschen ist die Symbolkette, die wir Text nennen, Träger eines Inhalts. Wie kann ein automatisierter Übersetzungsvor-
gang so gestaltet werden, dass der implizite Inhalt erhalten bleibt? Kazimierz Ajdukiewicz weist in seinem klassischen Aufsatz darauf hin, was sinnvolle von sinnlosen Symbolketten unterscheidet. Er stellt fest, dass eine Wortkette nur dann einen Sinn hat, wenn sie den Regeln der Syntax entspricht und somit, wie er es nennt, „syntaktisch konnex“ ist (Ajdukiewicz 1935, 1; vgl. Schubert 1987, 51). Auch für Tesnie`re (1959/1982, 11) steht der Begriff der „connexion“ zentral. Er macht jedoch auch deutlich, dass es keine Eins-zu-eins-Entsprechung zwischen einem bestimmten Konnexionsmuster (d. h. einer syntaktischen Struktur) und einem bestimmten Inhalt gibt, sondern dass vielmehr derselbe Inhalt in verschiedenen Sprachen durch unterschiedliche Strukturen repräsentiert werden kann. Übersetzen macht also eine Strukturumformung notwendig. Diese nennt Tesnie`re (1959/1982, 283) me´tataxe. Indem Tesnie`re postuliert, dass übersetzungsäquivalente Sätze zweier Sprachen einander semantisch entsprechen, folgt er dem, was ich Implizitätsprinzip nenne. Tesnie`re bleibt also im Grunde nicht, wie Peter Koch und Thomas Krefeld formulieren, „die ⫺ eigentlich semantischen ⫺ Tertia comparationis schuldig“ (Koch/Krefeld 1991, 8), sondern er hält sie implizit. Engel (1980, 11) und Koch (1996, 212) weisen auf Unterschiede in der semantischen Analyse übersetzungsäquivalenter Sätze hin, wobei allerdings nicht deutlich wird, ob diese Unterschiede in der Sprache oder im semantischen Analysemodell begründet sind. Mit dem nach diesem Begriff Tesnie`res benannten Grammatikmodell schließe ich mich seiner Darstellung in großen Zügen an, arbeite das Modell jedoch mit einer Stringenz aus, wie sie für die computerlinguistische Anwendung erforderlich ist. 3.1. Einheiten und Relationen des dependenzsyntaktischen Systems In der für Dependenzgrammatiken typischen Weise klassifiziert und benennt das Modell Metataxe als primäre Größe nicht Gruppen zusammengehöriger Wörter, sondern die syntaktischen Beziehungen, die ihre Zusammengehörigkeit ausmachen (vgl. Eroms 1985, 307). Es richtet sich so primär auf die syntaktische Funktion und nutzt die syntaktische Form nur sekundär als Identifizierungsmerkmal (vgl. aber Hellwig 1989: 359; siehe auch 3.4). So schafft das Modell eine Struktur, die übersetzungsrelevante Eigenschaften reprä-
45. Metataxe: ein Dependenzmodell für die computerlinguistische Praxis
sentiert und die überdies die für die außerhalb der Syntax liegenden Entscheidungsmechanismen erforderliche Verbindung zur Semantik in recht direkter Weise ermöglicht (vgl. 5). Die so definierte syntaktische Struktur ist zwar mit einer auf sie aufsetzenden semantischen Repräsentation nicht deckungsgleich, ist aber unaufwendig in sie überführbar. Auf diesen, auch in Ajdukiewiczs Gedankengang angelegten Übergang zur Semantik komme ich in 5. zurück. Ein System besteht aus Elementen und den Relationen zwischen ihnen. Für das Modell Metataxe ist das Wort eine naheliegende Einheit. Wenn in Sprachen, die wie etwa Japanisch und Chinesisch eine ununterbrochene Aneinanderreihung der Schriftzeichen erlauben, ebenfalls mit Wörtern gearbeitet werden soll, muss zunächst ein Wortgrenzenerkennungsalgorithmus vorgeschaltet werden. In Sprachen mit komplexen Wörtern, insbesondere in agglutinierenden Sprachen, kann es sinnvoll sein, kleinere Einheiten als das Wort zu wählen, zum Beispiel Morpheme oder feste Morphemgruppen. Von den einsprachigen Dependenzsyntaxen, die nach den Vorgaben des Modells Metataxe erarbeitet worden sind, haben die Autoren der deutschen (Lobin 1989), der dänischen (Ingrid Schubert 1989), der polnischen (S´widzin´ski 1989), der bengalischen (Dasgupta 1989) und der finnischen (Tarvainen 1989) Syntax sowie der des Esperanto (Schubert 1989b) als Einheit das Wort, die der ungarischen (Pro´sze´ky/Koutny/ Wacha 1989) dagegen das Morphem als Einheit gewählt. Die japanische Arbeit (Sato 1989) zeigt ein Beispiel einer Syntax, die erst nach Wortgrenzerkennung angewendet werden kann. (Weitere Dependenzsyntaxen aus dieser Reihe sind unveröffentlicht geblieben: Englisch: Dan Maxwell; Englisch: Bieke van der Korst; Isländisch: Stefa´n Briem; Französisch: Luc Isaac; Französisch: Dorine Tamis; Italienisch: Germano Proverbio/Laura Sciˇ erma´k; Chineolla; Tschechisch: Frantisˇek C sisch: Li Wei; Arabisch: Mauro Tosco.) Als grundlegende Relation zwischen den Wörtern setze ich die Dependenz an, die ich mit Engel (1977/1994, 28) als „gerichtete Konkomitanz“ beziehungsweise als „directed co-occurrence“ (Schubert 1987, 29) definiere. Richard Hudson (1984, 76) spricht von „companion-ship“ und beruft sich in der Frage der Gerichtetheit dieser Beziehung auf Tesnie`re. In einer solchen Dependenzbeziehung stehen zwei Wörter, wenn das eine durch seine inhärenten Kombinationseigenschaften
641
dem anderen das Vorkommen in dem betreffenden Satz ermöglicht (Baumgärtner 1970, 54). Wenn Jürgen Erich Schmidt dagegen meint, Louis Hjelmslev habe „den Dependenzbegriff als undefinierbar erklärt“ (Schmidt 1991, 212 und Anm. 11), so erscheint mir dies missverständlich. Der Terminus afhœngighed ‘Abhängigkeit’, den Hjelmslev (1943/1966, 27) als Axiom annimmt, meint sehr viel mehr als syntaktische Dependenz (vgl. Rasmussen 1992, 428⫺436). Die Dependenzrelation des Modells Metataxe ist jedoch eine syntaktische Beziehung. Es wird bisweilen erörtert, inwieweit sie auf logischsemantische Kombinationsregelmäßigkeiten zurückzuführen ist (vgl. etwa Tarvainen 1981, 16), jedoch ist eine solche semantische Verankerung keine Besonderheit der Dependenz, sondern ein Niederschlag jener sehr viel weiter reichenden Beobachtung, wonach Syntax zu einem festen Regelsystem erstarrte Semantik ist. In dem durch eine Dependenzrelation verbundenen Wortpaar heißt das Wort, das die Vorkommensstelle eröffnet, Regens, während das Wort, das diese Stelle einnimmt, das Dependens ist (Abb. 45.1). Ein Wort kann mehrere Dependentien, aber nur ein unmittelbares Regens haben. Syntaktisch verbundene Wörter bilden ein Syntagma. Das Wort, das innerhalb eines Syntagmas alle anderen Wörter direkt oder indirekt regiert, nenne ich inneres Regens des Syntagmas. Wenn das Syntagma als Ganzes von einem weiteren Wort abhängt, so ist dieses in Bezug auf das betreffende Syntagma ein äußeres Regens (Abb. 45.2). (Die Bedingung, wonach ein Wort nicht mehr als ein unmittelbares Regens haben kann, ist eine willkürliche Festlegung. Sie ist Bestandteil vieler dependenzgrammatischer Modelle, vgl. z. B. Iomdin 1990, 23. Mel’cˇuk 1988, 23⫺24 gibt eine präzise formale Begründung für diese Bedingung. Die Bedingung hat zur Folge, dass die entstehenden Strukturen im Sinne der mathematischen Graphentheorie Baumstrukturen sind, was bei der Formalisierung der Metataxe die Na-
REGENS
DEPENDENS
Abb. 45.1: Regens und Dependens
642
V. Dependenzielle Theorien ÄUSSERES REGENS
INNERES REGENS
DEPENDENS Syntagma
Abb. 45.2: Inneres und äußeres Regens
vigation in der komponentenweise abzuarbeitenden Struktur vereinfacht, vgl. van Zuijlen 1989.) Tesnie`re äußert sich nicht allzu ausführlich zu der Frage, wie eine Dependenzbeziehung zu erkennen ist. Wo vorhanden scheint er vor allem die syntaktische Rektion, also die Bestimmung der morphologischen Form des Dependens durch das Regens, als Kriterium zu verwenden, wobei er in Fällen, in denen morphologische Formen fehlen, die durch Rektion bestimmt sein könnten, oft in Analogie zu Fällen (und Sprachen) vorgeht, in denen es einen solchen sichtbaren Hinweis gibt (vgl. Schubert 1987, 41⫺43). Im Vergleich typologisch unterschiedlicher Sprachen ist dieses Vorgehen problematisch. Die Kriterien Rektion und Analogie (zu indogermanischen Sprachen) führen bisweilen zu Widersprüchen, etwa dort, wo das aus Analogiegründen als Regens eingestufte Wort die morphologische Markierung trägt (vgl. Nichols 1986). In der Frage der Richtung der Dependenzbeziehung kann zwar die syntaktische Rektion als Kriterium dienen, weil sie eine gerichtete Relation ist, in Fällen der Kongruenz jedoch, die ja Rektion in zwei Richtungen ist, reicht dieses Kriterium nicht aus. Engel (1977/1994, 28) nimmt Fälle syntaktischer Kongruenz zum Anlass, darauf hinzuweisen, dass die Frage der Richtung der Dependenzbeziehung der willkürlichen Entscheidung des Grammatikers unterliege. Ich glaube zwar, dass zum Gestalten eines Grammatikmodells oft willkürliche Entscheidungen notwendig sind, denke jedoch, dass sich im vorliegenden Fall ein recht gutes Kriterium in der Beobachtung findet, dass die Kombinationseigenschaften eines Syntagmas im Wesentlichen denen sei-
nes inneren Regens entsprechen (Hudson 1984, 77; Schubert 1987, 36). Durch dieses Kriterium lässt sich das innere Regens in jedem Falle ermitteln, auch dort, wo syntaktische Rektion fehlt oder wo Kongruenz ein Interdependenzverhältnis nahe zu legen scheint. 3.2. Wortarten und Dependenztypen Im Prinzip hat eine Syntax der hier benötigten Art die Aufgabe, zu jedem Wort einer Sprache anzugeben, mit welchen anderen Wörtern es eine syntaktische Relation eingehen kann. Um einer Syntax jedoch ⫺ neben praktischen Eigenschaften wie Überschaubarkeit und Formalisierbarkeit ⫺ eine über das Aufzählbare hinausgehende vorhersagende Gültigkeit zu verleihen, fasst man sowohl die Wörter als auch die Relationen zu Klassen zusammen und formuliert die Aussagen der Syntax nicht als Angaben zu einzelnen Wörtern, sondern als Regeln über eine überschaubare Zahl von Wortklassen und Relationsklassen. Bei den Wörtern bietet sich in europäischen Sprachen eine Einteilung in etwa zehn Klassen an. Ich habe gezeigt (Schubert 1987, 46⫺50), wie Wortklassen distributionell durch Beobachtung paradigmatischer Verhältnisse definiert werden können. Das Ergebnis dieses Verfahrens ist im Allgemeinen eine Einteilung, die der traditionellen Wortarteneinteilung weitgehend entspricht. Sie umfasst die Inhaltswortarten Verb, Adjektiv, Adverb und Substantiv, kommt bei den Funktionswortarten jedoch hier und da zu weniger traditionellen Lösungen, vor allem dort, wo die traditionellen Wortarten, etwa im Bereich der Konjunktionen und Subjunktionen oder der Präpositionen und Postpositionen, distributionellen Kriterien nicht immer genügen. Bei der Einteilung des Wortschatzes in Wortarten hat der Grammatiker eine gewisse Freiheit zu zweckmäßigen und letztlich willkürlichen Entscheidungen. Ist man sehr streng darauf bedacht, dass alle Mitglieder einer Wortart genau dieselben Kombinationseigenschaften aufzuweisen haben, dann erhält man viele Wortarten mit zum Teil nur wenigen Mitgliedern. Lässt man dagegen gewisse Eigenheiten bei Unterwortarten zu, dann kann man mit einer recht traditionellen Wortarteinteilung arbeiten (vgl. 3.5). Wählt man als Grundeinheit nicht das Wort sondern beispielsweise das Morphem (vgl. 3.1), so ergibt sich eine Einteilung, die
45. Metataxe: ein Dependenzmodell für die computerlinguistische Praxis
dem über Wörter Gesagten recht nahe kommt: Die drei beziehungsweise vier Inhaltsmorphemklassen (Verb, Adjektiv/Adverb, Substantiv) sind recht deutlich von anderen unterschieden; bei den Funktionsmorphemklassen ist eine Neufestlegung zweckmäßig. Im folgenden nenne ich die Grundeinheit der Einfachheit halber stets Wort. Führt man eine distributionelle Wortklassifizierung in der erwähnten Art und Weise als Paradigmenbildung (Schubert 1987, 46⫺ 50) durch, so zeigt sich in vielen Fällen, dass die mit einer bestimmten Wortart in syntaktischer Relation stehenden Wörter mehrere diskrete Klassen paradigmatisch austauschbarer Dependentien und Regentien bilden. Ich wähle als Betrachtungsrichtung die vom Regens zum Dependens und nenne die so entstandenen Klassen Dependenztypen. Die Dependenztypen erhalten Namen, die sich soweit möglich an traditionellen Benennungen orientieren: Subjekt, direktes Objekt, indirektes Objekt, freie Angabe usw. (ausführlich Schubert 1987, 51⫺57). In der grafischen Darstellung erscheinen die Wörter auf den Knoten der Baumstruktur, die Dependenztypen dagegen als Etiketten an den Ästen. Eine solche distributionelle Neuklassifizierung der syntaktischen Beziehungen ist schon früher mehrfach vorgeschlagen worden. Einer der ersten, die hier rigoros neu definieren, ist Mel’cˇuk (1964, 18⫺27) mit seinen otnosˇenija neposredstvennoj dominacii ‘unmittelbaren Dominanzbeziehungen’. 3.3. Rekursivität Die menschliche Sprache bildet eine unendliche Fülle an Formen und Strukturen. Ein wesentliches Ziel bei der Gestaltung eines Grammatikmodells ist es, ein Regelwerk zu schaffen, das über das Aufzählbare hinausgeht und in der Lage ist, das Regelmäßige in der Unendlichkeit der sprachlichen Produktion zu erfassen. Es ist bekannt, dass die Extrapolation von endlich vielen Beobachtungen zur unendlichen Vielfalt des Möglichen am besten gelingt, wenn man sich bemüht, ein möglichst elegantes Regelsystem zu schaffen. Ein Regelwerk kann dann als elegant gelten, wenn es möglichst wenige, möglichst einfache Regeln enthält, die jeweils eine möglichst kleine, aber häufig vorkommende Teilstruktur der Menge der zu beschreibenden sprachlichen Strukturen wiedergibt. Natürlich muss ein solches Regelwerk die Komplexität der menschlichen Sprache wiedergeben können. Die Komplexität sollte jedoch nach
643
Möglichkeit nicht in der einzelnen Regel liegen, sondern aus der (oft rekursiven) Kombination einfacher Elementarregeln entstehen. Das Modell Metataxe bildet syntaktische Gegebenheiten in Form von Baumstrukturen ab. Die einem Satz (oder einem Textstück anderer Länge) zugeordnete Baumstruktur ist definiert durch die Kombinationseigenschaften der Wörter. Die in 3.1 gegebene Verallgemeinerung der Darstellung dieser Kombinationseigenschaften beruht auf Klassenbildung bei den Wörtern und den syntaktischen Relationen in Form von Wortarten und Dependenztypen. Dies erlaubt einen sehr einfachen Aufbau einer Basissyntax, die dann, wo nötig, genauer justiert werden muss. Die Grundstrukturen der Syntax lassen sich in zwei Typen einfacher Regeln darstellen. Regeln des ersten Typs geben an, welche Dependenztypen von einem Regens einer bestimmten Wortart abhängen können (Abb. 45.3). Regeln des zweiten Typs beschreiben die syntaktische Form der Dependentien eines bestimmten Dependenztyps (Abb. 45.4). Zum ersten Regeltyp gehört beispielsweise eine Regel, die angibt, dass im Deutschen von der Wortart Verb der Dependenztyp direktes Objekt abhängen kann. Zum zweiten Regeltyp gehört eine Regel, die beschreibt, dass ein direktes Objekt einer der Wortarten Substantiv, Pronomen, Verb (als inneres Regens eines Nebensatzes) usw. angehören kann. Indem man diese beiden Regeln getrennt formuliert, statt eine zusammenfassende Regel über das direkte Objekt von Verben festzulegen, vermeidet man es, redundante Regeln aufzustellen. Auch andere Regentien wie zum Beispiel Partizipien können ein direktes Objekt regieren, das genau dieselbe syntaktische Form
REGENS X?
Abb. 45.3: Grundregeltyp 1
DEP.TYP X?
Abb. 45.4: Grundregeltyp 2
644 hat wie das direkte Objekt eines Verbs. Setzte man für das Verbobjekt eine einzige Regel an, müsste man einen Teil der Information in der Regel über das Objekt des Partizips wiederholen. Stellt man für eine bestimmte Wortart als Regens alle Regeln des ersten Typs in einer einzigen Baumstruktur zusammen, so ergibt sich eine Darstellung, die die maximale Regenskapazität der betreffenden Wortart zeigt. Eine solche Struktur nenne ich Elementarbaum. Ein Elementarbaum besteht aus einem Knoten mit vielen abhängenden Ästen. Jeder Ast trägt sein Dependenztypenetikett. Die Regeln des zweiten Typs geben an, welche syntaktische Form die Dependentien jedes einzelnen Dependenztyps annehmen können. Setzt man an der Stelle der Dependensknoten des Elementarbaums jeweils die Elementarbäume für die dort möglichen Wortarten ein, so erhält man eine Reihe komplexer Bäume. Führt man diesen Vorgang rekursiv aus, so entsteht die Maximalsyntax der jeweiligen Sprache, also eine Beschreibung aller zulässigen Sätze dieser Sprache. Eine solche Maximalsyntax lässt sich grafisch nicht vollständig darstellen, da sie unendlich ist. Als Gedankenexperiment zeigt die Möglichkeit der Erzeugung von Maximalsyntaxen durch rekursives Verknüpfen von Elementarbäumen jedoch, wie ein unendliches System aus wenigen einfachen Regeln erzeugt werden kann. Zwischen der Dependenzgrammatik und der von Aravind Joshi vorgeschlagenen Tree Adjoining Grammar (vgl. Joshi/Schabes 1991; Stone/Doran 1997 und viele weitere Veröffentlichungen) besteht bekanntlich eine deutliche Verwandtschaft. Im Falle des Modells Metataxe wird dies an dem hier dargestellten Gedankenexperiment besonders deutlich. Die in diesen beiden Regeltypen beschreibbare Syntax bedarf jedoch der Verfeinerung und Justierung. Im bisher beschriebenen Zustand ist sie das, was die generative Grammatik eine übergenerierende Syntax nennt. Die beiden genannten Regeltypen beschreiben den kleinsten denkbaren Ausschnitt aus einer komplexeren Struktur, in dem noch ein Element des Systems und eine Relation vorhanden sind. Je kleiner der gewählte Ausschnitt, desto häufiger ist die Regel anwendbar und desto eleganter wird das Regelwerk. Es gibt jedoch Regelmäßigkeiten, die eine größere Zahl an Wörtern und Dependenztypen einbeziehen. Das Verhältnis zwischen einem deutschen Verb und seinem di-
V. Dependenzielle Theorien
rekten Objekt kann man zwar wie oben gezeigt in zwei Regeln erfassen, von denen die eine angibt, dass ein Verb ein direktes Objekt haben kann (erster Regeltyp), und die andere, dass das direkte Objekt z. B. ein Substantiv sein kann. Letztere Regel sollte genauer gefasst werden, denn über die Wortart hinaus wird noch ein Merkmal durch die Funktion des Wortes als direktes Objekt bestimmt: der Kasus. Welcher der Kasus Akkusativ, Dativ und Genitiv es ist, lässt sich in dem kleinen Ausschnitt aus Dependenztyp und Dependens nicht ermitteln. Die Kasuswahl ist vom Regens gesteuert. (Diese Beschreibung setzt voraus, dass man Genitive und Dative ebenso als direkte Objekte einordnet wie Akkusative, was mir aus der Sicht des Modells Metataxe sinnvoll erscheint. Lobin (1989), der ebenfalls nach den Vorgaben dieses Modells gearbeitet hat, hat sich anders entschieden und in Engelscher Tradition die Objektdependenztypen nach ihrer Kasusform unterschiedlich benannt. Beide Lösungen sind möglich; meine verursacht etwas größeren Aufwand in der Analysephase, Lobins in der Übertragungsphase.) Wenn die Kasuswahl beim direkten Objekt von einer speziellen Eigenschaft bestimmter regierender Verben abhängt, dann braucht man eine Informationsquelle, die verzeichnet, welches Verb welchen Kasus verlangt. Ich komme bei den Themen Valenz (3.5) und Wörterbuch (3.6) hierauf zurück. Festzuhalten bleibt, dass hier eine Regel vorliegt, die komplexer ist als die beiden Minimalregeltypen. Eine andere Form der Verfeinerung der durch die Minimalregeltypen konstituierten Basissyntax wird dann notwendig, wenn nicht, wie bisher angenommen, Regentien, die derselben Wortart angehören, auch dieselben Dependenztypen regieren können. Dies kann zum einen daran liegen, dass man die Wortarten so weit gefasst hat, dass es dependenziell unterscheidbare Unterwortarten gibt (vgl. 3.5). In diesem Fall haben also verschiedene Wörter derselben Wortart unterschiedliche Regenseigenschaften. Es gibt jedoch auch den Fall, dass sich die Regenseigenschaften ein und desselben Wortes durch das Hinzutreten syntaktischer Merkmale ändern. Beispielsweise sind im Deutschen die Regenseigenschaften eines Verbs bei Anwesenheit des Merkmals infinit anders, als wenn das Merkmal finit steht, und innerhalb der Menge der Verben mit dem Merkmal finit sind die Regenseigenschaften unterschiedlich je nachdem, ob das Diathesemerkmal Aktiv
45. Metataxe: ein Dependenzmodell für die computerlinguistische Praxis
oder Passiv steht. (Anders als Badia 1993, 117 glaube ich nicht, dass man zur Erklärung der diatheseabhängigen Regenseigenschaften eine Tiefenstruktur mit semantischen Rollen heranziehen muss.) 3.4. Direkt und indirekt übersetzbare Merkmale Aus der Festlegung, dass das Grammatikmodell Metataxe alles umfassen soll, was auf der Formseite des sprachlichen Zeichens liegt (vgl. 2.2), ergibt sich, dass es auch die syntaktischen Relationen zwischen den Elementen des Wortes einschließt, also das, was traditionellerweise Morphologie und Wortbildung heißt. Von der Wortbildung kann das Modell jedoch nur den auf der Formseite des sprachlichen Zeichens fassbaren Teil einschließen. Eine Dependenzsemantik des Wortes habe ich anderweitig dargestellt (Schubert 1993). Das dependenzielle Kombinationsverhalten von Wörtern wird von einigen ihrer Merkmale beeinflusst. Zu den Merkmalen zähle ich hier alle syntaktischen und semantischen Eigenschaften, die an den Wörtern einer bestimmten Sprache in grammatikalisierter Form ausgedrückt werden. Als grammatikalisiert können solche Eigenschaften gelten, bei denen eine bestimmte Form- oder Inhaltskategorie eine feste Zahl möglicher Werte annehmen kann, die bei einer großen Zahl von Wörtern in gleichartiger Weise ausgedrückt sind. Hierzu zählen die Kategorien Numerus, Finitheit, Tempus, Modus, Aspekt, Diathese und andere. Ein Merkmal kann durch ein Morphem, die Veränderung eines Stammmorphems, ein Funktionswort oder durch die Wortfolge angezeigt werden. Welchen konkreten Ausdruck ein bestimmtes Merkmal hat und welche Ambiguitäten bei der Zuordnung von Ausdrucksformen zu Merkmalen bestehen, ist Sache des Parsings, dessen Mechanismen durch Formalisierung einer einsprachigen Syntax entstehen. Es gibt jedoch eine Unterscheidung, die in der Übertragungsphase des maschinellen Übersetzungsvorgangs unmittelbar funktional ist. Dies ist die Unterscheidung zwischen direkt und indirekt übersetzbaren Merkmalen. Das Parsing hat die Aufgabe, einen linearen Satz in eine Baumstruktur umzusetzen, die die Dependenzrelationen zwischen den Wörtern des Satzes in der hier beschriebenen Weise angibt. Die zum Aufbau dieser Struktur erforderliche Information kommt aus zwei Quellen: (1) Regeln, die Schlüsse aus den
645
Merkmalen auf die Dependenzrelationen des betreffenden Wortes zu anderen Wörtern erlauben, und (2) Information, die dem Wort in einem Wörterbuch oder einem System von Redundanzregeln zugeordnet ist. Welche Informationsquelle welche Information liefert, ist einzelsprachspezifisch unterschiedlich. Ebenso ist je nach Sprache verschieden, in welcher Art die jeweiligen Merkmale ausgedrückt sind: was in der einen Sprache an der Wortfolge abzulesen ist, wird in der anderen durch Flexion wiedergegeben, und was in der einen Sprache aus der Wortform ableitbar ist, muss in der anderen Sprache für jedes in Frage kommende Wort im Wörterbuch verzeichnet werden. In Sprachen, deren Wörter Merkmale tragen, die Aussagen über die Dependenzrelationen im Satz erlauben, lassen sich meist Merkmale unterscheiden, deren einzige Funktion im Übersetzungsvorgang das Bereitstellen der Dependenzinformation für das Parsing ist. Diese Morpheme nenne ich indirekt übersetzbar. Daneben gibt es Merkmale, die Bedeutung tragen. Diese nenne ich direkt übersetzbar. (Mel’cˇuk 1988, 20 spricht in ähnlicher Weise von direktem und indirektem Bezug zur Semantik.) Ein Beispiel für indirekt übersetzbare Merkmale sind die Kasusmerkmale in den Sätzen Er braucht meine Hilfe und Er bedarf meiner Hilfe. Ich ordne das Wort Hilfe in beiden Sätzen als direktes Objekt des jeweiligen Verbs ein. Die Kasusmerkmale haben nur die Funktion, zusammen mit regensseitiger Information wie der Valenz des Verbs dem Syntagma meine(r) Hilfe den Dependenztyp direktes Objekt zuzuweisen. Sobald dies erfolgt ist, ist die Information, dass das Substantiv in dem einen Fall im Akkusativ und in dem anderen Fall im Genitiv stand, nicht mehr erforderlich. Im weiteren Verlauf des Übersetzungsvorgangs verwendet die lexikale Übertragung die direkt übersetzbaren Merkmale (z. B. das Numerusmerkmal), während die Strukturübertragung den Dependenztyp und eventuell die Wortartinformation benutzt. Das Kasusmerkmal hat nur indirekt zur Übersetzung beigetragen. Nach dem Parsing hat es seine Funktion erfüllt und braucht in der Baumstruktur nicht mehr wiedergegeben zu werden. 3.5. Justierung des Regelsystems: Valenz Tesnie`res bekanntester Begriff ist der der Valenz. Autoren, die vor Einsetzen der Tesnie`reRezeption arbeiten, stellen dabei die Begriffe Dependenz und Valenz meist nicht als ge-
646 trennt gegenüber. Solomon Kacnel’son (1948, 132) und A.W. de Groot (1949, 111) verstehen unter Valenz ganz allgemein die Fähigkeit des Wortes, syntaktische Verbindungen mit anderen Wörtern einzugehen. (Zur Bedeutung Kacnel’sons vgl. die Anmerkungen der Übersetzer in Kacnel’son 1987/1988, 1 Anm. 1.) Tesnie`re (1959/1982, 238) bezeichnet als Valenz die Fähigkeit eines Regens (er spricht vom Verb), eine bestimmte Anzahl abhängiger Aktanten zu regieren. In Tesnie`res Art, die Aktanten zu nummerieren, war eine Angabe dessen, was ich Dependenztyp nenne, wohl mitenthalten. Für das Modell Metataxe ist es sinnvoll, eine präzisierte Fassung des Valenzbegriffs zu verwenden. Ich definiere mit Engel (1977/ 1982, 96) Valenz als die für eine Unterwortart spezifische Fähigkeit, Dependentien zu regieren. Bei jeder Wortart, die überhaupt Dependentien haben kann, kann es Unterwortarten mit spezifischen Valenzeigenschaften geben. Die Valenz umfasst nicht nur die Zahl der Dependentien und nicht nur die Dependenztypen, sondern auch die syntaktische Form des Dependens. Engel leitet aus der Valenz die Unterscheidung zwischen Ergänzungen und Angaben her, wobei Ergänzungen valenzgebundene, also unterwortartspezifische, und Angaben von allen Mitgliedern der Wortart gleichermaßen regierte Dependenztypen sind. Für die maschinelle Übersetzung ist die Unterscheidung zwischen Ergänzungen und Angaben nützlich, wobei manche theoretische Undeutlichkeiten in der Verwendung, die die beiden Termini bei verschiedenen Autoren finden, durch zweckmäßige aber willkürliche Entscheidungen des Grammatikers beseitigt werden können. Zu diesen Undeutlichkeiten gehört der Widerspruch zwischen einer bei vielen Autoren einschließlich Tesnie`re (1959/ 1982, 102) mitschwingenden intuitiven Festlegung der Ergänzungen als der „wichtigen“ Dependentien und der Tatsache, dass beispielsweise der von den allermeisten Autoren ohne Zögern als Ergänzung eingestufte Dependenztyp Subjekt Engels Definition im Deutschen nicht genügt, da jedes finite deutsche Verb ein Subjekt regiert und dieser Dependenztyp also gerade nicht auf eine Unterwortart beschränkt ist. Die intuitive Unterscheidung hat durchaus grammatischen Aussagewert, etwa wo es um die Regel geht, nach der ein bestimmtes Regens in ein und demselben Satz nur jeweils ein Exemplar eines Ergänzungstyps, aber ohne weiteres mehrere
V. Dependenzielle Theorien
Angaben gleichen Typs regieren kann. (Mehrere nebengeordnete Dependentien bilden zusammen ein Syntagma, so dass sie dieser Regel nicht widersprechen; vgl. 3.7) Da Information über die Anzahl möglicher Dependenztypen bei demselben Regens in der maschinellen Übersetzung für Bearbeitungsschritte wie das notorisch ambiguitätsgeplagte Parsing wichtig sind, nehme ich die Unterscheidung der Dependenztypen in Ergänzungen und Angaben in das Modell auf. Die geringe Zahl der Dependenztypen einer Sprache erlaubt notfalls eine willkürliche Zuordnung zu diesen beiden Gruppen, falls keine theoretisch besser untermauerte Definition zur Verfügung steht. 3.6. Feinjustierung des Regelsystems: Syntax und Wörterbuch Die in Abb. 45.4 und 45.5 gezeigten Grundtypen syntaktischer Regeln konstituieren eine Basissyntax, die, wie in 3.3 beschrieben, der Justierung bedarf. Die beiden Grundregeltypen beschreiben jeweils nur einen Knoten und einen Ast beziehungsweise einen Ast und einen Knoten der Baumstruktur, wobei der Knoten durch Angabe der Wortart und der Ast durch einen Dependenztyp spezifiziert wird. Es gibt jedoch sprachliche Regelmäßigkeiten, die mit einer solchen Minimalspezifikation nicht zu erfassen sind. In 3.3 habe ich bereits am Beispiel des Objektkasus eine Regelmäßigkeit gezeigt, die zwei Knoten und den verbindenden Ast einbezieht und die überdies nicht damit auskommt, die Wortart des abhängigen Knotens festzulegen, sondern darüber hinaus ein bestimmtes Merkmal verlangt. Die Valenz (vgl. 3.5) ist eine Regelmäßigkeit, die zwar in vielen Fällen in Regeln des ersten Grundregeltyps formuliert werden kann, bei der jedoch die Angabe einer Wortart für den in dieser Regel vorkommenden Regensknoten nicht ausreicht. Regeln über valenzgebundene Dependenzrelationen machen es erforderlich, den Regensknoten auf eine Unterwortart einzuschränken. Vor allem wenn es um die computerlinguistische Umsetzung solcher Regelmäßigkeiten geht, wird häufig erörtert, welche Information in die Syntax und welche in das Wörterbuch gehört. Das Modell Metataxe ist auch in dieser Frage von Zweckmäßigkeitsüberlegungen geleitet. Illustrationen wie Abb. 45.4 und 45.5 deuten bereits an, dass sich die syntaktischen Regeln des Modells in derselben Weise als Baumstrukturen darstellen lassen, wie die Strukturen der von ihnen be-
647
45. Metataxe: ein Dependenzmodell für die computerlinguistische Praxis
schriebenen Sätze. (Das Parsing wird dadurch zu einem Strukturabgleich zwischen Analyseobjekt und Regelmenge.) Auch die syntaktische Information, die man traditionellerweise in einem Wörterbuch sucht, lässt sich in Baumform darstellen. Das Modell Metataxe kennt daher keinen grundsätzlichen Unterschied zwischen Syntax und (syntaktischem) Wörterbuch. Wenn man in der computerlinguistischen Formalisierung Regelwerk und Wörterbuch getrennt halten möchte (etwa um in einem maschinellen Übersetzungssystem dem Anwender Zugriff auf das Wörterbuch, nicht aber auf die Syntax zu geben), dann lässt sich ein einfaches Trennungskriterium in den Baumstrukturen finden, die die Regeln darstellen. Baumstrukturen, deren inneres Regens ein konkretes Wort ist, werden dann dem Wörterbuch zugeordnet, während Regeln, deren inneres Regens eine Variable ist, in die Syntax gehören. Strukturen der ersten Art nenne ich wortspezifische, die der zweiten konstruktionsspezifische Regeln. So klar diese Einteilung klingt, so willkürlich ist sie jedoch. Dies wird deutlich, wenn man das Problem redundanter Information einbezieht. Wenn zum Beispiel nur ein Teil der Mitglieder der Wortart Verb ein direktes Objekt regieren kann, dann muss irgendwo die Information notiert sein, um welche Verben es sich handelt. Notiert man im Wörterbuch bei jedem dieser Verben, dass sie ein direktes Objekt regieren können und welche Merkmale das Objekt trägt, so enthält das Wörterbuch bald eine Vielzahl gleichartiger, jeweils für ein anderes Wort spezifischer Regeln. Hier liegt es nahe, die redundante Information aus dem Wörterbuch herauszuziehen und jeweils nur einmal in Form einer konstruktionsspezifischen Regel zu formulieren, deren inneres Regens eine Variable für ein „Verb der Valenzklasse X“ ist. Die Wörterbucheinträge der betreffenden Verben enthalten dann nur ein Merkmal „Valenzklasse X“.
trächtigen Erscheinungen, die schon vielen grammatischen Studien Stoff geboten haben: der Nebenordnung und der Ellipse. Nebenordnungskonstruktionen liegen dann vor, wenn zwei Dependentien desselben unmittelbaren Regens durch eine (nebenordnende) Konjunktion verbunden sind. Von den möglichen Repräsentationen solcher Dependenzrelationen verwendet das Modell Metataxe eine Lösung, bei der die Konjunktion unmittelbares Regens der nebengeordneten Syntagmen ist. Hierdurch entsteht ein Syntagma üblicher Struktur mit einem einzigen inneren Regens (der Konjunktion) und zwei Dependentien. Der Dependenztyp, mit dem das nebengeordnete komplexe Syntagma von einem äußeren Regens abhängt, verdoppelt sich so, dass die beiden abhängigen Syntagmen von der Konjunktion mit demselben Dependenztyp abhängen. In den Baumstrukturen kennzeichne ich diese verdoppelten Dependenztypen mit einem Etikettsuffix (auf Deutsch -N „Nebenordnung“). Die Nebenordnung ist binär, kann aber rekursiv angewendet werden. Abb. 45.5 zeigt (mit Tesnie`res Beispielsatz) zwei nebengeordnete Subjekte, Abb. 45.6 eine Dreieraufzählung. Das Komma, das hier ähnlich wie eine Konjunktion fungiert, wird wie ein Wort behandelt und steht auf dem Knoten der Baumstruktur. REG travailler SUBJ et SUBJ-N
Alfred
SUBJ-N
Bernard
Abb. 45.5: Zwei nebengeordnete Subjekte
3.7. Komplexe Syntax Arbeiten zur Syntax beschränken sich häufig auf die Regelmäßigkeiten des einfachen Haupt- und Nebensatzes. Auch die oben stehenden Abschnitte sind in dieser Weise geschrieben. Die einfachen Syntaxstrukturen, die durch die Grundregeltypen, die Elementarbäume sowie die besprochenen Justierungen in Form konstruktions- und wortspezifischer Regeln beschrieben werden, unterliegen jedoch zwei außerordentlich ambiguitäts-
Nebenordnungskonstruktionen können auch auf verschiedene andere Weisen repräsentiert werden. Ich habe die wichtigsten Alternativen diskutiert und die Entscheidung für die hier gezeigte Lösung begründet (Schubert 1987, 104⫺119). Ein wesentlicher Vorteil dieser Lösung liegt darin, dass die in der einfachen Syntax gültigen Regelmäßigkeiten über die Anzahl von Dependentien (vgl. 3.5) bei dieser Lösung auch für Nebenordnungskonstruk-
648
V. Dependenzielle Theorien REG travailler SUBJ et SUBJ-N
SUBJ-N
“,” SUBJ-N
Alfred
Charles SUBJ-N
Bernard
Abb. 45.6: Drei nebengeordnete Subjekte
tionen gelten, da diese nach außen hin als ein einziges Syntagma mit nur einem inneren Regens auftreten. Die Konjunktion erhält hierbei die Funktion des „Weiterkopierens“ syntaktischer Regeln und Merkmale in aufsteigender und absteigender Richtung im Baum, ähnlich wie dies von den Vererbungsregeln anderer Grammatikmodelle bekannt ist. Die Beschreibung in den oben stehenden Absätzen geht der Einfachheit halber von dem sehr häufigen Fall aus, dass das komplexe Nebenordnungssyntagma als Ganzes von einem äußeren Regens abhängt, wie in Abb. 45.5 und 45.6 gezeigt. Darüber hinaus gibt es jedoch auch nicht selten Sätze, in denen die inneren Regentien zweier Hauptsätze nebengeordnet sind. Das Modell Metataxe repräsentiert diese Konstruktion analog zu den gezeigten Beispielen, wobei die Konjunktion dann Hauptregens des komplexen Satzes ist und der Dependenztyp, der durch die Konjunktion verdoppelt wird, der leere Dependenztyp Regens (REG) ist. Mit diesem Etikett markiere ich das Hauptregens eines Satzes. Das Etikett bekommt erst dann eine Funktion, wenn satzübergreifende Syntax betrieben wird. Die hier gegebene Beschreibung geht davon aus, dass die Nebenordnung zwei Dependentien gleichen Dependenztyps zusammenstellt. Eine solche Regel ist für das Parsing hilfreich. Sie begrenzt jedoch die Gestaltungsfreiheit bei der Festlegung der Dependenztypen (vgl. 3.2). Insbesondere im Bereich
der freien Angaben sind in manchen Sprachen recht unterschiedliche Konstruktionen nebenordnungsfähig. Ordnet man diesen verschiedene Dependenztypen zu, so müssen Regeln über miteinander nebenordnungsfähige und nicht nebenordnungsfähige Dependenztypen aufgestellt werden. Geht man umgekehrt vor und ordnet alles, was nebengeordnet werden kann, demselben Dependenztyp zu, so erhält man einige recht heterogene Dependenztypen, die jeweils sehr häufig vorkommen. Welche Lösung man bevorzugt, hängt davon ab, wie zweckmäßig es ist, in der Strukturübertragung mit vielen beziehungsweise mit wenigen Dependenztypen zu arbeiten. Dass die Nebenordnung zu den notorischen Problemfällen der Syntax und ihrer computerlinguistischen Formalisierung gehört, hat vor allem zwei Ursachen. Eine davon ist die Ellipse, von der unten die Rede ist. Die andere ist die Tatsache, dass Nebenordnung auf allen Ebenen der Syntax möglich ist, von unvollständigen Wörtern (Imund Export) bis hin zu ganzen Satzgefügen und Textteilen. Hierdurch wird das Erkennen der gemeinten Dependenzrelation oft sehr schwierig. Die Syntax hat hier wie in anderen Fällen jedoch nur die Aufgabe, den Entscheidungsraum zu beschreiben. Zum Fällen der im Analysevorgang notwendigen Entscheidungen fehlen ihr Mechanismen und Kriterien (vgl. 2.2). Ein sprachliches Phänomen, das ebenfalls der Beschreibung des Entscheidungsraums erhebliche Schwierigkeiten bereitet, ist die Ellipse. Die Benennung dieses Phänomens deutet auf die Vorstellung, dass etwas weggelassen sei. Eine solche Vorstellung bringt die empirisch vorgefundene sprachliche Wirklichkeit in einen Bezug zu einem Konstrukt wie etwa dem eines vollständigen, nichtelliptischen Satzes. Ob überhaupt theoretische Konstrukte dieser Art verwendet werden sollen und wie sie im Einzelnen zu gestalten sind, liegt dabei in der Hand des Grammatikers. Den meisten Dependenzmodellen liegt der Rückgriff auf Konstrukte sehr viel ferner als den Modellen der generativen Tradition, an deren Beginn der Transformationsgedanke stand. Im Modell Metataxe ist es sinnvoll, weitgehend ohne Ellipsen auszukommen, solange von einfachen Haupt- und Nebensätzen die Rede ist. Was in diesem Bereich bisweilen als Ellipse erklärt wird, findet seinen Niederschlag im Modell Metataxe eher in der Form eines Verzichts auf allzu kategori-
649
45. Metataxe: ein Dependenzmodell für die computerlinguistische Praxis REG werden FANG
PAP
SUBJ
und
Messinstrument
hierzu
DET das
PAP-N
PAP-N
schalten
anschließen
FANG in PARG Leitung DET die
Abb. 45.7: Nichtelliptische Konstruktion: nebengeordnete Passivpartizipien
REG und FANG
REG-N
REG-N
hierzu
werden PAP
SUBJ Messinstrument
anschließen
DET das
PAP
SUBJ Widerstand DET der
schalten FANG in PARG Leitung DET die
Abb. 45.8: Elliptische Konstruktion mit leerem Knoten
650 sche Einstufung bestimmter Dependentien als obligatorisch. Hierdurch verliert auch die Unterscheidung von Ergänzungen und Angaben einen Teil der Bedeutung, die sie in anderen Modellen hat. Das Modell Metataxe macht jedoch Gebrauch von der Vorstellung der Ellipse, wo es sich um Nebenordnungen auf der Ebene des Haupt- oder Nebensatzes handelt. In solchen Konstruktionen lässt eine große Zahl von Sprachen im ersten wie im zweiten Glied der Nebenordnung spezifische Verhältnisse zu, die sich am konsistentesten erklären lassen, wenn man annimmt, dass bestimmte Dependenten von einem Regens abhängen, das nicht dasteht. Die Regenseigenschaften dieses als Konstrukt eingefügten leeren Wortes lassen sich mit recht guter Regelmäßigkeit von denen seines Nebenordnungsgegenstücks ableiten. Der Satz Hierzu wird das Messinstrument angeschlossen und in die Leitung geschaltet erfordert noch keine Erklärung durch Ellipse. Hier regiert das finite Verb werden das Subjekt (Abb. 45.7). Dagegen weist der Satz Hierzu wird das Messinstrument angeschlossen und der Widerstand in die Leitung geschaltet eine Nebenordnungsellipse auf, bei der ein leerer Knoten mit den Regenseigenschaften des ihm nebengeordneten Knotens werden angesetzt wird (Abb. 45.8). In den fachsprachlichen Textsorten, die Haupteinsatzgebiet der maschinellen Übersetzung sind, ist die Nebenordnungsellipse die weitaus häufigste. Andere, vor allem umgangssprachliche Ellipsen, die in der linguistischen Literatur oft erörtert werden, spielen hier keine herausragende Rolle. 3.8. Textsyntax Syntax wird oft im Wesentlichen als Lehre vom Satzbau betrieben. Spätestens beim Arbeitsgang der Übertragung zeigt sich jedoch, dass ein Teil der zum Übersetzen eines Satzes erforderlichen Information in dem zu übersetzenden Text, jedoch außerhalb des betreffenden Satzes gesucht werden muss (vgl. 4.3). Eine Übersetzungsgrammatik ist daher ohne eine textgrammatische Komponente unvollständig. Eine Syntax auf Textebene hat die Regelmäßigkeiten der Kombinierbarkeit der Elemente eines Textes zu beschreiben. Solange es sich nicht als sinnvoll erweist, Zwischenebenen anzusetzen, geht es hierbei also vor allem um Regeln für die Kombination von Sätzen. Bei Versuchen, derartige Regeln zu beobachten und in grammatisch konsistente Form zu
V. Dependenzielle Theorien
bringen, fällt auf, dass die Kombinierbarkeit der Elemente in sehr hohem Maße der Wahlfreiheit des Sprechers beziehungsweise Autors unterliegt und somit inhaltlicher Art ist. Wo der Sprecher Wahlfreiheit hat, bietet das System Ansatzpunkte für Einflüsse des kommunikativen Gebrauchs der Sprache in der Sprachgemeinschaft. Es wird deutlich, dass auf Textebene auf der Formseite des sprachlichen Zeichens nur einige wenige Regelmäßigkeiten operieren. Diese haben Einfluss auf die Textstruktur, determinieren sie jedoch keineswegs in einem Umfang, wie dies bei der Struktur von Sätzen und Syntagmen der Fall ist. Die Balance zwischen textsyntaktischem Eröffnen des Entscheidungsraums und Entscheidungsmechanismen semantischer, pragmatischer und außersprachlicher Art ist hier gegenüber der Satzebene stark in Richtung auf die inhaltsbezogenen Mechanismen verschoben. In einer übersetzungsorientierten Studie haben Bart Papegaaij und ich drei zentrale Mechanismen der Textkohärenz beschrieben: die Kohärenz der Referenz, die Kohärenz der kommunikativen Gliederung und die Kohärenz der Ereignisse („coherence of entities“, „coherence of focus“, „coherence of events“: Papegaaij/Schubert 1988, 159⫺199). Bei der Kohärenz der Referenz geht es um Aussagen in einem Text, die auf dieselben außersprachlichen Objekte und Ereignisse verweisen. Sie hat einen syntaktischen Reflex in Sprachen, in denen eine Bedeutungskomponente wie Vorerwähntheit oder „shared knowledge“ einen grammatikalisierten Ausdruck findet, etwa in der Bestimmtheit des Substantivs. Ein weiterer syntaktischer Reflex liegt in der syntaktischen Beschränkung der Auswahl möglicher Korrelate anaphorischer und kataphorischer Verweise durch Pronomen und andere deiktische Mittel (einen dependenziellen Lösungsansatz zeigen Lappin/McCord 1990). Bei der Kohärenz der kommunikativen Gliederung geht es unter anderem um die Thema-Rhema-Gliederung von Sätzen. Ihr syntaktischer Reflex liegt je nach Sprache in der Bestimmtheit des Substantivs oder beispielsweise in der Syntagmenfolge mit den für die jeweilige Sprache spezifischen Mechanismen der Syntagmenumstellung (Wortfolgeänderung, Diathesewechsel, emphatische Konstruktion usw.). Die Kohärenz der Ereignisse betrifft die Aufeinanderfolge außersprachlicher Ereignisse. Sie findet ihren Niederschlag vor allem in bestimmten Merkmalen der prädizierenden Wörter und Wortgruppen des
45. Metataxe: ein Dependenzmodell für die computerlinguistische Praxis
Textes. Ihr syntaktischer Reflex sind unter anderem die Wahl und die Abfolge der Tempus-, Modus- und Aspektformen des Verbs. Die textgrammatischen Kohärenzphänomene sind noch lange nicht so gründlich untersucht, wie dies für eine computerlinguistische Umsetzung wünschenswert wäre. Sie sind daher Gegenstand unterschiedlichster Forschungstätigkeit auf der linguistischen wie auf der computerlinguistischen Seite. Das Modell Metataxe kann am Ende des Übersetzungsvorgangs, in der Synthesephase, recht deutlich aufzeigen, welche Information auf Textebene für eine vollständige Übersetzung notwendig ist (vgl. 4.3).
4.
Die eigentliche Metataxe: dependenzsyntaktische Strukturübertragung
Maschinelle Übersetzungssysteme sind heute durchweg nach der Transferarchitektur aufgebaut (vgl. 2.1), bei der nacheinander ein einsprachiger Analysevorgang, ein zweisprachiger Übertragungsvorgang und ein einsprachiger Synthesevorgang durchlaufen werden. Die beiden einsprachigen Module lassen sich wiederverwenden: Beispielsweise kann für die Übersetzungsrichtung Deutsch-Französisch und die Übersetzungsrichtung Deutsch-Russisch dasselbe deutsche Analysemodul eingesetzt werden ⫺ was allerdings eine strikte, modulare Trennung der horizontalen Entwurfsebenen Linguistik, Formalisierung und Implementierung (vgl. 1) sowie der vertikalen Bearbeitungsschritte Analyse, Übertragung und Synthese voraussetzt. Strebt man eine solche Wiederverwendung an, so wird man bestrebt sein, einen möglichst großen Anteil der Gesamtbearbeitung in die einsprachigen Module zu verlegen und den Übertragungsvorgang so klein wie möglich zu halten. Es ist daher nicht verwunderlich, wenn Arbeiten über das Grammatikmodell Metataxe sich sehr viel ausführlicher mit einsprachiger Syntax als mit der eigentlichen Metataxe zu beschäftigen haben. Dieser Effekt wird verstärkt durch die Tatsache, dass der Schritt von der unbearbeiteten Sprache zu einer zweckmäßigen künstlichen Struktur wesentlich aufwendiger ist als nachfolgende Umformungsschritte, die mit diesen künstlichen Strukturen arbeiten. Aus diesem Grunde ist die Analysesyntax ungleich umfangreicher als die Synthese.
651
Metataxe ist die Strukturumwandlung, die ein Satz beim Übersetzen durchläuft. Während Tesnie`re (1959/1982, 283) vor allem Abweichungen von einer stillschweigend als im Wesentlichen gleich angenommenen gemeinsamen syntaktischen Struktur von Ausgangsund Zielsprache ins Auge fasst, gehe ich im Modell Metataxe davon aus, dass die Struktur jedes Satzes im Übertragungsschritt vollständig zerlegt und in der Zielsprache neu wieder aufgebaut wird. Durch diese Vorgabe sind die Syntaxen der Ausgangs- und Zielsprache autonom und es spielt keine Rolle, ob Wortarten, Merkmale und Dependenztypen beider Sprachen ganz, teilweise oder gar nicht deckungsgleich sind. Die Komplexität des Übertragungsvorgangs liegt wesentlich darin begründet, dass hier zwei Bearbeitungsstränge nebeneinander durchlaufen werden, die jeweils für sich die Abfolge eines entscheidungsraumeröffnenden Mechanismus und eines Entscheidungsmechanismus aufweisen und die überdies ineinander verschachtelt sind. Dies sind die Mechanismen der eigentlichen Metataxe oder Strukturübertragung einerseits und die der lexikalen Übertragung andererseits. Bei der lexikalen Übertragung wird der Entscheidungsraum durch das Wörterbuch eröffnet, das für ein ausgangssprachliches Wort oder Syntagma oft mehrere alternative Übersetzungsentsprechungen zur Verfügung stellt. Der Entscheidungsmechanismus hat dann die Aufgabe, anhand inhaltlichen Wissens über den Kontext und die Übersetzungsentsprechungen die beste Lösung auszuwählen. In der eigentlichen Metataxe ist mit einem sehr viel begrenzteren Entscheidungsraum zu rechnen als bei der Analyse, solange das System so konstruiert ist, dass die Analyseambiguität vor Beginn der Übertragung gelöst wird. Legt man dagegen den Systementwurf so an, dass ein Teil der Entscheidungsaufgaben aus der Analyse ungelöst in die Übertragung transportiert wird, dann laufen mehrere konkurrierende Metataxevorgänge ab, aus deren Ergebnissen ein neuer Entscheidungsraum entsteht. Die eigentliche Metataxe habe ich auf der Ebene des linguistischen Systementwurfs mehrfach unter verschiedenen Aspekten beschrieben (Schubert 1986, 166⫺191; 1987, 130⫺194; 1988b; 1989c). Eine operative Lösung auf der Ebene der computerlinguistischen Formalisierung beschreibt Job van Zuijlen (1989). Nach diesem Modell ausgearbeitete Metataxen liegen für die Sprachen-
652 paare Englisch-Esperanto (Maxwell 1989), Esperanto-Französisch (Tamis 1989) und Isländisch-Esperanto (Briem, unveröffentlicht) vor. 4.1. Metataxe: Regelwerk und Wörterbuch Die eigentliche Metataxe hat die Aufgabe, dependenzsyntaktische Baumstrukturen der Ausgangssprache in ebensolche Baumstrukturen der Zielsprache umzuwandeln. In erster Annäherung kann man sagen, dass dabei die Knoten der Bäume von der lexikalen Übertragung und die Äste von der Metataxe übertragen werden. Ein erster Ausgangspunkt für die Metataxe ist die Aufgabe, jede syntaktisch zulässige Struktur der Ausgangssprache im Wege einer vollständigen Abbildung (vgl. 2.4) in eine übersetzungsäquivalente, syntaktisch zulässige Struktur der Zielsprache umzusetzen. Ausgangsmaterial sind Baumstrukturen der Ausgangssprache, deren Knoten Wörter mit Merkmalen und deren Äste Dependenztypenetiketten tragen. Ein zweiter Ausgangspunkt ist das Bestreben, wie bei der einsprachigen Syntax (vgl. 3.3) auch bei der Metataxe mit möglichst einfachen, möglichst allgemeinen und möglichst häufig anwendbaren Regeln zu arbeiten und das so aufgebaute Regelwerk nur dort durch komplexere Regeln zu justieren, wo die sprachliche Realität dies erfordert. Als dritter Ausgangspunkt soll die Vorgabe gelten, dass die Metataxe lieber falsch als gar nicht übersetzen soll. Dies ist eine praktische Bedingung. Sie sagt aus, dass es zweckmäßig ist, dafür zu sorgen, dass das Regelwerk der Metataxe für jede denkbare syntaktische Struktur der Ausgangssprache eine Übersetzungsentsprechung in der Zielsprache erzeugen kann, und dass es im Falle unvollständiger oder unzureichender Regeln zweckdienlicher ist, wenn als Übertragung doch eine syntaktisch korrekte, wenn auch vielleicht nicht im wünschenswerten Maße übersetzungsäquivalente Struktur geliefert wird, als dass der Übersetzungsvorgang ganz anhält oder Teile des Eingabetextes auslässt. Die in diesen drei Ausgangspunkten formulierten Vorgaben der Vollständigkeit und der modularen Einfachheit führen zu der Überlegung, dass zunächst für alle Elemente der ausgangssprachlichen Baumstrukturen isolierte Metataxeregeln aufgestellt werden sollten. Diese Elemente sind die Wortarten und die Dependenztypen. Übertragungsregeln für die Wortarten liefert die lexikale
V. Dependenzielle Theorien
Übertragung, indem sie als Übersetzungsentsprechungen zielsprachliche Wörter anbietet, die jeweils einer Wortart angehören. Der Metataxe bleibt daher die Aufgabe, die Dependenztypen zu übertragen. Die grundlegende Ebene der Metataxeregeln bildet daher eine Gruppe von Regeln, die lediglich einen Ast des Baums mit seinem Etikett übertragen. Für jeden Dependenztyp der Ausgangssprache muss es eine solche Regel geben. Eine solche Regel überträgt beispielsweise den deutschen Dependenztyp Subjekt in den englischen Dependenztyp Subjekt. In der grafischen Darstellung tragen die Dependenztypenetiketten jetzt Sprachpräfixe (Abb. 45.9).
DE-SUBJ
EN-SUBJ
Abb. 45.9: Einfache Metataxaregel
Regeln des in Abb. 45.9 gezeigten Typs sorgen (zusammen mit einem Mechanismus der lexikalen Übertragung für das Vorgehen bei „unbekannten“, d. h. im Wörterbuch fehlenden Wörtern) dafür, dass jede von der Analyse erzeugte Baumstruktur eine zielsprachliche Entsprechung bekommt. Enthielte das Regelwerk jedoch nur diese allgemeinsten Regeln, wäre das Übertragungsergebnis sehr oft falsch. Es bedarf also einer gründlichen Justierung durch komplexere Regeln. Wie bei den Regeln der einsprachigen Syntax lassen sich auch in der Metataxe Regeln unterschiedlicher Spezifik unterscheiden. Insbesondere sind konstruktionsspezifische und wortspezifische Regeln zu unterscheiden, wobei wortspezifische ins zweisprachige Wörterbuch gehören. Hier liegt also einer der Punkte, an denen Metataxe und lexikale Übertragung verflochten sind. Abb. 45.10 und 45.11 zeigen zwei Metataxeregeln für die englisch-deutschen Entsprechungen (someone) is given (something) J (jemandem) wird (etwas) gegeben und (someone) is given (something) J (jemand) erhält (etwas). Es handelt sich um eine wortspezifische Metataxeregel mit dem inneren Regens be, das eine lexikale Alternative (werden, erhalten), konstruktionsspezifische Strukturumwandlungen (englisches Subjekt wird deutsches indirektes Objekt) und wortspezifische Strukturumwandlungen (englisches be mit Dependens give mit Merkmal Partizip Perfekt wird deutsches erhalten mit Merkmal
653
45. Metataxe: ein Dependenzmodell für die computerlinguistische Praxis werden
be EN-PAP
EN-SUBJ
give [Part.Perf.]
A
DE-SUBJ
DE-PAP geben [Part.Perf.]
EN-DOBJ B
B
DE-IOBJ A
Abb. 45.10: Komplexe Metataxaregel
erhalten
be EN-PAP
EN-SUBJ A
give [Part.Perf.]
DE-SUBJ A
DE-DOBJ B
EN-DOBJ B
Abb. 45.11: Komplexe Metataxaregel
Aktiv) zeigt. Beispiele wie diese sind oft Anlass lebhafter Diskussion, die sich zum Teil auf die einsprachige Syntax bezieht. So ist es auf den ersten Blick wenig intuitiv, wenn das Passivhilfsverb inneres Regens eines Syntagmas wie des hier gezeigten ist, sodass die betreffende Regel eine von Hunderten ähnlicher Regeln über das Verb be wird. So verfahren Iordanskaja (1964, 240) und Tarvainen (1985, 60) bei verschiedenen Hilfsverbgefügen in gleicher Weise, während David Hays (1963, 190, 198; 1964, 521) das Partizip zum Regens des finiten Verbs macht. In 5 komme ich hierauf zurück. 4.2. Der Metataxevorgang Ein vollständiges Metataxeregelwerk besteht aus einer größeren Zahl allgemeinerer und Tausenden wortspezifischer Regeln ⫺ weil jeder Eintrag im zweisprachigen Wörterbuch eine Metataxeregel ist (vgl. 4.1, Abb. 45.10 und 45.11). Auf Besonderheiten einzelner Sprachenpaare soll hier nicht eingegangen werden. Von übergreifendem Belang ist jedoch die Frage, wie im Metataxevorgang aus dieser großen Regelmenge die richtige Auswahl getroffen werden soll. In 4.1 war bereits andeutungsweise von verschiedenen Ebenen von Regeln die Rede, deren unterste die ein-
fachsten (oder merkmallosen, vgl. Schubert 1987, 147) Metataxeregeln bilden. Beide Fragen stehen miteinander in Zusammenhang. Ebenso wie beim Aufbau des einsprachigen und des zweisprachigen Regelwerks ist es auch bei der Gestaltung des Bearbeitungsvorgangs zweckmäßig, mit möglichst kleinen, möglichst häufig einsetzbaren Bearbeitungsregeln zu operieren. Insbesondere ist festzulegen, welche Teilstrukturen einer ausgangssprachlichen Baumstruktur jeweils von einer Bearbeitungsregel erfasst wird und in welcher Reihenfolge die Teilstrukturen abgearbeitet werden. In Mathematik und Informatik gibt es eine Reihe gut untersuchter Abarbeitungspfade durch Graphen und Baumstrukturen. Für das Modell Metataxe erscheint es mir jedoch sinnvoll, eine Lösung zu wählen, die im Wesentlichen sprachlichen Kriterien folgt und mit möglichst wenig außersprachlicher Steuerung auskommt. Wenn ein ausgangssprachlicher Baum schrittweise gelesen und durch Anwendung von Regeln der Metataxe und der lexikalen Übertragung ein zielsprachlicher Baum aufgebaut wird, dann könnte ein umfangreicher Mechanismus erforderlich werden, der protokolliert, was auf der ausgangssprachlichen Seite bereits bearbeitet ist
654
V. Dependenzielle Theorien
und wo neue Bauteile des zielsprachlichen Baums anzufügen sind. All dies vermeidet das Modell Metataxe durch die Idee der hybriden Baumstruktur. Nach dieser Vorgabe entsteht der zielsprachliche Baum, indem die Komponenten des ausgangssprachlichen Baums Stück für Stück durch Komponenten eines übersetzungsäquivalenten zielsprachlichen Baums ersetzt werden. Der Metataxevorgang arbeitet also in einer einzigen Baumstruktur, die zunächst nur Komponenten der Ausgangssprache enthält und im Laufe der Bearbeitung nach und nach zu einer Baumstruktur der Zielsprache wird. Bevor dieses Ziel erreicht ist, handelt es sich daher um einen hybriden Baum mit Komponenten aus beiden Sprachen. Der Metataxevorgang verläuft dann in folgenden Schritten, auf die ich unten im Einzelnen weiter eingehe: (1) (2)
(3)
Die Bearbeitung beginnt beim Hauptregens der Übersetzungseinheit. Aus dem Gesamtmetataxeregelwerk wird die Menge der auf das Hauptregens anwendbaren Metataxeregeln ermittelt. Aus der Menge der anwendbaren Metataxeregeln wird die Regel mit der höchsten Regelpriorität angewendet. Der Baum wird hierdurch zu einer hybriden Baumstruktur.
Es entsteht eine Grenze zwischen zielsprachlichen und ausgangssprachlichen Komponenten. (Komponenten sind Wörter mit Merkmalen sowie Dependenztypen.) Die Grenze bildet immer eine kontinuierliche Linie, über der nur zielsprachliche und unter der nur ausgangssprachliche Komponenten stehen. Der folgende Schritt ist ein Element willkürlicher, nicht sprachlich motivierter Steuerung: (4)
(5) (6)
Aus der Menge der direkt unterhalb der Grenze stehenden ausgangssprachlichen Komponenten wird die am weitesten links stehende zum Gegenstand des nächsten Bearbeitungsschrittes. Die Bearbeitung beginnt wieder bei Schritt (2). Die Bearbeitung endet, wenn alle Komponenten in die Zielsprache übertragen sind.
Anwendbar ist eine Regel, deren ausgangssprachliche Seite mit einem Teil des zu übertragenden Baumes deckungsgleich ist, dessen inneres Regens die in Schritt (4) identifizierte Komponente ist. Regeln können Wörter oder
Variablen für Wörter, Merkmale oder Variable für Merkmale und Dependenztypen oder Variablen für Dependenztypen enthalten. Von zwei anwendbaren Regeln genießt diejenige Priorität, die komplexer ist, wobei Komplexität an der Anzahl der Komponenten der ausgangssprachlichen Seite der Regel gemessen wird. Erst wenn zwei Regeln durch all diese Vergleiche nicht in eine Prioritätsreihenfolge gebracht werden können, wird ein willkürliches Kriterium zugelassen. Die Dependenzsyntax ist so gestaltet, dass die Anordnung mehrerer Dependentien desselben Regens von links nach rechts keine Rolle spielt. Sie bleibt daher auch beim Abgleich zwischen Regel und Baum unberücksichtigt. Die hier beschriebene Abgleichstechnik entspricht in ihrer Funktion im Wesentlichen den Grammatikformalismen, die Bedingungen über Attribute und ihre Werte formulieren (z. B. Attributgrammatiken). 4.3. Synthese und Textgrammatik Ergebnis des Strukturübertragungsarbeitsgangs ist eine Baumstruktur in der Zielsprache. Ihre Äste tragen zielsprachliche Dependenztypenetiketten. Die Knoten tragen Wörter der Zielsprache. Die Wörter stehen in der Grundform und sind mit Merkmalen versehen. Hierbei handelt es sich zunächst nur um die direkt übersetzbaren Merkmale (vgl. 3.4). Der Syntheseschritt hat die Aufgabe, die durch die von der Grammatik (der Analyseund der Übertragungssyntax) gesteuerten Mechanismen hinzugefügten metasprachlichen Elemente dieser Baumstruktur nach den Regeln der Zielsprache in sprachliche Elemente umzuformen. Im Wesentlichen geht es hierbei um drei Typen von Elementen: (1) die Dependenztypenetiketten werden in Merkmale der nicht direkt übersetzbaren Art umgewandelt, (2) die Merkmale (der direkt und der nicht direkt übersetzbaren Art) werden in sprachliche Form umgewandelt, was seinen Ausdruck in Flexionsformen, Funktionswörtern oder Wortfolgeanordnungen finden kann und (3) der zweidimensionale Baum wird linearisiert, was bedeutet, dass die Wörter in einer eindimensionalen Kette angeordnet werden. Welches Merkmal welchen Ausdruck findet, ist in hohem Maße einzelsprachspezifisch. In den meisten Fällen reicht der Synthesevorgang mit diesen drei Elementumwandlungen nicht aus, um den zielsprachlichen Text vollständig zu spezifizieren. Es bleiben Entscheidungsmöglichkeiten offen. Je nach Spra-
45. Metataxe: ein Dependenzmodell für die computerlinguistische Praxis
chenpaar kann es sich hierbei um Alternativen in der Wortfolge (genauer: der Syntagmenfolge) oder der Wahl bestimmter Merkmale wie z. B. der Bestimmtheit von Substantiven handeln. Wenn im Syntheseschritt solche Entscheidungsalternativen offen bleiben, so bedienen sich die meisten operativen maschinellen Übersetzungssysteme willkürlicher Mechanismen, indem sie beispielsweise eine Normwortfolge einhalten oder in der Frage der Bestimmtheit die Ausgangssprache kopieren. Für die Grammatik sind diese offenen Entscheidungen jedoch ein Hinweis darauf, dass entscheidungsunterstützendes Wissen fehlt. Wenn die Metataxe und die ihr vorausgehende Analyse auf Satzebene operieren, so ist das fehlende Wissen oft textlinguistischer Art. Hierher gehören Regelmäßigkeiten der Thema-Rhema-Gliederung, der Bildung von Ereignisketten, der Anaphern- und Kataphernbildung usw. Gelänge es, dieses Wissen in geeigneter Form greifbar zu machen und zu formalisieren, würde ein wichtiger Schritt zu kohärenten Texten als Ergebnis der maschinellen Übersetzung möglich (vgl. Papegaaij/Schubert 1988, 159⫺199). Wie Einzelschritte des Synthesevorgangs verlaufen und wo die Ansatzpunkte für textlinguistische Entscheidungssteuerung liegen, habe ich in knapper Form skizziert (Schubert 1992b).
5.
Modellentwurf und dependenztheoretisches Umfeld
Das Modell Metataxe ist auf die computerlinguistische Praxis gerichtet und leistet gleichzeitig einen Beitrag zur laufenden Diskussion um die Theoriebildung in einem Bereich der Grammatik. Ein Blick auf einige zentrale Entwurfsentscheidungen soll daher die Darstellung des Modells abrunden und den Vergleich mit konzeptionell verwandten Theorien erleichtern. Im Bereich der eigentlichen Metataxe liegt außer Tesnie`res ursprünglicher Darstellung wenig Vergleichbares vor. Im Bereich der einsprachigen Syntax reiht sich das Modell Metataxe jedoch in eine lange Kette dependenziell orientierter Theorien und Grammatiken ein. Grundlegende Entwurfsalternativen liegen hier vor allem im Bereich der grafischen Darstellung der syntaktischen Struktur, wobei insbesondere die Fragen der Wiedergabe von Inhalts- und Funktionswörtern, der Wahl zwischen Graph und Baum, der Projek-
655
tivität sowie der leeren und der abstrakten Knoten eine Rolle spielen. Weiter ist die Frage des Verhältnisses zwischen Syntax und Semantik mit den sich hieraus ergebenden Konsequenzen für die syntaktische Struktur interessant. Grundlage eines Grammatikmodells ist die Wahl der Elemente und der Relationen, mit denen das Modell das sprachliche System beschreiben soll. Das Wort ist für die allermeisten Grammatiker das naheliegendste Element, wenn auch durchaus Lösungen sinnvoll sein können, die beispielsweise auf dem Morphem aufbauen. Das Modell Metataxe untersucht die Konkomitanz der Elemente des Systems distributionell und leitet hieraus eine Klassifikation der Elemente und eine Klassifikation der Relationen ab. Es gelangt so zu Wortarten und Dependenztypen. Die meisten der nach diesem Modell ausgearbeiteten Dependenzsyntaxen sind sehr genau darin, jedes einzelne Wort des Textes auch in der Baumstruktur zu platzieren. (Dolinina 1969, 303 zeigt anschaulich, wie sich Tesnie`res Darstellung hier von späteren Dependenzgrammatiken unterscheidet.) Spätestens bei der Kopplung syntaktischer Strukturen an semantische Entscheidungsmechanismen stellt sich jedoch die Frage, ob es empfehlenswert ist, Inhalts- und Funktionswörter durchgängig gleich zu behandeln. Sadler (1989, 44) beschreibt einen semantischen Mechanismus, bei dem die Gesamtaussage eines Satzes (oder auch einer kleineren oder größeren Texteinheit) in eine Reihe von Elementaraussagen der Form X R Y zerlegt wird, wobei X und Y für Inhaltswörter stehen und R ein semantischer Relator ist. Soweit Sadlers semantische Relationen syntaktischen entsprechen, ist X direktes oder indirektes Regens von Y. Als Relatoren verwendet Sadler teils Funktionswörter wie Präpositionen, teils Kennzeichen der zentraleren syntaktischen Relationen wie der Subjekt-, der Objekt- oder der Attributrelation. Wollte man die einsprachige Dependenzsyntax so gestalten, dass sie einem Semantikmodell wie dem Sadlers von vornherein entgegenkommt, so wäre zu überlegen, ob ein Teil der Funktionswörter als Indizien für Merkmale eingestuft werden sollten. Dies hätte zur Folge, dass sie beim Parsing in ihrer Indizfunktion erkannt werden könnten und nach Notierung des so angezeigten Merkmalwerts nicht weiter als Wort repräsentiert zu werden brauchten. In manchen Fällen bedeutet eine solche Lösung nur eine geringe Abweichung von der oben dargestell-
656 ten Form der Dependenzsyntax, in anderen kommt es zu einer eingreifenden Umgestaltung des Modells. Ein Beispiel für eine geringfügige Veränderung wäre die Umsetzung bestimmter und unbestimmter Artikel des Deutschen in ein entsprechendes Bestimmtheitsmerkmal am Regens. Eine größere Umgestaltung entsteht durch das Bestreben, die Präpositionen aus der syntaktischen Struktur zu entfernen. Hierbei wird eine Aufspaltung verschiedener Dependenztypen der Attribute und freien Angaben in ungefähr so viele Typen erforderlich, wie es Präpositionen gibt. Die Komplexität wird also nicht geringer; falls jedoch ein erheblicher Vorteil beim semantischen Parsing erzielt werden kann, mag man sich für eine solche Lösung entscheiden. Sie läge durchaus im Sinne Tesnie`res, der Präpositionen eine Translationsfunktion zuweist und sie daher nicht als selbstständige Knoten im Stemma repräsentiert (Tesnie`re 1959/1982, 366⫺369, vgl. Vennemann 1977, 273). Die Frage der Behandlung von Funktionswörtern berührt die grundlegende Entscheidung, inwieweit die Syntax, die einen Entscheidungsraum für inhaltliche Mechanismen eröffnet, die semantischen Relationsmuster direkt widerspiegeln sollte. Manchen Autoren schwebt eine nur aus Inhaltselementen und ihren Relationen zusammengesetzte semantiknahe Struktur vor, so etwa Paul Garde (1977, 7). Die Entscheidung für eine Baumstruktur anstelle komplexerer Graphen (vgl. 3.1) bringt es allerdings mit sich, dass nicht jede semantische Prädikationsbeziehung im Satz auch einer direkten syntaktischen Relation entsprechen kann. Dies gilt insbesondere in Fällen wie denen, die bisweilen als doppelte Abhängigkeit (Mel’cˇuk 1988, 24⫺26; Wegener 1990, 157) oder mehrfache Regentien (Fraser 1989, 298: „multiple heads“) bezeichnet werden. Mel’cˇuk, der die doppelte Abhängigkeit diskutiert und für sein Modell verwirft, verwendet die Beispielsätze engl. We found John working oder russ. My nasˇli zal pustym ‘Wir fanden den Saal leer vor’. Hier besteht nach meiner Analyse eine direkte Regensrelation von dem finiten Verb zu jedem der drei Inhaltswörter (we Subjekt, John direktes Objekt, working Prädikativ; my Subjekt, zal direktes Objekt, pustym Prädikativ). Gleichzeitig enthalten die Sätze aber auch die Aussagen ‘John arbeitet’ und ‘der Saal ist leer’. Das russische Beispiel zeigt zwischen zal und pustym überdies Genusrektion ⫺ Tes-
V. Dependenzielle Theorien
nie`res (morphologisches) Kriterium für eine Dependenzrelation (vgl. 3.1). Ich nehme Beispiele dieser Art jedoch nicht zum Anlass, die für die Formalisierung und die weitere Bearbeitung außerordentlich nützliche Beschränkung auf eine echte Baumstruktur aufzugeben, sondern überlasse es dem semantischen Modell, hier wie in einer Reihe anderer Fälle semantische Relationen zwischen syntaktisch nur mittelbar verbundenen Inhaltswörtern abzuleiten. Diese Vorgehensweise entspricht der von Mel’cˇuk (1988, 49 Abb. 5) illustrierten Einsicht, nach der die Repräsentation von Sätzen auf der phonetischen und der morphologischen Ebene als lineare Kette, auf der syntaktischen als Baum und auf der semantischen als beliebig querverbundenes Netz erfolgen kann. Festzuhalten bleibt jedoch, dass die von dem hier beschriebenen dependenzsyntaktischen Modell geschaffenen Strukturen einem semantischen Modell sehr weit entgegenkommen, das von den inhaltlichen Aussagebeziehungen ausgeht, die sich direkt aus der syntaktischen „Konnexität“ ablesen lassen (Ajdukiewiczs Terminus, vgl. 3). Das oben erwähnte Modell Sadlers geht mit seiner Elementarstruktur X R Y (Regens ⫺ Relator ⫺ Dependens) diesen Weg. Klaus Heger macht den Rückgriff auf Prädikationsrelationen noch deutlicher, indem er in seiner Elementarstruktur A R P (Aktant ⫺ Relator ⫺ Prädikator) ausdrücklich von einem Prädikator spricht (Heger/ Mudersbach 1984, 13). Heger bezieht seine so definierte Struktur direkt auf die von Tesnie`re in Stemmas dargestellte (Heger 1991, 45). In ganz anderer Form gehen zahlreiche japanische und chinesische Projekte direkt von einer Dependenzsyntax zur Wissensrepräsentation (z. B. Muraki/Ichiyama/Fukumochi 1985; Yuan/Huang/Pan 1992). Charles Fillmores Kasusgrammatik ist ursprünglich als semantisches Gegenstück zu einer Dependenzsyntax entworfen (Fillmore 1987) und Roger Schanks (1972) Modell der Conceptual Dependency baut auf inhaltlicher Ebene Strukturen auf, die den syntaktischen Dependenzlinien prädizierender Wörter in ähnlicher Weise folgen wie bei Sadler und Heger. In den Anfangsjahren der Computerlinguistik wurde sehr lebhaft über die Frage diskutiert, ob dependenzielle oder konstituenzielle Grammatikmodelle es erlauben, projektive Strukturen zu erzeugen (vgl. Paducˇeva 1964; Marcus 1965). Kernpunkt dieser Diskussion ist die Frage, ob es möglich ist, eine Abbildung von Sätzen auf Baumstrukturen zu
45. Metataxe: ein Dependenzmodell für die computerlinguistische Praxis
definieren, die gleichzeitig die syntaktische Zusammengehörigkeit (Konstituenz) beziehungsweise die syntaktische Abhängigkeit (Dependenz) einerseits und die Wortfolge andererseits repräsentiert. Eine Baumstruktur kann jedoch nicht zwei Phänomene gleichzeitig wiedergeben, wenn es sich um voneinander unabhängige Phänomene handelt. Wenn gezeigt werden kann, dass in einer bestimmten Sprache Dependenz und Wortfolge jedes beliebigen Satzes projektiv dargestellt werden können, dann hängt die eine Erscheinung von der anderen ab. Wenn also Projektivität möglich ist, ist das eine der beiden Phänomene redundant und braucht nicht repräsentiert zu werden. Ist es dagegen nicht redundant, kann Projektivität nicht in allen Fällen gewährleistet werden. Die Baumstrukturen des Modells Metataxe repräsentieren daher nur die Dependenz. Wo die Wortfolge in der Anordnung der Dependentien von links nach rechts wiedergegeben werden kann, hilft dies der Intuition der Grammatiker und sollte daher nicht zu Gunsten einer normierten Dependentienabfolge aufgegeben werden. Wo jedoch Dependenz und Wortfolge einander entgegenstehen, spiegelt der Baum die lineare Wortfolge nicht wider. Zwei weitere Fragen, in deren Beantwortung sich Grammatikmodelle auch innerhalb der dependenziellen Richtung unterscheiden, sind die nach abstrakten und leeren Knoten. Konstituenzgrammatiken bauen über dem Satz eine Struktur aus abstrakten Knoten auf, wodurch eine Unterscheidung zwischen terminalen und nichtterminalen Knoten entsteht. Die terminalen Knoten (oder Blätter) tragen Wörter, die nichtterminalen tragen abstrakte Kategorieangaben. Von der Anlage der Dependenzsyntax her wird eine solche Unterscheidung nicht gemacht. Da diese Modelle die Relationen zwischen Wörtern beschreiben, tragen im Prinzip alle Knoten Wörter und es gibt keine abstrakten Knoten. (Matthews’ 1981, 81⫺82 Dependenzbäume, die an Robinsons 1969 anschließen, fallen hier aus dem Rahmen.) Hin und wieder werden jedoch Überlegungen diskutiert, die bestimmte Dependentien und bestimmte Eigenschaften des Satzes nicht dessen innerem Regens (also meist dem finiten Verb), sondern einem abstrakten Knoten zuordnen. So setzt Eroms (1985, 309) einen abstrakten Knoten S an, der unter anderem den Aussagetyp des Satzes repräsentiert, wahrt jedoch das Prinzip, indem er auf diesen Knoten das Satzzeichen setzt und es zum „Wortäquivalent“ er-
657
klärt. Auch das Modell Metataxe verwendet Satzzeichen als Wörter, nimmt jedoch das Satzzeichen am Ende des Satzes als Dependens des Hauptregens an. In Nebenordnungskonstruktionen erscheint ein Komma in der Funktion einer Konjunktion (vgl. 3.7). Abstrakte Knoten kennt das Modell Metataxe daher nicht. Leere Knoten werden bisweilen dort angesetzt, wo der Grammatiker meint, dass ein Wort ausgelassen sei. Hier geht es nicht so sehr um Fälle wie Mel’cˇuks Satz russ. Ivan ucˇe¨nyj ‘Ivan ist Wissenschaftler’ (Mel’cˇuk 1988, 15), in denen der Indikativ Präsens des Verbs byt’ ‘sein’ eine Leerstelle (in anderen Konstruktionen auch ein Gedankenstrich) ist. Da Mel’cˇuks Bäume die Wörter in der Grundform tragen, unterscheidet sich dieser Fall nicht einmal von anderen Verben. Von zentralerer Bedeutung sind elliptische Konstruktionen (vgl. 3.7).
6.
Fazit
Das Grammatikmodell Metataxe umfasst die einsprachige Syntax der Analyse und Synthese sowie die zweisprachige Syntax der Strukturübertragung im maschinellen Übersetzungsvorgang. Sie ist modular konzipiert, insbesondere im Hinblick auf das Miteinander von Syntax und Wörterbuch, Strukturübertragung und lexikaler Übertragung sowie auch auf die Übertragbarkeit des Modells auf typologisch unterschiedliche Sprachen. Es steht überdies vor dem Hintergrund einer Auffassung vom modularen sprachtechnologischen Arbeiten auf den Ebenen der Linguistik, der Formalisierung und der Implementierung. Das Modell ist darauf ausgerichtet, mit syntaktischen Mitteln Entscheidungsräume zu eröffnen, in denen inhaltsgesteuerte Entscheidungsmechanismen arbeiten können. Es erlaubt einen unaufwendigen Übergang zu geeigneten semantischen und wissenstechnischen Modellen. Ich danke Igor’ Mel’cˇuk für konstruktive Kritik an einer Manuskriptfassung dieses Beitrags. Man rechne ihm nicht an, dass ich nicht alle seiner Hinweise übernommen habe.
7.
Literatur in Auswahl
Ajdukiewicz, Kazimierz (1935): Die syntaktische Konnexität. In: Studia Philosophica 1, 1⫺27. Badia, Toni (1993): Dependency and Machine Translation. In: Eynde, Frank Van (Hg.) (1993):
658
V. Dependenzielle Theorien
Linguistic Issues in Machine Translation. London/ New York, 105⫺137.
putational Linguistics / Computerlinguistik. Berlin/ New York, 348⫺377.
Baumgärtner, Klaus (1970): Konstituenz und Dependenz. In: Steger, Hugo (Hg.) (1970): Vorschläge für eine strukturale Grammatik des Deutschen. Darmstadt, 52⫺77.
Hjelmslev, Louis (1943): Omkring sprogteoriens grundlæggelse. Neue Aufl. 1966. København.
Bechraoui, Mohamed Fadhel (1992): La syntaxe de Tesnie`re: analyse me´tathe´orique. In: Linguisticæ Investigationes 16 [1], 1⫺20.
Hudson, Richard (1984): Word Grammar. Oxford/ New York.
Dasgupta, Probal (1989): A Dependency Syntax of Bangla. In: Maxwell/Schubert (Hgg.) (1989), 89⫺ 113. Dolinina, Inga B. (1969): Sposoby predstavlenija sinteksicˇeskoj struktury predlozˇenija. In: Cholodovicˇ, Aleksandr A. (Hg.) (1969): Tipologija kauzativnych konstrukcij. Leningrad, 294⫺310. Engel, Ulrich (1977): Syntax der deutschen Gegenwartssprache. 3. Aufl. 1994. Berlin. Engel, Ulrich (1980): Fügungspotenz und Sprachvergleich. In: Wirkendes Wort 30, 1⫺22. Eroms, Hans-Werner (1985): Eine reine Dependenzgrammatik für das Deutsche. In: Deutsche Sprache 13, 306⫺326. Fillmore, Charles J. (1987): A Private History of the Concept „Frame“. In: Dirven, Rene´/Radden, Günter (Hgg.) (1987): Concepts of Case. Tübingen, 28⫺36. Fraser, Norman (1989): Parsing and Dependency Grammar. In: UCL Working Papers in Linguistics 1, 296⫺319. Garde, Paul (1977): Ordre line´aire et de´pendance syntaxique. In: Bulletin de la Socie´te´ de Linguistique de Paris 72, 1⫺19. Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996): Lucien Tesnie`re ⫺ Syntaxe structurale et opeˇrations mentales. Tübingen. Groot, Albert W. de (1949): Structurele syntaxis. Den Haag. Hays, David G. (1963): Research Procedures in Machine Translation. In: Garvin, Paul L. (Hg.) (1963): Natural Language and the Computer. New York usw., 183⫺214. Hays, David G. (1964): Dependency Theory: A Formalism and Some Observations. In: Language 40, 511⫺525. Heger, Klaus (1991): Vom Stemma zum Aktantenmodell. In: Koch/Krefeld (Hgg.) (1991), 41⫺49. Heger, Klaus/Mudersbach, Klaus (1984): Aktantenmodelle. Abhandlungen der Heidelberger Akademie der Wissenschaften, Philosophisch-historische Klasse. 1984/4. Heidelberg/Birkenau. Hellwig, Peter (1986): Dependency Unification Grammar. In: 11th International Conference on Computational Linguistics. Bonn, 195⫺198. Hellwig, Peter (1989): Parsing natürlicher Sprachen: Grundlagen. In: Ba´tori, Istva´n S./Lenders, Winfried/Putschke, Wolfgang (Hgg.) (1989): Com-
Hjelmslev, Louis (1963): Sproget. 3. Aufl. København.
Hutchins, W. John (1988): Recent Developments in Machine Translation. In Maxwell/Schubert/Witkam (Hg.) (1988), 7⫺63. Iomdin, Leonid Lejbovicˇ (1990): Avtomaticˇeskaja obrabotka teksta na estestvennom jazyke: model’ soglasovanija. Moskva. Iordanskaja, Lidija Nikolaevna (1964): Svojstva pravil’noj sintaksicˇeskoj struktury i algoritmy ee obnaruzˇenija. In: Problemy kibernetiki [11], 215⫺ 244. Joshi, Aravind K./Schabes, Yves (1991): Tree-Adjoining Grammars and Lexicalized Grammars. Philadelphia. Kacnel’son, Solomon Davidovicˇ (1948): O grammaticˇeskoj kategorii. In: Vestnik Leningradskogo Universiteta, Serija istorii, jazyka i literatury [2], 114⫺134. Kacnel’son, Solomon Davidovicˇ (1987): K ponjatiju tipov valentnosti. In: Voprosy jazykoznanija [3] ⫺ Übersetzung (1988): Zum Verständnis von Typen der Valenz. In: Sprachwissenschaft 13, 1⫺30. Koch, Peter (1996): La me´tataxe actantielle. In: Gre´ciano/Schumacher (Hg.) (1996), 211⫺224. Koch, Peter/Krefeld, Thomas (1991): Dependenz und Valenz in romanischen Sprachen. In: Koch/ Krefeld (Hgg.) (1991), 5⫺38. Koch, Peter/Krefeld, Thomas (Hgg.) (1991): Connexiones Romanicae. Tübingen. Landsbergen, Jan (1987): Isomorphic Grammars and Their Use in the Rosetta Translation System. In: King, Margaret (Hg.) (1987): Machine Translation Today. Edinburgh, 351⫺372. Landsbergen, Jan (1994): A Compositional Definition of the Translation Relation. In: Appelo, Lisette u. a. (Hgg.) (1992): Compositional Translation by M.T. Rosetta. Dordrecht/Boston/London, 15⫺ 33, 439⫺455. Lappin, Shalom/McCord, Michael (1990): Anaphora Resolution in Slot Grammar. In: Computational Linguistcs 16, 197⫺212. Lobin, Henning (1989): A Dependency Syntax of German. In: Maxwell/Schubert (Hgg.) (1989), 17⫺38. Marcus, Solomon (1965): Sur la notion de projectivite´. In: Zeitschrift für mathematische Logik und Grundlagen der Mathematik 11, 181⫺192. Matthews, Peter H. (1981): Syntax. Cambridge usw.
45. Metataxe: ein Dependenzmodell für die computerlinguistische Praxis Maxwell, Dan (1989): English-Esperanto Metataxis. In: Maxwell/Schubert (Hgg.) (1989), 267⫺297. Maxwell, Dan/Schubert, Klaus (Hgg.) (1989): Metataxis in Practice. Dordrecht/Providence. Maxwell, Dan/Schubert, Klaus/Witkam, Toon (Hgg.) (1988): New Directions in Machine Translation. Dordrecht/Providence. Mel’cˇuk, Igor’ A. (1964): Avtomaticˇeskij sintaksicˇeskij analiz. Bd. 1. Novosibirsk. Mel’cˇuk, Igor’ A. (1988): Dependency Syntax: Theory and Practice. Albany. Muraki, Kazunori/Ichiyama, Shunji/Fukumochi, Yasutomo (1985): Augmented Dependency Grammar. In: Second Conference of the European Chapter of the Association for Computational Linguistics, 198⫺204. Nichols, Johanna (1986): Head-Marking and Dependent-Marking Grammar. In: Language 62, 56⫺119. Paducˇeva, Elena Viktorovna (1964): O sposobach predstavlenija sintaksicˇeskoj struktury predlozˇenija. In: Voprosy jazykoznanija 13 [2], 99⫺113. Papegaaij, Bart/Schubert, Klaus (1988): Text Coherence in Translation. Dordrecht/Providence. Pro´sze´ky, Ga´bor/Koutny, Ilona/Wacha, Bala´zs (1989): A Dependency Syntax of Hungarian. In: Maxwell/Schubert (Hgg.) (1989), 151⫺181. Rasmussen, Michael (1992): Hjelmslevs sprogteori. Odense. Robinson, Jane J. (1969): A Dependency-Based Transformational Grammar. In: Proceedings of the 10th International Congress of Linguists. Bd. 2. Bucures¸ti, 807⫺813. Sadler, Victor (1989): Working with Analogical Semantics. Dordrecht/Providence. Sadler, Victor (1991): Machine Translation Project Reaches Watershed. In: Language Problems and Language Planning 15, 78⫺83. Sato, Shigeru (1989): A Dependency Syntax of Japanese. In: Maxwell/Schubert (Hgg.) (1989); 183⫺ 206. Schank, Roger C. (1972): Conceptual Dependency. In: Cognitive Psychology 3, 552⫺631. Schmidt, Jürgen Erich (1991): Konvergenzen zwischen neueren Grammatiktheorien und Deskriptionsgrammatiken? In: Feldbusch, Elisabeth/Pogarell, Reiner/Weiß, Cornelia (Hgg.) (1991): Neue Fragen der Linguistik. Bd. 1. Tübingen, 211⫺218. Schubert, Ingrid (1989): A Dependency Syntax of Danish. In: Maxwell/Schubert (Hgg.) (1989), 39⫺ 67. Schubert, Klaus (1986): Syntactic Tree Structures in DLT. Utrecht. Schubert, Klaus (1987): Metataxis. Dordrecht/Providence. Schubert, Klaus (1988a): Modularity in Linguistic System Design. In: Zbornik IV. konference Racˇunal-
659
nisˇka obdelava jezikovnih podatkov. [Ljubljana], 91⫺106. Schubert, Klaus (1988b): The Architecture of DLT ⫺ Interlingual or Double-Direct? In: Maxwell/Schubert/Witkam (Hgg.) (1988), 131⫺144. Schubert, Klaus (1988c): Implicitness as a Guiding Principle in Machine Translation. In: Vargha, De´nes (Hg.) (1988): Coling Budapest. Budapest, 599⫺601. Schubert, Klaus (1988d): Ausdruckskraft und Regelmäßigkeit. In: Language Problems and Language Planning 12, 130⫺147 ⫺ Aktualisierte Fassung in: Tonkin, Humphrey (Hg.) (1997): Esperanto, Interlinguistics, and Planned Language. Lanham/New York/Oxford, 117⫺139. Schubert, Klaus (1989a): Dependency Syntax for Parsing and Generation. In: Maxwell/Schubert (Hgg.) (1989), 7⫺15. Schubert, Klaus (1989b): A Dependency Syntax of Esperanto. In: Maxwell/Schubert (Hgg.) (1989), 207⫺232. Schubert, Klaus (1989c): The Theory and Practice of Metataxis. In: Maxwell/Schubert (Hgg.) (1989), 233⫺245. Schubert, Klaus (1992a): Esperanto as an Intermediate Language for Machine Translation. In: Newton, John (Hg.) (1992): Computers in Translation. London/New York, 78⫺95. Schubert, Klaus (1992b): Diederichsen, Tesnie`re och datorn. In: Louis-Jensen, Jonna/Poulsen, Jo´han Hendrik W. (Hgg.) (1992): The Nordic Languages and Modern Linguistics 7. To´rshavn, Bd. 2, 565⫺577. Schubert, Klaus (1993): Semantic Compositionality. In: Linguistics 31, 311⫺365. Schubert, Klaus (1996): Lexikon und grammatischer Regelmechanismus in der maschinellen Übersetzung. In: Walczak, R. (Hg.) (1996): Forschungsbericht 1995/96. Flensburg, 97⫺107. Schubert, Klaus (1997): Remote-Access Translation Services. In: Translating and the Computer 19. London [separat paginiert]. Schubert, Klaus (demn.): Maschinelle Übersetzung mit Dependenzgrammatiken [Arbeitstitel]. Art. Nr. 84 in Band 2 dieses Handbuches. Stone, Matthew/Doran, Christine (1997): Sentence Planning as Descripton Using Tree Adjoining Grammar. In: 35th Annual Meeting of the Association for Computational Linguistics and 8th Conference of the European Chapter of the Association for Computational Linguistics, 198⫺205. S´widzin´ski, Marek (1989): A Dependency Syntax of Polish. In: Maxwell/Schubert (Hgg.) (1989), 69⫺87. Tamis, Dorine (1989): Esperanto-French Metataxis. In: Maxwell/Schubert (Hgg.) (1989), 247⫺266. Tarvainen, Kalevi (1981): Einführung in die Dependenzgrammatik. Tübingen.
660
V. Dependenzielle Theorien
Tarvainen, Kalevi (1985): Kielioppia kontrastiivisesti. Jyväskylä. Tarvainen, Kalevi (1989): A Dependency Syntax of Finnish. In: Maxwell/Schubert (Hgg.) (1989), 115⫺150. Tesnie`re, Lucien (1959): E´le´ments de syntaxe structurale. 2. Aufl., 4. Druck 1982. Paris. Vennemann, Theo (1977): Konstituenz und Dependenz in einigen neueren Grammatiktheorien. In: Sprachwissenschaft 2, 259⫺301. Wegener, Heide (1990): Komplemente in der Dependenzgrammatik und in der Rektions- und Bindungstheorie. In: Zeitschrift für germanistische Linguistik 18, 150⫺184. Werner, Edeltraud (1993): Translationstheorie und Dependenzmodell. Tübingen/Basel.
Witkam, Toon (1983): Distributed Language Translation. Utrecht. Yuan, Chunfa/Huang, Changning/Pan, Shimei (1992): Knowledge Acquisition and Chinese Parsing Based on Corpus. In: Boitet, Christian (Hg.): Proceedings of the Fifteenth International Conference on Computational Linguistics, 1300⫺1304. Zuijlen, Job M. van (1989): Aspects of Metataxis. Formalization. In: Maxwell/Schubert (Hgg.) (1989), 299⫺320. Zuijlen, Job M. van (1992): Complexiteit en automatisch vertalen. In: Alkemade, M. J. A. (Hg.) (1992): Inspelen op complexiteit. Alphen aan den Rijn, 220⫺228.
Klaus Schubert, Flensburg (Deutschland)
46. Dependency, Valency and Head-Driven Phrase-Structure Grammar 1. 2. 3. 4. 5. 6. 7. 8.
1.
Introduction and Remarks on Formal Background General Linguistic Background Head-Driveness and Dependency Subcategorization or Valency Interplay of Dependency, Valency and Word Order Long Distance Dependency and Non-Projectivity Conclusions Select Bibliography
Introduction and Remarks on Formal Background
Head-driven Phrase Structure Grammar (HPSG, Pollard and Sag, 1987, 1994) is a nontransformational phrase-structure-based theory representing syntactic categories by feature structures (feature bundles). A feature-structure is to be understood as a description of properties of an object ⫺ that is, any object with such properties is considered to be described by the feature structure. In this sense, a feature structure defines the set of all objects it describes. Note that the descriptions are purely static ⫺ in particular, no changes performed on objects (transformations) are employed. This means that HPSG can be grouped together with other purely declarative approaches, that is, among approaches for which in theory (as frequently opposed to practice) the contingent language processing, such as parsing or generation, is independent from the language description.
The basic operation with feature structures is unification (cf. Chapter 44 Dependency Unification Grammar). Further, in HPSG an extremely important role is played by functional constraints, that is, by relations binding together the values of different features of a feature structure. As a trivial, non-linguistic example of a functional constraint, one might consider the relations between the value of the feature surface and values of other features within the feature-structure representations of a (general) quadrangle and a (general) circle in the following feature structures
冤
冥
type of object : quadrangle shorter side : X longer side : Y surface : X*Y
冤
type of object : circle radius : R surface : p*R*R
冥
A certain particularity of HPSG consists in the fact that truly all linguistic knowledge is to be expressed in the feature structure format: we shall discuss some more examples below, but even here it is necessary to say that even the syntactic structures employed (that is, traditional constituent trees) are formally coded as feature structures, in particular, using the feature dtrs (and others), e. g., the tree from (1) would be coded in HPSGlike notation as in (2), where daughters are given as elements of a list.
661
46. Dependency, Valency and Head-Driven Phrase-Structure Grammar
(1)
S
NP
VP
(2)
冋
册
2.
General Linguistic Background
cat : S dtrs : 具NP, VP典
Leaving from now on the technicalities aside in the hope that their previous brief description will suffice for understanding, let us turn to the linguistic background and insights of HPSG. The theory of a language in the framework of HPSG can be formally viewed as a huge logical expression stating conditions which have to be met by any sentence of the language (and should not be met by any nonsentence). Such a theory consists, grossly, of Principles, Schemata, and Lexicon. In most HPSG-descriptions of a particular language, the Lexicon is organized (and thus condensed) into a highly refined inheritance system with several overlapping layers of classification etc., possibly employing also lexical rules or other means for factoring out redundancies, but for the purpose of a concise description of the background ideas of HPSG theory, it suffices to say that an expanded lexicon (i. e. lexicon where a lot of redundancy occurs) is a disjunction of all descriptions of what might be a well-formed wordform (including all appurtenant morphological, syntactic and semantic characteristics). Let us further add that the lexical information is very rich, and that this richness is essential for the whole framework which heavily relies on extensive projection of lexical information into the other parts of the grammar. The Schemata grossly correspond to what we are used to call syntactic rules ⫺ that is, to local trees (trees consisting of the mother node and its immediate daughter nodes only). The “novelty” brought in by HPSG is ⫺ apart from the feature-structure notation replacing the one using the “rewriting arrow” ⫺ that these Schemata are very few, which is enabled by their heavy underspecification. In other words, the Schemata are few since each of them is very general, contains only very little information and expects to be
instantiated (“filled in”) by unification with information coming from the lexicon in the case of a particular construction. We shall see examples of this below. The Principles, then, are abstract conditions which have to be met by each (instantiated) Schema and by each lexical entry. Usually, they occur in the form of an implication, stating that if the instantiated Schema or lexical entry meets certain condition C1, it must also meet another condition C2.
3.
Head-Driveness or Dependency
As already the name suggests, a central role in the linguistic views contained in HPSG is played by head-driveness, that is by the insight that among all the subconstituents of a phrasal constituent XP there exists exactly one with a special status ⫺ the head of XP. This “being head” is reflected in the fact that (technically) the head occurs under a special feature among all the daughters and, more importantly, that the feature bundles representing the head daughter and the mother constituent share a set of important features ⫺ so called head-features (i. e. the features from this set occur both on the headdaughter and on the mother, and their values are identical). The stipulation of this sharing is the contents of one of the central Principles of HPSG, the Head-Feature Principle (HFP) which in (Pollard and Sag, 1994) is formulated as follows (explanations in brackets are ours) The head value (i. e. the value of the feature head) of any headed phrase is structure-shared with (i. e. identical to) the head value of the head daughter. In a more formal way, this Principle is to be restated as the conditional statement “if a phrase XP has a head daughter phrase X, then the value of the feature head of XP must be identical with the value of the feature head of X”, and its (still slightly simplified) formalization is as follows (as usual, the identity is expressed by the occurrence of identical number tags) [dtrs : [head dtr : [ ]]] ⇒ head : 兩1兩 dtrs : [head dtr : [head : 兩1兩]]
冋
册
From the perspective of Dependency Grammar (DG), it is interesting to observe that in simple cases, namely if
662
V. Dependenzielle Theorien
1. the head is a lexical constituent whose all complements are realized as sisters to this head and 2. the dependency structure is projective, the syntactic structure assumed by HPSG and DG can ⫺ some details disregarded ⫺ be considerd only notational variants ⫺ cf. the structures in (3a, b) for the string to give Mary flowers, where a. both structures cover the same string b. both structures express the same linguistic facts (namely, that give is the head, to is a marker and Mary and flowers are complements) and c. both structures (if viewed as trees) have roots bearing the same features. (3)
a. dependency structure Vinf (give) Inf-Particle (to) Nacc (Mary) Nacc (flowers)
b. HPSG-like structure
head features, while the rest, the non-head features, might differ on the head daughter and on the mother (apart from the different variants of the dtrs features related to simulation of the constituency structure, and the feature phon, we haven’t seen any non-head features yet; this will be remedied immediately). Apparently, the usage of also nonhead features on phrases gives HPSG more expressive power than a pure DG approach might achieve: by setting differently the values of a non-head feature on a mother and on a head-daughter, information may be expressed which is in principle unavailable to any sort of dependency structures. (Note that this difference would disappear if all features of the head daughter and of the mother were claimed to be head features, i. e. the mother and the head daughter bear identical features (also as to values). No variant of HPSG, however, postulates such a set of head-features. On the contrary, the head-driveness would be a vacuous notion if the set of headfeatures were postulated to be empty. Likewise, no model of HPSG employs such a possibility.) It is of course interesting to see how the “standard” HPSG uses this instrument.
phon: to, give, Mary, flowers head:
cat: verb v_form: inf mrkr_dtr:
phon: to head: cat: particle phon: give
dtrs: head_dtr:
head:
cat: verb v_form: inf phon: flowers
phon: Mary comp_dtr:
cat: noun head: case: acc
,
head:
These structures can be easily mapped onto each other simply by collapsing the phrasal verb (the “VP”) and its head constituent into one node or, vice versa, by splitting the root of the dependency construction into the lexical head verb and its phrasal projection.
4.
Subcategorization or Valency
But the two structures, if spelled out completely, would show also significant differences. The HFP postulates identity only for
cat: noun case: acc
Without discussing it in full detail, we shall concentrate here on the two prominent nonhead features lex and subcat (and we shall discuss one more such feature, slash, further below), and of course on the usage of the structure as such. The basic usage of the feature lex is quite straightforward: it serves for distinguishing lexical and phrasal categories (on the former, its value is set to “⫹”, on the latter to “⫺”). The fact that certain versions of the theory deviate in certain specific constructions from
663
46. Dependency, Valency and Head-Driven Phrase-Structure Grammar
this usage (e. g., that ⫺ for some reason ⫺ the particles of phrasal verbs such as look stg. up, send stg. out, etc. ⫺ are unspecified as to the feature lex in the lexicon, i. e. they can take any value ⫺ be it “⫹” or “⫺” ⫺ in the syntax) is irrelevant for our general point here. More interesting is the usage of the feature subcat, which is the main point of HPSG’s Subcategorization Principle (ScP), formulated as follows: In a headed phrase (i. e. in a phrase which has a head-daughter among its daughters) the subcat value of the head daughter is the concatenation of the subcat value of the phrase’s subcat list with the list of the complement daughters. Formally, this wording can be described as the following implication (the symbol 丣 is used for concatenation of two lists) [dtrs : [head dtr : [ ]]] ⇒ subcat : 兩1兩 head dtr : [subcat : 兩1兩 丣 兩2兩] dtrs : comp dtrs : 兩2兩
冤 冋
册冥
This principle is the very core of the HPSG approach to valency. In plain words, this principle postulates that the valency of the mother constituent is derived from the valency of the head daughter in such a way that the valency of the mother is set to the result of removing from the head daughter’s valency of those valency slots which are realized (filled in) by those complements of the head which are sister constituents of the head. Even when this formulation seems probably cumbersome, the basic idea in its background is indeed clear and simple and can be exemplified as follows: ⫺ let the head-daughter be a lexical verb having valency for an NP in nominative, an NP in accusative, an NP in dative, and a PP headed by the preposition by, ⫺ and let the NP in dative and the PP-by be the only two complements realized as sisters of the lexical verb. (Most probably, no such verb exists in any real language ⫺ here, it has been created artificially for the sake of the example.)
Then, the distribution of the relevant values on the local subtree for the above example can be sketched as follows: VP[subcat: ]
V[subcat: ] NPdat PPby
5.
Interplay of Dependency, Valency and Word Order
The structuration of the terminal string into constituents serves in HPSG first of all for enforcing word order regularities of the respective language described. This becomes particularly clear for English if we take into consideration the four HPSG Schemata (phrase structure rules) for English as standardly assumed in HPSG literature. Note, however, that the tight coupling of word order and constituent structure is by no means a particularity of HPSG grammar of English, but is a general property of HPSG (and, in fact, of any constituent-based nontransformational grammar). Let us start our presentation with Schema 2, which has the form
冋
册
subcat : 具[ ]典 Schema 2 dtrs : [head dtr : [lex : ⫹]]
This Schema is very simple and, taken alone, contains only the information that the subcat list of the (mother) constituent contains exactly one element, and that the head daughter is a lexical category. However, in the grammar this Schema does not stand alone, and in particular, also the Principles must be met by any structure to which this Schema gives rise. In other words, it gets combined with the Principles (ScP and HFP), yielding the following considerably richer structure which still has to be further specified by information coming from lexical elements of a particular sentence (the symbol “√” is used for dividing the head and the tail of a list.). head: |1| subcat: |2| head: |1| head:_dtr: lex: + dtrs: subcat: |2| |3| comp_dtrs: |3|
664
V. Dependenzielle Theorien
in its closest neighbourhood, while the distinguished complement is expanded only from a higher level of the syntactic tree. Taken together, this means that in the resulting ordering the distinguished complement must stand either to the left or to the right of all the nondistinguished complements and the lexical head, since there is no way how to mix the distinguished complement among them in the linear order. On certain occasions the subject, however, has to stand among the complements also in English (let alone other languages) ⫺ at stake are the so-called inverted constructions. For this pupose, the HPSG theory of English introduces the Schema 3
Assuming now that the first (leftmost) element of the subcat list stands always for a velency slot to be filled in by a distinguished complement (the subject with verbs, the determiner with nouns), we see that Schema 2 (in cooperation with the ScP) enforces all the nondistinguished complements (with verbs: nonsubject complements) to be expanded at once, all together, as sisters to the lexical unit bearing the respective valency. The Schema 1 then takes care of the expansion of the distinguished complement ⫺ its standard form is as follows
冤 冋
册冥
subcat : 具 典 Schema 1 dtrs : head dtr : [lex : ⫺] comp dtrs : 具[ ]典
Schema 3 subcat : 具 典
冤 冋
This structure says simply that a saturated phrase (saturated because it has an empty subcat list) must have a non-lexical head daughter and exactly one complement daughter; all other specifications are left to be filled in by other components of the grammar (Principles, particular lexical units). The Schemata 1 and 2 should not be interpreted, however, as true context-free rules but only as pure immediate dominance (ID) schemata, that is, schemata which define only the mother/daughter relations, but leave the mutual order of the daughters undefined. Defining the order of the daughters is the task of a separate word order module of HPSG, and since this is not in a direct connection with the themes we are concerned with, we shall not deal with this module here. However, even disregarding the tools for ordering the (immediate) sisters, Schema 1 and Schema 2 induce certain word order restrictions, namely that the distinguished complement cannot stand between two nondistinguished complements or between the lexical head and a non-distinguished complement. This is due to the combination of the stan-
This Schema, again together with the Principles, allows for expanding all complements (including the distinguished one) of a lexical head at once, i. e. for filling all the slots of the valency of the lexical head in one local structure, provided the head of the structure is lexically marked as one allowing for an inversion (inv: ⫹), which in HPSG grammar of English basically means that it is a finite auxiliary/modal verb. The Schema 3 then serves for generating structures for such sentences as Did Peter go to the cinema?, Is Mary sleeping?, Which book will you buy?, etc. where the subject does not occur on the initial position otherwise usual in English. The last Schema which is to be mentioned in this section is the Schema 4 responsible for the expansion of free adjuncts. Since the issue of formalization of the phenomenon of free adjuction has been an issue of many discussions within the HPSG community, we shall introduce only its very rudimentary form
冤 冤
Schema 4 dtrs :
dard assumption that the terminal string is the concatenation of terminal yields of the non-terminals (let us remark that there exist several attempts to soften this condition within HPSG), with the fact that the nondistinguished complements are expanded by Schema 2 together with the lexical head, i. e.
册册冥
冋
dtrs : head dtr : head : [inv : ⫹] lex : ⫹
冋 冋
册册冥冥
adjuncts : {…, 兩1兩, …} head dtr : head : lex :⫺ adjunct dtr : 兩1兩
In particular, this form of Schema 4 poses the requirements that the head daughter be phrasal (nonlexical) and that the adjunct daughter have the properties which are specified by the head daughter of what might be an adjunct to such a head at all (the particular specification is borne within a set of such
665
46. Dependency, Valency and Head-Driven Phrase-Structure Grammar
specifications, expected by the Schema to originate in the lexicon). It might be further interesting to note that, since the rule ⫺ as expected for a rule describing the expansion of a free adjunct ⫺ does not contain any complement daughter, the values of subcat on the mother and the head-daughter are to be the same in virtue of the ScP (i. e. even when the subcat is not at all mentioned in the Schema itself).
6.
Long Distance Dependency and Non-Projectivity
In the previous paragraphs, we tried to elucidate the usage (and the formal “encoding”) of dependency and valency within HPSG ⫺ but we did so only as far as the basic and simplest, local dependencies were at stake, that is in cases where the dependent elements (whether complements or adjuncts) stand “close” to their head ⫺ where “close”, in dependency terms, means “in a projective position”. Disregarding the explanation of how other local phenomena (agreement, negation, etc.) are handled in HPSG, which would be necessary in the case that a reasonable overall exposition of the theory would be the aim of this Article, we shall turn our attention now directly to the way HPSG describes unbounded dependency constructions (UDCs, long-distance, non-projective dependencies). For simplicity, we shall limit ourselves to dependencies between a head and a complement. This is a field which underwent a number of changes in the course of development of HPSG theory; in this section we shall describe first the “original” approach and then put forward the alternative (from the Chapter 9 “Reflections and Revisions” of Pollard and Sag, 1994), since these seem to be highly relevant from the viewpoint of the description of dependency and valency. Let us start by recalling that HPSG is a non-transformational constituent-based theory. This means, in particular, that due to the constituent-base of the description, crossing branches in the syntactic trees are forbidden, and due to the lack of transformations or any other non-local tools, everything (including non-local dependencies) has to be expressed by strictly local means. The particular problem to be solved by the description of UDCs is how to link the complement realized “far away” from the head
with the corresponding valency slot of the head, and simultaneously of course also to block the realization of the complement “in situ”, at its unmarked position. The basic idea of the original “classical” approach (discussed briefly in Polard and Sag, 1987 and more thoroughly in Pollard and Sag, 1994, esp. in Ch. 4) is more or less just an HPSG rewording of the approach to UDCs as originally put forward in the GPSG framework (Gazdar et al., 1985). Thus, the first step in the description of a UDC consists in dividing the UDC construction into its “top”, “middle” and “bottom”. The “bottom” is understood as the local tree containing the (lexical) head whose sister the complement would be if it stood “in situ” ⫺ and, maybe surprizingly, containing (on the approach adopted) also a node representing this complement in the form of a “trace” or a “gap” (see immediately below for more). The “top” is understood as the local tree where the complement is overtly realized as a “filler” (i. e. a filler of the “gap”). And finally the “middle” is the chain of nodes of the tree connecting the “top” and the “bottom” ⫺ this is illustrated in (4), for the HPSG-notorious sentence Bagels, I know he likes. The problem with the tree in (4) is, obviously, that on the one hand, the NP in the bottom is somehow superfluous since the NP bagels is realized elsewhere in the tree, on the other hand, the Schema 2 requires that all nonsubject complements be realized as sisters to the lexical head, in particular the direct object be realized as a sister of the lexical verb likes. The way this problem is solved within HPSG (and GPSG whose solution, in
TOP
(4) S
S
NP
MIDDLE Bagels
NP I
VP V know
S NP
he
VP
V
NP BOTTOM
likes
666
V. Dependenzielle Theorien
turn, was inspired by the trace theory and by categorial grammar) is simple yet powerful: the NP in the bottom is claimed to be a trace. At trace in HPSG is understood as a lexical unit (that is a trace is a “word” in the lexicon) with empty phonology ⫺ but there is more to it: HPSG allows for “incomplete constituents” ⫺ that is for constituents in whose phonological realizations some material is missing. As a heritage of categorial grammar, the notation adopted for this kind of constituents is to mark off the missing material by slash, so that, e. g., a sentence missing a nominal phrase would be notated as S/NP, or in the feature structure notation, as
冋
册
cat : S slash : NP
From this perspective, a trace is but a special case of a “slashed” constituent ⫺ of one where the material missing is the material of the whole constituent. It should be also added that a single lexical item (in the lexicon) for a trace is sufficient ⫺ in particular, it is not necessary to have different lexical items for an NP-trace, an N-trace, a PP-trace, etc. This is due to the fact that the lexical item is heavily underspecified (it misses any categorial specification, as well as it is unspecified as to value of the feature lex) ⫺ basically, a trace is described by the feature structure
冤
冥
phon : 具 典 head : [cat : 兩1兩] slash : 兩1兩
This underspecification then means that any features (with the values needed) can be added by unification to the feature structure of trace, in particular any value of the feature cat. Having resolved the tension between the ScP and the position of the complement daughter at the “bottom” by introducing the trace as a real constituent occurring in the syntactic structure, we shall now look at the “top”, that is, at the part of the syntactic structure where the constituent “missing” at the “bottom” is realized as a so-called “filler” (filling the “gap” occurring at the “bottom”). The technical means used for this purpose is the Schema 5, shown here slightly simplified
冋 冋
册册
head dtr : [slash : 兩1兩] Schema 5 dtrs : filler dtr : 兩1兩
The two important points about Schema 5 are that, first, the value of the slash on the
head daughter must be the same category as the category of the filler-dtr is, and that apart from the filler daughter and the head daughter, no other daughters occur in the construction. The main task of the “middle” is then to link the information about the “missing” of the constituent in the “bottom” with the expansion of the respective constituent in the “top”. This linkage is performed by virtue of the Nonlocal Feature Principle (NFP), whose wording, slightly simplified for our purposes, is as follows: The value of slash on the mother is the union of values of slash on all daughters minus the value of the filler daughter (if any). In plain words, the responsibility of NFP is to make sure that the values of slash are equal on the daughter and on the mother, unless the Schema 5 stipulates otherwise. Thus, this Principle takes care simultaneously both of expanding the filler and also of terminating the upward propagation of the nonempty value of slash through the tree. By presenting this Principle, we have finished the brief desription of the “classical” version of UDC treatment in HPSG. The resulting structure for the above example sentence can be sketched as in (5), where particularly the chain of nodes marked by “/NP” should be noted ⫺ this chain is exactly what establishes the link between the trace and the local tree containing the filler, and above all it is this link which enables for a nontransformational description of the UDC by dividing the non-local dependency into a sequence of purely local (mother-daughter) dependencies.
(5)
S S/NP
NP Bagels
NP I
VP/NP V know
S/NP NP he
VP/NP V
NP/NP
likes
667
46. Dependency, Valency and Head-Driven Phrase-Structure Grammar
However, following a broad discussion concerning the linguistic reality of traces (e. g., Pickering and Barry 1991, Sag and Fodor 1994), the idea emerged of describing the UDCs without employing traces. This idea appeared in two different, even though not unrelated, shapes in the literature, the difference between the two consisting in the way how the bottom of the slash chain is introduced: on one approach (e. g., Sag and Fodor 1994, Pollard and Sag 1994, Bouma et al. 1997), the nonempty slash is introduced as a lexical property of the head whose complement stands in a UDC (that is, this head is marked as bearing the feature slash with the respective value already in the lexicon), the other approach proposed in (Avgustinova and Oliva, 1996) then preferred to leave the lexical items without slash but was thus forced to a considerable reformulation of the ScP, which, roughly speaking, had to be adjusted in such a way that the valency of the mother is equal to the result of removing from the head daughter’s valency both those valency slots which are realized (filled in) as sisters of the head and also all slots which on the mother occur under slash. Thus, this proposal does not distinguish between local and non-local realisation of valency, just as it is the case in a pure dependency grammar, which ⫺ as to filling in valency slots ⫺ does not distinguish complements realised in a projective position from those realised nonprojectively. In the following, we shall turn our attention to the former approach, however, since it demonstrates an interesting view its proponents have on coding valency in HPSG. In particular, if the requirements of avoiding trace(s) in the syntactic structure and simultaneously of keeping the standard version of ScP should be both met, then the problem arises of how to introduce the slash at the “bottom” of the UDC. Once this problem is solved, the treatment of UDCs can remain as in the previous “classical” approach ⫺ neither the NFP nor the Schema 5 are in any way concerned about how the bottom of the UDC construction looks like. Obviously, the only way how to keep the ScP without introducing a trace in the bottom of a UDC is to reduce (or: bind off) the valency slot corresponding to the filler already on the respective lexical head. That is, e. g., in the above sentence Bagels, I know he likes, the subcategorization of the lexical verb likes has to consist of the subject only (i. e. the value of
its subcat feature should contain a slot for an NP in nominative, but no slot for NP in accusative). Further, apart from deleting the subcategorization slot (in our example, the NPacc) from the subcat list of the verb, by means of which the ScP can be kept and the introduction of trace avoided, it is necessary to introduce the bottom of the slash chain ⫺ and also this is performed on the lexical head. In our example, it means that the lexical item for the verb likes should bear the specification that the value of its feature slash is NPacc, so that the feature structure of the verb looks like
冤
冥
phon : 具likes典 head : [cat : v] lex : ⫹ subcat : 具NPnom典 slash : NPacc
In other words, this means that as compared to the shape of the “normal” valency of the verb likes, the valency slot for the NPacc (“acc” im Index) has been “moved” from the subcat to the slash within the lexical unit. This points out to two aspects of this variant of the traceless treatment of UDCs. On the formal (technical) side, to the way such a change of valency is to be performed: most naturally, it is done by a lexical rule whose simplified form is
冋
册
[subcat : 具…, 兩1兩, …典] J subcat : 具…, …典 slash : 兩1兩
Such a rule is called Complement Extraction Lexical Rule (CELR) and its effect is exactly to map “basic” lexical units onto “derived” lexical units differing from the “basic” ones in the point that one of the valency (i. e. subcat) slots in the original “basic” lexical unit is removed from the valency of the the derived unit and it is put under the slash feature. More interesting, however, is the intuitive background of this approach, in particular as seen from the viewpoint of dependency and valency. As a matter of fact, what the CELR achieves is partitioning ⫺ already in the lexicon ⫺ the set of valency slots of a word into ⫺ those which occur unter subcat, that is, into those which in the syntax will be expanded “close” to the head (in local dependency, or in DG terms, in a projective position)
668
V. Dependenzielle Theorien
and
with all its complements, and move the description of word order into a single compact component of the grammar ⫺ which component would then also distinguish between cases where the head must necessarily come on the second position and the distinguished complement occurs on the first position, and cases where the head can also come first, etc. Needless to say, such a solution would be not only considerably simpler, but it would also be a direct parallel of what has to be done on a DG approach to English. But generally, HPSG seems to be one of the phrase-structure-based theories which in ist development took most of ist inspiration from the dependency grammar ⫺ if it is not the theory which did it at most.
⫺ those which stand under slash, that is, into those which are expanded in a UDC (in a non-projective position). This basically means that this variant of HPSG distinguishes lexically two kinds of dependency/valency: local and nonlocal one, which from the perspective of this book is at least a remarkable idea.
7.
Conclusions
What becomes immediately conspicuous in the above overview of (general) Principles and (language particular) Schemata is the uneven quality of distribution of description of (parts of) different language phenomena. In particular, having in mind the phenomena of dependency and valency, both of them have a very clearcut and intuitive description, whose general parts (i. e. those supposed to be language universal) are expressed by means of the HFP and ScP, respectively, while their language-particular parts are given partwise in the Schemata, in each Schema exactly the portion which belongs to the structure generated by the very Schema, and in the Lexicon. On the other hand, the description of word order is much less perspicuous. One of the problems, namely that Schema 1 and Schema 2 do not allow for correct positioning of the subject in all cases, enforced the introduction of Schema 3 which allows for what is needed. Thus, as a result of the constituent structure adopted, the description of word order seems to be more complex than necessary and in addition, from the viewpoint of a dependency grammar, also the question arises whether Schemata 1 and 2 are needed at all ⫺ in other words, whether it would not be more economical to have just Schema 3 only, generating all structures containing a lexical head
8.
Select Bibliography
Avgustinova, Tania/Oliva Karel (1996): Unbounded Dependencies in HPSG Without Traces Or Lexical Rules. CLAUS-Report Nr. 70, University of Saarland. Bouma, Gosse/Malouf, Rob/Sag, Ivan A. (2001): Satisfying Constraints on Extraction and Adjunction. In: Natural Language and Linguistic Theory 19/1, 1⫺65. Gazdar, Gerald/Klein, Ewan/Pullum, Geoff/Sag, Ivan A. (eds.) (1985): Generalized Phrase-Structure Grammar. Oxford. Pickering, Martin/Barry, Guy (1991): Sentence Processing without Empty Categories. In: Language and Cognitive Processes vol 6 No. 3, 229⫺ 259. Pollard, Carl J./Sag, Ivan A. (1987): InformationBase, Syntax and Semantics, Volume 1: Fundamentals. CSLI Lecture Notes No. 13. Stanford. Pollard, Carl J./Sag, Ivan A. (1994): Head-Driven Phrase Structure Grammar. Chicago. Sag, Ivan A./Fodor, Janet D. (1994): Extraction without Traces. In: Proceedings of the 13th West Coast Conference on Formal Linguistics. Stanford.
Karel Oliva, Vienna (Austria)
47. Dependency and Valency in Other Theories: Tree Adjoining Grammar
669
47. Dependency and Valency in Other Theories: Tree Adjoining Grammar 1. 2. 3. 4.
Introduction Valency and Constrained Formal Systems Valency in Natural Language Processing Select Bibliography
1.
Introduction
This chapter discusses the way in which Tree Adjoining Grammar (TAG) can be seen as providing a formalization of dependency grammar ⫺ and in particular, of lexical valency. The first publications on TAG include Joshi et al. (1975); Joshi (1985). For recent general introductions to TAG, see Joshi et al. (1991); Joshi (1994); Abeille´ and Rambow (2000). For a discussion of the relation between TAG and Dependency Grammar, specifically Meaning-Text Theory, see Rambow and Joshi (1997). Tree Adjoining Grammar is a constrained formal system. By this term, we mean that the formalism can generate only a restricted number of languages (i. e., sets of structures), rather than all possible languages. The bestknown example of a constrained grammatical formalism is Context-Free Grammar. Constrained formal systems are of interest to computational and formal linguists: to computational linguists, they offer the possibility of finding efficient processing algorithms; to formal linguists, they offer the possibility of hypothesizing restrictions on possible human languages that derive not from independently stated linguistic constraints, but from the metalanguage in which all linguistic constraints and rules are stated. In the first section, we show why Context-Free Grammar is not adequate if we want to represent valency, and how Tree Adjoining Grammar can be motivated directly from the need to capture valency and dependency in the formal system. In the second section, we turn to processing issues. We do not present the wellknown parsing algorithms for TAG (references can be found in the first section); instead, we discuss how lexically specific syntactic information, and in particular valency, can be used in a stochastic framework for using local information to facilitate natural language processing.
2.
Valency and Constrained Formal Systems
Tree Adjoining Grammar or TAG was developed as a constrained formal system for representing natural language syntax. A constrained formal system is a mathematical device that generates sets of structures (strings and/or trees) such that not all possible sets of structures can be generated. It consists of elementary structures and a procedure for assembling them into larger structures. The best-known constrained formal system is Context-Free Grammar (CFG). CFG has been used in linguistics in various ways (most prominently in GPSG (Gazdar et al., 1985)), but also in transformational grammar as an explicit or implicit basis for generating “deep” structures), and CFG is used extensively in natural language processing. How is lexical valency represented in a CFG? Consider the following CFG; for simplicity, we do not use lexical projections for nouns and adverbs (N, Adv). (1)
a. b. c. d. e. f. g.
S J NP VP VP J AdvP VP AdvP J really VP J V NP V J likes NP J John NP J Lyn
The elementary structures in a CFG are rules, and we assemble larger structures by using a rule to rewrite the start symbol S or a symbol introduced by another rule. For example, when we use rule (1a), we rewrite the start symbol S and we introduce the nonterminal symbols (or “nodes“) labeled NP and VP. We may rewrite the VP node by using rule (1c) or (1d). This grammar generates, among others, the string John really likes Lyn. What the grammar in (1) does not show is the valency, either active or passive, of the lexical heads. For example, like is introduced by (1e), but its subject is introduced by (1a) and its object by (1d). Similarly, really is introduced by (1c), but the adverbial phrase it heads is attached to a verbal node in (1b). Both active and passive valency are lexically idiosyncratic: for example, like must be transitive and cannot be intransitive or ditransi-
670
V. Dependenzielle Theorien
tive, and very can modify adjectives but not verbs, while the inverse is true for much. We can use a system of features to make sure that each verb selects for all and only its arguments, as is done for example in GPSG. However, the syntax that expresses the valency remains distributed over different elementary structures of the grammar. We may instead ask whether we can devise a constrained formal system in which the valency is localized in a single elementary structure: not only does the elementary structure contain the lexical head, but also positions for the arguments (active valency), and a representation of the kinds of lexical governors the lexeme can have (passive valency). One way we might try to achieve this goal is by combining rules (1a), (1d), and (1e) into a CFG rule of the following type: (2)
S J NP likes NP
While this single rule combines the lexical head with its valency, it is now impossible to properly place the adverb between the subject and the verb. We therefore combine CFG rules not into a single CFG rule, but into a tree, abandoning the framework of CFG: tree a1 in Figure 47.1 shows the result of directly combining rules (1a), (1d), and (1e). Similarly, tree b1 is obtained by combining the two rules related to really, namely (1b) and (1c). We see that these structures each combine a lexical head (like or really), its active valency (positions for the two NP arguments of like, while really has no arguments), and its passive valency (like can serve as head of
1
3
2
S NP
VP V
NP
NP
John
Lyn
NP 1
VP
likes AdvP
VP
really
Fig. 47.1: Trees that combine a lexeme with a representation of its active and passive valency
an S argument, while really can modify a verb at the VP projection). How can we derive our sentence using the trees in Figure 47.1? Consider the operation of substitution, illustrated schematically in Figure 47.2. We can substitute tree b into tree a if there is a nonterminal symbol on the frontier of a which has the same label as the root node of b (‘A’ in Figure 47.2). We can then simply append b to a at that node. (Nodes at which substitution is possible are called “Substitution nodes” and are marked with down-arrows (↓).) The formal rewriting system we obtain by taking trees such as those in Figure 47.1 to be elementary structures which are combined using substitution is called Tree Substitution Grammar (TSG). A derivation in our sample TSG is shown in Figure 47.3. The trees representing the two arguments of the verb like, John (a2) and Lyn (a3), are substituted into the tree associated with the verb (a1), yielding the wellformed tree a4, from which the sentence John likes Lyn can be read off. CFG and TSG are weakly equivalent (they generate the same string languages). They are also strongly equivalent (they generate the same sets of structures). However, to a linguist, they look very different. A context-free rule represents only a phrase-structure node and its daughters, but an elementary tree in a TSG may be of arbitrary height. Put differently, we have extended the domain of locality of the elementary structures of the grammar. This increased domain of locality allows us to state lexical properties (such as active and passive valency) in the elementary structure associated with the lexeme, while in a CFG they must be distributed over several rules. This extended domain of locality can also be used to localize filler-gap dependencies such as wh-movement in the same elementary structure. Furthermore, case assignment and agreement properties of a lexical head can be stated directly on the argument positions of a lexical head. Note that we have combined all of the context-free rules in such a way that all of the resulting trees in Figure 47.1 are associated with a lexeme. If every elementary structure of a grammar contains at least one lexeme, then we refer to the grammar as lexicalized. But a TSG is not really what we want, either: we are again faced with the problem of getting the adverb in the right place, since there is no node into which to substitute it. Having two verbs like, one of which also sub-
671
47. Dependency and Valency in Other Theories: Tree Adjoining Grammar S
S
A
A A
Fig. 47.2: The Substitution Operation
4
1
S
S NP
NP
VP V
NP
likes
John
VP V
NP
likes
Lyn
3
2
NP
NP
John
Lyn
Fig. 47.3: Substitution of arguments into initial tree of likes
categorizes for an adverb, does not solve the problem, since it does not generalize to multiple adverbs (in addition to being linguistically unappealing). We can solve this problem with the tree composition operation of adjunction. Adjunction is shown in Figure 47.4. Tree a (called an “initial tree“) contains a non-terminal node labeled A; the root node of tree b (an “auxiliary tree“) is also labeled A, as is exactly one non-terminal node on its frontier. This node is called the “foot node” and is marked with an asterisk (*)). All other frontier nodes are terminal nodes or substitution nodes. We take tree a and remove the subtree rooted at its node A, insert in its stead tree b, and then add at the footnode of b the subtree of a that we removed earlier. The result is tree g. As we can see, adjunction can have the effect of inserting one tree into the center of another. Our linguistic example is continued in Figure 47.5. Tree b1 containing the adverb is adjoined at the VP node into tree a4. The result is tree a5, which corresponds to our example sentence. Note that a5 is composed of trees a1, a2, a3 and b1, each
of which corresponds to exactly one lexeme, in contrast to the grammar given above in (1). A formalism in which the elementary structures of a grammar are trees and in which the combining operations are adjunction and substitution is called a Tree Adjoining Grammar (TAG). If TAG is lexicalized (every elementary structure contains a lexeme), we refer to the formalism as Lexicalized Tree Adjoining Grammar (LTAG). Schabes (1990) has shown that a tree composition system is only lexicalizable if the composition operations include adjunction. Thus, the process of lexicalizing a CFG naturally leads to a TAG. TAG is more powerful formally than CFG, meaning that TAG can derive more complex languages than CFG. In fact, Shieber (1985) argues natural language is too complex for a CFG, using data from Swiss German as evidence. They are also more difficult to parse. For a summary of mathematical and computational properties of TAGs and some related phrase-structure formalisms, see Joshi et al.
672
V. Dependenzielle Theorien S
S
A
A
A A*
Fig. 47.4: The Adjunction Operation
4
NP John
5
1
S
S
VP VP
AdvP
V
NP
likes
Lyn
really
VP *
NP John
VP AdvP
VP
V
NP
likes
Lyn
really
Fig. 47.5: Adjunction of really into initial tree
(1991). Broad-coverage TAG grammars have been built for English (XTAG-Group, 1999) and French (Abeille´/Candito 2000), and smaller grammars for other languages. Like a CFG, a TAG derives a phrasestructure tree, called the derived tree. (The derived tree for our example is the right tree in Figure 47.5.) In addition to the derived (phrase-structure) tree, a second structure is built up, the derivation tree. In this structure, each of the elementary trees is represented by a single node. Since the grammar is lexicalized, we can identify this node with the (base form of the) lexeme of the corresponding tree and the name of the tree, which we indicate in brackets. (This is not exactly what is done in the TAG literature, but the difference is purely notational.) If a tree t1 is substituted or adjoined into a tree t2, then the node representing t1 becomes a dependent of the node representing t2 in the derivation tree. Furthermore, the arcs between nodes are annotated with the position in the “target tree” at which substitution or adjunction takes place. In the TAG literature, this annotation is in the form of the tree address of the node (using a formal notation to uniquely
identify nodes in trees, without reference to linguistic concepts). However, in analogy to the notation often used in dependency grammars, we can assign grammatical functions to positions in the trees and label the arcs with them. The derivation tree for the example derivation above is shown in Figure 47.6. We can see that the derivation structure is a dependency tree. The resemblance between the derivation structure and a dependency tree is not a coincidence: because of lexicalization, the nodes in the tree can be labeled with lexemes, as in a dependency tree, and because we have taken care to localize valency in ele-
like [ 1]
SUBJ
John [ 2]
OBJ
ADJUNCT
Lyn [ 3]
really [ 1]
Fig. 47.6: Derivation tree for John really likes Lyn
47. Dependency and Valency in Other Theories: Tree Adjoining Grammar
mentary trees, the tree structure reflects the valency of the lexemes. Note that in general, substitution is used to connect an argument to its governor, while adjunction is used for adjuncts. It has been proposed that the trees for verbs that subcategorize for clauses are adjoined into their clausal complement. This analysis allows for an elegant account of raising and long-distance wh-movement, which require no further stipulations for island constraints (Kroch 1989). Rambow et al. (2001) propose a variant of TAG in which the derivation more uniformly reflects dependency, but at the cost of extending the power of the formalism. Joshi and Vijay-Shanker (1999) and Kallmeyer and Joshi (1999) propose analyses within TAG in which the dependency structure can be read off the derived tree rather than the derivation tree.
3.
Valency in Natural Language Processing
In a lexicalized grammar such as an LTAG, each lexical item is associated with at least one elementary structure (tree). In fact, in general, a lexical item is associated with more than one elementary structure: different subcategorization frames, different voice, whmovement for each argument, and so on. We will call these elementary structures supertags, in analogy to the standard part-ofspeech tags (Church 1988; Weischedel et al. 1993; Brill 1993). A part-of-speech tag tells us about possible syntactic contexts for a word: the verb price and the noun price cannot appear in the same contexts. A supertag gives us even more information: for example, the verb price in passive voice and activevoice price with a wh-moved direct object also cannot appear in the same contexts. (Note that in general, for a word with a fixed part-of-speech tag, say as verb (V), there will usually be more than one supertag associated with this word.) Figure 47.7 illustrates a few elementary trees associated with each word of the sentence the purchase price includes two ancillary companies; the order of the supertags for each lexical item in the example is not relevant. The correct supertags are shown below the double line. Both standard part-of-speech disambiguation and supertag disambiguation can be
673
done by a parser, which, in determining the overall syntactic structure of a string of words, will also determine the words’ partof-speech tags and supertags. However, the parser must search the full space of possible tags during the parse. Carrying out part-ofspeech disambiguation prior to parsing makes the job of the parser much easier (and therefore speeds it up) since the tags associated to the input words reduce the ways in which they can combine syntactically. This is what is almost always done in practice. Partof-speech disambiguation can be performed at a high level of accuracy using only local information, i. e., information available only from the sequence of words in the sentence without the need for parsing. Because supertags contain richer context information than part-of-speech tags, initial supertag disambiguation reduces the work of the parser even further. After supertag disambiguation, the way in which the words are assembled into syntactic structure is almost always fully determined, and the remaining task of the parser is fairly trivial. The exceptions are cases of multiple structural ambiguity involving the same lexical categories, such as triple noun compounds (child safety seat). However, standard cases of PP-attachment ambiguity (I saw the man with the telescope) are fully determined by the supertags since they also encode passive valency. Thus, since LTAGs are lexicalized, we are presented with a novel opportunity to substantially reduce the difficulty of parsing by using local information about words prior to parsing. This method can also be used to associate a structure to sentence fragments and in cases where the supertag sequence after disambiguation may not combine into a single structure. In the example in Figure 47.7, the correct supertag sequence (below the double line) uniquely determines the correct parse: there is only one way to combine these trees while respecting the given word order, which is shown in Figure 47.8, with the resulting derived tree shown in Figure 47.9. Without the supertagger, the parser would have to process combinations of the entire set of trees (of which only some are shown); with it the parser needs only process combinations of 7 trees. The task of supertagging is to select the appropriate supertag for each word from the initial set of supertags it is assigned, given the
674
V. Dependenzielle Theorien
Fig. 47.7: A selection of the supertags associated with each word of the sentence: the purchase price includes two ancillary companies
local context of the sentence. Thus the task of a supertagger is very similar to a part-ofspeech tagger (except that the set of tags is much larger, and hence the task harder).
There have been a number of models proposed for part-of-speech tagging (Church 1988; Weischedel et al. 1993; Brill 1993) and each of them can be applied to the supertag-
47. Dependency and Valency in Other Theories: Tree Adjoining Grammar includes [
price [ 2]
11]
companies [
13]
the [ 1] purchase [ 2] two [ 3] ancillary [ 4]
Fig. 47.8: Derivation tree for sentence the purchase price includes two ancillary companies
S VP
NP D
NP
the
N
V
NP
includes D
N
N
purchase
price
NP
two
N N
N
ancillary companies
Fig. 47.9: Derived tree for sentence the purchase price includes two ancillary companies
ging task. A detailed discussion on the different models for supertag disambiguation is presented in Bangalore/Joshi (1999); Chen et al. (1999). Here we briefly review a trigram supertag disambiguation model. In this model, the most probable supertag sequence for an N word sentence is computed based on a combination of trigram context and the lexical preference (where Ti is the supertag for word Wi): N
(1)
Tˆ ⫽ argmaxT
兿 Pr (T √T i
i⫽1
i ⫺2,
Ti ⫺1)
* Pr(Wi √Ti) The term Pr(Ti √Ti–2, Ti–1) is known as the contextual probability since it indicates the size of the context used in the model and the term Pr(Wi √Ti) is called as the word emit probability since it is the probability of emitting the word Wi given the tag Ti. These probabilities are estimated using a corpus where each word is tagged with its correct supertag.
675
We tested the performance of the trigram model on various domains such as the Wall Street Journal (WSJ) corpus of the Penn Treebank (Marcus et al. 1993) and the IBM Manual Corpus. For the WSJ domain, the trigram model was trained on 1,000,000 words (the sentences in WSJ Sections 00 through 24, except Section 20 of the Penn Treebank) and tested on 47,000 words (the sentences in WSJ Section 20 of the Penn Treebank). A total of 300 different supertags were used in these experiments. Supertag performance is measured as the percentage of words that are correctly supertagged by a model when compared with the key for the words in the test corpus. Using this performance metric, the trigram supertagger performed at 92.2 % accuracy. In recent work (Chen et al. 1999), a variety of novel models have been explored that improve the performance of supertagging. These models exploit the distinction between initial and auxiliary supertags and combine voting strategies to increase accuracy to 92.9 %. Also, class-based models improve supertagging performance by assigning words with sets of supertags, thus trading supertag ambiguity for improved accuracy. Different classes of supertags have been derived based on structural properties and also based on analysis of confusion pairs produced by the trigram model. With a slight increase in supertag ambiguity, 1.3 supertags per word, an error reduction of 45 % has been achieved over the trigram model and with 3.8 supertags per word, the error reduction is 65 % over a trigram model. Once we know the sequence of supertags for the words of the input sentence (and hence their passive and active valencies), we can use different methods for actually constructing the syntactic structure. For example, the sequence of supertags selected by the supertagger can be provided as input to an LTAG parser (Schabes 1990) which combines them using substitution and adjunction operations to produce the derived tree and the derivation tree. However, this parser will fail on the entire input if the sequence of supertags contains a single error. Therefore, instead of employing an LTAG parser to establish dependency links among words of a sentence, we choose to do so directly using the dependency requirements encoded in the supertags, with a system called the Lightweight Dependency Analyzer (LDA). The LDA is a
676
V. Dependenzielle Theorien
Tab. 47.1: An example sentence with the supertags assigned to each word and dependency links among words Pos
Word
Supertag
Node req.
Pass 1
Pass 2
Dep Links
0 1 2 3 4 5 6
the purchase price includes two ancillary companies
b1 b2 a2 a11 b3 b4 a14
⫹N* ⫹N* ⫺⫺ ⫺NPB ⫹NPB ⫺N* ⫹N* ⫺⫺
2* 2* ⫺⫺ ⫺⫺ 6* 6* ⫺⫺
⫺⫺ ⫺⫺ ⫺⫺ 2B 6B ⫺⫺ ⫺⫺ ⫺⫺
2* 2* ⫺⫺ 2B 6B 6* 6* ⫺⫺
heuristic-based, linear time, deterministic algorithm which is not forced to produce dependency linkages spanning the entire sentence. As mentioned earlier, substitution nodes and foot nodes in supertags represent active and passive valency, respectively, and thus dependency links that must be created. A substitution node of a supertag is filled by the complements of the anchor while the foot node of a modifier supertag is filled by a word that is being modified by the supertag. These argument nodes have a polarity value reflecting their positional orientation with respect to the anchor of the supertag. Also associated with a supertag is a list of internal nodes (including the root node) that appear in the supertag. Using the structural information coupled with the argument requirements of a supertag, a simple algorithm such as the one shown in Figure 47.10 provides a method for annotating the sentence with dependency links. The LDA can produce a number of partial linkages since it is driven primarily by the need to satisfy local constraints without being forced to construct a single dependency linkage that spans the entire input. This, in fact, contributes to the robustness of LDA and promises to be a useful tool for parsing sentence fragments that are rampant in spoken utterances. An example illustrating the output of the LDA is shown in Table 47.1. The first column lists the word positions in the input, the second column lists the words, the third lists the names of the supertags assigned to each word by a supertagger. The node requirement of each supertag is shown in column four: the polarity reflects the direction, the label is the required category, and the * and the B beside a number indicate the type of the dependency relation, * for modifier relation and B for complement relation. The dependency links among the words, computed by the above algorithm, are shown in the seventh column
Step 1: For each modifier supertag s in the sentence: Compute the dependencies for s. Mark the words serving as complements as unavailable for step 2. Step 2: For the non-modifier supertags s in the sentence: Compute the dependencies for s. Compute Dependencies for si of wi: For each external node dij in si do Connect word wi to the nearest word wk to the left or right of wi depending on the direction of dij, such that label (dij) 苸 internal nodes (sk) skipping over marked supertags, if any. Fig. 47.10: Two pass lightweight dependency analyzer
(the number indicates which position’s word the current word is linked to. The two pass process for dependency linking is shown in the fifth and the sixth column. We present results from an experiment using the supertagger in conjunction with the LDA system as a dependency parser. The trigram supertagger trained on 200,000 words of the WSJ corpus was used in conjunction with the LDA to provide a dependency analysis for 2000 sentences of Section 20 of the WSJ corpus. The Penn Treebank parses for these sentences were converted into dependency notation which was used as the gold standard. A dependency link produced by the LDA was regarded to be correct if it was also present in the gold standard. There were 47,333 dependency links in the gold standard and the LDA produced 38,480 dependency links correctly, resulting in a recall score of 82.3 %. Also, a total of 41,009 dependency links were produced by the LDA, resulting in a precision score of 93.8 %. The outputs of the supertagger and LDA have been used in a variety of applications.
47. Dependency and Valency in Other Theories: Tree Adjoining Grammar
In information retrieval applications (Chandrasekar/Srinivas 1997b) supertagged sentences from relevant documents are used to create patterns which are used to match against supertagged sentences from documents whose relevance is to be determined. In information extraction applications (Doran et al. 1997), patterns based on supertag and LDA output have been used to extract fillers for the fields of information templates. The output of the supertagger distinguishes modifiers from complements and the output of LDA specifies the scope of the modifier clause. In text simplification applications (Chandrasekar/Srinivas 1997a) the distinction between main clauses and modifier clauses has been used to simplify sentences. We have also used the output of the supertagger in class-based language modeling experiments for speech recognition (Srinivas 1996).
4.
Select Bibliography
Abeille´, Anne/Candito, Marie-He´le`ne (2000): FTAG: A lexicalized Tree Adjoining Grammar for French. In: Abeille´, Anne/Rambow, Owen (eds.): Tree Adjoining Grammars: Formalisms, Linguistic Analyses and Processing, 305⫺329. Abeille´, Anne/Rambow, Owen (2000): Tree Adjoining Grammar: An overview. In: Abeille´, Anne/ Rambow, Owen (eds.): Tree Adjoining Grammars. Formalisms, Linguistic Analyses and Processing, 1⫺68. Bangalore, Srinivas/Joshi, Aravind (1999): Supertagging: An approach to almost parsing. In: Computational Linguistics, 237⫺266. Brill, Eric (1993): Automatic grammar induction and parsing free text: A transformation-based approach. In: Proceedings of the 31st Annual Meeting of the Association for Computational Linguistics, Columbus, Ohio, 259⫺265. Chandrasekar, Raman/Srinivas, Bangalore (1997a): Automatic induction of rules for text simplification. In: Knowledge-based Systems 10, 183⫺190.
677
Church, Kenneth Ward (1988): Stochastic Parts Program and Noun Phrase Parser for Unrestricted Text. In: 2nd Applied Natural Language Processing Conference, Austin, Texas, 136⫺143. Doran, Christine/Niv, Michael/Baldwin, Breckenridge/Reynar, Jeffrey/Srinivas, Bangalore (1997): Mother of PERL: A Multi-tier Pattern Description Language. In: Proceedings of the International Workshop on Lexically Driven Information Extraction. Frascati, Italy. Gazdar, Gerald/Klein, Ewan/Pullum, Geoffrey/ Sag, Ivan (1985): Generalized Phrase Structure Grammar. Cambridge, Mass. Joshi, Aravind K. (1985): How much context-sensitivity is necessary for characterizing structural descriptions ⫺ Tree Adjoining Grammars. In: Dowty, David/Karttunen, L./Zwicky, A. (eds.): Natural Language Processing ⫺ Theoretical, Computational and Psychological Perspective. New York, 206⫺250. Originally presented in 1983. Joshi, Aravind/Vijay-Shanker, K. (1999): Compositional semantics with Lexicalized Tree Adjoining Grammar (LTAG). In: Proceedings of the 2nd International Workshop on Computational Semantics, 131⫺145. Joshi, Aravind K. (1994): Preface to special issue on Tree-Adjoining Grammars. In: Computational Intelligence 10(4): vii⫺xv. Joshi, Aravind K./Levy, Leon/Takahashi, Masako (1975): Tree adjunct grammars. In: J. Comput. Syst. Sci. 10, 136⫺163. Joshi, Aravind K./Vijay-Shanker, K./Weir, David (1991): The convergence of mildly context-sensitive grammatical formalisms. In: Sells, Peter/Shieber, Stuart/Wasow, Tom (eds.): Foundational Issues in Natural Language Processing. Cambridge, Mass., 31⫺81. Kallmeyer, Laura/Joshi, Aravind K. (1999): Factoring predicate argument and scope semantics: Underspecified semantics with LTAG. In: Dekker, Paul (ed.): Proceedings of the 12th Amsterdam Colloquium, 169⫺174. Kroch, Anthony (1989): Asymmetries in long distance extraction in a Tree Adjoining Grammar. In: Baltin, Mark/Kroch, Anthony (eds.): Alternative Conceptions of Phrase Structure. Chicago, 66⫺98.
Chandrasekar, Raman/Srinivas, Bangalore (1997b): Using supertags in document filtering: The effect of increased context on information retrieval effectiveness. In: Proceedings of Recent Advances in Natural Language Processing (RANLP) ’97. Tzigov Chark.
Marcus, Mitchell M./Santorini, Beatrice/Marcinkiewicz, Mary Ann (1993): Building a Large Annotated Corpus of English: The Penn Treebank. In: Computational Linguistics 19.2, 313⫺330.
Chen, John/Bangalore, Srinivas/Vijay-Shanker, Krishnamurti (1999): New models for improving supertag disambiguation. In: Proceedings of 9th Conference of the European Chapter of Association for Computational Linguistics. Bergen, Norway, 188⫺195.
Rambow, Owen/Joshi, Aravind (1997): A formal look at dependency grammars and phrase-structure grammars, with special consideration of wordorder phenomena. In: Wanner, Leo (ed.): Recent Trends in Meaning-Text Theory. Amsterdam, PA, 167⫺190.
678
V. Dependenzielle Theorien
Rambow, Owen/Vijay-Shanker, K./Weir, David (2001): D-Tree Substitution Grammars. In: Computational Linguistics 27(1), 87⫺122. Schabes, Yves (1990a): Mathematical and Computational Aspects of Lexicalized Grammars. PhD thesis, Department of Computer and Information Science, University of Pennsylvania. Shieber, Stuart B. (1985): Evidence against the context-freeness of natural language. In: Linguistics and Philosophy 8, 333⫺343. Srinivas, Bangalore (1996): “Almost Parsing” Technique for Language Modeling. In: Proceedings of the International Conference on Speech and Language Processing. Philadelphia, USA.
Weischedel, Ralph/Schwartz, Richard/Palmucci, Jeff/Meteer, Marie/Ramshaw, Lance (1993): Coping with ambiguity and unknown words through probabilistic models. In: Computational Linguistics 19, 359⫺382. XTAG-Group, The (1999): A Lexicalized Tree Adjoining Grammar for English. Technical Report http://www.cis.upenn.edu⬃xtag/tech-report/techreport.html, The Institute for Research in Cognitive Science, University of Pennsylvania.
Srinivas Bangalore, Florham Park (NJ, USA)/ Aravind K. Joshi, Philadelphia (PA, USA)/ Owen Rambow, New York (NY, USA)
48. The Concept of Dependency in Morphology 1. 2. 3. 4. 5. 6. 7. 8.
Introduction Affixes and Complements Semantics Adjunct Affixes Inflections Other Types of Word Structure Conclusion Select Bibliography
useful in these smaller units. These principles are quite compatible with the idea, developed for example in Givo´n (1979, 220⫺222), that morphology is to a large extent frozen syntax.
2.
1.
Introduction
I am concerned here with ways in which the notion “dependency” is found in the structure of units loosely referred to as “words”. Anderson (1985, 150⫺156) discusses a number of tests to determine whether the units expressed in written language as a series of symbols between two spaces are in fact words, as we expect. My topic includes both the way that the phonological form of one morpheme combines with the phonological form of another as well as the way their meanings combine. Although the best-known identifiable origin of the dependency tradition is Tesnie`re (1953), this tradition is centuries old, according to Mel’cuk (1988, 3). Nevertheless, there appears to be little previous work in morphology within this tradition. I will deal with various kinds of morphology, although most of my attention is devoted to morphology which is mainly agglutinative. I will argue that some of the principles which are applicable to work on sentence structure are also
Affixes and Complements
In the following, I will present a model which is based on combinatorial properties, but reduces the significance of the distinction between roots and affixes. The first assumption of this is: (i)
The morpheme which determines the category of the word as a whole is its head.
The parallel assumption (about words instead of morphemes) is true of all so-called “endocentric” structures in syntax. Examples in English are the following: (1)
a. b. c. d.
we sat in the park (verb), your story about the trip (noun), glad you could come (adjective), anywhere in the world (adverb).
Most of the few structures in English which are not endocentric have a linker (a function word with no independent lexical content which specifies the lexical relationship between the head and its dependent) as their top node. The morpheme with the property of determining the head is usually the final suffix, at
679
48. The Concept of Dependency in Morphology
least in English. There are many category-determining suffixes, such as -able, -ness, -ize, and so on. It follows from assumption (i) that in a word with a series of suffixes, the dependency tree will arrange them in inverse order: top-to-bottom order in the tree will correspond to right-to-left-order in the unanalyzed word. Ignoring spelling modifications of the morpheme forms used in word structure, the analysis of reliability is as in (2): (2)
ity able rely
Morphemes, like words, have their own categories, but the category of the head morpheme determines the category of the word of which it is part. So rely is a verb; -able, but also reliable, is an adjective; -ity, but also reliability, is a noun. We can distinguish between “affix adjectives” or “affix nouns”, on the one hand, and “root adjectives” or “root nouns”, on the other, if we need to, but for the purposes of this paper, this extra terminology is not necessary. Sproat (1992, 83) also assigns categories to affixes in his analysis of motorizability, and assumes in the same way as I do that each of them is a head of some part of this word. His analysis is based on constituency instead of dependency and provides the following analysis: (3)
NP
AP
VP
N motor
V ize
A abil
N ity
This requires a principle like the “Head Feature Convention/Principle” assumed in Gazdar, Klein, Pullum, & Sag (1985) and Pollard & Sag (1986, 1994) that the phrasal parent is the same category as its head child. In this model, the terms “affix”, “prefix”, and “suffix” are convenient ways of referring to parts of words, but have no significance
for the nature of the syntactic or semantic relationship between these parts. This is also true of the distinctions between “roots” and “stems” and between “compound” and “complex” words. Within this model, morphemes within trees can be linearized by the same mechanisms used to order words within syntactical dependency trees (cf. Hudson (1984), Mel’cˇuk (1987) or various papers cited there, or various works within the unification grammar tradition, e. g. Gazdar, Klein, Pullum, Sag (1985), Pollard & Sag (1987, 1994)). For the sake of simplicity, I will not add information about order to the dependency trees presented in this article.
3.
Semantics
Another factor to consider in determining the best analysis is semantics. I will treat this in terms of Function-Argument Structure. This sort of semantics has already been used for analyses of sentence semantics within the tradition of Montague semantics, e. g. Dowty, Wall, & Peters (1981). The best way to test the Function-Argument Structure of any word is to compare it with the Function-Argument Structure of a syntactic paraphrase. I will follow this practice in the discussions which follow. In any complex word, the different morphemes are assumed to be in some sort of semantic relationship which can be formulated in terms of functions and arguments. Any one of the functions or arguments may itself have internal structure, and accordingly its own Function-Argument Structure. In syntactic constructions, the following principle is generally useful in creating FunctionArgument Structures on the basis of dependency trees: (ii)
Any head is a function which takes its syntactic complement(s) as argument(s).
These complements appear in a dependency tree as children of the top word. Following this principle, let us consider the word quickness. Following the above principle, I consider the suffix -ness, like the suffix -able considered in 2., to be the head of its word. Following the above assumption, its meaning is a function which takes the meaning of
680
V. Dependenzielle Theorien
quick as its argument. We can express this in abbreviated form by following the practice of logicians who use the so-called Polish notation. This means placing the argument in parentheses after its function and produces the following result. The general convention has been to use the marker “’” with each morpheme to make it clear that we are talking about meanings rather than phonological forms, but I feel that this is clear from context and have omitted them: (4)
-ness (happy)
This shows that in words of this sort the relationships between the meaning units are isomorphic to the relationships between the formal units. The function has the same relationship to its argument(s) as the head to its dependent(s). We will see that this isomorphism does not hold for all types of words, however. Specifically, it does not hold for prefixes in English, as will be discussed in detail in 4. The syntactic paraphrase of quickness is something like: state of being quick. Interestingly, if this paraphrase is placed in a dependency tree, the word state, just like the corresponding suffix -ness, is at the top of the tree. Of course, to make this paraphrase work, I have to assume that the words “of” and “being” do not contribute anything to the Function-Argument Structure of the syntactic version, or that their meanings, if any, are somehow incorporated into the Function-Argument Structure of the word happiness. Words like this will be taken up in 4. in connection with analyses of paraphrase there. The fact that the syntactic paraphrase has essentially the same structure as its wordstructure counterpart is a point in its favor. This generalization seems to apply for other suffixes as well. Consider the word validity, for example. My dictionary (Webster’s Encyclopedic Unabridged) paraphrases validity as “the state or quality of being valid”. Either state or quality will, like the corresponding suffix -ity, be the head of its analysis tree. So it appears that the concept of dependency, in combination with assumption (ii), quite often reduces the problem of capturing the meaning relationship between a complex word and its syntactic paraphrase. I conclude this section with a set of prefixes from Palauan, a Micronesian language, which function like the English suffixes dis-
cussed above: they determine the category of the word that they occur in: the following data are taken from Josephs (1976, 171 and 149 respectively) (5)
a. medakt (‘fear’), dakt (‘fear’) b. ousibai (‘enslave’), sibai (‘slave’)
It therefore follows from assumptions (i⫺ii) that these prefixes are the heads of the words they appear in and also the principle function of the Function-Argument Structure. These data furthermore show that there is no necessary connection between the position of an affix on the one hand and its dependency or semantic relationship to the rest of the word and the other.
4.
Adjunct Affixes
Unlike in Palauan, prefixes in English generally do not determine the category of the words they occur in. This means that the syntactic argument provided in 2. for considering suffixes to be heads is not applicable to prefixes. Rather prefixes in English are like simple syntactic adjuncts. This suggests that, like other modifiers, they are dependents of the head of the phrase that they modify. Unlike suffixes, they have a semantics which is not isomorphic with the syntax. The way it does work is given as the assumption: (iii) Adjuncts are functions which take a complex argument consisting of their head and all the arguments of their head. Since English prefixes do not determine the category of the word that they occur in, the criteria for determining the category of a given prefix is not so clear. But single word modifiers are generally adjectives or adverbs. We can distinguish between these possibilities, if we choose, on the basis of the modified category. Some examples of prefixes are un-, ex-, re-. I discuss only the first of these. un- (or its variants in-, im-, etc.) acts as a negator and most typically combines with an adjective, although it sometimes appears with verbs. Examples are unhappy, unrevised, and undo. I analyze the first of these in (6a⫺d): (6)
a. unhappy
A syntactic paraphrase for this is: (6)
b. not happy
681
48. The Concept of Dependency in Morphology
Dependency grammarians would assign the following tree to this: (6)
c. happy not
If this adjective modifies a noun, we have phrases like (6d): (6)
d. unhappy student
happy is itself an adjunct. This suggests that its semantic relationship to its head (student) is one of function to argument: happy (student). In the same way, un- is a functor taking happy as an argument, as already shown in the analysis of unhappy. This gives (6e) as Function-Argument Structure of the whole phrase. (6)
e. ~(happy (student))
A syntactic paraphrase for (6d) is (6f): (6)
f. student who is unhappy
Space does not permit a thorough analysis of this, but we can observe that its dependency tree is like that of (6d), except for the two dependents intervening between student and happy, namely who and is. The only independent lexical content of these is the tense of the verb, which is evidently derived from context in (6d). It is unclear, however, whether this should be included as part of the Function-Argument Structure in either of these phrases ⫺ we might consider the present tense to be the default time.
5.
Inflections
The analyses in previous sections are concerned with affixes ⫺ both prefixes and suffixes ⫺ which have lexical content which is clearly independent of the content of the morphemes which they combine with. But there are several classes of morphemes which have meaning which is clearly derivative of the meaning of the independent morpheme that they combine with. I will use a verb form from Classic Latin to illustrate this. (7)
a. port -a -bi -s carry -1conjug -fut -2s ‘You(sg) will carry’
Following the criteria developed so far, I assume that both the tense marker and the person-number marker are dependents of the root, since it seems that neither of them de-
termines the word’s category, which I assume is inherent in the root port-. As for semantics, I assume that the first suffix -a makes no contribution, since its function is to indicate the class of conjugational paradigms the verb takes. Tense is generally considered to be a category which takes its entire clause in its scope, or at least the verb and its complements. The person-number marker -s itself expresses one of these complements. So the Function-Argument Structure of the above is (7)
b. M ⬍ E (carry (2s), (X))
where ‘X’ stands for the indefinite meaning of the unexpressed direct object, and ‘M ⬍ E’ means ‘message precedes event’. This analysis of the tense is based on ideas in Reichenbach (1956). I conclude this section with a brief analysis of verb forms from Jacaltec, a Mayan language spoken in Mexico and Guatemala. Data is taken from Craig (1977, 60). These will be seen to be similar to the Classical Latin data in the same way that Palauan and English are similar, as dicussed in 2. In both cases, the suffixes of the European languages are replaced by prefixes in the non-European languages, but the hierarchical and semantic relationships are otherwise the same. (8)
a. Xc- ach w-ila prf A2 E1 see ‘I saw you’
Jacaltec has clitic pronouns which are marked for case. ‘A2’ stands for ‘Absolutive second person singular’ and ‘E1’ stands for ‘ergative first person singular’. The three morphs in front of the verb root combine with the verb root they precede in the same way as the three suffixes in Classical Latin combine with the verb root they follow, except that in Classical Latin one of the suffixes lacks any lexical meaning, and the third affix in Jacaltec expresses the other dependent on the verb explicitly. So the Function-Argument Structure for the above is approximately as in (8b): (8)
b. E ⬍ M (see (I, you))
6.
Other Types of Word Structure
The above analyses deal with structures in which a single morphological form coincides with a single meaning, and the boundary between morphemes is fairly clear. Let us now
682
V. Dependenzielle Theorien
ask what the concept of dependency can contribute to the analysis of other types of morphological structure. 6.1. Discontinuous morphemes In German, the grammatical information “past participle” is expressed by two different discontinuous parts of the verb form. This is shown in (9): (9)
ge- mach- t ppt -do -ppt ‘done’
The prefix-suffix combination in such verbs actually can have a second meaning which I will generally ignore ⫺ that of passive participle. The syntactic context resolves this ambiguity. For most verbs, the notion of past participles is doubly expressed, as in (9). There is a handful of verbs, however, which show that the suffix -t (replaced in some verbs by -en), is sufficient to express this meaning: (10) a. reservier- t, ‘reserved’ b. bekomm- en, ‘received’ In fact, all verbs whose stems begin with any one of several prefixes (ver-, be-, er-) lack the prefix ge- in the form of their past participle. So in this case it is not clear that ge- … -t in (9) should be considered a single discontinuous morpheme rather than a double (redundant) expression of a single notion. But for the sake of argument, let us adopt the former position. Even though the two morphs expressing the notion “past participle” in (9) are linearly discontinuous, they are connected to each other within a dependency tree, at least if we adopt assumptions like those used in sections 2.⫺4. Assuming that such participles as the above are adjectives (they are declined like adjectives when used attributively as passive participles), we assume within the model of 2.⫺3. that either the suffix -t or the prefix ge- is an adjective and the head of the entire word, taking a verb root as its argument. -t is perhaps a slightly better candidate for head, given the observation earlier in this section that some past participles do not have such a prefix. The dependency analysis of (9) is then as in (11a): (11) a.
-t ∑∂ ge- mach
Assuming that the meaning representation of -t (as past participle ⫺ I ignore its meaning as passive participle) is “E ⬍ M” (just the opposite of the meaning “M ⬍ E” used for the Classical Latin future tense in 5) and that gehas no independent meaning (is redundant), the Function-Argument Structure of the whole word is as in (11b): (11) b. E ⬍ M (do) 6.2. Phonological Features and Meaning So far I have discussed only words which can be segmented into individual meaningful units in a fairly clear way. Can the concept of dependency provide any insight into the morphological structure of words for which such a segmentation does not appear to be available? A common and well-known example of what I am talking about is the phenomenon of irregular past tenses and past participles in Germanic languages. The past tense of English sing is sang. But how can any part of sang be said to have the meaning PST? Instead, it seems intuitively plausible to say that the distinction between present and past tense depends simply on the alternation between the vowel sounds of these words. But there is an alternative if we remember that in phonological theory specific sounds are considered to be collections of phonological features. Suppose that only the features shared by both words are used to represent the root, and the ones that distinguish them, having the meaning of the appropriate tense, are their respective dependents. Given those assumptions, the representations of these two words might be as follows: (12) a. s{[⫹vocalic]ng [⫺round] [⫺back]} [⫹high] b. s{[⫹vocalic]ng [⫺round] [⫺back]} [⫺high] The assumptions of the phonological framework that I am most familiar with, Chomsky and Halle (1968), do not allow a phonetic unit to be split apart into two parts the
683
48. The Concept of Dependency in Morphology
way I have in the above representations, but then this framework was developed without any notion of “dependency”. Since neither {[⫹vocalic], [⫺back], [⫺round]} nor [(high] can stand alone as a specific phonetic unit, it seems plausible to assume that the first of these feature combinations “unifies” with one of the other two (not very differently from the way elements of any unification grammar unify with each other) to create the final phonetic representations of the words concerned. The advantage of this analysis is that each of the two meaningful parts of such verbs has a corresponding phonological representation, and that the relation-ship between them is the same as it is for the corresponding parts of the simple past tense of regular verbs like walked. It is nevertheless questionable whether this analysis is worth its weight in phonological abstraction for the phenomena in question. Given the fact that such “ablaut” phenomena are not productive or predictable, but must be learned separately for each of the hundred-plus English verbs in which they occur, one might prefer a different approach. It would also be possible to simply list these forms and others like them and their Function-Argument Structures. Creating a formal correspondence between different paradigms is a good idea, if and only if there is some corresponding psychological correspondence between them. Bybee & Slobin (1982) in fact describe an experiment (summarized in Bybee (1985, 103)) which suggests that speakers use different processes in mentally storing regular and irregular past tenses. Perhaps it is now time to reevaluate such experiments in the context of dependency analyses. 6.3. Dependency between segments Another phenomenon with words that cannot be easily segmented into morphs is the causative in Moroccan Arabic. The following data are taken from Mercier (1937, 104) (13) a. msˇi ‘to walk’ b. mesˇsˇi ‘to make to walk’ (14) a. aya ‘to be tired’ b. ayyi ‘to tire out’ (i. e. to cause to be tired) Although there seem to be various phonological changes associated with the causative, its central characteristic is the doubling of the second segment of the root. This occurs for ‘sˇ ’ in (13b) and for ‘y’ in (14b), as well as
precisely one segment for all (with one possible exception) of the examples given. Unlike the Ablaut phenomena of 6.2., these data involve at least one change which appears to be both productive and predictable. It seems however, that there is no single morpheme which can be isolated from such verb forms as (13b) and (14b) and tied to the meaning “cause”. But once we treat these forms as collections of phonological features, we are a little closer to such an analysis. The duplicate segment can be represented as follows: [ F] This notation stands for “all features” and copies the features of its child segment, assuming that this consonant of the root is the child of the phonetically identical causative morpheme segment. Except in 6.2.⫺3., dependency is always a relation between morphemes rather than a relation between phonological segments. But given that morphology is the area where sound and meaning are most tightly intertwined, it is possible that dependency analyses should include reference to phonological features in certain cases. And in fact there is a literature on dependency phonology (cf. Anderson & Durand (1986)).
7.
Conclusion
I have dealt with word structure and meaning in a number of different structure types and languages. The concept of dependency is well-suited to deal with problems of word structure involving syntagmatic relations. On the other hand, it cannot account for lexical gaps like *evitable, anything about allomorphy, varying degrees of productivity of different morphemes, or the sometimes idiosyncratic ways that morpheme meanings combine with each other. For solutions to these problems we must look elsewhere.
8.
Select Bibliography
Anderson, John/Durand, Jacques (1986): Dependency Phonology. In: Durand, Jacques (ed.): Dependency Phonology and Nonlinear Phonology. London, 1⫺54. Anderson, Stephen (1985): Inflectional Categories. In: Shopen, Tim (ed.): Language Typology and Syntactic Description Vol. III, 151⫺201. Bybee, Joan (1985): A Study on the Relation between Meaning and Form. Amsterdam/Philadelphia.
684
V. Dependenzielle Theorien
Bybee, Joan/Slobin, Dan (1982): Rules and Schemes in the Development of the English Past Tense. In: Language 58, 265⫺289. Chomsky, Noam/Halle, Morris (1968): Sound Pattern of English. New York. Craig, Colette (1977): The Structure of Jacaltec. Austin. Dowty, David/Wall, Robert/Peters, Stanley (1981): Introduction to Montague Semantics. Dordrecht. Gazdar, Gerald/Klein, Ewan/Pullum, Gerald, Sag/ Ivan (1985): Generalized Phrase Structure Grammar. Oxford. Givo´n, Talmy (1979): On Understanding Grammar. New York. Hudson, Richard (1984): Word Grammar. Oxford. Josephs, Lewis S. (1975): Palauan Reference Grammar. Honolulu.
Mel’cˇuk, Igor A. (1988): Dependency Syntax: Theory and Practice. New York. Mercier, Henry (1937): Arabic Grammar. Rabat (Morocco). Pollard, Carl/Sag, Ivan (1985): Information-based Syntax and Semantics. CSLI: Stanford. Pollard, Carl/Sag, Ivan (1994): Head-Driven Phrase Structure Grammar. Chicago. Pullum, Geoffrey/Wilson, Deirdre (1977): Autonomous Syntax and the Analysis of Auxiliaries. In: Language 53.4, 741⫺788. Reichenbach, Hans (1956): The Direction of Time. Berkeley. Sproat, Richard (1993): Morphology and Computation. Cambridge, MA. Tesnie`re, Lucien (1953): Esquisse d’une Syntaxe Structurale. Paris.
Dan Maxwell, Washington (USA)
49. Konzeptuelle Semantik als dependenzielle Theorie 1. 2. 3. 4. 5.
Einleitung Konzeptuelle Strukturen Parallelität zur Dependenzgrammatik Perspektiven für konzeptuelle Strukturen als Dependenzgrammatik Literatur in Auswahl
1.
Einleitung
1.1. Grundlagen Die Theorie der konzeptuellen Strukturen, Konzeptuelle Semantik (S. Jackendoff 1983, 1987 und 1990), ist eine linguistische Theorie über die Struktur mentaler Repräsentationen, die durch sprachliche Kommunikation aufgebaut werden. Eine zentrale Annahme dieser Theorie ist es, dass derartige mentale Repräsentationen in adäquater Weise als Beschreibung der Semantik natürlichsprachlicher Äußerungen dienen können. Obwohl ursprünglich als semantische Komponente für Theorien im Rahmen der Generativen Grammatik konzipiert, hat sich die Konzeptuelle Semantik zu einer eigenständigen SemantikTheorie entwickelt, die auch ohne ihre Verbindung zur Generativen Grammatik von genuin linguistischem Interesse ist. Das grundlegende Werk zur Konzeptuellen Semantik stellt Jackendoff (1990) dar, eine anwendungsbezogene Erweiterung wird in Dorr (1993b) entwickelt.
1.2. Restriktionen für Semantikformalismen Auf der Suche nach einem geeigneten Formalismus für die semantische Zwischenrepräsentation in kognitiven Systemen ergeben sich zwangsläufig eine Reihe von Restriktionen. Es muss in dem Formalismus möglich sein, die semantische Struktur von sprachlichen Äußerungen hinreichend genau darstellen zu können ⫺ präzis genug, um für Inferenzprozesse, Handlungsplanung, Wahrnehmungssteuerung und andere nicht-sprachliche kognitive Prozesse relevante Aspekte repräsentieren zu können, andererseits aber so abstrakt, dass die Betrachtung der Spezifika der Semantik von Äußerungen nicht belastet werden muss mit anderen semantischen Fragestellungen. Zweitens muss der Formalismus im Rahmen eines kognitionswissenschaftlichen Ansatzes für die algorithmische Verarbeitung geeignet sein. Da sich dieses nicht von selbst für alle formalen Beschreibungssysteme versteht, ist darauf zu achten, dass beispielsweise die im Bereich des Parsing üblichen computerlinguistischen Verarbeitungsverfahren Anwendung finden können. Drittens muss es sich um einen Repräsentationsformalismus handeln, der selbst nicht ⫺ und sei es in reduzierter Form ⫺ Theorien zu Inferenz, Handlung und Wahrnehmung beinhaltet. Ein Formalismus beispielsweise, der in starkem Maße auf der Theorie thematischer
685
49. Konzeptuelle Semantik als dependenzielle Theorie
Rollen beruht, wäre ungeeignet, weil durch die Abbildung etwa auf handlungsnahe kognitive Datenstrukturen auch eine Grundlegung derartiger Konzepte geleistet werden muss. Erfüllen thematische Rollen in einer semantischen Theorie eine Art ‘Dummy’-Funktion für den Bezug auf die reale Aktivität eines Akteurs, so muss die zweite handlungsnahe Repräsentationsebene thematische Rollen als semantische Subtheorie überflüssig machen. 1.3. Konzeptuelle Semantik in der Sprachverarbeitung Wenn man diese Kriterien auf die bekannten Theorien der semantischen Repräsentation anwendet, so tritt dabei deutlich Jackendoffs ‘Konzeptuelle Semantik’ hervor. Jackendoffs Theorie weist eine Reihe von Eigenschaften auf, die sie für die Integration in sprachverarbeitende kognitive Systeme gut geeignet erscheinen lässt: ⫺ Jackendoffs Theorie ist sehr stark durch linguistische Beobachtungen motiviert, erstreckt sich über einen großen Bereich von sprachlichen Phänomenen und weist dabei ein hohes Maß an Erklärungsadäquatheit auf (s. z. B. Hale/Keyser 1989, Levin/Rappaport 1986 oder Zubizarreta 1987). ⫺ Die Konzeptuelle Semantik hat bereits für eine Reihe von computerlinguistischen Systemen als semantische Grundlage gedient. Die Interaktion mit verschiedenen aktuellen Grammatikformalismen ist gut untersucht. Konzeptuelle Semantik ist als Interlingua in wissensbasierten MT-Systemen verwendet worden, so dass auch die Tauglichkeit für die Interaktion mit KIKomponenten als überprüft gelten kann (s. Dorr 1992, 1993a, 1993b, 1994 und White 1992).
phonologische Formationsregeln
⫺ Die Konzeptuelle Semantik ist für die Repräsentation von Anweisungen und somit als Interface für Planungsmodule genutzt worden (s. Di Eugenio/White 1992, Webber et al. 1992, Webber et al. 1995 und Lobin 1998). ⫺ Es wurde gezeigt (vgl. Zwarts/Verkuyl 1994), dass Jackendoffs ursprüngliche Annahme, dass seine Konzeptuelle Semantik einem modelltheoretischen Ansatz grundsätzlich unvereinbar gegenübersteht, nicht aufrecht zu erhalten ist. Vielmehr ist es möglich, auch Strukturen der Konzeptuellen Semantik modelltheoretische Interpretationen zu geben, so dass es also auch eine Brücke zwischen der Konzeptuellen Semantik als mentalistischer Version einer Semantiktheorie und der formalen Semantik gibt. Wohl das wichtigste Argument für die Konzeptuelle Semantik besteht darin, dass sie von Jackendoff explizit als eine Komponente zwischen Sprachsystem und anderen kognitiven Komponenten (visuelle Wahrnehmung, Handlung) konzipiert worden ist. Genau aus diesem Grund macht die Theorie selbst auch keinen Gebrauch von thematischen Rollen und verlangt somit von vornherein die Anknüpfung an andere kognitive Komponenten. Jackendoff (1990, 16) beschreibt die Stellung der Strukturen der Konzeptuellen Semantik (‘konzeptuelle Strukturen’) in einem kognitiven System folgendermaßen (s. Abb 49.1). Konzeptuelle Strukturen weisen innerhalb des Sprachsystems Verbindungen auf sowohl zu den syntaktischen Strukturen als auch, wie es sich z. B. beim Fokus manifestiert, zu den phonologischen Strukturen. Alle Strukturarten zeichnen sich durch eigene Formationsregeln aus, wobei die konzeptuellen Formationsregeln vor allem durch die im Konzept-
syntaktische Formationsregeln
konzeptuelle Formationsregeln visuelle Wahrnehmung
auditorischer Input phonologische Strukturen
syntaktische Strukturen
konzeptuelle Strukturen
motorischer Output
Handlung etc.
Inferenzregeln
Abb. 49.1: Konzeptuelle Strukturen im Sprachsystem (Jackendoff 1990, 16)
686
V. Dependenzielle Theorien
lexikon kodierten Abhängigkeiten der Konzepte untereinander determiniert werden. Konzeptuelle Strukturen bilden gleichzeitig die Schnittstelle zu anderen kognitiven Subsystemen, deren Beziehung zum Sprachsystem Jackendoff für das visuelle System exemplarisch untersucht hat (vgl. Jackendoff 1987). Andere Untersuchungen verbinden die Theorie der Konzeptuellen Semantik mit der Handlungsplanungs- und -ausführungskompetenz eines intelligenten Akteurs (Webber et al. 1992, Lobin 1998) oder nutzen Sie als Interlingua in Maschinelle-Übersetzungssystemen (Dorr 1993b).
2.
Konzeptuelle Strukturen
Konzeptuelle Strukturen sind Repräsentationen für Abbildungen von konzeptuellen Strukturen auf Konzepttypen. Jedes Konzept gehört zu einem bestimmten Typ, etwa zum Typ der Gegenstände und Lebewesen thing, zum Typ der Ereignisse und Aktionen event, zum Typ der situativen Zustände state oder zum Typ der Lokationen position. Durch eine konzeptuelle Struktur kann beispielsweise ein Zusammenhang hergestellt werden zwischen dem Konzept school vom Typ thing und dem Konzepttyp position, und zwar vermittels des Konzeptes at, das als Abbildungsfunktion verwendet wird. Die im folgenden verwendete Notation lehnt sich an Dorr (1993b) an: (1)
[Position at ([Thing school])]
Das konzeptuelle Primitiv at bildet in (1) die konzeptuelle Struktur vom Typ thing auf ein Konzept vom Typ position ab ⫺ die Darstellung dieses Abbildungsvorganges ist die konzeptuelle Struktur (1). Natürlich kann eine konzeptuelle Struktur auch mehrere Argumente umfassen: (2)
a. John goes to school. b. [Event go ([Thing john] [Path toward ([Position at ([Thing school]) ]) ]) ]
Hier werden konzeptuelle Strukturen vom Typ thing bzw. path durch das konzeptuelle Primitiv go auf ein Konzept vom Typ event abgebildet. [Thing john] und [Thing school] können als atomare konzeptuelle Strukturen bezeichnet werden, deren Primitive nullstellige Funktionen sind. Um die Leserlichkeit zu vergrößern, erscheint oftmals nur ein Primitiv auf jeder Zeile, die Abhängigkeiten zwischen den kon-
zeptuellen Strukturen werden dann durch Einrückungen kenntlich gemacht. (2) wird danach in der folgenden Weise notiert: (3)
[Event go ( [Thing john] [Path to ( [Position at ( [Thing school]) ]) ]) ]
Eine konzeptuelle Struktur wie die in (2) beschreibt räumliche Verhältnisse zwischen den beteiligten Konzepten, sie ist in der Terminologie Jackendoffs eine Struktur in der räumlichen (spatial) Dimension. Dieses wird durch Indizierung der Konzept-Primitive eindeutig kenntlich gemacht: (4)
[Event goLoc ( [Thing john] [Path toLoc ( [Position atLoc ( [Thing school]) ]) ]) ]
Neben der räumlichen Dimension gibt es die kausale Dimension, die vor allem durch die konzeptuellen Primitiva cause und let ausgeprägt wird: (5)
a. John rolled the ball toward Beth. b. [Event cause ( [Thing john] [Event goLoc ( [Thing ball] [Path towardLoc ( [Position atLoc ( [Thing beth]) ]) ]) ]
Die dritte Dimension bilden fünf verschiedene konzeptuelle Felder. Jackendoff argumentiert, dass räumliche Verhältnisse zwischen Entitäten in andere Bereiche übertragbar sind, etwa die räumliche Bewegung eines Gegenstandes (goLoc) in eine Bewegung in Bezug auf den Besitz, also den Besitzwechsel eines Gegenstandes (goPoss: jemand erhält etwas), oder eine „zeitliche Bewegung“ (goTemp: ein Ereignis dauert von X bis Y). In der Einführung der fünf Felder Possessional, Temporal, Identificational, Circumstantial und Existential manifestiert sich die Erkenntnis, dass abstrakte Konzepte aus konkreten, meist räumlichen Konzepten durch Übertragung in andere Bedeutungsbereiche entstehen (s. dazu auch Johnson 1987). Um die Ausdrucksmächtigkeit und Differenzierungsfähigkeit der konzeptuellen Strukturen zu erweitern, ohne die Granularität des gesamten Konzeptsystems zu vergrößern, führt Dorr (1992) sog. Parameter als ein zu-
687
49. Konzeptuelle Semantik als dependenzielle Theorie
sätzliches Element in konzeptuelle Strukturen ein. Parameter erlauben es, gewissermaßen ‘subatomare’ (unterhalb der konzeptuellen Ebene zu manifestierende) Bedeutungsunterschiede, die sich in der maschinellen Übersetzung durch lexikalische und stilistische Differenzen niederschlagen, auf einfache Art zu erfassen. Der englische Satz (6)
I stabbed John.
wird beispielsweise in folgender Weise ins Spanische übersetzt. (Vgl. Dorr 1994, 613 f. Im Gegensatz zu Jackendoff übersetzt Dorr Präpositionen in zweistellige Funktionen. Im Folgenden wird jedoch in dieser Hinsicht Jackendoffs ursprünglicher Konzeption gefolgt.) (7)
Yo le di pun˜aladas a Juan. ‘I gave knife-wounds to John.’
Beide Sätze weisen gleichermaßen die folgende konzeptuelle Struktur auf: (8)
[Event cause ( [Thing I] [Event goPoss ( [Thing knife-wound] [Path towardPoss ( [Position atPoss ( [Thing john]) ]) ]) ]) ]
Diese Struktur besagt, dass es um ein Ereignis der Verursachung durch ‘Ich’ geht, und zwar verursacht dieser Akteur ein Ereignis vom Typ go im Feld ‘Possessional’, das den Übergang von Konzepten vom Typ thing in den Besitz einer Person beschreibt. Bei dem Gegenstand handelt es sich hier um knifewound, die in die Besitzposition (atPoss) der Person john übergeht. Soll nun zum Ausdruck gebracht werden, dass in der englischen Versprachlichung ein Teil dieser Struktur eingekapselt im Verb ‘stab’ vorliegt, kann die Struktur in folgender Weise parametrisiert werden: (9)
[Event cause ( [Thing I] [Event goPoss ( [Thing :CONFLATED knifewound] [Path towardPoss ( [Position atPos ( [Thing john]) ]) ]) ]) ]
‘:conflated’ führt nun z. B. bei der Generierung einer englischsprachigen Oberflächenform zur Auswahl des Lexems ‘stab’, wo-
durch nur bestimmte Teile der Struktur (9) sprachlich realisiert werden müssen. Aus den bisherigen Beispielen kann nun die allgemeine Form konzeptueller Strukturen abgeleitet werden, wie sie im folgenden verwendet werden soll: (10) [T(α) (π)* α [T(β1) … [T(βm) [T(γ1) … [T(γn)
( β1] βm] γ1] γn]) ]
Dabei wird α als der logische Kopf bezeichnet, β1 bis βm als logische Argumente und γ1 bis γn als logische Modifikatoren. T(Φ) steht für den Typ des Primitivs Φ. π steht für einen beliebigen Parameter.
3.
Parallelität zur Dependenzgrammatik
3.1. Strukturelle Parallelen Die Beispiele und die Definition der allgemeinen Form konzeptueller Strukturen in (10) zeigen deutlich die überraschend große Parallelität von Konzeptueller Semantik und Dependenzgrammatik. Obwohl die Konzeptuelle Semantik von Jackendoff in enger Anlehnung an die theoretischen Grundvoraussetzungen der Generativen Grammatik entwickelt worden ist, ist letztlich nicht nur eine große Ähnlichkeit zu dependenziellen Theorien entstanden, vielmehr kann die Konzeptuelle Semantik ohne Abstriche als dependenzielle Bedeutungstheorie bezeichnet werden. Für die Klärung des Unterschieds zwischen logischen Argumenten und logischen Modifikatoren können beispielsweise Ergebnisse aus den Forschungen zur Dependenzgrammatik unmittelbar herangezogen werden (vgl. z. B. Lobin 1993a; 1993b). Danach ist als Valenz die Menge derjenigen Dependentien zu verstehen, die durch ihren Kopf in spezifischer Weise subkategorisiert werden. Nicht zur Valenz gehören demnach solche Dependentien, die bei allen Elementen einer bestimmten Wortart auftreten können. Die Analogie mit den konzeptuellen Strukturen ist naheliegend: logische Argumente werden durch den logischen Kopf selegiert, logische Modifikatoren hingegen können bei beliebigen Primitiven eines bestimmten Konzepttyps erscheinen. Die logischen Argumente müssen also jeweils für die einzelnen Primi-
688 (11)
V. Dependenzielle Theorien
logischer Kopf logisches Argument Menge der logischen Argumente logische Modifikatoren konzeptueller Typ konzeptuelle Struktur Restriktionen der Argumentstruktur
L L L L L L L
tive explizit aufgeführt werden, logische Modifikatoren hingegen nur für Konzepttypen. Auch andere Begriffe der Dependenztheorie finden ihre Parallele in Begriffen der Konzeptuellen Semantik. Die Konzeptuelle Semantik kann demnach offensichtlich als eine dependenzielle Grammatiktheorie für die ‘Sprache’ der Konzepte bezeichnet werden, als eine Grammatik für ‘Mentalesisch’. Der Unterschied zur dependenziellen Beschreibung von gesprochenen Sprachen liegt darin, dass zusätzlich zu der strukturellen Beschreibung der Abhängigkeitsbeziehungen der Elemente untereinander auch Sequenzialisierungsregeln oder -prinzipien angegeben werden müssen, da dependenzielle Strukturen selbst gewöhnlich ja keine positionalen Informationen mit sich tragen. 3.2. Konzeptuelle Strukturbäume Der dependenzielle Aufbau konzeptueller Strukturen wird deutlich, wenn man diese als Bäume darstellt:
syntaktischer Kopf Komplement/Ergänzung Valenz Adjunkte/Angaben Phrasentyp dependenzielle Struktur Valenztypen
(13) a. Hans sieht den Wagen um die Ecke fahren. b. [S sieht ( [NP Hans] [VP fahren ( [NP den Wagen] [PP um ( [NP die Ecke]) ]) ]) ] In (13) sind in der Klammerung die resultierenden Phrasentypen angegeben. Phrasentypen entsprechen folglich den Konzepttypen in den Strukturen der konzeptuellen Semantik. Im dependenziellen Strukturbaum zu (13) werden die Phrasentypen nicht notiert: (14)
sieht
Hans
fahren
den Wagen
(12)
um
CAUSE die Ecke
JOHN
GOLoc
BALL
TOWARDLoc
ATLoc
BETH
Ein derartiger konzeptueller Strukturbaum weist den gleichen Aufbau auf wie die dependenzielle Struktur zu einem Beispielsatz wie (13):
Lässt man die Typisierung von Kanten in den Dependenzstrukturen zu, wie es in einigen dependenziellen Systemen vorgesehen ist (z. B. Mel’cˇuk 1988), so stellt sich die Frage, welche Typen den Kanten konzeptueller Strukturbäume zuzuordnen sind. Für (14) etwa kann man die folgenden Typisierungen vornehmen (s. (15)). Für konzeptuelle Strukturen kommen zur Typisierung der Kanten nicht die Konzepttypen in Frage, da diese ja den Phrasentypen entsprechen und somit in Dependenzbäumen nicht notiert werden können. Jackendoffs und Dorrs Arbeiten weisen darauf hin, dass auch auf der Ebene der konzeptuellen Strukturen thematische Rollen (vgl. Fillmore 1968) vorzufinden sind, wodurch sie als eine
689
49. Konzeptuelle Semantik als dependenzielle Theorie
(15)
typ. Die konzeptuellen Primitive sind deshalb in folgender Form im konzeptuellen Lexikon enthalten (vgl. Dorr 1993b, 101):
sieht In
t
f-K
jek
om
b Su
p
Hans
(17) a. [Position atLoc ([thing]) ] b. [Event goLoc ([thing] [path]) ] c. [Path toLoc ([position]) ]
fahren D p irK om
om
-K
kk
p
A den Wagen
um Akk-Komp
die Ecke
Dieses entspricht auf der Seite der dependenziellen Struktur folgender Notation für Dependentien: (18) a. [S fahren ([npnom] [ppdir]) ] b. [PP um ([npakk]) ] Eine derartige Anreicherung von Lexemen mit grammatischer Information wird gewöhnlich noch nicht als Valenz bezeichnet, eher als Subkategorisierungsrahmen. Die Valenz beinhaltet vielmehr eine Liste wohldefinierter Komplementtypen:
Schnittstelle zur Syntax fungieren. Eine partielle Typisierung der Kanten könnte im Falle von (12) somit folgendermaßen aussehen:
(19) [S fahren ([npnom : Subjekt] [PPdir : DirKomplement]) ]
(16)
Als die „Valenz“ von Konzepten kann demnach der folgende Ausdruck festgelegt werden:
CAUSE nt
ge
Th
em
(20) [Event goLoc ([thing : Theme] [path : Goal]) ]
e
A
JOHN e
m he
T
BALL
GOLoc Lo
4.
ca
tio
n
TOWARDLoc
ATLoc
BETH
3.3. Konzept-Valenz Da offensichtlich die Kombinationsmöglichkeiten konzeptueller Strukturen zu umfassenden Strukturen durch die konzeptuellen Primitive geregelt werden, ist es naheliegend, dass die Typen der konzeptuellen Strukturen, mit denen ein konzeptuelles Primitiv kombinierbar ist, im konzeptuellen Lexikon bei diesem Primitiv vermerkt werden. Die notationell einfachste Form, eine solche Abhängigkeit zu kodieren, besteht darin, konzeptuelle Strukturen auch in abstrakter, also nicht-instanziierter Form zuzulassen. Eine abstrakte konzeptuelle Struktur besteht lediglich aus einem in eckige Klammern gefassten Konzept-
Perspektiven für konzeptuelle Strukturen als Dependenzgrammatik
Die Konzeptuelle Semantik besitzt zweifellos gewisse Ähnlichkeiten zur Theorie semantischer Netze, zu Conceptual Dependencies (Schank 1972, Schank/Abelson 1977) und zu Semantik-Formalismen, die im Bereich der Künstliche-Intelligenz-Forschung angewendet werden. Der wesentliche Unterschied zu diesen Theorien liegt allerdings darin, dass die Konzeptuelle Semantik nicht nur Elemente der Dependenzgrammatik in den Bereich der Semantik überträgt, sondern die komplette dependenzgrammatische Definition einer semantischen Repräsentationssprache darstellt. Wenn wir konzeptuelle Strukturen als dependenzielle Strukturen interpretieren, eröffnen sich für die Integration der Konzeptuellen Semantik in Sprachverarbeitungssysteme weiterreichende Möglichkeiten. Für die Überführung dependenzieller Strukturen einer Sprache in die einer anderen ist das Konzept der Metataxis entwickelt worden, wodurch Abbildungen zwischen verallgemeinerten dependenziellen Bäumen beschreibbar sind.
690
V. Dependenzielle Theorien
(Vgl. Tesnie`re 1959. Zur computerlinguistischen Anwendung s. Schubert 1987, Tamis 1989, Maxwell 1989, van Zuijlen 1989.) In Kombination also mit der dependenzbasierten Analyse der syntaktischen Struktur von Sätzen wird es dann möglich, auch für den Übergang von syntaktischer zu semantischer Struktur dependenzielle Techniken einzusetzen und so größere Kohärenz und Effizienz der Verarbeitung insgesamt zu gewährleisten. Auch für theoretische Überlegungen öffnen sich damit neue Perspektiven. Da bei der dependenziellen Beschreibung natürlicher Sprachen der Aspekt der Sequenzialisierung der Elemente von der der hierarchischen Strukturierung getrennt betrachtet werden kann und wir bei der Konzeptuellen Semantik nur die Konzept-Hierarchie berücksichtigen, schließt sich unmittelbar die Frage an, welchen Stellenwert die Sequenzialisierung der Konzepte einnehmen muss. Auch wenn zu diesem Thema noch keine Forschungsarbeiten vorgelegt worden sind, so lässt sich doch darüber spekulieren, dass sich in der Untersuchung von „Sequenzialisierungsphänomenen“ von Konzepten Eigenschaften der Aufmerksamkeits- und Wahrnehmungssteuerung niederschlagen könnten.
5.
Literatur in Auswahl
Dorr, Bonnie J. (1992): A parameterized approach to integrating aspect with lexical-semantics for machine translation. In: Proceedings of the 30th Annual Conference of the Association of Computational Linguistics. Newark (DE), 257⫺264. Dorr, Bonnie J. (1993a): Interlingual machine translation: A parameterized approach. In: Artificial Intelligence 63 (1, 2), 37⫺59. Dorr, Bonnie J. (1993b): Machine Translation: A View from the Lexicon. Cambridge. Dorr, Bonnie J. (1994): Machine Translation Divergences: A Formal Description and Proposed Solution. In: Computational Linguistics 20, 597⫺633. Fillmore, Charles (1968): The case for case. In: Bach, Emmon/Harms, Robert T. (Hgg.): Universals in Linguistic Theory. New York, 1⫺90. Hale, Kenneth/Keyser, Samuel Jay (1989): On some syntactic rules in the lexicon. Technical Report, Center for Cognitive Science. Cambridge (MA). Jackendoff, Ray (1983): Semantics and Cognition (⫽ Current studies in linguistics series, 8). Cambridge (MA). Jackendoff, Ray (1987): Consciousness and the Computational Mind. Cambridge (MA). Jackendoff, Ray (1990): Semantic Structures (⫽ Current studies in linguistics series, 18). Cambridge (MA).
Johnson, Mark (1987): The Body in the Mind. Chicago/London. Levin, Beth/Rappaport, Malka (1986): The formation of adjectival passives. In: Linguistic Inquiry 17, 623⫺662. Lobin, Henning (1993a): Koordinationssyntax als prozedurales Phänomen (⫽ Studien zur deutschen Grammatik, 46). Tübingen. Lobin, Henning (1993b): Linguistic Perception and Syntactic Structure. In: Eva Hajicˇova´ (Hg.): Functional Description of Language. Prag, 163⫺178. Lobin, Henning (1998): Handlungsanweisungen. Sprachliche Spezifikation teilautonomer Aktivität. Wiesbaden. Maxwell, Dan (1989): English-Esperanto metataxis. In: Maxwell, Dan/Schubert, Klaus (Hgg.), 267⫺297. Maxwell, Dan/Schubert, Klaus (Hgg.) (1989): Metataxis in Practice. Dependency Syntax for multilingual machine translation (⫽ Distributed Language Translation 6). Dordrecht, Providence. Mel’cˇuk, Igor A. (1988): Dependency syntax: theory and practice (SUNY series in linguistics). Albany, NY. Schank, Roger C. (1972): Conceptual dependency: A theory of natural language understanding. In: Cognitive Psychology 3 (4), 552⫺631. Schank, Roger/Abelson, Robert (1977): Scripts, Plans, Goals, and Understanding. Hillsdale (NJ). Schank, Roger C./Carbonell, Jame G. (1979): Re: The Gettysburg Address. In: Findler, Nicholas V. (Hg.): Associative Networks: Representation and Use of Knowledge by Computers. New York, 327⫺ 362, Schubert, Klaus (1987): Metataxis. Contrastive dependency syntax for machine translation (⫽ Distributed Language Translation, 2). Dordrecht. Tamis, Dorine (1989): Esperanto-French metataxis. In: Maxwell, Dan/Schubert, Klaus (Hgg.), 247⫺266. Tesnie`re, Lucien (1959): Ele´ments de syntaxe structurale. Paris [2. Aufl. 1966]. van Zuijlen, Job M. (1989): Aspects of metataxis formalization. In: Maxwell, Dan/Schubert, Klaus (Hgg.), 299⫺320. Webber, Bonnie/Badler, Norman/Di Eugenio, Barbara/Geib, Christopher/Levison, Libby/Moore, Michael (1995): Instructions, Intentions and Expectations. In: Artificial Intelligence 73, 253⫺269. Webber, Bonnie/Badler, Norman/Baldwin, Breckenridge/Becket, Welton/Di Eugenio, Barbara/ Geib, Christopher/Jung, Moon/Levison, Libby/ Moore, Michael/White, Michael (1992): Doing What You’re Told: Following Task Instructions in Changing, but Hospitable Environments. Report MS-CIS-92-74, LINC LAB 236, Computer and Information Science Department. Philadelphia (PA).
50. Semantische Netze und Dependenzgrammatik
691
White, Michael (1992): Conceptual Structures and CCG: Linking Theory and Incorporated Argument Adjuncts. In: Proc. of COLING-92, 246⫺252. Zubizarreta, Maria Luisa (1987): Levels of Representation in the Lexicon and in the Syntax. Dordrecht.
Zwarts, Joost/Verkuyl, Henk (1994): An algebra of conceptual structures; an investigation into Jackendoff’s conceptual semantics. In: Linguistics and Philosophy 17, 1⫺28.
Henning Lobin, Gießen (Deutschland)
50. Semantische Netze und Dependenzgrammatik 1. 2. 3. 4. 5. 6.
Einleitung Semantische Netze Dependenzsyntax Anwendungen Zusammenfassung Literatur in Auswahl
1.
Einleitung
Auffälligste Gemeinsamkeit zwischen Dependenzgrammatiken einerseits und semantischen Netzen andererseits ist wohl der relationale Charakter ihrer Basisprimitive. Diese fundamentale Verwandtschaft auf der formalen Ebene gestattet es, die deutlichen Parallelen zwischen syntaktischen und semantischen Strukturierungen natürlichsprachlicher Sätze in besonderer Weise hervorzuheben, und lässt dementsprechend auch ein hohes Potential zur homogenen und dennoch ebenenübergreifenden Sprachbeschreibung erwarten. Vor allem im Hinblick auf die einheitliche Gestaltung sprachverarbeitender Systeme erweist sich dies als eine sehr attraktive Eigenschaft. Dass solche Parallelen zwischen syntaktischen und semantischen Strukturbeschrei-
SUBJ
Hans
SUBJ
AGENS
liest.
DOBJ
Hans sucht Marie.
SUBJ
Hans Abb. 50.1.
DOBJ
schenkt
Hans
Geld.
liest.
AGENS
Hans
AGENS
IOBJ
Marie
bungen tatsächlich gegeben sind, zeigt sich wohl am deutlichsten im Kernbereich syntaktischer Modellierung, der durch das Verb vermittelten Prädikats-Argumentstruktur. Syntaktischen (Dependenz-)Relationen wie „Subjekt von“ (SUBJ), „Direktes Objekt von“ (DOBJ) und „Indirektes Objekt von“ (IOBJ) stehen hier semantische Relationen wie „Agens von“ (AGENS), „Patiens von“ (PAT) bzw. „Rezipient“ (RECIP) gegenüber, zwischen denen in vielen Fällen sehr einfache Korrespondenzbeziehungen nachgewiesen werden können (Abb. 50.1.). Dank der in diesen Beispielen deutlich hervortretenden engen strukturellen Verwandtschaft steht für die konkrete dependentielle Beschreibung sprachlicher Phänomene ein breites Spektrum zur Verfügung, das von strikt oberflächensyntaktisch orientierten Ansätzen (z. B. Hudson 1990, Kunze 1975) bis hin zu den eher semantisch angelegten Valenzen der Kasusgrammatik (Fillmore 1968) reicht. Daneben existieren aber auch verschiedene Ansätze, in denen versucht wird, zu einer fruchtbaren und praktikablen Synthese dieser unterschiedlichen Perspektiven zu fin-
Hans
PAT
sucht
RECIP
schenkt
Marie.
PAT
Marie
Geld.
692 den (Mel’cˇuk 1988, Bröker 1997, Heinecke/ Kunze/Menzel/u. a. 1998). Leider stellt sich bei genauerer Betrachtung jedoch ziemlich schnell heraus, dass zwischen der oberflächennahen Beschreibung syntaktischer Dependenzstrukturen und ihren semantischen Entsprechungen auch zahlreiche Disparitäten bestehen, durch die sich das wechselseitige Abbildungsverhältnis doch erheblich komplizierter gestaltet. Geht man davon aus, dass durch Dependenzrelationen bestimmte grammatische Beziehungen zwischen den oberflächennahen Bestandteilen einer natürlichsprachlichen Äußerung (d. h. also Wortformen bzw. Wortformgruppen) erfasst werden, so sind semantische Netze auf einer tieferen, konzeptuellen Ebene angesiedelt. Hieraus ergibt sich bereits ein ganz fundamentaler Unterschied zwischen den beiden Repräsentationsformalismen, der sich am deutlichsten wohl an der Grenze zwischen sprachlichem und außersprachlichem Wissen zeigt: Konzepte als elementare Einheiten kognitiver Aktivität können auch nichtsprachlich kommuniziert werden und müssen daher nicht in jedem Fall eine direkte Entsprechung auf der Ebene der sprachlichen Oberfläche besitzen. So rechnet etwa Mel’cˇuk (1988, 54) zur semantischen Struktur auch sprechakt-bezogene Informationen und Teile des Hintergrundwissens, die in der Versprachlichung nicht direkt auftauchen, für deren Verständnis aber unverzichtbar sind. Auch innerhalb des direkt versprachlichten propositionalen Gehalts finden sich systematische Abweichungen zwischen den beiden Repräsentationsebenen. Sie betreffen sowohl Konzepte, denen kein direktes Äquivalent auf der Wortformenebene gegenübersteht, als auch Wortformen, die bei der Konstituierung der konzeptuellen Struktur nur vermittelnd wirksam werden, selbst aber nicht Bestandteil derselben sind. Beispiele für Konzepte, die auf der sprachlichen Oberfläche nicht mehr manifest sind, finden sich vor allem im Bereich der Referenz. Besonders deutlich wird das Phänomen bei textexternen Referenzen, wo definite oder anaphorische Bezüge auf Entitäten verweisen, die nur durch die konkreten Bedingungen der Kommunikationssituation gegeben sind und auf der sprachlichen Oberfläche nur in stark unterspezifizierter Form auftreten. Ich wollte ins Theater, aber für ihn war ja der Skatabend wichtiger. Zwar sollten die Angaben zur Identität der Referenzobjekte sehr wohl in der zugrunde-
V. Dependenzielle Theorien
liegenden semantischen Repräsentation ausgedrückt sein, aus der sprachlichen Form selbst lassen sie sich aber nur unter massiver Verwendung von Hintergrundwissen und über teilweise recht umfangreiche Schlussketten rekonstruieren: 1. Die Sprecherin ist weiblich (???) und hat einen Lebenspartner (??). 2. Die Sprecherin geht bevorzugt (?) mit ihrem Lebenspartner in ein bestimmtes (??) Theater. 3. Der Lebenspartner besucht regelmäßig (?) Skatabende. Beachtet werden muss dabei, dass auch in der zwischenmenschlichen Kommunikation diese Rekonstruktion in vielen Fällen nur auf Präferenzen und Stereotypen beruht und daher mit einem erheblichen Risiko für Fehlentscheidungen verbunden ist. Die sich daraus ergebende Unsicherheit bei der Referenzauflösung ist hier durch Fragezeichen angedeutet. Noch klarer tritt das Problem der unterspezifizierten Referenz bei Brückenanaphern hervor, die in der alltäglichen Sprachpraxis eine nicht zu unterschätzende Rolle spielen und in vielen Fällen einen wesentlichen Beitrag zum Verstehen eines Textes leisten. So stehen in Wir wollten ins Grüne fahren, aber der Motor streikte. die beiden Konzepte FAHREN und MOTOR offensichtlich in keiner unmittelbaren semantischen Relation. Eine indirekte Beziehung wird erst durch das nicht versprachlichte Konzept AUTO, sowie die beiden Relationen „Instrument von“ (INST) und „wesentliches Teil von“ (E-PART) vermittelt, wobei diese Zusammenhänge dann im Prozess des Sprachverstehens wieder rekonstruiert werden müssen: FAHREN
INST
AUTO
E-PART
MOTOR
Abb. 50.2.
Die sich durch derartige Bezugnahmen ergebende sprachliche Verkürzung leistet einen wesentlichen Beitrag zur Erhöhung der Sprachökonomie. Sie dient darüberhinaus aber auch als beliebtes Stilmittel zum Stiften von sozialer Kohärenz, wobei sich die Gesprächspartner durch den extensiven Bezug auf das gemeinsame Hintergrundwissen gegenseitig ihrer Gruppenzugehörigkeit versi-
50. Semantische Netze und Dependenzgrammatik
693
chern und Außenstehende leicht von der Teilnahme am Diskurs ausschließen können. Mitunter werden Unterschiede zwischen der sprachlichen Oberfläche und der zugrundeliegenden konzeptuellen Struktur auch erst durch den kontrastiven Vergleich deutlich, da unterschiedliche Sprachen verschiedene Aspekte der konzeptuellen Struktur explizit machen.
Frage nach den Grenzen einer rein relationsbezogenen Beschreibung syntaktischer und semantischer Strukturen. ⫺ Welche formale Methoden sind geeignet, die bestehenden Korrespondenzbeziehungen zwischen den Repräsentationsebenen auch im Falle (lokal) disparater Strukturen mithilfe entsprechender Abbildungsvorschriften zu modellieren? ⫺ Wie können solche Abbildungsvorschriften für die praktischen Zwecke der maschinellen Sprachverarbeitung nutzbar gemacht werden?
He likes to eat fish. vs. Er isst gern Fisch. Auch in derartigen Fällen erlauben die in einer bestimmten Sprachgemeinschaft konventionalisierten Formen den Wegfall konzeptuell determinierter Elemente, wodurch dann die Unterschiede auch auf der Oberfläche manifest werden: He likes fish. vs. *Er gern Fisch. Der zu den bisher diskutierten Beispielen komplementäre Fall einer Oberflächenform ohne zugehöriges Korrelat in der konzeptuellen Struktur findet sich vor allem im Bereich der Hilfsverbkonstruktionen. Hierzu gehören etwa die Kopulaverben, die zwar dabei mitwirken, einstellige Prädikate zu etablieren, in diesen selbst jedoch keine Rolle mehr spielen. Das Haus ist groß. Ein ähnliches Phänomen ist auch bei den Präpositionen zu beobachten, die vollständig in den durch sie etablierten konzeptuellen Relationen (Location, Direction, Instrument usw.) aufgehen. Unterschiede bestehen auch hinsichtlich der verschiedenen Mechanismen zur Kodierung elementarer konzeptueller Informationen wie etwa der Tempusmarkierung, die bei den analytischen Verbkomplexen durch eine eigenständige Form des Hilfsverbs angezeigt wird, bei den synthetischen Formen aber durch ein Flexionsmerkmal: Er schläft. Er wird schlafen. Da bereits bei derartig einfachen Beispielen recht gravierende Unterschiede zwischen dependenzsyntaktischen und konzeptuellen Strukturen deutlich werden, ergibt sich die Notwendigkeit die folgenden drei Fragenkomplexe genauer zu untersuchen: ⫺ Inwieweit lassen sich tragfähige strukturelle Korrespondenzen auch außerhalb des recht engen Bereichs der PrädikatsArgument-Struktur nachweisen? Dies steht in engem Zusammenhang mit der
2.
Semantische Netze
Der Begriff der semantischen Netze umfasst eine Vielzahl unterschiedlicher Repräsentationsformalismen. Ihnen gemeinsam ist die Verwendung grafischer Hilfsmittel zur Darstellung und Veranschaulichung von relationalen Beziehungen zwischen Konzepten und Instanzen eines Wissensbereiches (Domäne). Dabei werden Konzepte bzw. Instanzen auf die Knoten und (binäre) Relationen auf die Kanten des Netzes abgebildet (Sowa 1992). Derartige Netze wurden erstmalig zur Kodierung semantischen Wissens in einem System zur maschinellen Übersetzung verwendet (Masterman 1961). Weite Verbreitung erlangten sie vor allem durch die Arbeiten von Quillian (1968). Wenngleich es vereinzelt Versuche gab, ein Minimum an Relationsprimitiven zu definieren (Schank 1975), so kommen doch in den weitaus meisten Fällen relativ reichhaltige Relationsinventare zum Einsatz. Sie umfassen üblicherweise eine Auswahl linguistischer Tiefenkasus (Agens, Patiens, Recipient, Instrument usw.), sowie darüberhinaus räumliche, zeitliche, kausale, modale und logische Konnektoren. Im Gegensatz zu Mel’cˇuk (1988), der ein festes Inventar semantischer Primitive voraussetzt, deren genaue Bestimmung jedoch als noch ungelöstes Problem betrachtet, geht Sowa (1984) davon aus, dass semantische Netze einen hinreichend flexiblen Rahmen bieten, der bei Bedarf eine Übersetzung in Repräsentationen beliebig feiner Granularität gestattet. Verglichen mit einer prädikatenlogischen Repräsentation sind rein relationale Netze in ihrer Ausdrucksmächtigkeit stark beschränkt. Konzepte führen im logischen Sinne einstellige Prädikate über einer (global) existenzquantifizierten Variablen ein. Aus
694 diesem Grunde verwendet Sowa (1992) auch den Begriff des generischen Konzepts. Ein Konzeptknoten entspricht damit genau einer Instanz des jeweiligen Konzepts. Mehrere Konzeptknoten des gleichen Typs beziehen sich auf unterschiedliche Instanzen des gleichen Konzepts, solange die Identität der Instanzen nicht durch einen geeigneten Koreferenz-Mechanismus (z. B. Vergabe eindeutiger Individuenbezeichner, Koreferenzindizes oder Variablenbindung) explizit ausgewiesen ist. Eine erste einschneidende Festlegung ist die Beschränkung auf eine ausschließlich konjunktive Verknüpfung von Relationen. Der sich daraus ergebende Verlust an Ausdruckskraft kann auch nicht durch eine relationale Kodierung zusätzlicher Konnektoren erreicht werden. Ein Beispiel für derartige relationale Netze sind die semantischen Repräsentationen in Mel’cˇuk (1988). Hier werden reine FunktorArgument-Strukturen notiert, wobei die Argumentpositionen eines Prädikats nur mit Hilfe abstrakter Namen identifiziert werden können. Da aber sowohl der Funktor als auch seine Argumente für Domänenkonzepte stehen, ergeben sich die konkreten Relationen zwischen den Konzepten nur implizit aus einer Interpretationsvorschrift für das durch den Funktor spezifizierte Prädikat. Die Einführung von Relationennamen (die dann weitgehend den Tiefenkasus in Fillmore (1968) entsprechen) erfolgt erst auf der gesonderten Ebene der Tiefensyntax. Die Ebene der Tiefensyntax nimmt eine Zwitterstellung zwischen konzeptueller Struktur und (Oberflächen-)Syntax ein. Wegen der starken Analogien zu allgemeinen relationalen Netzen liegt wohl eine Zuordnung zum Bereich der konzeptuellen Struktur nahe. Dafür spricht auch, dass die meisten der eingangs erwähnten strukturellen Unterschiede zwischen syntaktischer und konzeptueller Struktur bei Mel’cˇuk auf der Ebene der Tiefenstruktur eingeführt werden. So werden in der Tiefensyntax noch fiktive Lexeme, die etwa auf „Lücken“ im derivationellen System zurückzuführen sind, und komplexe phraseologische Einheiten (z. B. „ein Licht aufgehen“) durch einzelne Konzeptknoten modelliert. Andererseits sind tiefensyntaktische Repräsentationen bereits auf Baumstrukturen eingeschränkt, d. h. Koreferenzen müssen auf einer gesonderten Repräsentationsebene behandelt werden.
V. Dependenzielle Theorien
Für die grafische Darstellung relationaler Netze existieren verschiedene notationelle Varianten. Weite Verbreitung hat die auf Sowa (1984) zurückgehende Verwendung bipartiter Graphen gefunden, wobei Konzepte und Relationen durch unterschiedliche Knotentypen dargestellt werden. Die konzeptuelle Struktur des Satzes Hans schenkt Maria Geld ergibt sich dann zu Person: Hans
AGENS
schenken
RECIP
Person: Marie
PAT
Geld
Abb. 50.3.
bzw. in linearisierter Notation: [schenken] (AGENS) J [Person: Hans] (RECIP) J [Person: Marie] (PAT) J [Geld] Hier wird eine gewisse Verwandtschaft zwischen den relationalen Netzen und FrameStrukturen (Minsky 1975) deutlich. Framestrukturen gehen jedoch über eine rein relationale Repräsentation hinaus, da sie auch prozedurale Zusätze und damit weitgehend unrestringierte Manipulationsmöglichkeiten zulassen. Im Gegensatz zu einer auf der Prädikatenlogik basierenden Repräsentation erlauben relationale Netze noch nicht die Darstellung von Skopusphänomenen, wie sie im Bereich der Quantoren und der Booleschen Operatoren (z. B. Negation) erforderlich sind. Diese Beschränkung wird mit dem Übergang zu propositionalen Netzen überwunden. Propositionale Netze gehen auf Charles S. Pierce zurück (Sowa 1992) und führen zwei zusätzliche Ausdrucksmittel ein: ⫺ Kontexte kennzeichnen bestimmte Teilnetze als zusammengehörig und können selbst wieder in der Argumentstelle einer Relation auftreten. Sie entsprechen somit der expliziten Skopusauszeichnung in der Prädikatenlogik. Allquantifizierung kann dann ⫺ obwohl sie selbst nicht explixit darstellbar ist ⫺ über die Negation eines Existenzquantors ausgedrückt werden. ⫺ Koreferenzindikatoren (bzw. alternativ dazu die Zulassung überlappender Kontexte) gestatten die Repräsentation von Referenzidentität, die im Prädikatenkalkül durch den Mechanismus der Variablenbindung vermittelt wird.
695
50. Semantische Netze und Dependenzgrammatik
In ihrer Kombination stellt die Zulassung von Kontexten und Koreferenzmarkern die logische Äquivalenz der propositionalen Netze zum Prädikatenkalkül her. Gleichzeitig ermöglicht die Einführung der Kontexte auch die Kapselung komplexer Relationskonfigurationen und somit die Darstellung von Aussagen über Aussagen, wie sie in der natürlichen Sprache vor allem im Zusammenhang mit Konjunktionen, Kontrollverben und Modalkonstruktionen auftreten. So kann der konzeptuelle Gehalt im Falle einer einfachen Satzkoordination durch eine konjunktive Verknüpfung zweier Propositionen dargestellt werden: Hans schreibt einen Brief und Anna liest ein Buch.
Proposition: AGENS
Person: Hans
schreiben
AND Proposition: lesen
AGENS
Person: Marie
PAT
Brief
Abb. 50.6.
Eingebettete Kontexte ergeben sich auch im Falle von Kontrollverben, wobei der Referenzbezug zum Matrixsatz wieder durch Koreferenzen hergestellt wird: Sie versprach ihm, den Brief zu schreiben. Person: *x
AGENS
verprechen
EXPER
Person
Proposition: Person: *x
Proposition: Person: Hans
AGENS
schreiben
PAT
Brief
AND
AGENS
schreiben
PAT
Brief
Abb. 50.7.
Sie überredete ihn, den Brief zu schreiben.
Proposition: Person: Marie
lesen
AGENS
PAT
Buch
Person: *x
Liegt eine elliptische Koordination vor, wird die potentielle Lesart der Referenzidentität durch entsprechende Koreferenzindikatoren (hier über die gemeinsame Variable *x) ausgedrückt: Hans schreibt und Anna liest einen Brief. Proposition: AGENS
schreiben
PAT
Brief: *x
AND Proposition: Person: Marie
AGENS
überreden
EXPER
Person: *x
Proposition:
Abb. 50.4.
Person: Hans
Person
AGENS
lesen
PAT
Brief: *x
Abb. 50.5.
Allerdings liegt in diesem Fall ⫺ wie stets bei der eingebetteten Verwendung eines unbestimmten Artikels ⫺ eine systematische Mehrdeutigkeit vor, da natürlich auch noch die Interpretation ohne Referenzidentität in Frage kommt. Berücksichtigt man darüberhinaus die Möglichkeit zum intransitiven Gebrauch des Verbs schreiben, führt dies schließlich auf eine dritte, nichtelliptische Lesart:
AGENS
schreiben
PAT
Brief
Abb. 50.8.
Konzeptuelle Strukturen entstehen aus natürlichsprachlichen Äußerungen in einem Prozess der Interpretation, wobei der propositionale Gehalt einer Äußerung stark durch Hintergrundwissen angereichert wird. Dieser Effekt der Anreicherung kann etwa bei der Inferenz der Typrestriktion Person aus den selektionalen Restriktionen der Verben versprechen und überreden beobachtet werden. Weitergehende, auf Anreicherung basierende Interpretationsschritte liegen vor allem der Anaphernauflösung und der Behandlung unbekannter Konzepte zugrunde (Strube/Hahn 1995, Hahn/Schnattiger 1998). Wegen der zentralen Rolle, die das Hintergrundwissen für den Sprachverstehensprozess spielt, kommt einer effizienten Organisation der für die semantische Interpretation benötigten Wissensbestände eine große Bedeutung zu. Besonders bewährt hat sich in diesem Zusammenhang die Strukturierung des Begriffsinventars durch die Deklaration hierarchischer Typbeziehungen in Form einer Taxonomie. Die Arbeit mit taxonomischem Wissen stand bereits in der Frühphase der Beschäfti-
696
V. Dependenzielle Theorien
A
A A
a b.isa (a, b) J
x.a (x) J b (x))
vermittelt. Da a und b für Typzuordnungen (d. h. für Prädikationen über Objektkonstanten) stehen, stellt sie demnach eine Beziehung zweiter Ordnung dar. Die überaus große praktische Relevanz taxonomischer Strukturierungen ergibt sich aus ihrem Potential zur Modellierung von Vererbungsbeziehungen, durch die Eigenschaften und Relationen von einem übergeordneten Konzept auf seine Unterkonzepte übertragen werden. Z. B. ergibt sich unter der Annahme, dass Amseln ein spezieller Typ von Vögeln sind, und dem Hintergrundwissen, dass Vögel Federn haben, sofort die Konsequenz, dass auch Amseln Federn haben müssen: {isa(AMSEL, VOGEL) hat (VOGEL, FEDERN), AMSEL(x)} 兩⫽ hat (x, FEDERN) Das erhebliche Effizienzpotential einer vererbungsbasierten Repräsentation besteht dabei darin, dass sie die redundante und damit unökonomische Spezifikation von Regularitäten auf den unterschiedlichen Granularitätsebenen des Weltwissens erübrigt: Der summarische Bezug auf den Supertyp VOGEL erübrigt die individuelle Spezifikation für die einzelnen Subtypen der verschiedenen Vogelarten. Die diesbezüglichen Schlussweisen beruhen ebenfalls auf Beziehungen zweiter Ordnung AA A
A A A A
a b . isa (a, b) J ( p . p (b) J p (a)) a b . isa (a, b) J c r . r (b, c) J r (a, c)) usw.
wobei auch hierfür spezialisierte Ableitungsschemata bereitgestellt werden. Es ist zu beachten, dass p (*typ+) bzw. r (*typ+, *typ+) wie auch bereits isa (*typ+, *typ+) Prädikationen bzw. Relationen über Konzepttypen
darstellen und ihre Übertragung auf konkrete Objekte erst durch eine geeignete Instanziierung erfolgen kann: a p x . instanz (x, a) ∧ p (a) J p (x) a b r x y . instanz (y,b) ∧ r (a, b) ∧ instanz (x, a) J r (x, y)
A AA A A A A A
gung mit semantischen Netzen im Mittelpunkt des Interesses. Ziel einer taxonomischen Modellierung ist dabei die Ableitung von Angaben über die Typzugehörigkeit von Konzeptinstanzen instanz(*objekt+, *typ+) aus allgemeinen Beziehungen der Typinklusion isa(*typ+, *typ+). So soll etwa aus der Typinklusion isa(TISCH, MÖBEL) geschlossen werden, dass jede Instanz von TISCH gleichzeitig eine Instanz von MÖBEL ist. Damit unterscheidet sich Typinferenz in ihrem logischen Status von den bisher betrachteten relationalen Konzeptbeziehungen fundamental (Woods, 1975). Die entsprechende Schlussfigur wird durch
Deutlich wird hierbei der unterschiedliche Status von Typinklusion (isa) und Instanziierung (instanz), der auf den Unterschieden zwischen (generischem) Konzept und Domänenobjekt, d. h. Typ vs. Instanz (type vs. token) beruht. Üblicherweise realisieren vererbungsbasierte Inferenzsysteme eine gegenüber der Prädikatenlogik eingeschränkte Mächtigkeit. Dabei werden die assertionalen Möglichkeiten gezielt beschnitten, um die für das Terminierungsverhalten einer automatischen Ableitungsprozedur wesentliche Eigenschaft der Entscheidbarkeit garantieren zu können (Owsnicki-Klewe/von Luck/Nebel 1993). Diese auch als terminologische Logiken bezeichneten Kalküle gestatten die Spezifikation von ein- und zweistelligen Relationen für die Konzepte einer Domäne, wobei die zweistelligen Relationen als Rollen eines Konzepts bezeichnet werden. Beide sind entlang der Konzepthierarchie vererbbar. Über die Möglichkeiten propositionaler Netze hinaus bieten terminologische Logiken auch noch spezielle Ausdrucksmittel zur Spezifikation von Kardinalitätsbeschränkungen für die Rollenfüller. Als wichtige Voraussetzung für die Arbeit in nicht-artifiziellen Domänen wird oftmals die Fähigkeit zum nichtmonotonen Schließen angesehen. Unterschiede ergeben sich hier vor allem hinsichtlich der Konfliktbehandlung in Hierarchien mit Mehrfachvererbung (Touretzky 1986). Insgesamt haben sich Vererbung und Typinferenz als so leistungsfähige Mechanismen zur effizienten Wissensrepräsentation bewährt, dass sie heutzutage unverzichtbarer Bestandteil jedes Formalismus zur Sprachverarbeitung sind und auch zur Modellierung der genuin sprachlichen Information herangezogen werden (Carpenter 1992).
3.
Dependenzsyntax
Unmittelbare Dependenzbeziehungen sind binäre Relationen zwischen den Bestandteilen einer natürlichsprachlichen Äußerung. Stehen x und y in einer solchen Beziehung dep (x, y), so sagt man, x ist abhängig von y
50. Semantische Netze und Dependenzgrammatik
697
(auch: x ist y untergeordnet) bzw. komplementär dazu y dominiert x. Dependenzrelationen lassen sich, wie alle binären Relationen, gut als gerichtete Kanten eines Dependenzgraphen veranschaulichen. Bezüglich einer unmittelbaren Dominanzrelation wird dann x auch als Tochter- und y als Mutterknoten bezeichnet. Mit den formalen Eigenschaften der Dependenzrelation
denzbaumes, die der linearen Anordnung im Satz entspricht. Eine Ausnahme hierzu stellen die D-Bäume bei Mel’cˇuk (1988) dar, deren Knoten ungeordnet sind. ⫺ Als Basiseinheiten, über denen Dependenzrelationen definiert werden, dienen in der Regel die Wortformen eines Satzes. Um Kollisionen bei der Merkmalsprojektion zu vermeiden, ordnet Kunze (1975) Teilbäume unter Wortformen unter. Beide Ansätze verbleiben aber im Bereich der Baumstrukturen. ⫺ Aus Gründen der Effizienz bei der strukturellen Analyse wird für Dependenzbäume oftmals die noch weitergehende Eigenschaft der Projektivität (Planarität) gefordert. Um dies auch im Falle offensichtlich nichtprojektiver Konstruktionen noch zu gewährleisten, greifen Lombardo/Lesmo (1998) bei der Beschreibung elliptischer Strukturen auch auf leere Knoten zurück, während Kahane/Nasr/Rambow (1998) über eine strukturelle Transformation (lifting) die Projektivität wieder herstellen.
⫺ Antisymmetrie: dep (x, y) J ÿ dep (y, x) Ein Mutterknoten kann niemals von seiner Tochter abhängig sein. ⫺ Antireflexivität: ÿ dep (x, x) Kein Knoten einer Dependenzstruktur hängt von sich selbst ab. ⫺ Antitransitivität: dep (x, y) ∧ dep (y, z) J ÿ dep (x, z) Ein indirekt abhängiger Knoten kann niemals direkt abhängig sein. und der Definition einer Dependenzstruktur als verbundener, gerichteter Graph (Mel’cˇuk 1988, 21 f.), stellen Dependenzstrukturen aus formaler Sicht eine echte Teilmenge der allgemeineren konzeptuellen Graphen dar. Diese Parallelität wird auch dadurch noch stärker hervorgehoben, dass in den modernen Arbeiten zur Dependenzgrammatik anstelle der Verwendung solch reiner (unbenannter) Dependenzbeziehungen eher eine relativ feine Differenzierung zwischen verschiedenen Dependenzrelationen (SUBJ, DOBJ, IOBJ usw.) angestrebt wird. Allerdings unterliegen die in den verschiedenen Dependenztheorien verwendeten Strukturen aber noch einer Reihe weiterer formaler Einschränkungen. So werden, wie in der Syntaxtheorie generell, normalerweise nur Baumstrukturen betrachtet. Um dies sicherzustellen muss daher noch die Eindeutigkeit des jeweils dominierenden Knotens gefordert werden: x y z . dep (x, y) ∧ dep (x, z) J y ⫽ z
A A A
Für die Dependenzstrukturen in Hudson (1990) gilt diese Forderung allerdings nur auf der Ebene der Oberflächenstruktur, während durch Koreferenzen zusätzliche Abhängigkeitsstrukturen etabliert werden können, die über Baumstrukturen hinausgehen. Solche Koreferenzen werden verwendet, um Extraktionphänomene und koordinative Konstruktionen zu beschreiben. Unterschiede zwischen den verschiedenen Theorien bestehen auch hinsichtlich einiger weiterer Bedingungen an die Wohlgeformtheit von Dependenzbäumen: ⫺ Typisch ist die Annahme einer totalen Ordnung über den Knoten eines Depen-
Mit den propositionalen Netzen einerseits und den Dependenzbäumen andererseits sind nunmehr zwei Repräsentationsebenen spezifiziert, auf denen die unterschiedlichen syntaktischen bzw. semantischen Beziehungen separat beschrieben werden können. Zusätzlich wird noch ein algorithmisches Verfahren benötigt, das ⫺ in Abhängigkeit von der jeweiligen Aufgabenstellung ⫺ zwischen den beiden Repräsentationsebenen vermittelt. Im einfachsten Fall kann eine direkte Interpretation syntaktischer Relationen durch konzeptuelle Relationen erfolgen. Dies ist etwa bei den Valenzen eines finiten, aktivischen Vollverbs der Fall. So bildet sich das syntaktische Subjekt des Satzes Hans sucht Marie. unmittelbar auf das konzeptuelle Agens ab und das direkte Objekt übernimmt die Patiensrolle. Unter Vernachlässigung der Tempusinformation führt diese Zuordnungsvorschrift direkt auf den eingangs diskutierten Standardfall. Um die Parallelen deutlich hervorzuheben, wird im Folgenden wieder auf die hierarchische Repräsentation der konzeptuellen Struktur zurückgegriffen. Da Dependenzstrukturen ja ohnehin einen Spezialfall propositionaler Netze darstellen, ist in den hier diskutierten Fällen eine Umwandlung in die im Abschnitt 2 diskutierte generellere Notation jederzeit problemlos möglich (s. Abb. 50.9.). Jedoch schon bei den analytischen Verbformen, bei denen das finite Verb nicht mehr
698
V. Dependenzielle Theorien SUBJ
DOBJ
Hans sucht
SUBJ DOBJ
AGENS PAT
AGENS
PAT
Hans suchen Marie.
Marie.
Abb. 50.9.
SUBJ
AUX-C
SUBJ DOBJ
DOBJ
Hans
hat Marie
AGENS PAT
gesucht.
AGENS PAT
Hans
Marie
suchen.
Abb. 50.10.
SUBJ
AUX-C
SUBJ
PAT
PAT
Marie suchen
Marie wurde gesucht. Abb. 50.11.
Träger der Verbvalenzen ist, gestaltet sich das Abbildungsverhältnis deutlich komplizierter und erfordert bereits einfache Formen einer Strukturtransformation (s. Abb. 50.10.). Dabei bleibt die Zuordnung der Subjektsrelation zur Agens-Rolle erhalten, nur wird letztere nunmehr an das durch das infinite Verb eingeführte Konzept „weitergereicht“. Im Passiv folgt die Zuordnung der konzeptuellen Relationen nicht mehr dem bislang betrachteten Standardschema. Das Agens entfällt und das syntaktische Subjekt bildet sich auf das direkte Objekt ab (s. Abb. 50.11.). Wie bereits die finiten Auxiliare in den vorangegangenen Beispielen, so bringen auch Kopulaverben keinen eigenständigen Bestandteil in die konzeptuelle Repräsentation ein. Da in diesem Fall aber überhaupt kein Vollverb mehr zur Anbindung der Satzglieder zur Verfügung steht, sind relativ komplexe Abbildungsvorschriften erforderlich, um die gewünschte Prädikation bereitzustellen: SUBJ Hans
COP-C ist
groß.
PROP Hans
groß
Abb. 50.12.
In einigen Fällen ist die Abbildung syntaktischer auf konzeptuelle Relationen stark mehrdeutig und kann nur unter massiver Einbeziehung von Hintergrundwissen disam-
biguiert werden. Ein herausragendes Beispiel hierfür ist sicherlich die Interpretation der semantisch völlig unterspezifizierten Genitivattribute. der Vergaser des Autos: das Buch der Frau:
Teil-von Besitzer-von, Autor-von die Variation des Themas: Patiens-von … Helbig/Buscha (1988, 591 f.) geben hierzu zwölf semantisch motivierte Interpretationsmöglichkeiten an. Auch wenn in den bisherigen Ausführungen stets von syntaktischen Dependenzbeziehungen als relationalen Konstrukten ausgegangen wurde, zeigt eine genauere Betrachtung, dass auch auf der syntaktischen Ebene die Beschränkung auf rein relationale Repräsentationen nicht hinreichend ist. Wie bereits bei der Einführung der propositionalen Netze ist es wiederum die koordinative Verknüpfung, die eine Erweiterung um zusätzliche Ausdrucksmittel erzwingt. Dies gilt unabhängig davon, ob Koordination als symmetrisches (z. B. Hesse/Küstner 1985) oder ein unsymmetrisches Phänomen (z. B. Mel’cˇuk 1988) betrachtet wird. Die vorgeschlagenen Darstellungsmittel entsprechen de facto der Einführung konstituentenähnlicher Konstruktionen in die Dependenzstruktur und haben demzufolge einen vergleichbaren Status wie die Kontexte in den propositionalen Netzen. Damit ergibt sich auch im Hinblick auf die
50. Semantische Netze und Dependenzgrammatik
699
Grenzen relationaler Repräsentationsformalismen eine interessante Analogie zwischen der syntaktisch orientierten Dependenzgrammatik auf der einen Seite und konzeptuellen Netzen auf der anderen.
als das eigentliche Ziel eines Sprachanalyseverfahrens betrachtet werden: Nach erfolgreicher Ermittlung der Syntaxstruktur wird von den Dependenzbeziehungen abstrahiert, während das verbleibende Wirkungswegegeflecht als Initialzustand für die Berechnung einer semantischen Repräsentation dient (Kunze, pers. Mitteilung). Auf dieser Grundlage könnte dann zumindest ein unidirektionales Verfahren zum Sprachverstehen realisiert werden. Von vornherein bidirektional ausgelegt sind die Abbildungsregeln, die in der Bedeutungs-Text-Theorie (Mel’cˇuk 1988) die Umwandlung von Strukturen beim Übergang zwischen benachbarten Repräsentationsebenen vermitteln:
4.
Anwendungen
Einfachste Möglichkeit zur Kopplung einer Dependenzgrammatik mit semantischen Netzen ist die Kodierung selektionaler Beschränkungen für die Füller von Valenzforderungen. Hierbei kann in wirkungsvoller Weise auf die im Abschnitt 2 diskutierten Möglichkeiten zur Vererbung von Typzugehörigkeiten und Eigenschaften zurückgegriffen werden. Allerdings ist dieser Ansatz mit zwei gravierenden Problemen konfrontiert: ⫺ Syntaktische Valenzen sind nur bedingt zur Vermittlung selektionaler Forderungen geeignet, da die wechselseitige Zuordnung von semantischen und syntaktischen Relationen keinem starren Schema folgt (vgl. z. B. die Diskussion zum Passiv im vorangegangenen Abschnitt). ⫺ Valenzen realisieren sich in einigen syntaktischen Dependenzstrukturen nicht unmittelbar, sondern werden erst über u. U. auch längere Ketten von Dependenzbeziehungen gesättigt (vgl. etwa die Subjektsbeziehung in komplexen Hilfsverbkonstruktionen). Um diesen Schwierigkeiten in geeigneter Form zu begegnen, führt Kunze (1975) (vgl. auch Kunze 1982) Wirkungswege als formales Mittel zum Transport und Abgleich von Merkmalsmengen in die Dependenzstruktur ein. Im Gegensatz zu einfachen Projektionsmechanismen gestattet dieser Ansatz eine sehr zielgenaue Beschreibung von Selektionsforderungen. Da Wirkungswege aber unmittelbar an die Unterordnungsrelationen (d. h. die Kantenmarkierungen im Dependenzbaum) gekoppelt sind, wird die an sich wünschenswerte feine Abstimmbarkeit mit einer ggf. sehr hohen Anzahl an unterschiedlichen Unterordnungsrelationen erkauft (Klimonow 1982). Interessant ist die Idee der Wirkungswege vor allem aber unter dem Gesichtspunkt der Kopplung mit semantischen Netzen, da sich zumindest die Tiefenkasus im Inventar der Wirkungswege wiederfinden. Wirkungswege, obwohl ursprünglich nur als Hilfsmittel zum effizienten Aufbau von Dependenzbäumen gedacht, können somit auch
X ⇔ Y|C wobei X bzw. Y für Strukturfragmente auf den betreffenden Repräsentationsebenen stehen und C zusätzliche Anwendungsbedingungen spezifiziert. So vermittelt etwa die folgende Regel die wechselseitige Transformierbarkeit des fiktiven tiefensyntaktischen Lexems „UNGEFÄHR“ in eine oberflächensyntaktische Paraphrase unter bestimmten Bedingungen C (Mel’cˇuk 1988, 75) (s. Abb. 50.13.). Regeln dieser Art werden als statische Objekte verstanden, die in vollständig deklarativer Weise eine Abbildungsbeziehung beschreiben. Die Konstruktion einer Repräsentation aus einer anderen wird hingegen einem dynamischen Mechanismus überlassen, der selbst allerdings nicht Gegenstand des Modells ist. Insbesondere wird auch die Frage der optimalen Regelanwendungsreihenfolge aus der Betrachtung ausgeklammert. Trotz der bidirektionalen Arbeitsweise seiner Abbildungsregeln ist die BedeutungsText-Theorie bislang vornehmlich für Sprachgenerierungsaufgaben eingesetzt worden. Entsprechend detailliert ausgearbeitet sind daher auch die Regeln für Prozesse der Lexikalisierung, Morphologisierung, Anaphorisierung und Synonym-Paraphrasierung. Vergleichsweise unzureichend untersucht wurden dagegen die Abläufe beim Textverstehen. Ausschlaggebend dafür dürfte vermutlich sein, dass das Bedeutungs-Text-Modell vorrangig auf der Transformation von Repräsentationen beruht und der Mechanismus der Einbeziehung von Hintergrundwissen beim Sprachverstehen nicht ausreichend geklärt ist. Da jedoch im Falle der Sprachgenerierung die se-
700
V. Dependenzielle Theorien ‘not’ 1 Q ‘exact’ ATTR
1
C
‘know’ 1 ‘speaker’
„UNGEFÄHR“
2 ‘quantity Q’
Abb. 50.13.
mantische Repräsentation eindeutig gegeben ist, können Ambiguitätsprobleme, die bei der Erzeugung einer semantischen Repräsentation zwangsläufig auftreten, weitgehend vermieden werden. Unmittelbar auf das Problem des Sprachverstehens hingegen sind die Arbeiten im Projekt TIBAQ ausgerichtet (Hajicˇova´ 1995). Zu diesem Zweck werden die semantischen Beziehungen natürlichsprachlicher Äußerungen durch tektogrammatische Repräsentationen modelliert, wobei die tektogrammatische Ebene noch eine relativ sprachnahe Strukturrepräsentation darstellt. Sie wurde jedoch so konzipiert, dass sich über geeignete Strukturtransformationen bereits einfache Inferenzprozesse (unter Einbeziehung des Hintergrundwissens) realisieren lassen. Mit der Ausnahme koordinativer Strukturen sind tektogrammatische Repräsentationen kanonisch geordnete Dependenzbäume, allerdings werden zahlreiche Funktionswörter (Artikel, Präpositionen, subordinierende Konjunktionen und Hilfsverben) in ihnen nicht mehr explizit dargestellt. Damit entspricht die tektogrammatische Ebene etwa der Oberflächensemantik in Mel’cˇuk (1988). Obwohl in der generativen Interpretation des zugrundeliegenden Modells allein schon die Abbildung tektogrammatischer auf oberflächensyntaktische Strukturen als zweistufiger Transduktionsprozess beschrieben wird (Hajicˇova´ 1995, 49), so erfolgt der Aufbau tektogrammatischer Strukturen im TIBAQSystem offenbar in einem einzigen Transformationsschritt aus den Ergebnissen der morphologischen Analyse (Hajicˇova´ 1995, 66 f.). Eine gesonderte oberflächensyntaktische Zwischenrepräsentation ist nicht vorgesehen. Da die Implementation auf einer streng deklarativen Programmiersprache basiert, sollten die
Abbildungsregeln des Parsers prinzipiell bidirektional verwendbar sein. Ebenfalls im Kontext des Textverstehens bewegen sich die Arbeiten des ParseTalk-Projekts (Hahn/Schacht/Bröker 1994). Dabei wird eine enge Verzahnung von syntaktischer Analyse und semantischer Interpretation angestrebt und die bemerkenswerte Fruchtbarkeit eines solchen integrierten Ansatzes überzeugend demonstriert. Motiviert wird dieses Herangehen vor allem mit den wechselseitigen Abhängigkeitsbeziehungen bei der Behandlung von Nominalanaphern (Bröker 1997), wo konzeptuelles Wissen sowohl als Vorbedingung als auch als Resultat der Anaphernauflösung in Erscheinung tritt. Die Abbildung der syntaktischen Dependenzstruktur in eine semantische Repräsentation erfolgt in einem Prozess der (gerichteten) Interpretation durch die konzeptuellen Rollen einer terminologischen Logik. Dieser Prozess schließt die Auflösung anaphorischer Referenzen, und die Rekonstruktion metonymischer Verwendungsweisen ein. So ergibt sich beispielsweise die folgende semantische Interpretation erst unter Hinzunahme einer Metonymie des Typs Produzent-für-Produkt (nach Bröker 1997, 77): obj
subj spec
spec
attr
Die Quantum erreicht eine hervorragende Zugriffszeit AGENT PRODUCER
PATIENT
QUANTUM HARDDISK-03 REACH-01 ACCESS-TIME-02
Abb. 50.14.
701
50. Semantische Netze und Dependenzgrammatik
Das Verfahren kann verschiedene Modulabfolgen realisieren, wobei allerdings ein explizites Umschalten zwischen den Verarbeitungsmodi erforderlich ist. So wäre etwa eine konzeptuell gesteuerte Analyse im Falle syntaktischer Abweichungen in der Lage, bestimmte syntaktische Forderungen zu ignorieren. Einen Ansatz, der auch auf einer wechselseitigen, jedoch nicht a priori vorgegebenen Unterstützung paralleler Repräsentationsebenen beruht, verfolgen Heinecke/Kunze/ Menzel/u. a. (1998). Das Verfahren beruht auf einer simultanen Disambiguierung von Dependenzstrukturen auf mehreren miteinander gekoppelten Ebenen. Da sowohl zur Disambiguierung als auch zur Ebenenkopplung gewichtete Constraints verwendet werden, besteht die Möglichkeit ⫺ durch starke Evidenz auf einer Ebene die Disambiguierung auf den anderen Ebenen steuernd zu beeinflussen und ⫺ Inkonsistenzen auf einer Ebene durch die Unterstützung von anderen Ebenen zu überwinden. Wichtig ist dabei, dass die Ebenenkopplung vollständig symmetrisch erfolgt, wodurch keine bevorzugte Richtung für den Evidenzabgleich vorgegeben werden muss, dieser sich daher an die gegebene Datenlage im Satz anpassen kann. Dies ermöglicht z. B. eine Unterstützung der syntaktischen Verarbeitung durch entsprechende semantische Erwartungen (insbesondere für den Fall syntaktischer Abweichungen), aber ggf. auch ein Überschreiben semantischer Erwartungen, wie es für das Verstehen neuartiger und unerwarteter konzeptueller Inhalte erforderlich ist. Somit sind vielversprechende Voraussetzungen für die Realisierung robuster Sprachverstehensanwendungen gegeben (Menzel 1998). Bisher wurde das Verfahren erst für rein relationale Dependenzstrukturen realisiert, erlaubt aber dennoch bereits interessante Anwendungen im Bereich des Fremdsprachenunterrichts, für die das Auftreten hochgradig fehlerhafter Eingabedaten typisch ist (Menzel/Schröder 1998). Da die sprachliche Kommunikation hier jedoch in den Rahmen einer multimodalen Interaktionsumgebung eingebettet werden kann, stehen vielfältige kontextinduzierte Erwartungen für die Interpretation und Diagnose der Schülerlösung zur Verfügung.
5.
Zusammenfassung
Wie bereits eingangs vermutet worden war, hat sich die große strukturelle Nähe zwischen dependenzgrammatischen und konzeptuellen Repräsentationen in der Tat als eine tragfähige und ausgesprochen fruchtbare Grundlage für die integrierte Modellierung syntaktischer und semantischer Aspekte der Sprachstruktur erwiesen. Sie ermöglicht nicht nur eine große Flexibilität bei der Zuordnung von sprachlichen Phänomenen zu den unterschiedlichen Repräsentationsebenen, sondern darüber hinaus die Realisierung verhältnismäßig einfacher Abbildungsmechanismen zwischen den einzelnen Repräsentationskonstrukten. Dies unterstützt die Realisierung praktischer Anwendungslösungen immer dann besonders gut, wenn die gegebene Aufgabenstellung die Einbeziehung „tiefer“ Repräsentationen zwangsläufig erfordert, wie dies etwa im Bereich der Maschinellen Übersetzung oder aber der Dokument- und Faktenrecherche der Fall ist. Gleichzeitig eröffnen sich auf dieser Grundlage aber auch sehr interessante Perspektiven zur Modellierung der wechselseitigen Beeinflussung zwischen den verschiedenen Komponenten des Sprachverarbeitungssystems, deren optimales Zusammenspiel letztendlich erst die erstaunlichen Verarbeitungsleistungen erklären kann, zu denen der Mensch auch unter sehr widrigen Rahmenbedingungen in der Lage ist.
6.
Literatur in Auswahl
Bröker, Norbert (1997): Eine Dependenzgrammatik zur Kopplung heterogener Wissenssysteme auf modallogischer Basis. Dissertation, Universität Freiburg. Carpenter, Bob (1992): The Logics of Typed Feature Structures. Cambridge. Fillmore, Charles J. (1968): The Case for Case. In: Bach, Emmon/Harms, Robert T. (Hgg.): Universals in Linguistic Theory. New York, 1⫺88. Hajicˇova´, Eva (Hg.) (1995): Text-and-Inference Based Approach to Question Answering (⫽ Theoretical and Computational Linguistics 3). Praha. Hahn, Udo/Schacht, Susanne/Bröker, Norbert (1994): Concurrent, Objekt-oriented Natural Language Parsing: The ParseTalk Model. In: International Journal of Human-Computer-Studies 41, 179⫺222. Hahn, Udo/Schnattiger, Klemens (1998): A Text Understander that Learns. In: 17th International
702 Conference on Computational Linguistics. Montreal, 476⫺482. Heinecke, Johannes/Kunze, Jürgen/Menzel, Wolfgang/Schröder, Ingo (1998): Eliminative Parsing Using Graded Constraints. In: Proceedings of the 17th International Conference on Computational Linguistics. Montreal, 526⫺530. Helbig, Gerhard/Buscha, Joachim (1988): Deutsche Grammatik, 11. Auflage, Leipzig. Hesse, Harald/Küstner, Andreas (1985): Syntax der koordinativen Verknüpfung (⫽ studia grammatica XXIV). Berlin. Hudson, Richard (1990): English Word Grammar. Oxford. Kahane, Sylvain/Nasr, Alexis/Rambow, Owen (1998): Pseudo-Projectivity: A Polynomially Parsable Non-Projective Dependency Grammar. In: Proceedings of the 17th International Conference on Computational Linguistics. Montreal, 646⫺652. Klimonow, Gerda (1982): Zum System der Unterordnungsrelationen im Deutschen. In: Kunze, Jürgen (Hg.): Automatische Analyse des Deutschen. Berlin, 65⫺174. Kunze, Jürgen (1975): Abhängigkeitsgrammatik (⫽ studia grammatica XII). Berlin. Kunze, Jürgen (1982): Probleme der Selektion in der automatischen Satzanalyse. In: Kunze, Jürgen (Hg.): Automatische Analyse des Deutschen. Berlin, 223⫺256. Lombardo, Vincenzo/Lesmo, Leonardo (1998): Formal aspects and parsing issues of dependency theory. In: Proceedings of the 17th International Conference on Computational Linguistics. Montreal, 787⫺793. Masterman, Margaret (1961): Semantic Message Detection for Machine Translation, Using an Interlingua. In: Proceedings of the International Conference on Machine Translation, 438⫺475. Mel’cˇuk, Igor, A. (1988) Dependency Syntax: Theory and Practice. New York. Menzel, Wolfgang (1998): Constraint Satisfaction for Robust Parsing of Natural Language. In: Jour-
V. Dependenzielle Theorien nal of Theoretical and Experimental Artificial Intelligence 10, 77⫺89. Menzel, Wolfgang/Schröder, Ingo (1998): Constraint-Based Diagnosis for Intelligent Language Tutoring Systems. In: Proceedings IT & KNOWS, XV. IFIP World Computer Congress. Wien/Budapest, 484⫺497. Minsky, Marvin (1975): A framework for representing knowledge. In: Winston, Patrick (Hg.): The Psychology of Computer Vison. New York, 211⫺ 277. Owsnicki-Klewe, Bernd/von Luck, Kai/Nebel, Bernhard (1993): Wissensrepräsentation und Logik ⫺ Eine Einführung. In: Görz, Günther (Hg.): Einführung in die Künstliche Intelligenz. Bonn, 3⫺54. Quillian, M. Ross (1968): Semantic Memory. In: Minsky, Marvin (Hg.): Semantic Information Processing. Cambridge MA, 227⫺270. Schank, Roger C. (Hg.) (1975): Conceptual Information Processing. Amsterdam. Somers, Harold L. (1987): Valency and Case. Edinburgh. Sowa, John F. (1984): Conceptual Structures: Information Processing in Mind and Machine. Reading MA. Sowa, John F. (1992): Semantic Networks. In: Shapiro, Stuart C. (Hg.): Encyclopedia of Artificial Intelligence, 2nd. Ed. New York, 1493⫺1511. Strube, Michael/Hahn, Udo (1995): ParseTalk about Sentence- and Text-Level Anaphora. In: Proceedings of the 7th Conference of the European Association for Coputational Linguistics. Dublin, 237⫺244. Touretzky, David F. (1986): The Mathematics of Inheritance Systems. Los Altos. Woods, William A. (1975): What’s in a Link: Foundations for Semantic Networks. In: Bobrow, Daniel G./Collins, Allan M. (Hgg.): Representation and Understanding. New York, 35⫺82.
Wolfgang Menzel, Hamburg (Deutschland)
703
51. Dependenzielle Textmodelle
51. Dependenzielle Textmodelle 1. 2. 3. 4. 5. 6.
1.
Dependenz und Valenz in textlinguistischen Modellen Dependenzgrammatik und syntaktische Textmodelle Dependenzielle Aspekte in semantisch orientierten Ansätzen der Texttheorie Texte als Illokutionshierarchien Schemabasierte Ansätze der Textmodellierung und dependezielle Konzepte Literatur in Auswahl
Dependenz und Valenz in textlinguistischen Modellen
Der Untersuchungsgegenstand der Dependenzgrammatik Tesnie`res ist klar umrissen: „L’objet de la syntaxe structurale est l’e´tude de la phrase.“ (Tesnie`re 1969, 11).
Wie lässt sich nun die dependenzielle Beschreibung von Satzstrukturen auf die Repräsentation von Textstrukturen übertragen, und inwiefern sind die jeweiligen Untersuchungsgegenstände ‘Satz’ und ‘Text’ vergleichbar? Während sich der unmittelbare Vergleich der Kategorien ‘Satz’ und ‘Text’ schwierig gestaltet (vgl. 1.1), können Antworten auf diese Fragen gefunden werden, indem die zentralen Konzepte der Dependenzgrammatik (Tesnie`re 1969), die ‘Konnexion’ und die ‘Valenz’, in den Mittelpunkt der Darstellung gerückt werden. Die zentralen Fragen lauten: ⫺ Wie drückt sich Dependenz im Sinne von Konnexion in Texten aus? ⫺ Auf welcher Ebene der Textrepräsentation spielen Valenzaspekte eine Rolle? Unterschiede und Analogien der jeweiligen Strukturen, die den Satz zum Satz und den Text zum Text machen, sollen verfolgt werden. Zunächst war ein enger Bezug zwischen Satz- und Textmodellierung gegeben, da Ausgangspunkt der Auseinandersetzung der modernen Linguistik mit dem Untersuchungsgegenstand ‘Text’ satzbasierte Modelle waren. Im Folgenden soll die Entwicklung textlinguistischer Ansätze kurz dargestellt werden, um die Hauptunterschiede zwischen Satzund Textstrukturen zu skizzieren. Textlinguistische Ansätze wurden in Folge des Paradigmenwechsels Mitte der 60er Jahre von der systemorientierten Sprachbeschrei-
bung hin zu einer kommunikativ und funktional orientierten Linguistik („kommunikativpragmatische Wende“; vgl. Helbig 1988, 13 ff.) entwickelt. Innerhalb der Textlinguistik bildeten sich verschiedene Richtungen heraus (vgl. Heinemann/Viehweger 1991, 26⫺ 77), wobei die Abfolge der Ansätze mit Überschneidungen das zeitliche Nacheinander grob widerspiegelt: a) b) c) d)
textgrammatische Ansätze semantisch orientierte Ansätze pragmatisch orientierte Ansätze kognitive Ansätze
Diese Ansätze können u. a. aufgrund der verschiedenen linguistischen Kategorien, die als zentral angesehen werden um Textstrukturen abzubilden, unterschieden werden. Während textgrammatische Ansätze zunächst Texte als eine Menge von Sätzen verstehen (s. 2), wird in semantisch orientierten Ansätzen die Proposition (s. 3) und in pragmatisch orientierten Modellen, sofern sie sprechaktbasiert sind, die Illokution (s. 4) der Repräsentation von Textstrukturen zu Grunde gelegt. In kognitiven Ansätzen bilden globale Muster wie Schemata oder Skripts (s. 5) die Grundlage der Textrepräsentation. Die Ausführungen folgen diesen Strängen der Textlinguistik und beschreiben Textmodelle innerhalb dieser Richtungen, die es erlauben, Bezüge zu Konzepten der Dependenzgrammatik Tesnie`res (DG) herzustellen. Dabei wird insbesondere darauf eingegangen, welche textuellen Kategorien innerhalb der textlinguistischen/kognitionspsychologischen Ansätze als zentral betrachtet werden und wie diese Kategorien durch ‘Konnexionen’ zu Textstrukturen verbunden oder von Valenzaspekten geprägt werden. Der Begriff ‘Text’ wird auf vorwiegend schriftlich fixierte, nicht-spontane Sprache beschränkt (vgl. Unterscheidung von Textlinguistik und Diskursanalyse in Beaugrande 1985, 47⫺48).
2.
Dependenzgrammatik und syntaktische Textmodelle
Zunächst wurden Texte als transphrastische Ganzheiten betrachtet ⫺ grundlegendes Kriterium zur Erfassung von Textualität ist in diesen Modellen das Überschreiten der Satzgrenze (vgl. Heinemann/Viehweger 1991,
704 26 ff.). Analog zu den verschiedenen Satzgrammatikmodellen wurden Textgrammatiken entwickelt (z. B. Isenberg 1976, 47 ff. auf Grundlage der Generativen Grammatik oder Danesˇ 1974, 106 ff. im Zusammenhang mit der Funktionalen Satzperspektive). Weinrich (1976, 1978) überträgt die Prinzipien der dependenziellen Satzgrammatik auf Texte. Er versucht durch die Konzentration auf die verbalen Nuklei eines Textes, die Satzzentriertheit anderer Ansätze zu überwinden und Texte angemessen zu repräsentieren. 2.1. Heuristische Textpartitur Frühe Ansätze, die auf syntaktische Textmodelle abzielen, gehen davon aus, dass Texte eine Abfolge von Sätzen darstellen. So wird bei der Repräsentation von Texten z. B. die syntagmatische Substitution ins Zentrum der Darstellung gerückt (Harweg 1968) oder es werden auf dem Hintergrund der funktionalen Satzperspektive die Abfolge von als textrelevant eingestuften Einheiten (Danesˇ 1974, 106 ff.) in den einzelnen Sätzen untersucht. Dependenzielle Textmodelle eröffnen unter textsyntaktischer Perspektive prinzipiell die Möglichkeit, sich von dieser Satzzentriertheit zu lösen und zudem handlungstheoretische Aspekte in die Untersuchung miteinzubeziehen. Diesen Ansatz verfolgt Weinrich bei der Entwicklung der heuristischen Textpartitur, wobei er zunächst aus methodischen Gründen semantische Aspekte von der Betrachtung ausschließt (Weinrich 1976, 149). Er geht davon aus, dass der verbzentrierte Ansatz in Verbindung mit dem handlungstheoretischen Potenzial der DG die Entwicklung einer kommunikativen Textsyntax erlaubt, die einen Großteil der textpragmatisch relevanten Aspekte abdeckt (Weinrich 1976, 40⫺ 41). Weinrichs Textbegriff bezieht den Dialog mit ein (Weinrich 1976, 11; 1993, 17), und das sprachliche Zeichen wird im Rahmen seiner CIT (Kommunikation-Instruktion-Text)-Linguistik als Anweisung eines Textproduzenten an einen Textrezipienten aufgefasst. Hierdurch können Bezüge zwischen den Kommunikanten (Sender, Empfänger, Referent) und den jeweiligen Aktanten eines Verbs hergestellt werden (Weinrich 1976, 60). Weinrich unterscheidet ein-, zwei- und dreiwertige Verben und leitet daraus ein Handlungsmodell der deutschen Sprache ab (Weinrich 1976, 59). Während das Verb die Handlung selbst repräsentiert, werden durch die Aktanten Handlungsrollen abgebildet. Weinrich bestimmt aufgrund der Anweisungen an den
V. Dependenzielle Theorien
Hörer, die durch die Verb-Aktanten-Kombination erreicht werden, vier typisierte Varianten. Subsistenz liegt bei einwertigen Verben vor, die die elementarste Handlungsform darstellen. Für zweiwertige Verben werden die Typen Adversion mit den Handlungsrollen Subjekt und Partner sowie Domination mit den Handlungsrollen Subjekt und Objekt angenommen. Den dreiwertigen Verben wird der Typ Interaktion zugeordnet, da sie eine Form der Übermittlung repräsentieren. Die Textanalyse erfolgt nicht Satz für Satz, sondern orientiert sich am Auftreten der Verben im Text. Dabei werden semantische Aspekte operationell ausgeschlossen, indem die Verben durch Zahlen in der Reihenfolge ihres Auftretens aufgeführt werden (vgl. Abb. 51.1), d. h. auch die zuvor dargestellten Verbklassen werden nicht in die Analyse miteinbezogen. In der Textpartitur werden syntaktische Informationen zu den einzelnen Verben verzeichnet, wobei darunter die Signale im Text verstanden werden, die sich auf den Text selbst und seine Kommunikationsbedingungen beziehen (Weinrich 1976, 149). In seiner Beispielanalyse (vgl. Ausschnitt aus der Analyse in Abb. 51.1) finden sich neben der Bestimmung der Valenz der Verben (diese erfolgt anhand ihres textuellen Vorkommens) Kennzeichnungen zu Affirmation oder Negation, Numerus, Tempus, Wortstellung, Diathese etc. Die Abfragen erfolgen binär, und nach dem Erfassen der Informationen wird eine Textübergangspartitur erstellt, in der auch Junktoren verzeichnet werden. Daraufhin werden die Wechsel der Übergänge innerhalb der untersuchten Kategorien verifiziert. Auf Grundlage der Analyse der Übergänge werden z. B. Aussagen zur Thematik (gleiche Übergänge weisen auf schon Bekanntes/Eingeführtes hin) und Rhematik (ungleiche Übergänge kennzeichnen Neues) eines Textes getroffen. Weinrich geht davon aus, dass, auf eine breite empirische Grundlage gestellt, Mittelwerte für Übergänge innerhalb von Kategorien gebildet werden können, die aussagekräftig z. B. in Bezug auf die textsortenspezifischen Ausprägungen von Texten sind (Weinrich 1976, 160⫺162). Er betont, dass die syntaktische Textpartitur durch eine semantische ergänzt werden müsse und sieht eine Möglichkeit hierzu in der Wortfeldtheorie (Weinrich 1976, 157⫺158). Bedingung wäre allerdings, dass die semantischen Felder ausreichend scharf umrissen werden, sodass die Beschreibung von Übergängen durchführbar ist.
705
51. Dependenzielle Textmodelle Verb-Folge
… 7 8 9 … 35 Relation
Syntakt. Merkmal A Affirmation B Verb: Sing. vs. Plural C 3. Person vs. 1./2. Person D 1. Person vs. 2. Person E Valenz: ein- vs. mehrwertig F Mehrw.: zweivs. dreiwertig G Tempus: Besprechen vs. Erzählen H Tempus: Nullstufe vs. Perspektive … K Verb: Zweit- vs. End- oder Spitzenstellung L Aktiv vs. Passiv …
… 0 0 0 … 0 31 : 04 … 1 1 1 … 0 28 : 07 … 1 0 0 … 1 20 : 15 … 0 ⫺ ⫺ … 0 12 : 03 … 1 0 1 … 0 27 : 08 … 0 ⫺ 0 … ⫺
8 : 00
… 1 1 1 … 1 16 : 18 … 1 1 1 … 0 20 : 14 …… … …… … … 1 0 0 0 30 : 05 0 0 0 … 0 27 : 08 …… … …… … …
Abb. 51.1: Ausschnitt aus einer Textpartitur (nach Weinrich 1976, 153)
Bei der Nichtberücksichtigung semantischer Aspekte setzt die Kritik von Gülich und Raible (s. 1977, 132⫺133) an. Die aus der syntaktischen Textübergangspartitur ableitbaren Textualitätskriterien können nur dann zutreffen, wenn Inhalts- und Ausdrucksform übereinstimmen. Die Analyse müsste von vornherein neben syntaktischen auch semantische Aspekte berücksichtigen, um eine Grundlage für die Beschreibung von Textualität zu liefern. Weiterhin bleibt unklar, wie man von den einzelnen analysierten Wortklassen im Text (außer dem Verb werden auch weitere Wortklassen untersucht) auf die Ebene des Gesamttextes gelangt (vgl. Gülich/ Raible 1977, 133⫺134). Damit wird auch der Anspruch, die Satzzentriertheit zu überwinden, nicht erfüllt. Die Stärke des Modells liegt in der Berücksichtigung pragmatischer Aspekte, die durch den handlungstheoretischen Hintergrund der DG möglich werden. Insofern kann insbesondere die dependenzielle Textgrammatik von Weinrich (1993) interessante Perspektiven bei der Analyse und Verarbeitung von Dialogen eröffnen. In dieser Arbeit legt Weinrich 30 semantische Merkmale fest, die jeweils ein Oppositions-
paar bilden (Weinrich 1993, 1081⫺1088). Der ursprünglich beabsichtigte Bezug zur Wortfeldtheorie wird nicht hergestellt. Die Merkmale sind als atomare Anweisungen konzipiert und bestimmen die vom Textproduzenten gewünschte Einordnung der Bedeutung des jeweiligen Sprachzeichens. Die Grundlage der Auswahl der Merkmale bleibt genauso unklar wie ihre Kennzeichnung als ‘semantisch’. Weder der Übergangsbegriff noch das Verfahren der Textpartitur werden wieder aufgegriffen. Während bei Weinrich noch ein direkter Bezug zwischen Textmodell und Dependenzgrammatik besteht, gilt dies nicht mehr in vergleichbar eindeutiger Weise für die Modelle, die im weiteren Verlauf der sich differenzierenden Textlinguistik entwickelt werden.
3.
Dependenzielle Aspekte in semantisch orientierten Ansätzen der Texttheorie
Semantisch orientierte Textmodelle lassen sich dahingehend unterscheiden, ob sie den Prinzipien der generativen Transformationsgrammatik folgen oder ob sie einen Gegenentwurf dazu darstellen (vgl. zu dieser Polarisierung die Charakterisierung der Bezüge zwischen Kasusgrammatik, Theorie des semantischen Netzes und Conceptual-Dependency-Theorie in Weber 1992, 14). Gemeinsamer Ausgangspunkt semantisch orientierter Ansätze ist, dass zur adäquaten Beschreibung von Texten die Betrachtung derselben als semantische Einheit gefordert wird (s. Heinemann/Viehweger 1991, 37). Auch hier lässt sich beobachten, dass zunächst versucht wird, die semantische Einheit von Texten über die transphrastische semantische Analyse lexikalischer Einheiten zu erfassen (z. B. als Isotopieketten bei Greimas 1966). Danach ermittelte man ausgehend von Positionen der generativen Semantik, die semantische Basis von Texten aufgrund ihrer TextTiefenstruktur (s. z. B. Petöfi 1971, Dijk 1972). Durch diese tiefenstrukturellen Modelle war es nicht möglich, Texte angemessen ganzheitlich zu beschreiben. So konnten z. B. anhand der erzeugten Repräsentationen ‘Texte’ nicht von ‘Nicht-Texten’ abgegrenzt werden (vgl. Heinemann/Viehweger 1991, 41). Im weiteren Verlauf der semantisch orientierten Textmodellierung wurde der Begriff der ‘Proposition’ zum Schlüsselkonzept. Als zu analysierende semantische Basiseinhei-
706 ten werden die Prädikat-Argumentstrukturen von Texten angenommen. Dadurch wird eine satzsemantische Textbeschreibung möglich, von der aus über die Verknüpfung der Propositionen im Text zu Propositionskomplexen, eine ganzheitliche semantische Textbeschreibung erreicht wird. Durch die Konzentration auf die semantischen Merkmale wurde zunächst vornehmlich die Kohärenz von Texten abgebildet. In der weiteren Entwicklung wurden die Modelle modifiziert und erweitert. Häufig versuchte man neben dem Textualitätskriterium der Kohärenz weitere Textualitätskriterien wie z. B. Informativität, Intentionalität, Akzeptabilität in der Textmodellierung zu berücksichtigen (zu den Textualitätskriterien s. Beaugrande 1984, 37⫺40), sodass nicht mehr von einer rein semantischen Beschreibung von Texten in relativ umfassenden Modellen gesprochen werden kann. Die Darstellung nutzt die oben erwähnte Unterscheidung der Textmodelle (Ansätze, die aufgrund von Text-Tiefenstrukturen Texte modellieren, und Ansätze, die oberflächennah Texte repräsentieren) aus. Zunächst wird auf die Rhetorical Structure Theorie (RST) eingegangen, in der Textstrukturen oberflächennah unter semantisch/inhaltlichen und rhetorisch/intentionalen Gesichtspunkten abgebildet werden. Es wird herausgearbeitet, inwiefern dependenzielle Prinzipien in RST zum Tragen kommen (3.1⫺3.4) und es wird gezeigt, welche Unterschiede sich zu Textmodellen ergeben, die generativ-transformatorischen Prinzipien folgen (3.5). Auf die Darstellung von Bezügen zwischen Textmodellen und DG, die mittelbar über andere linguistische Schulen gezogen werden können, so z. B. über die Glossematik zu Hegers Aktantenmodell (Heger 1976), wird verzichtet. 3.1. Dependenzielle Aspekte der Rhetorical Structure Theory (RST) RST wurde im Hinblick auf den Einsatz in der Textgenerierung entwickelt (s. Mann/ Matthiessen/Thompson 1992; zur Anwendung von RST in der Textgenerierung u. a. Scott/Souza 1990; Rösner/Stede 1992; Hovy 1993; Maier 1996). Ausgangspunkt der Theoriebildung war die Analyse von 400 Texten unterschiedlicher Länge und Textsorte. Vergleicht man die Grundannahmen von RST (Mann/Matthiessen/Thompson 1992, 43⫺44) mit den Theoremen der Dependenzgrammatik (Heringer 1993, 299⫺300), so fallen folgende Bezüge auf:
V. Dependenzielle Theorien
a) Genau wie ein Satz eine organisierte Einheit von Wörtern darstellt, besteht ein Text aus organisierten Einheiten (vgl. 3.1.1). b) Die Verbindung der Einheiten ist in beiden Ansätzen relational. Die Struktur wird durch die Relation (in der DG Konnexion) determiniert. Diese Konnexion/ Relation muss nicht an der Satz-/Textoberfläche markiert sein. c) Während in der DG prinzipiell eine Abhängigkeitsrelation im Satz vorliegt, wird in RST lediglich davon ausgegangen, dass die meisten Relationen im Text asymmetrisch sind (s. 3.1.2). Symmetrische Relationen können mit dem Prinzip der Junktion in der DG in Verbindung gebracht werden (s. 3.1.2). d) In beiden Ansätzen wird die Hierarchie der Einheiten auf Grundlage der asymmetrischen Relation zwischen Einheiten erzeugt. In RST kann nach der Textanalyse das Zentrum des Textes (comprehensive locus of effect) identifiziert werden (s. 3.1.4). Der zentrale Unterschied zwischen den Ansätzen liegt darin, dass in der DG der zentrale Nexus des Satzes durch das Verb gebildet wird und von da ausgehend die dependenziellen Konnexionen repräsentiert werden. In RST wird die relationale Komposition des Textes analysiert, indem zumeist binäre asymmetrische Relationen zwischen benachbarten Texteinheiten identifiziert und über weitere Ebenen sukzessive zum Textganzen zusammengefügt werden (vgl. 3.1.3). Ausgehend von dem Nukleus der Relation an der Spitze dieser Hierarchie von relationierten Textspannen kann der zentrale Nexus des Textes (comprehensive locus of effect) ermittelt werden (vgl. 3.1.4). 3.1.1. Strukturen, Einheiten und Relationen in RST In RST werden drei Typen von Textstrukturen unterschieden: Syntaktische Strukturen beziehen sich auf die Komposition von Sätzen, holistische Strukturen sind Reflexe der Zugehörigkeit der jeweiligen Texte zu einer bestimmten Textsorte und relationale Strukturen repräsentieren die Organisation eines Textes (Mann/Matthiessen/Thompson 1992, 41⫺42). In RST konzentriert man sich auf die Analyse relationaler Strukturen. Dabei geht es um die Funktion der Strukturen in Bezug auf das Textganze. Daher werden die
707
51. Dependenzielle Textmodelle
Einheiten, Textspannen (‘text span’), die einer RST-Analyse zu Grunde gelegt werden, funktional definiert. Eine Textspanne wird dann angenommen, wenn das Textstück eine Funktion aus textorganisatorischer Perspektive erfüllt. Textspannen sind von beliebiger Größe (von einzelnen lexikalischen Einheiten bis hin zu ganzen Absätzen und größeren Textteilen). In der Regel werden als kleinste Textspannen ‘clauses’ zu Grunde gelegt. (Mann/Matthiessen/Thompson 1992, 51). Aufgrund des funktionalen Potenzials der Textspannen wird die Relation bestimmt, die zwischen benachbarten Textspannen besteht. Die meisten Relationen, die in Texten vorgefunden werden, sind asymmetrisch, sodass eine Unterscheidung zwischen der zentralen Textspanne, dem Nukleus (N), und der peripheren Textspanne, dem Satelliten (S), erfolgen kann. Abb. 51.2 zeigt den Graphen zur Abbildung asymmetrischer Strukturen. Die Relation, die zwischen Textspanne X und Textspanne Y besteht, wird durch einen Bogen repräsentiert. Die von X ausgehende vertikale Linie zeigt an, dass diese Textspanne den Nukleus darstellt, während am Ende des Bogens der jeweilige Satellit steht (vgl. Textspanne Y in Abb. 51.2).
weder in N oder in N und S). Abb. 51.3 ist ein Beispiel für die Anwendung der Relation ‘Hintergrund’ (s. ‘background’ in Mann/Matthiessen/Thompson 1992, 71), die zwischen den Textspannen 3a und 3b besteht. Für N gilt, dass ein Element in N oder die gesamte Textspanne ohne das Lesen von S nicht vollständig verstanden werden kann. Entsprechend gilt für die Kombination von N und S, dass der Inhalt von S das Verständnis für N erhöhen muss. Der Effekt der Relation liegt darin, dass beim Textrezipienten das Verständnis von N erhöht wird (im Beispiel wird 3a durch 3b erläutert). Der Ort des Effekts liegt bei der Relation ‘Hintergrund’ ausschließlich in N.
Hintergrund
(3a) Bei Text im Blocksatz verringert die Silbentrennung die Größe der Leerräume,
(3b) die zum Auffüllen der Zeilen zwischen die Wörter eingefügt werden
Beschränkungen: Für N: TR kann N nicht ausreichend nachvollziehen bevor er S gelesen hat Für N+S: S erhöht das Verständnis von N Effekt: TRs Fähigkeit N zu verstehen wird erhöht Ort des Effektes: N
Abb. 51.3: Relation ‘Hintergrund’ in RST (X-Y) Name der Relation
(X) Nukleus (N)
(Y) Satellit (S)
Abb. 51.2: Grundschema in RST
Relationen werden durch zwei Felder definiert (vgl. Abb. 51.3). Im Feld der ‘Beschränkungen’ (constraints) werden Beschränkungen in Bezug auf N und auf S und in Bezug auf die Kombination von N und S festgelegt. Im Effektfeld wird der Effekt beschrieben, den der Textproduzent (TP) durch Anwendung der Relation beim Textrezipienten (TR) erzielen möchte. Neben der Einordnung der durch die relationierten Textspannen ausgedrückten Sachverhalte (ideationaler Aspekt) wird also der pragmatisch/funktionale Aspekt der Relation miteinbezogen. Des Weiteren wird der Ort des Effekts festgelegt (ent-
Wird zwischen zwei oder mehreren Textspannen eine symmetrische Relation identifiziert, werden diese als eine Liste mehrerer Nuklei dargestellt. Häufig vorzufinden ist die in Abb. 51.4 exemplifizierte Abfolgerelation ‘Sequenz’ (s. ‘sequence’ in Mann/Matthiessen/ Thompson 1992, 74). Der Effekt dieser Relation liegt darin, dass der TR die Abfolgerelation erkennt, die zwischen den Textspannen besteht (Abb. 51.4.).
Sequenz (1) Das Programm starten
(2) und das gewünschte Dokument öffnen.
Abb. 51.4: Relation ‘Sequenz’
Die Menge der in RST benutzten Relationen ist prinzipiell offen ⫺ Relationen können je nach Analyseobjekt (z. B. sprachspezifische oder textsortenspezifische Unterschiede)
708
V. Dependenzielle Theorien
und Analysehintergrund (anders gewichtete Definition der Sprachfunktion) ergänzt oder ausgetauscht werden (Mann/Matthiessen/ Thompson 1992, 70). Vergleicht man die asymmetrischen Relationen der RST mit der Konnexion der DG fällt auf, dass in beiden Fällen eine Gewichtung in Bezug auf die relationierten Einheiten vorgenommen wird. Diese fällt in RST wesentlich differenzierter aus, da bei der Relationierung von Textsegmenten weitere Aspekte berücksichtigt werden müssen. Hinsichtlich symmetrischer Relationen lassen sich in DG und RST keine Unterschiede feststellen, sofern man in der DG Junktoren nicht pauschal als Leer-Wörter betrachtet und semantische Junktionstypen differenziert (z. B. Weber 1992, 57). Die Sequenzrelation stellt einen speziellen Typ der adjunktiven Junktion dar, des Weiteren korreliert z. B. der disjunktive Junktor mit der Relation ‘Kontrast’ von Mann, Matthiessen und Thompson (1992, 74). 3.1.2. Relationale Komposition in RST Eine vollständige RST-Analyse zielt darauf ab, die relationale Struktur eines Gesamttextes abzubilden. Dabei wird die gleiche Menge von Relationen auf allen Textebenen angewendet, indem die Nuklei untergeordneter Relationen in übergeordnete Relationen integriert werden. Die verschiedenen Textebenen sind damit über die Nuklei auf den einzelnen Ebenen verbunden. Abb. 51.5 veranschaulicht dieses Prinzip.
Motivation (2a–3b) (2a–2b)
Alternative
1
(3a–3b) Hintergrund
2a Verbin- 2b dung
3b 3a (1) Automatische Silbentrennung (2a) Das Trennen von Wörtern beim Zeilenwechsel verringert den Flattersatz an den Seitenrändern (2b) und ermöglicht es Ihnen, mehr Text auf eine Seite zu schreiben. (3a) Bei Text im Blocksatz verringert die Silbentrennung die Größe der Leerräume, (3b) die zum Auffüllen der Zeilen zwischen die Wörter eingefügt werden.
Abb. 51.5: RST-Analyse eines Textausschnitts
Die Relation ‘Hintergrund’, die zwischen Textspannen 3a und 3b besteht, wurde unter 3.1 erläutert. 2a und 2b sind durch die multinukleare Relation ‘Verbindung’ (vgl. ‘Joint’ in Mann/Matthiessen/Thompson 1992, 77), die eine Restkategorie innerhalb von RST darstellt, verbunden, da sie weder durch Beschränkungen noch durch einen Effekt definiert ist. Textspannen (2a⫺2b) und (3a⫺3b) sind die Nuklei der symmetrischen Relation ‘Alternative’. Während in (2a⫺2b) die Vorteile der Silbentrennung bei Flattersatz beschrieben werden, werden in (3a⫺3b) die Auswirkungen der Silbentrennung auf den Blocksatz erläutert. Innerhalb der Nuklei werden weitere Möglichkeiten beschrieben, durch die eine bestimmte Situation oder Aktion definiert sein kann, die Ähnlichkeiten aufweist (s. ‘alternative’ in Rösner/Stede 1992, 206). Die Textspannen (2a⫺3b) des Textausschnitts werden nun in Relation zu Textspanne 1 (eine Unterüberschrift des Kapitels) gestellt. Textspannen (2a⫺3b) führen die Vorteile der Anwendung der Silbentrennung an. Sie werden daher als Motivation zur Durchführung der automatischen Silbentrennung angesehen, die in Textspanne 1 benannt wird (vgl. ‘motivation’ in Mann/Matthiessen/ Thompson 1992, 77). Mit den weiteren, nicht aufgeführten Textteilen, in denen die Handlungsschritte zur Durchführung der Silbentrennung beschrieben werden, wird ebenso verfahren. 3.2. Der zentrale Nexus ⫺ ‘comprehensive locus of effect’ Die Feststellung des ‘comprehensive locus of effect’ dient dazu, die ideationale Essenz eines Textes zu ermitteln. Diese Essenz des Gesamttextes verbleibt kohärent und wird aus dem analysierten Text gewonnen, indem vom obersten Nukleus ausgehend (in Abb. 51.5 Textspanne 1) alle Satelliten, in denen kein Effekt zu verzeichnen ist, weggestrichen werden. Für das Beispiel in Abb. 51.5 bedeutet dies, dass Textspanne 3b gestrichen wird, da die Relation ‘Hintergrund’ keinen Effekt im Satelliten aufweist. Wiederum zeigen sich grundsätzliche Unterschiede zur DG, die darauf zurückzuführen sind, dass unterschiedliche Einheiten untersucht werden. In der DG kann die Valenz des obersten Nexus (des Verbs eines Satzes) bestimmt werden, während in RST der ‘comprehensive locus of effect’ eine komplexe Einheit darstellt, deren Kategorie nicht von vornherein festgelegt werden kann. Die Repräsen-
51. Dependenzielle Textmodelle
tation der Textstrukturen und damit auch des ‘comprehensive locus of effect’ wird zwar von der Dominanz asymmetrischer Relationen geprägt, doch das zu Grunde gelegte binäre Strukturierungsprinzip, durch das größere Texteinheiten aus kleineren gebildet werden, führt zu einer Ebenendifferenzierung. Diese wirkt sich erheblich auf die Bildung des ‘comprehensive locus of effect’ aus und führt zu einer unterschiedlichen Gewichtung der asymmetrischen Strukturen auf den verschiedenen Ebenen (die Streichung eines Satelliten, der mehrere Textspannen umfasst, führt zur Streichung der darunterliegenden Nuklei). Ein weiterer grundlegender Unterschied zwischen RST und DG liegt darin, dass die Relationen in RST als interpretatives Instrumentarium angesehen werden. Relationsdefinitionen werden als Anwendungen der Theorie nicht als Bestandteile derselben betrachtet (vgl. Mann/Matthiessen/Thompson 1992, 70). Entsprechend muss mit Abweichungen bezüglich der Zuordnung von Relationen bei Analysen des gleichen Textes durch verschiedene Interpreten gerechnet werden. 3.5. Oberflächennahe vs. tiefenstrukturelle Repräsentation von Texten Die Gemeinsamkeiten von DG und RST werden v. a. dann deutlich, wenn man sich Textmodelle betrachtet, in denen anders als in DG und RST von einer Satz- bzw. Texttiefenstruktur ausgegangen wird. Die Darstellung beschränkt sich auf den Vergleich mit dem Textmodell von Dijk (1980). In diesem Modell werden Texte als Propositionskomplexe betrachtet, die durch interpropositionale Relationen miteinander verbunden sind (s. Dijk 1980, 27⫺37). Diese Annahme stimmt im Großen und Ganzen mit der Verknüpfung kleinster Textspannen (‘clauses’ stellen i. d. R. Propositionen dar) in RST überein. Der Unterschied liegt darin, dass in RST durch das binäre Strukturierungsprinzip relativ oberflächennah vorgegangen wird, während Dijk davon ausgeht, dass zur adäquaten Darstellung aller Textrelationen eine semantische Text-Tiefenstruktur (Makrostrukturen) angenommen werden muss, die der Sequenz von Propositionen im Text (Mikrostruktur) zu Grunde liegt. Durch die Anwendung von Makroregeln (Auslassen, Selektieren, Generalisieren, Konstruieren/Integrieren) lässt sich die Makrostruktur aus der Mikrostruktur ableiten (Dijk 1980, 45⫺ 49). Die in RST zur Repräsentation der Textstruktur eingesetzten Abstraktionen sind hin-
709 gegen oberflächennah. Die Frage, ob eine oberflächennahe Repräsentation von Textstrukturen, wie sie in RST vorgenommen wird, ausreichend ist, kann nur in Hinblick auf die jeweilige Zielsetzung der Repräsentation entschieden werden. Wie unter 3.1 erwähnt, wurde RST entwickelt, um einen texttheoretischen Hintergrund für die automatische Textgenerierung zu bilden, und wird in diesem Bereich auch eingesetzt. Dies deutet darauf hin, dass die oberflächennahe Repräsentation von Textstrukturen zumindest für die Generierung von Texten ausreichend ist. Durch das binäre Strukturierungsprinzip treten zwar Probleme bei der Relationierung nicht benachbarter Texteinheiten auf (vgl. Rösner/Stede 1992, 202; s. a. Arbeiten zu Kohärenzrelationen in Texten, die dieses Strukturierungsprinzip ablehnen wie z. B. Grosz/ Sidner 1986, 177) ⫺ die meisten Schwierigkeiten bereitet allerdings die unzureichende Spezifikation holistischer Strukturen (s. Rösner/Stede 1992, 204). Einen interessanten Ansatz zur Relationierung von holistischen (dort ‘Superstrukturen’) und Makrostrukturen des Textes bietet das Textmodell von Dijk und Kintsch, das auf Strategien beruht (Dijk/ Kintsch 1983). Die vergleichende Betrachtung von DG und RST lenkt den Blick auf das Problem der Begrenzung der zu Grunde gelegten Relationen in RST. Ansätze zur Lösung dieses Problems finden sich in Arbeiten, die versuchen, die relationalen Strukturen in einen funktional orientierten linguistischen Rahmen zu integrieren, um auf dieser theoretischen Basis die zu Grunde gelegten Relationen bestimmten Parametern zuzuordnen (vgl. z. B. die Klassifikation der RST-Relationen nach Metafunktionen im Rahmen der systemischfunktionalen Linguistik bei Maier/Hovy 1993). 4. Texte als Illokutionshierarchien Wie schon erläutert, spielen handlungstheoretische Aspekte in der Textlinguistik eine wichtige Rolle und auch weniger pragmatisch orientierte Modelle weisen eine handlungstheoretische Komponente auf (so z. B. innerhalb der Relationsdefinitionen von RST). Bezüge zur DG lassen sich auf Grund der handlungstheoretischen Fundierung der DG (Auffassung des verbalen Nexus als „petit drame“; Tesnie`re 1969, 102) herstellen. Entscheidend für den unter 1. angesprochenen Paradigmenwechsel in der Linguistik war die Entwicklung der Sprechakttheorie durch
710 Austin und Searle (vgl. z. B. Searle 1969). Dieser zunächst stark satzzentrierte Ansatz wurde daraufhin vorwiegend in der Dialogmodellierung eingesetzt (vgl. Wunderlich 1976, Franke 1990). Ein sprechaktbasiertes Textmodell wurde von Brandt und Rosengren ausgearbeitet (1991, 1992). Während in vorwiegend semantisch orientierten Ansätzen die Proposition die kleinste Untersuchungseinheit bildet, spielt in sprechaktbasierten Textmodellen der Begriff der ‘Illokution’ die zentrale Rolle. Der illokutive Akt gibt an, was mit der Äußerung getan werden soll ⫺ er bezeichnet das Ziel der Äußerung und wird von daher als Handlungseinheit betrachtet (Brandt/Rosengren 1992, 11). Im Folgenden soll dieses Textmodell skizziert werden, wobei zunächst auf den engen Bezug zwischen Grammatik und Pragmatik innerhalb des Modells eingegangen wird. 4.1. Das Verhältnis von Grammatik und Pragmatik Für den Vergleich von grammatischer Theoriebildung und pragmatischen Modellierungen bieten sich sprechaktbasierte Ansätze an, da in diesem Zweig der Textlinguistik ein relativ enger Bezug zwischen Grammatik und Pragmatik hergestellt wird. Grammatik und Pragmatik werden als autonome aber interdependente Module aufgefasst, die systematisch miteinander agieren, da mit Hilfe grammatischer Strukturen der jeweilige illokutive Akt realisiert wird (vgl. Brandt/Rosengren 1992, 9⫺15). Daher kann ein systematisches Verhältnis zwischen Illokution und Satz konstatiert werden: Satzmodus und Proposition (semantische Basiseinheit der Grammatik) eröffnen ein kommunikatives Potenzial, aus dem der Sprachbenutzer im Augenblick der Äußerung eine Anwendung auswählt, um eine bestimmte illokutive Funktion zu realisieren. Daraus ergibt sich das Verhältnis von Satz und Illokution: Mit der Äußerung eines Satzes wird zumindest eine Illokution ausgedrückt (Brandt/Rosengren 1992, 10). Der Illokution werden Informationseinheiten zugeordnet, die die Segmentierung der Äußerungsbedeutungen abbilden und für das Entstehen der Illokution Bedingung sind (Brandt/Rosengren 1992, 10⫺12). Neben dem grammatischen und dem pragmatischen Modul wird ein Informationsstrukturierungsmodul angenommen, das autonom ist und mit dem Pragmatikmodul interagiert.
V. Dependenzielle Theorien
4.2. Von der Illokution zum Text Während dem einfachen Satz i. d. R. eine Illokution zu Grunde liegt, bestehen Texte meist aus mehreren Illokutionen, die eine Illokutionsstruktur bilden, und je nach Komplexität aus einer oder mehreren Illokutionshierarchien bestehen. Eine Illokutionshierarchie wird zumindest aus einer dominierenden und einer stützenden Illokution gebildet, wobei die dominierende Illokution das jeweilige (Teil)Ziel des Textproduzenten repräsentiert (Brandt/Rosengren 1992, 28). Der Aufbau der Hierarchie wird durch das Erfolgsprinzip gesteuert, das die Auswahl situationsangemessener, adressatengerechter, inhaltsentsprechender etc. dominierender Illokutionen determiniert (Brandt/Rosengren 1992, 16). Wie in der DG dominiert bei asymmetrischen Relationen eine Einheit eindeutig die anderen Einheiten, so dass einer untergeordneten Einheit nur eine übergeordnete Einheit zugeordnet werden kann. Im Unterschied zur DG ist Dominanz und Subsidiarität von Illokutionen innerhalb des Textmodells beschränkt auf den jeweiligen Text. Abb. 51.6 (aus Brandt/Rosengren 1992, 32) zeigt eine Illokutionshierarchie mit dem durch sie repräsentierten Text.
1. DIR
sach
1.1 ASS
subs
1.2 ASS
1.1 Von unserer Vertretung ABC wurde Ihnen am 2.2.76 unser Plan Nr. XYZ vom 21.1. mit der Bitte um Genehmigung übersandt. 1.2 Wir haben von Ihnen bis heute die Zustimmung nicht erhalten und es ist eine termingerechte Abwicklung des Auftrages nur schwer durchführbar. 1. Wir bitten daher höflichst um ehebaldigste Genehmigung und Retournierung.
Abb. 51.6: Textillokutionshierarchie
Die dominierende Illokution (1. DIR) gehört zur Klasse der Direktiva, zu denen z. B. Bitten, Aufforderungen und Forderungen gerechnet werden (Brandt/Rosengren 1992, 27). Stützende Funktionen können komplementär oder subsidiär sein. Komplementär stützende
711
51. Dependenzielle Textmodelle
Illokutionen sichern den Erfolg der dominierenden Illokution indirekt ab, indem sie: a) Information enthalten, die in Bezug auf die dominierende Illokution relevant ist, aber diese nicht direkt abstützt (z. B. einführende Erläuterungen oder ergänzende Auskünfte zu relevanten Sachverhalten). Im Beispiel erfüllt die einführende Assertion 1.1 (Ass 1.1) diese sachverhaltserklärende Funktion (sach); oder b) die dominierende Illokution wird durch das Herstellen oder Bewahren einer guten Beziehung zum Adressaten gestützt. Diese kooperationssichernde Funktion (koop) wird in Geschäftsbriefen meist durch stark konventionalisierte sprachliche Ausdrücke wie besten Dank oder auf weiterhin gute Zusammenarbeit realisiert (Brandt und Rosengren 1992, 29). Stützende Illokutionen in subsidiärer Funktion beziehen sich direkt auf den Erfolg der dominierenden Illokution. Zu diesen Illokutionen gehören z. B. Begründungen, die auf das Erfüllen einer Bitte abzielen (vgl. subsidiäre Illokution 1.2 ASS in Abb. 51.6). In Bezug auf die zu Grunde gelegten Relationen unterscheidet sich der Ansatz dahingehend von der DG, dass zur Repräsentation zumindest von längeren Texten mehrere Hierarchien benötigt werden. Stützt eine Illokution dominierende Illokutionen aus verschiedenen Illokutionshierarchien, so wird dies durch verbindende Kanten im Baum dargestellt. Dies zeigt wiederum die Beschränkungen, denen die vergleichende Betrachtung von Satz- und Textstrukturen unterliegt. Die Abhängigkeitsrelationen im Text können nur in Relation zum jeweiligen Text, nicht aufgrund der Zugehörigkeit zu einem bestimmten Illokutionstyp bestimmt werden. 4.3. Von der Textillokutionshierarchie zum linearen Text Die Umsetzung der strukturalen in die lineare Ordnung und vice versa kann anders als in der DG nicht unmittelbar aus dem Baumgraphen abgeleitet werden. Brandt und Rosengren gehen davon aus, dass die Sequenzialisierung der Textillokutionshierarchie durch drei Prinzipien gesteuert wird (Brandt/Rosengren 1992, 23⫺24): a) Durch das Ikonizitätsprinzip wird gewährleistet, dass die inhaltliche Struktur (insbesondere die zeitliche und kausale Abfolge) adäquat abgebildet wird.
b) Außersprachliche Faktoren, wie die Textsorte oder die soziale Beziehung zwischen den Kommunikationspartnern, werden bei der Sequenzierung durch das Situationsprinzip gesteuert. c) Schließlich wird durch das Hierarchieprinzip verhindert, dass Illokutionen, die gemeinsam eine Illokution stützen, unkontrolliert getrennt werden. Für Geschäftsbriefe konnte dabei eine bestimmte Abfolge der verschiedenen stützenden Illokutionen identifiziert werden (Brandt/ Rosengren 1992, 41⫺43). Die dominierende Illokution ist in der Sequenz umgeben von den subsidiären Illokutionen und komplementäre Illokutionen markieren den Rand des illokutiven Kerns. Offen bleibt, wie mehrere Illokutionshierarchien miteinander verbunden werden, wenn keine Illokution vorhanden ist, die stützende Funktion in mehreren Hierarchien innehat. In den Textbeispielen von Brandt und Rosengren (1991, 1992) betrifft dies die Mehrzahl der Repräsentationen, die mehrere Illokutionshierarchien enthalten. Insgesamt zeigt sich, dass zunächst durch die Nähe der Einheiten ‘Satz’ und ‘Illokution’ eine größere Kompatibilität zwischen DG und textlinguistischem Ansatz hergestellt werden kann. Erreicht man die Ebene der Verknüpfung der Illokutionen, schwinden die Parallelen zunehmend, da auf Textebene wiederum keine Zuordnung zu festen Kategorien vorgenommen werden kann.
5.
Schemabasierte Ansätze der Textmodellierung und dependenzielle Konzepte
Die meisten Ansätze der kognitiven Psychologie und der Künstlichen Intelligenz, die sich mit Textverstehen und/oder Textproduktion auseinandersetzen, sind schemabasiert. Die Schemakonzeption geht auf Bartlett zurück (Bartlett 1932), der schon in den 30er Jahren experimentell nachweisen konnte, dass neue Informationen auf der Grundlage von schon vorhandenen Gedächtnisstrukturen organisiert und erinnert werden. Schemata dienen der Repräsentation solcher Strukturen. Minsky führte darauf aufbauend das Konzept des ‘Frames’ ein (Minsky 1975) und darauf basierend entwickelten Schank und Abelson (1977) ‘Skripts’, die Schemata darstellen, die sich insbesondere für die Abbildung von Textstrukturen eignen. Während
712 sich bei der Repräsentation von Texten durch Skripts keine Bezüge zur DG herleiten lassen, kann dies beschränkt für den Story Grammar Ansatz von Rumelhart (1977) geschehen. Daher werden diese konkurrierende Ansätze beschrieben und es wird versucht nachzuzeichnen, inwiefern Valenzaspekte im Story Grammar Ansatz eine Rolle spielen. Zunächst wird kurz auf die möglichen Bezüge der Framekonzeption zur DG eingegangen. 5.1. Valenzaspekte von Frames Ein Frame stellt eine komplexe Wissensstruktur dar, die zur Repräsentation stereotyper Situationen geeignet ist (Minsky 1980, 1). Durch den Framenamen wird Metawissen über den Frame abgebildet (vgl. Abb. 51.7 DECREASE). Die einzelnen Rollen des Frames (slots; vgl. z. B. QUANTIFY in Abb. 51.7) stellen Relationen zu anderen Konzepten oder weiteren Frames dar, sodass ein Framesystem entsteht. Die meisten Terminale eines Frames sind mit Default-Werten gefüllt, die eine gewisse Flexibilität aufweisen, sodass sie der jeweiligen Situation angepasst werden können (vgl. Minsky 1980, 2). Der Textgenerator SEMTEX (Rösner 1987) generiert aus Daten einer Datenbank Zeitungsmeldungen über die Lage am Arbeitsmarkt. Abb. 51.7 zeigt den Frame, der benutzt wird, um eine qualitative Beschreibung des Ansteigens von Arbeitslosenzahlen zu erzeugen. Alternativ hierzu kann eine quantitative Beschreibung erfolgen, indem der Slot MANNER durch die Slots FROM und TO ersetzt wird und die entsprechenden Zahlenangaben eingefüllt werden. Sowohl die Slots innerhalb bestimmter Frames als auch die Art der Werte, die zur Füllung der Slots aus der Datenbank abgerufen werden müssen (z. B. Zahlen), sind spezifizierbar. Diese festgelegte Zuordnung von Slots zu bestimmten Frames ähnelt dem Valenzkonzept der DG. Genauso wie für ein Verb Aussagen über die quantitative und qualitative Valenz getroffen werden können, weisen die meisten Frames innerhalb von SEMTEX eine bestimmte Zahl von Slots auf, deren quantitative und qualitative Wertigkeit festlegbar ist. Rothkegel (1993) repräsentiert Buchankündigungstexte durch Frames, wobei mehrere Ebenen der zu Grunde gelegten Texthandlungsgrammatik abgebildet werden. Zumeist werden Frames zur Repräsentation von Objektwissen ⫺ seltener zur Textrepräsentation genutzt (Strube et al. 1995, 328). Trotz des Prinzips der Vererbbarkeit (Informationen in den Slots eines Frames können
V. Dependenzielle Theorien
auf in den Frame eingebettete Framesysteme übertragen werden), ist die Repräsentation durch Frames i. d. R. nicht dynamisch genug, um insbesondere längere Texte problemlos abzubilden.
FrameName :QUANTITIY (NR-UNEMPLOYED Slots :GROUP *GLOBAL* :AREA FRG) :MANNER NOTICEABLE :TIME-PERIOD (DURING :TIME DEZ-85)) Beispielsatz: Die Zahl der Arbeitslosen in der Bundesrepublik Deutschland ist im Dezember spürbar angestiegen.
DECREASE
Abb. 51.7: Textrepräsentation durch Frames
5.2. Skriptbasierte Ansätze vs. Story Grammar Das ‘Skript’ (s. z. B. Schank/Abelson 1977) stellt ein schematisches Muster dar, das speziell zur Repräsentation von Texten entwickelt wurde (Lehnert 1980, 85). Skripts sind Strukturen, die die Sequenz von Ereignissen in einem spezifischen Kontext (i. d. R. Alltagssituationen) repräsentieren (Schank/Abelson 1977, 41). Klassisches Beispiel für ein solches Skript ist das Restaurant-Skript, das die Aktionen und Ereignisse repräsentiert, die beim Besuch eines Restaurants relevant sind (Schank/Abelson 1977, 42⫺46). Die Informationen zu den einzelnen Aktionen/Ereignissen werden in Slots abgelegt, deren Sequenzialisierung festgelegt ist. Dies bewirkt, dass das in einem vorhergehenden Slot repräsentierte Ereignis/Aktion die nachfolgenden Aktionen/ Ereignisse beeinflusst. Wie bei der Anwendung von Frame-Schemata können Slots mit Default-Werten gefüllt werden. Hierdurch können beim Textverstehen bestimmte Informationen in Texten ausgelassen und vom Textrezipienten aufgrund der Skriptanwendung ergänzt werden. Abb. 51.8 zeigt die Skriptrepräsentation der Bestellszene des Restaurantskripts (nach Schank/Abelson 1977, 43). Erscheint z. B. nach dem Erwähnen von Peters Besuch im Restaurant in einem Text ein Satz wie Peter bestellte Huhn in Currysauce, so setzt das Skript an der Stelle ein ‘G bestellt e bei K’, wobei die vorhergehenden Slots des Skripts für Szene 2 (z. B. das Aus-
713
51. Dependenzielle Textmodelle
Script: RESTAURANT Umgebung: Restaurant Rollen: G = Gast, K = Kellner Ko = Koch, I = Inhaber, … Inventar: t =T isch(e), s = Speisekarte(n), e = Essen, g = Geld, ... Szene 2: Bestellung (s liegt auf t)
(K bringt s)
G nimmt s
(G verlangt s) G ruft K K kommt zu t G verlangt s K geht zu s
K kommt zu t K gibt G s G betrachtet s * G wählt e G ruft K K kommt zu t G bestellt e bei K K geht zu Ko K übergibt die Bestellung e an Ko übermittelt ‘dieses e nicht da’ K geht zu G K übermittelt zu G ‘dieses e nicht da’ gehe zu Szene 2 ab* oder gehe zu Szene 4 (ohne Bezahlen)
Ko bereitet e zu (Beginn Zubereitungsskript) gehe zu Szene3
Abb. 51.8: Bestellszene aus dem Restaurant-Skript
wählen der Speise) vom Textrezipienten antizipiert werden. Damit erlauben Skriptrepräsentationen das Nachvollziehen von Inferenzen, die beim Textverstehen eine Rolle spielen. Des Weiteren kann die Skriptrepräsentation durch andere Perspektivierungen (in Abb. 51.8 handelt es sich um die Perspektive des Gastes) abgewandelt werden. Parallelen zur DG können aufgrund des prozeduralen Charakters (ein Element des Skripts führt dynamisch zu weiteren Einheiten), der die Textsyntax prägt, nicht hergestellt werden. Innerhalb des Ansatzes von Schank und Abelson können allenfalls noch Bezüge zur Conceptual-Dependency-Theorie (CD-Theorie) hergestellt werden, die zur semantischen Repräsentation von Sätzen entwickelt wurde und auf der die Repräsenta-
tion der Textstruktur aufbaut. Doch für die CD-Theorie muss festgestellt werden, dass diese viel stärker von der Kasusrahmentheorie beeinflusst ist als von Konzeptualisierungen der Valenz innerhalb der DG (s. Schank 1975, 36⫺40). Auch andere skriptbasierte Ansätze wie z. B. die Geschichtenrepräsentation durch Affektzustände (Lehnert 1982) gehen dynamisch von den kleinsten Entitäten, also bottom-up, vor und lassen es daher nicht zu, Bezüge zum Valenz- oder Dependenzkonzept der DG herzustellen. Diese Möglichkeit besteht eher bei einem Gegenentwurf zu bottom-up verfahrenden Skriptansätzen, der Story Grammar. Dieser Ansatz wird im Folgenden skizziert. 5.3. Valenzaspekte der Story Grammar Bei der Story Grammar handelt es sich um einen schemabasierten Ansatz, der von Rumelhart entwickelt wurde (Rumelhart 1977). Wie in den zuvor skizzierten Ansätzen orientiert sich die Modellierung am Textverstehen. Die Grundidee besteht darin, dass während des Verstehensprozesses verschiedene konzeptuelle Schemata selektiert werden, die die in dem Text geschilderte Situation angemessen repräsentieren. Sobald ein Schema bestimmt und verifiziert wurde, das die restlichen Schemata der Geschichte determiniert, kann davon ausgegangen werden, dass der Text verstanden wurde. Ausgehend von diesem Textverstehensprozess müssen für die Textrepräsentation allgemein anwendbare Schemata formuliert werden, die beim Textverstehen eine Rolle spielen. Im Unterschied zu den oben dargestellten bottom-up verfahrenden Ansätzen wird hier top-down vorgegangen, d. h. aus einem übergeordneten Schema werden die weiteren Schemata der Textrepräsentation generiert. Als Top-Schema von kurzen Geschichten mit ProblemLösungs-Motiv identifiziert Rumelhart das ‘Problem-Löse-Episoden-Schema’ (s. Abb. 51.9 übernommen aus Rumelhardt 1977, 269).
PROBLEM-LÖSE-EPISODE ÜBER PROTAGONIST (P) a) b)
Ereignis (I) VERURSACHT, dass (P) ZIEL (Z) zu erreichen WÜNSCHT (P) versucht (Z) zu erreichen bis das ERGEBNIS (E) eintritt
Abb. 51.9: Problem-Löse-Episoden-Schema
714
V. Dependenzielle Theorien
Mary heard the ice cream man coming down the street. She remembered her birthday money and rushed into the house. …
Abb. 51.10: Textfragment EPISODE (P)
VERSUCHEN VERURSACHEN (I, WÜN- (P, BEKOMMEN (P, Z)) SCHEN (P, Z))
WÄHLEN (P, V)
E = ERGEBNIS (VERSUCHEN (P, BEKOMMEN (P, Z))
VERSUCHEN TUN (P, M) (P, VORAUSSETZEN (M))
K = KONSEQUENZEN (TUN (P, M))
Abb. 51.11: Strukturdiagramm zum Problem-LöseEpisoden-Schema
Dieses Episodenschema enthält vier Variablen: den Protagonisten (P), das initiierende Ereignis (I), das Ziel (Z) und das Ergebnis des Problemlöseversuchs (E). Diese Variablen können mit Ereignissen, Objekten, abstrakten Einheiten etc., aber auch mit weiteren Schemata gefüllt werden. Dem Problem-Löse-Episoden-Schema sind die Schemata VERURSACHEN, WÜNSCHEN und VERSUCHEN zugeordnet. Rumelhart erläutert die beim Textverstehen relevanten Prozesse anhand eines Beispiels (vgl. Abb. 51.10; Rumelhart 1977, 271). Es wird davon ausgegangen, dass der Textrezipient die Hypothese bildet, dass das Textfragment auf dem Problem-Löse-Episoden-Schema beruht. Dann wird überprüft, ob die Schemata des Problem-Löse-Episoden-Schemas im Text vorhanden sind. Abb. 51.11 (adaptiert aus Rumelhart 1977, 271 ff.) stellt die ersten zwei Ebenen des Strukturdiagramms für das Textfragment dar. Der Top-Knoten (EPISODE (P)) des Hierarchiebaums repräsentiert die Episode als Ganzes. Nun wird der Baum top-down von links nach rechts (Abfolge der Schemata) abgearbeitet. Beim Lesen des Textfragments wird Mary als Protagonistin (P) der Episode identifiziert. Das Erscheinen des Eisverkäufers wird als initiierendes Ereignis (I) eingeordnet und das VERURSACHEN-Schema wird identifiziert. Dann wird gefolgert, dass Mary sich wünscht, Eis zu es-
sen. Das WÜNSCHEN-Schema wird in das VERURSACHEN-Schema eingebettet und das VERSUCHEN-Schema wird als nächster Knoten hinzugefügt. Die Erfüllung des Wunsches stellt das Ergebnis des Episodenschemas (E) dar. Da die Schemata VERURSACHEN, VERSUCHEN und ERGEBNIS in dem Textfragment vorhanden sind, ist die Verifikation des Episodenschemas erfolgreich verlaufen und dieses Schema wird zur kognitiven Repräsentation eingesetzt. Das VERSUCHEN-Schema eröffnet vier weitere Slots: Das WÄHLEN-Schema, das die Selektion eines Verfahrens beinhaltet (in diesem Fall ‘Kaufen’), das VERSUCHEN-Schema, durch das die Voraussetzungen zur Durchführung des gewählten Verfahrens überprüft werden (im Beispiel das Besitzen von Geld), das TUN-Schema, das die Durchführung des gewählten Verfahrens repräsentiert (im Beispiel das Kaufen von Eis) und das KONSEQUENZEN-Schema, welches das Ergebnis der Anwendung des Verfahrens beschreibt (die Erfüllung des Wunsches, Eis zu essen). Wird das Textfragment vollständig repräsentiert, so eröffnet wiederum das VERSUCHEN-Schema weitere Slots wie z. B. das WÄHLEN eines Verfahrens (Möglichkeit das Geburtstagsgeld auszugeben) oder ein weiteres VERSUCHEN-Schema, das die Schemata zum Holen des Geldes selektiert. Da es sich nur um ein Textfragment handelt ist unklar, ob die rechten Konstiutenten des Hierarchiebaumes aufgefüllt werden (in Abb. 51.11 das ERGEBNIS-Schema, das TUNSchema und das KONSEQUENZENSchema). Trotzdem werden die entsprechenden Schemata im Textverstehensprozess kognitiv repräsentiert und beeinflussen das weitere Textverständnis. D. h., wie in den skriptbasierten Ansätzen ist es möglich, die beim Textverstehen auftretenden Inferenzen zu erfassen. Des Weiteren können umfangreichere Texte durch die Einbettung von Episoden in das übergeordnete Episodenschema repräsentiert werden. Betrachtet man sich die Schemata, die innerhalb einer Episode aktiviert werden, so fällt auf, dass die meisten durch verbale Konzepte (VERSUCHEN, WÄHLEN etc.) dominiert werden. Die von diesen Konzepten eröffneten Slots werden durch Argumente (Ziel, Ergebnis, Protagonist etc.) oder weitere, auch zumeist durch Verben versprachlichte Schemata, gefüllt. Daher kann für den Story Grammar Ansatz davon ausgegangen werden, dass Valenzaspekte bei der Reprä-
51. Dependenzielle Textmodelle
sentation der Textstruktur eine Rolle spielen. Im Strukturdiagramm (vgl. Abb. 51.11) dominiert das VERSUCHEN-Schema der Ebene unmittelbar unter dem Top-Knoten die gesamte Textrepräsentation und bewirkt die Entfaltung weiterer verbaler Schemata auf der nächst tieferen Ebene ⫺ das verbale VERSUCHEN-Schema beeinflusst in diesem Beispiel die gesamte Textstruktur. Während in skriptbasierten Ansätzen Valenzaspekte allenfalls auf der satzsemantischen Ebene einen Einfluss haben, prägen im Story Grammar Ansatz verbale Konzepte die gesamte Textstruktur. Offen ist, inwiefern sich der Story Grammar Ansatz problemlos auf andere Textsorten übertragen lässt. Zusammenfassend soll nochmals darauf hingewiesen werden, dass sich mit Ausnahme der heuristischen Textpartitur (vgl. 1) nur bedingt Bezüge zwischen Konzepten der Dependenzgrammatik und den jeweiligen Textmodellen herstellen lassen. Dies beruht, wie im Vergleich mit tiefenstrukturellen Modellen gezeigt werden konnte (vgl. 3), nicht auf Schwächen der jeweiligen grammatischen Modelle, sondern in der höheren Komplexität, die die Repräsentation von Texten darstellt.
6.
Literatur in Auswahl
Bartlett, Frederic C. (1932): Remembering: a study in experimental and social psychology. Cambridge u. a. Reprint von 1995. Beaugrande, Robert de (1984): Text Production. Toward a Science of Composition. Norwood, New Jersey. Beaugrande, Robert de (1985): Text linguistics in discourse studies. In: Dijk, Teun A. van (1985): Handbook of discourse analysis. Disciplines of discourse. London. Brandt, Inger/Rosengren, Margareta (1991): Zur Handlungsstruktur des Textes. In: Sprache und Pragmatik, Arbeitsberichte 24, 3⫺46. Brandt, Inger/Rosengren, Margareta (1992): Zur Illokutionsstruktur von Texten. In: Zeitschrift für Literaturwissenschaft und Linguistik 84, 9⫺51. Danesˇ, Frantisˇek (1974): Functional Sentence Perspective and the Organization of the Text. In: Danesˇ, Frantisˇek (Hg.) (1974): Papers on functional sentence perspective. Prag, 106⫺128. Dijk, Teun A. van (1972): Some aspects of text grammars. A study in Theoretical Linguistics and Poetics. The Hague/Paris. Dijk, Teun A. van (1980): Textwissenschaft. Eine interdisziplinäre Einführung. Tübingen.
715 Dijk, Teun A. van/Kintsch, Walter (1983): Strategies of Discourse Comprehension. New York. Franke, Wilhelm (1990): Elementare Dialogstrukturen: Darstellung, Analyse, Diskussion. Tübingen. Greimas, Algirdas J. (1966): Se´mantique structurale: re´cherche de methode. Paris. Grosz, Barbara J./Sidner, Candace L. (1986): Attention, intentions, and the structure of discourse. In: Computational Linguistics 12, 175⫺204. Gülich, Elisabeth/Raible, Wolfgang (1977): Linguistische Textmodelle. Grundlagen und Möglichkeiten. München. Harweg, Roland (1968): Pronomina und Textkonstitution. München. Heger, Klaus (1976): Monem, Wort, Satz und Text. Tübingen, 2. erw. Aufl. Heinemann, Wolfgang/Viehweger, Dieter (1991): Textlinguistik: Eine Einführung. Tübingen. Helbig, Gerhard (1988): Entwicklung der Sprachwissenschaft seit 1970. Leipzig. Heringer, Hans Jürgen (1993): Basic ideas and the classical model (Grundideen und das klassische Modell). In: Jacobs, Joachim/Stechow, Arnim von/ Sternefeld, Wolfgang/Vennemann, Theo (Hgg.) (1993): Syntax. Ein internationales Handbuch zeitgenössischer Foschung. An international handbook of contemporary research. Berlin/New York, 298⫺ 316. Hovy, Eduard H. (1993): Automated discourse generation using discourse structure relations. In: Artificial Intelligence, 63(1⫺2), 341⫺385. Isenberg, Horst (1976): Einige Grundbegriffe für eine linguistische Texttheorie. In: Danesˇ, Frantisˇek/ Viehweger, Dieter (Hgg.) (1976): Probleme der Textgrammatik. Berlin, 47⫺146. Lehnert, Wendy G. (1980): The role of scripts in understanding. In: Metzing, Dieter (Hg.) (1980): Frameconceptions and text understanding. Berlin/ New York. Lehnert, Wendy G. (1982): Plot units: a narrative summarization strategy. In: Lehnert, Wendy/Ringle, Martin (Hgg.) (1982): Strategies for Natural Language Processing. Hillsdale, London. Mann, William C./Matthiessen, Christian M.I.M./ Thompson, Sandra A. (1992): Rhetorical Structure Theory and text analysis. In: Mann, William C./ Thompson, Sandra A. (Hgg.) (1992): Discourse description: diverse analyses of a fund raising text. Amsterdam, 39⫺72. Maier, Elisabeth (1996): Textual relations as part of multiple links between text segments. In: Adorni, Giovanni/Zock, Michael (Hgg.) (1996): Trends in Natural Language Generation: an Artificial Intelligence perspective. Fourth European Workshop, EWNLG’93, Pisa, Italy, April 28⫺30, 1993: Selected Papers. Berlin/Heidelberg/New York, 68⫺87. Maier, Elisabeth/Hovy, Eduard (1993): Organising discourse structure relations using metafunctions.
716 In: Horacek, Helmut/Zock, Michael (Hgg.) (1993): New Concepts in Natural Language Generation. Planning Realization and Systems. London, 69⫺86. Minsky, Marvin (1975): A framework for representing knowledge. In: Winston, Patrick Henry (Hg.): The psychology of computer vision. New York u. a., 211⫺277. Minsky, Marvin (1980): A framework for representing knowledge. In: Metzing, Dieter (Hg.) (1980): Frame conceptions and text understanding. Berlin/ New York, 1⫺26; gekürzte Version von 1975. Petöfi, Ja`nos S. (1971): Transformationsgrammatiken und eine ko-textuelle Texttheorie. Frankfurt a. M. Rösner, Dietmar (1987): The automated news agency: SEMTEX ⫺ a text generator for German. In: Kempen, Gerard (Hg.) (1987): Natural Language Generation. New results in Artificial Intelligence, psychology and linguistics. Dordrecht, 133⫺148. Rösner, Dietmar/Stede, Manfred (1992): Customizing RST for the Automatic Production of Technical Manuals. In: Dale, Robert (Hg.) (1992): Aspects of Automated Natural Language Generation, 199⫺ 214. Rothkegel, Annely (1993): Textualisieren. Theorie und Computermodell der Textproduktion. Frankfurt a. M. Rumelhart, David E. (1977): Understanding and summarizing brief stories. In: Laberge, David/Samuels, Jay S. (Hgg.) (1977): Basic processes in reading: perception and comprehension. Hillsdale, N.J., 264⫺303.
V. Dependenzielle Theorien Schank, Roger C. (1975): Conceptual Dependency Theory. In: Schank, Roger C. (Hg.) (1975): Conceptual Information Processing. Oxford/New York, 22⫺82. Schank, Roger C./Abelson, Robert P. (1977): Scripts, plans, goals and understanding: an inquiry into human knowledge structures. Hillsdale, N.J. Scott, Donia R./Souza, Sieckenius de (1990): Getting the message across in RST-based text generation. In: Dale, Robert/Mellish, Chris/Zock, Michael (Hgg.): Current research in natural language generation. London etc., 47⫺73. Searle, John R. (1969): Speech acts: an essay in the philosophy of language. Cambridge. Strube, Gerhard u. a. (1995): Kognition. In: Görz, Günther (Hg.): Einführung in die Künstliche Intelligenz. Bonn, 492⫺557. Tesnie`re, Lucien (1959): E´le´ments de syntaxe structurale. Paris. Weber, Heinz J. (1992): Dependenzgrammatik. Ein Arbeitsbuch. Tübingen. Weinrich, Harald (1976): Sprache in Texten. Stuttgart. Weinrich, Harald (1978): Die Textpartitur als heuristische Methode. In: Dressler, Wolfgang (Hg.) (1978): Textlinguistik (vom Autor leicht überarbeitete Fassung aus: Der Deutschunterricht (1976) 24 (4), 43⫺60). Darmstadt, 391⫺412. Weinrich, Harald (1993): Textgrammatik der deutschen Sprache. Mannheim. Wunderlich, Dieter (1976): Studien zur Sprechakttheorie. Frankfurt a. M.
Claudia Villiger, Hannover (Deutschland)
VI. Valenz: Schwerpunkte der Forschung Valency: Core Research Areas 52. Das Verb als strukturelles Zentrum des Satzes 1. 2.
4. 5. 6.
Vorab Prinzipien der verbozentrischen Dependenzgrammatik Argumente für die verbozentrische Satzanalyse Probleme der verbozentrischen Satzanalyse Zusammenfassung und Ausblick Literatur in Auswahl
1.
Vorab
3.
Als ein Grundprinzip der von Lucien Tesnie`re entwickelten Dependenzgrammatik gilt, dass die strukturale Ordnung des Satzes vom Verb gesteuert wird (z. B. Tesnie`re 1980, 29). Dieses Prinzip wird in der Tesnie`re-Nachfolge oft so formuliert, dass „das Verb als strukturelles Zentrum des Satzes“ fungiert (z. B. Helbig/Schenkel 1973, 24, Tarvainen 1981, 36). Die Formulierung impliziert zumindest Folgendes: 1) Der primäre Gegenstand der Dependenzgrammatik ist der Satz; die Dependenzgrammatik ist in erster Linie eine syntaktische Theorie. 2) Der Satz wird als eine hierarchische Struktur verstanden, die genau ein Organisationszentrum hat; die Dependenzgrammatik ist eine Syntaxtheorie, die sich an der Tradition des Strukturalismus orientiert (vgl. Albrecht 1988, 76, 95 ff.). 3) Als Organisationszentrum der hierarchischen Satzstruktur fungiert das Verb; die Dependenzgrammatik kann als eine Verbgrammatik oder eine Dependenz-Verb-Grammatik (z. B. Engel 1994, 7) bezeichnet werden. Das Axiom der Verbzentriertheit bedeutet einen Bruch mit der auf die aristotelische Logik zurückgreifenden Grammatiktradition, die den Satz als eine binäre Struktur auffasst. Die auf dem Axiom der Binarität beruhenden Subjekt-Prädikat-Grammatiken betrachten Subjekt und Prädikat als Grundpfeiler des Satzes, die einander nicht unter-, sondern zugeordnet sind und die sich gegenseitig bedin-
gen. In der verbozentrischen Dependenzgrammatik dagegen hat der Satz nur einen strukturellen Fixpunkt, das Verb, dem alle anderen Elemente, auch das Subjekt, untergeordnet sind. Die Dependenzgrammatik wird gelegentlich auch als Valenzgrammatik bezeichnet (z. B. Sadzin´ski 1989), was darauf zurückgeht, dass die Valenz eine zentrale Rolle in der verbozentrischen Dependenzgrammatik spielt. Die Dependenzgrammatik kann aber nicht auf eine Valenzgrammatik reduziert werden, da viele syntaktischen Phänomene nicht aus der Valenz ableitbar sind. Tesnie`re hat das Valenzkonzept in seine dependenziell strukturierte Syntaxtheorie als eine integrale, erklärende Komponente eingebettet, ohne die beiden Konzepte, Valenz und Dependenz, miteinander zu vermengen. Die Dependenz ist ein syntaktisches Strukturierungsprinzip, nach dem der Satz als ein Bündel von Abhängigkeitsrelationen beschrieben wird, die Valenz dagegen die Eigenschaft von lexikalischen Elementen, vor allem von Verben, ihre syntaktische Umgebung zu prädeterminieren. Die Tesnie`re-Rezeption hat sich eingehend mit dem Valenzkonzept auseinandergesetzt (s. z. B. Helbig 1992, Storrer 1992, Jacobs 1994), während die Entwicklung der Dependenzgrammatik zu einer etablierten Grammatiktheorie eher vernachlässigt wurde (Ausnahmen sind z. B. Engel 1994, Eroms 1985 u. a., Heringer 1996). Im Folgenden wird der Frage nachgegangen, wie das Axiom der Verbzentriertheit in der Dependenzgrammatik seit Tesnie`re aufgefasst worden ist. Es wird sich zeigen, dass die von Tesnie`re lancierte Idee der Verbzentriertheit, die auf den ersten Blick sehr plausibel vorkommt, doch recht inkonsistent ist. Bevor in Kap. 4 eingehend auf die Problematik der verbozentrischen Satzanalyse eingegangen wird, werden in Kap. 2 die Prinzipien der verbozentrischen Dependenzgrammatik
718
VI. Valenz: Schwerpunkte der Forschung
Tesnie`rescher Prägung kurz zusammengefasst, und in Kap. 3 werden einige wichtige Argumente für die verbozentrische Satzanalyse im Allgemeinen angeführt.
2.
Prinzipien der verbozentrischen Dependenzgrammatik
Die strukturale Ordnung des Satzes begründet sich nach Tesnie`re (1980, 26) auf den abstrakten Verbindungen, die zwischen den einzelnen Wörtern des Satzes existieren. So besteht „ein Satz vom Typ Alfred spricht […] aus drei Elementen: erstens Alfred, zweitens spricht und drittens der Konnexion, die sie verbindet und ohne die kein Satz bestünde“. Konnexionen können grundsätzlich nach dem Prinzip der Konstituenz oder nach dem Prinzip der Konkomitanz organisiert werden; wenn die konkomitanziell organisierten Konnexionen vertikal gerichtet werden, spricht man von Dependenz (s. Engel 1994, 23 ff., 27). Nach Tesnie`re (1980, 27) bilden strukturale Konnexionen die Basis für die Dependenzbeziehungen zwischen den Wörtern im Satz, denn „[j]ede Konnexion verbindet im Prinzip einen übergeordneten mit einem untergeordneten Term“, wobei er die übergeordneten Terme Regentien und die untergeordneten Terme Dependentien nennt. Die Konnexionen sind nach Tesnie`re (1980, 27) keine Einbahnstraßen, sondern sie können nach oben oder nach unten gerichtet sein, denn man kann sagen, dass das Dependens vom Regens abhängt oder dass das Regens das Dependens regiert. Dies bedeutet, dass auch Tesnie`res Dependenzbegriff nicht eindeutig ist, sondern verschiedene Auslegungen zulässt (hierzu Welke 1995, 163 f.). Die Untersuchung des Satzes besteht nach Tesnie`re (1980, 28) „im wesentlichen in der Untersuchung seiner Struktur, und das heißt: der Hierarchie seiner Konnexionen“. Graphisch wird die Satzstruktur in Form eines Dependenzstemmas wiedergegeben, in dem die Konnexionen durch vertikal laufende Striche abgebildet werden. Die Konnexionsstriche verbinden den Satz zu einem hierarchisch geordneten Ganzen von regierenden und regierten Elementen, und das Stemma „materialisiert damit visuell die Satzstruktur“ (Tesnie`re 1980, 30). Die Verbindungsstelle der Konnexionen, die „das Basismaterial für das strukturale Gerüst des Satzes“ bildet, nennt Tesnie`re (1980, 55) Nukleus und versteht darunter eine Einheit, die „genau ein
strukturales und genau ein semantisches Zentrum“ enthält (S. 57). Der Nukleus ist nicht mit der Kategorie Wort gleichzustellen, denn es gibt nach Tesnie`re (1980, 63 f., 67) einerseits sog. leere Wörter, die keine semantische Funktion aufweisen (z. B. Auxiliarverben) und folglich nur zusammen mit vollen Wörtern einen Nukleus bilden können und es gibt andererseits sog. subsidiäre Wörter, die keine strukturale Funktion übernehmen können (z. B. Präpositionen, Artikel), sondern nur zusammen mit konstitutiven Wörtern nukleusbildend sind. Solche Nuklei, in denen die strukturale und semantische Funktion in verschiedenen Wörtern lokalisiert ist, nennt Tesnie`re (1980, 57) dissoziiert. Nukleusbildende volle Wörter sind nach Tesnie`re (1980, 74) Substantive, Adjektive, Verben und Adverbien. Charakteristisch für diese Hauptwortarten ist, dass sie als Regentien in der hierarchischen Satzstruktur fungieren können und somit knotenbildend sind. Unter Knoten (frz. nœud) versteht Tesnie`re (1980, 28) „das Ganze, das aus einem Regens und seinen Dependentien beliebigen Grades besteht“ (zu Tesnie`res Knotenbegriff s. Engel 1996, 57 f.) und betrachtet als Zentralknoten im Satz den verbalen Knoten. Denn der Verbalknoten, der Knoten aller Knoten, gewährleistet die strukturale Einheit des Satzes und ist für die strukturale Ordnung des Satzes zuständig, „indem er seine verschiedenen Elemente zu einem einzigen Bündel zusammenfaßt“ (Tesnie`re 1980, 29). Das Verb steht an der Spitze des Dependenzstemmas, es ist das oberste Regens der Satzstruktur, zu dem die übrigen Elemente des Satzes in einem unmittelbaren oder mittelbaren Dependenzverhältnis stehen. Die zentrale Stellung des Verbs in der strukturalen Ordnung des Satzes führt Tesnie`re (1980, 93, 161) auf seine Valenz zurück, d. h. auf die Fähigkeit des Verbs, eine gewisse Anzahl von anderen Elementen als unmittelbare substantivische Dependentien, als Aktanten, an sich zu binden. Somit integriert Tesnie`re die Valenz als eine satzkonstituierende Komponente in sein dependenzielles Syntaxmodell, räumt ihr aber lediglich den Status einer integralen Teiltheorie ein, denn nicht alle strukturalen Beziehungen ⫺ von den linearen ganz zu schweigen ⫺, basieren auf Valenzbeziehungen. Unabhängig von der verbalen Valenz sind nämlich die adverbialen Dependentien, die freien Angaben, deren Art und Anzahl nicht vom Verb festgelegt werden (Tesnie`re 1980, 111).
52. Das Verb als strukturelles Zentrum des Satzes
3.
Argumente für die verbozentrische Satzanalyse
Weder die Verbzentriertheit noch die vertikale Ausrichtung der dependenzgrammatischen Darstellungsweise sind „naturgewachsen oder irgendwie durch ‘die Sprache’ vorgegeben“, sondern sie gehen aus „einer willkürlichen Entscheidung des Grammatikers“ hervor (Engel 1994, 28; ähnlich auch u. a. Engelen 1986, 93, Welke 1988, 113). Dafür, dass es sich dabei zumindest um eine „begründete“ Willkür handelt, sprechen nicht nur die Unzulänglichkeiten der (traditionellen) SubjektPrädikat-Grammatiken, sondern auch ⫺ und vor allem ⫺ die zentrale Stellung der Kategorie Verb in der syntaktischen und semantischen Konstituierung von Sätzen. Besonders zwei Eigenschaften des Verbs sind hervorzuheben, wenn man für die verbozentrische Satzanalyse argumentieren will, nämlich sein breites Valenzspektrum und seine flexionsparadigmatischen Eigenschaften. Die zentrale Rolle, die das Verb im Bau des Satzes spielt, geht ⫺ wie schon Tesnie`re festgestellt hat ⫺ auf seine Valenz zurück. „Die Struktur, der Bauplan des Satzes wird zu einem erheblichen Teil durch das Verb festgelegt“ (Engel 1988, 185), weil es durch seine Valenz das Vorkommen der übrigen satzkonstitutiven Elemente reguliert und somit für das Grundgerüst des Satzes zuständig ist. Während Tesnie`re (1980, 161) unter der Valenz in erster Linie die quantitative Festlegung der Aktanten verstand (s. jedoch Engel 1996, 57), hat die Entwicklung der Valenztheorie zu einer Erweiterung des Valenzbegriffs geführt, die der verbalen Valenz vor allem eine qualitativ prädeterminierende Rolle in der Satzkonstituierung zuschreibt. Das Verb kann kraft seiner Valenzpotenz nicht nur die morphologische Form und Satzgliedschaft seiner Aktanten festlegen, sondern auch ihren referentiell-semantischen Charakter und ihre funktional-semantische Rolle (zur Stratifizierung des Valenzbegriffs s. Helbig 1992, 3⫺18, 153⫺167). In den Verbvalenzwörterbüchern wird die satzbildende Potenz der Valenz in die lexikographische Praxis umgesetzt. Verbvalenzwörterbücher sind Konstruktionswörterbücher, die auf der Ebene der Mikrostruktur systematische Informationen darüber geben, wie und unter welchen Bedingungen das lemmatisierte Verb mit anderen Lexemen korrekte Sätze bilden kann (Zöfgen 1989, 1000 ff.). Im deutschen Sprachraum hat die Rezeption
719 von Tesnie`res Valenzansatz zuerst in der Valenzlexikographie Fuß gefasst. Die ersten deutschen Verbvalenzwörterbücher (Helbig/ Schenkel 1973 [1969], Engel/Schumacher 1978 [1976]), haben sich auf die Beschreibung der morphosyntaktischen Valenzumgebung konzentriert, aber die allgemeine Semantisierung des Valenzkonzepts hat sich auch schnell in der Valenzlexikographie durchgesetzt (vor allem Schumacher 1986). Auch die Satzbaupläne bzw. Satzmodelle (z. B. Engel 1988, 199 f., Helbig/Buscha 1991, 625 ff., 635 f.) greifen auf die satzbildende Potenz des Verbs zurück, obwohl sie nicht in erster Linie zur Satzbildung, sondern zur Subklassifizierung von Verben dienen (s. Helbig 1992, 126). Auch wegen seiner flexionsparadigmatischen Vielfalt kommt dem Verb eine führende Rolle im Satz zu, denn solche satzsemantischen Inhalte, die die ganze Proposition betreffen, werden, wenn sie überhaupt als gebundene Morpheme realisiert werden können, morphologisch im Verbflexiv kodiert. Im Deutschen werden die Kategorien Person, Numerus, Tempus, Modus und Genus verbi (s. Eisenberg 1994, 37, der von Einheitenkategorien des Verbs spricht) in Flexionsformen des Verbs kodiert; in anderen Sprachen kommen noch weitere Kategorien vor, z. B. der Aspekt. Die Kategorien Person und Numerus beziehen sich auf die Beschaffenheit des Subjekts (in Sprachen mit Subjekt-Verb-Kongruenz) bzw. des Objekts (in Sprachen mit Objekt-Verb-Kongruenz). Durch die Kategorien Tempus, Modus und Genus verbi wird dagegen die gesamte Proposition an die außersprachliche Realität angeknüpft, denn durch die Tempuskategorie wird sie zeitlich eingeordnet, durch die Moduskategorie wird ihr Verhältnis zur Realität festgelegt und durch das Genus verbi wird sie perspektiviert (vgl. Heringer 1988, 56). Die Tatsache, dass das finite Verb so viel verb- und sogar propositionsexterne Informationen in sich, d. h. im Verbflexiv inkorporieren kann, hat Fourquet (1970, 56) dazu veranlasst, das Verb als „eine Art Mikrokosmos“ zu bezeichnen, „da hier in einem Segment der Kette neben dem Lexem ein Teil des Subjekts und die Anzeiger für Tempus und Modus […] enthalten sind“. Das finite Verb kann in seiner Souveränität allein einen Satz bilden, ohne dass es sich dabei um eine Ellipse handelt. Dies gilt für die nullwertigen Verben, beispielsweise für die Witterungsimpersonalia, z. B. lat. Pluit oder fi. Sataa ‘Es regnet’. Dies gilt aber auch für einwertige
720 Verben, wenn der Subjektaktant im Verbflexiv inkorporiert ist, z. B. fi. Luen ‘Ich lese’, und sogar für zweiwertige Verben, wenn der Subjekt- und der Objektaktant inkorporiert sind, z. B. ung. La´tlak ‘Ich sehe dich’. In den sog. Null-Subjekt-Sprachen, die in der Regel eine ausgeprägte Subjekt-Verb-Kongruenz aufweisen, wird der pronominale Subjektaktant im unmarkierten Fall nicht lexikalisch ausgedrückt, weil er seinen Ausdruck schon morphologisch im Verbflexiv bekommt. Das Verbflexiv hat somit eine „pronominale Funktion“, weil es „pronominale Subjekte inkorporiert“, wie Sadzin´ski (1989, 104) im Hinblick auf das Polnische festgestellt hat. Im valenztheoretischen Rahmen ist dies kein neuer Gedanke, denn schon Tesnie`re (1980, 84) konstatiert, dass ein Personalpronomen z. B. im Französischen „das genaue syntaktische Äquivalent der Personalendungen in Sprachen wie dem Lateinischen“ darstellt und betrachtet die Personalendung sogar als Teil des Subjekts (S. 95). Die Subjekt-VerbKongruenz heißt nach Tesnie`re (1980, 126) „letzten Endes nur, daß das Verb sich schon einen ersten Aktanten einverleibt hat, dessen syntaktische Funktion mit der des aktuell vorhandenen ersten Aktanten identisch ist“, und von der Objekt-Verb-Kongruenz stellt er fest, dass „das Verb sich den zweiten Aktanten einverleibt und auch ihn zur Personalendung werden läßt“ (S. 127). Theoretisch kann der Idee, dass das Verbflexiv in Null-Subjekt-Sprachen etwas zum Subjekt Gehörendes und in Null-ObjektSprachen sogar etwas zum Objekt Gehörendes inkorporiert, durch die von Pasierbsky (1981) vorgeschlagene Unterscheidung zwischen einer makro- und einer mikrovalenziellen Ebene der Aktantenrealisierung Rechnung getragen werden. Unter Makrovalenz versteht Pasierbsky (1981, 162 f.) die lexikalische Realisierung der Aktanten, unter Mikrovalenz dagegen die Fähigkeit des verbalen Valenzträgers, Aktanten in seiner morphologischen Struktur so zu inkorporieren, dass sie nur morphologisch realisiert zu werden brauchen. Jeder verbale Valenzträger hat eine Valenzstruktur sowohl auf der Makro- als auch auf der Mikroebene, weil Pasierbsky (1981, 168) jedem makrovalenziellen, lexikalischen Aktanten ein mikrovalenzielles Pendant in der morphologischen Struktur des verbalen Valenzträgers zuordnen will. Die Gedanken von Pasierbsky sind von La´szlo´ (1988) und ´ gel (1993, 1995) zu einem Zwei-EbenenA Modell der strukturellen Valenzrealisierung
VI. Valenz: Schwerpunkte der Forschung
weiterentwickelt worden, dessen Vorteile dem traditionellen Valenzansatz gegenüber nicht nur im Sprachvergleich zum Tragen kommen, sondern auch in der Beschreibung von verschiedenen Realisierungsformen innerhalb einer Sprache (Vater 1996, 178 f.). Während Pasierbsky (1981, 167) die Mikrovalenz als eine Projektion der Makrovalenz verstanden ´ gel (1993, hat, gehen La´szlo´ (1988, 227) und A 38) vom Primat der Mikrovalenz aus. Wenn die morphologische Valenzrealisierung im Verbflexiv als die primäre Erscheinungsform der Valenz angesehen werden kann, wäre es ein weiteres triftiges Argument für die zentrale Rolle des Verbs in der Satzkonstituierung.
4.
Probleme der verbozentrischen Satzanalyse
Das Grundprinzip der verbozentrischen Dependenzgrammatik, die syntaktische Analyse am Verb anzusetzen und die Satzstruktur von der Valenz des Verbs herzuleiten, hat Tarvainen (1987, 14) wie folgt formuliert: „Die Dependenzgrammatik geht von der Grundannahme aus, daß als strukturelles Zentrum des Satzes ein Verb fungiert, das entsprechend seiner Valenz bestimmte Ergänzungen fordert und zusätzlich freie Angaben als Zusatzbestimmungen bekommen kann. Zum Verb werden nicht nur einfache Verbformen wie hilft, sondern auch mehrteilige verbale Syntagmen wie hat geholfen, also ‘Verbalkomplexe’, gezählt.“ In dieser Formulierung werden einige grundlegende Probleme der verbozentrischen Satzanalyse angeschnitten, die im Folgenden thematisiert werden sollen. Das erste Problem, auf das in Kap. 4.1. näher eingegangen wird, betrifft die Bestimmung des verbalen Zentralregens bei Verbalkomplexen. Das zweite Problem, das in Kap. 4.2. kurz besprochen wird, stellen die freien Angaben dar, die trotz ihrer fehlenden Valenzbindung in der Regel als Dependentien des verbalen Zentralregens angesehen werden. Schließlich wird in Kap. 4.3. der Frage nach weiteren Stemmaplätzen oberhalb des verbalen Regens an der Satzspitze erörtert. 4.1. Verbalkomplexe Die Ermittlung des grammatischen Prädikats ⫺ verstanden nach Hyvärinen (1989, 321) als „das Hauptglied des Satzes“, das „entweder aus dem finiten Verb allein oder aber aus einem Prädikatskomplex, der außer
52. Das Verb als strukturelles Zentrum des Satzes
721
dem Finitum einen bzw. mehrere weitere Prädikatsteile enthält“ (zur Heterogenität des Prädikatsbegriffs s. Homberg 1993, 73⫺ 170) ⫺ ist die erste Voraussetzung für die verbozentrische Satzanalyse. Wenn es im Satz ein einfaches finites Verb gibt, bildet dieses Verb das strukturelle Satzzentrum und prädeterminiert durch seine Valenz die Grundstruktur des Satzes; nur in diesen Fällen kann man eindeutig vom Verb als strukturellem Zentrum des Satzes sprechen. Wenn der Satz aber neben dem Finitum auch infinite verbale Elemente enthält, erhebt sich die Frage, wie man das strukturelle Zentrum eingrenzen und/oder welchem der verbalen Elemente die Rolle des verbalen Valenzträgers und/oder des Zentralregens im Satz eingeräumt werden soll. Die Ermittlung und Abgrenzung des Prädikats wird hier nicht näher problematisiert, sondern es wird der Frage nachgegangen, welches verbale Element eines komplexen Prädikats als strukturelles Zentrum des Satzes angesehen werden kann und welche Auswirkungen dies auf die dependenzielle Analyse des Satzes hat. Dabei werden Kopulakonstruktionen, Funktionsverbgefüge und Verbidiome nicht in Betracht gezogen, sondern lediglich Verbalkomplexe, die sich aus einem infiniten Vollverb und einem finiten Auxiliarverb zusammensetzen. Da die Valenzeigenschaften der Voll- und Auxiliarverben unterschiedlich sind ⫺ das Vollverb hat kraft seiner Valenz die Fähigkeit, „den Oberflächen-Satzbauplan syntaktisch und semantisch festzulegen“ (Hyvärinen 1989, 334), während dem Auxiliarverb diese Fähigkeit fehlt ⫺, wird auch darauf eingegangen, inwiefern die Valenz in die dependenzielle Satzanalyse mit einzubeziehen ist.
Die Konnexionsstriche treffen auf den Nukleuskreis und zeigen damit, dass ein Nukleus immer, ob einfach oder dissoziiert, ein unzerlegbares Ganzes bildet. Auch Verbalkomplexe sind dissoziierte Nuklei, die auf ihre innere Struktur hin nicht näher analysiert werden, sondern die als solche das strukturelle Zentrum des Satzes und das oberste Regens der Dependenzstruktur bilden. Folglich gibt es keinen dependenzstrukturell relevanten Unterschied zwischen Sätzen mit einem einfachen finiten Verb und einem Verbalkomplex. Den auffälligsten Typ eines dissoziierten Nukleus bilden nach Tesnie`re (1980, 57) die zusammengesetzten Tempora; sie enthalten „ein Morphem, das Auxiliarverb (ein konstitutives, aber leeres Wort), das die strukturale Funktion festlegt, und ein Semantem, das infinite Verb (ein volles, aber subsidiäres Wort), das die semantische Funktion des Tempus festlegt“ (S. 284). Tesnie`re (1980, 99) hebt noch ausdrücklich hervor, dass „[d]ie Einführung eines (temporalen oder modalen) Auxiliarverbs […] nichts an der Aktantenstruktur“ ändert. Alle von Tesnie`re angeführten Beispiele für zusammengesetzte Tempora bestätigen diese Feststellung, denn die stemmatische Darstellung des Satzes bleibt bei einfachen und zusammengesetzten Tempora die gleiche (s. z. B. Tesnie`re 1980, 72). Für modale Auxiliarverben führt Tesnie`re in diesem Zusammenhang jedoch ein äußerst kontraproduktives Beispiel an, indem er behauptet, dass die Aktantenstruktur in dem Satz Alfred kann Karl das Buch geben (3) dieselbe ist wie in dem Satz Alfred gibt Karl das Buch (2) und dies mit folgenden Dependenzstemmata veranschaulicht (Tesnie`re 1980, 93, 99):
4.1.1. Der Verbalkomplex als strukturelles Zentrum 4.1.1.1. Nach Tesnie`re (1980, 57) bilden Verbalkomplexe dissoziierte Nuklei, die aus einem leeren Wort als Träger der strukturalen Funktion und aus einem vollen Wort als Träger der semantischen Funktion bestehen. In einem Dependenzstemma können Nuklei umringt werden, um vor allem bei dissoziierten Nuklei die Zusammengehörigkeit der Teile und den Umfang des Nukleus zu veranschaulichen (Tesnie`re 1980, 56):
(2)
(1)
ist angekommen
Alfred
gibt
Alfred
(3)
Karl
das Buch
kann
Alfred
geben
Karl
das Buch
An einer anderen Stelle (S. 115) findet sich ein Beispiel mit dem Modalverb sollen, das erwartungsgemäß als Teil eines dissoziierten
722
VI. Valenz: Schwerpunkte der Forschung
Nukleus abgebildet ist. Ob das Stemma (3) als ein Hinweis darauf gedeutet werden kann, dass das modale Auxiliarverb seinen semantischen Inhalt noch nicht gänzlich verloren hat und noch nicht zu einem bloßen subkategorialen Translativ geworden ist (vgl. Tesnie`re 1980, 284), muss dahin gestellt bleiben; der Widerspruch zwischen der stemmatischen Darstellung und dem Text bleibt. Auch das Passivauxiliar bildet mit einem vollen Wort einen dissoziierten Nukleus, verursacht aber nach Tesnie`re (1980, 100) immer auch eine Änderung in der Aktantenstruktur, denn struktural gesehen muss „zwischen dem aktivischen zweiten Aktanten […] und dem passivischen zweiten Aktanten unterschieden“ werden. Dies kommt in einem Dependenzstemma durch die Positionierung der Aktanten zum Tragen (S. 100), vgl. (2) und (4): (4)
wird gegeben
das Buch
von Alfred
Karl
4.1.1.2. Tarvainen (1981, 36) betrachtet als strukturelles Zentrum des Satzes das Verb, „das nach seiner Valenz bestimmte Ergänzungen bekommt“ und das neben dem finiten Verb auch andere Verbformen umfassen kann. Er nennt das verbale Zentrum des Satzes „grammatisches Prädikat“ und definiert es formal als eine finite Verbform oder eine Verbalgruppe mit einem Finitum und inhaltlich als Träger eines lexikalischen, denotativen Verbalinhalts. Da Tarvainen in struktureller Hinsicht keinen Unterschied zwischen einfachen und komplexen Prädikaten macht, wenn sie den gleichen denotativen Verbalinhalt ausdrücken, entspricht sein Prädikat weitgehend dem verbalen Nukleus von Tesnie`re, und seine Dependenzstemmata sind denen von Tesnie`re sehr ähnlich. Bei der Behandlung von Modalverben weicht Tarvainen (1981, 37⫺40) jedoch von Tesnie`re ab, indem er grundsätzlich zwischen dem grammatischen (5) und dem lexikalischen Gebrauch (6) der Modalverben unterscheidet und das stemmatisch wie folgt festhält: (5)
kann gelesen haben
(6)
hat können
Karl
lesen
das Buch
Den Unterschied führt Tarvainen (1981, 37 f.) gemäß seiner notionellen Prädikatsauffassung auf die unterschiedlichen lexikalischen Verbalinhalte der Verbalsyntagmen zurück, die er durch Substitutionen ermittelt (kritisch dazu s. Hyvärinen 1989, 321⫺324). Weil das Syntagma kann gelesen haben nur einen lexikalischen Inhalt (‘lesen’) ausdrückt, bildet es ein komplexes Prädikat und fungiert als strukturelles Zentrum des Satzes. Das Verbalsyntagma hat lesen können gliedert sich dagegen in „zwei Verben als begriffliche Bedeutungsträger“ (S. 37), nämlich ‘können’ und ‘lesen’, von denen das Modalverb allein als Prädikat fungiert. Tarvainen (1984 und 1987) modifiziert seine dependenzielle Darstellungsweise dahin gehend, dass er innerhalb der komplexen Prädikate eine Hierarchie der verbalen Bestandteile strukturiert, „ein satzgliedinternes rein grammatisches, formales Dependenzsystem“; im Dependenzstemma werden nicht nur die „satzgliedexternen“ Valenz- und Dependenzbeziehungen zwischen dem komplexen Prädikat und seinen Dependentien, sondern auch die prädikatsinternen Dependenzbeziehungen, „die innere Dependenzstruktur des Prädikats selbst“ (Tarvainen 1987, 14), angezeigt, z. B. (Tarvainen 1984, 419): (7)
hat gelesen
Karl
Buch das
Das temporale Auxiliarverb fungiert nach Tarvainen (1984, 418) „als rein grammatisches Regens“, und das infinite Vollverb hat prädikatsintern einen dependenziellen Status, was Tarvainen in Anlehnung an Engel (1982, 126) darauf zurückführt, dass die Form des Vollverbs (Infinitiv) von dem Auxiliarverb festgelegt wird. Die morphologische Abhän-
52. Das Verb als strukturelles Zentrum des Satzes
723
gigkeit betrachtet er zugleich als eine formale Valenzbeziehung im Sinne der Ergänzungsbedürftigkeit, weil das Auxiliarverb das Vollverb als eine „satzgliedinterne (hier prädikatsinterne) formal valenzbedingte Ergänzung“ zur Bildung einer bestimmten grammatischen Form fordert (Tarvainen 1987, 14, s. auch 1984, 426 f.). Der Kasten um das komplexe Prädikat veranschaulicht, dass der Verbalkomplex als Ganzes das strukturelle Zentrum und das oberste Regens des Satzes bildet. Die prädikatsexternen Dependentien ⫺ darunter auch das Subjekt ⫺ sind gemäß ihrer Valenzbindung von dem Prädikat als Träger eines lexikalischen Verbinhalts abhängig. Als ähnliche „ziemlich ‘klare’ Fälle der internen formalen Dependenz des Verbalkomplexes“ betrachtet Tarvainen (1984, 419) die analytischen Passivformen und die würdeFormen des Deutschen. Modalverben dagegen stellen „einen formalen, rein grammatischen Valenzträger innerhalb […] des verbalen Prädikats“ nur dann dar, wenn sie grammatisch („subjektiv“) verwendet werden und zusammen mit dem Vollverb nur einen lexikalischen Verbalinhalt ausdrücken (Tarvainen 1984, 419 f.), z. B.:
Dependenz vor allem deswegen, weil er seine „Auswirkungen auf die formalen Eigenschaften der Dependenzgrammatik“ nicht untersucht, sondern lediglich den Unterschied zwischen formaler und semantisch konstituierter Dependenz graphisch illustriert. Lobin (1995, 127) dagegen möchte die Dependenztheorie um das Konzept „komplexes Element“ erweitern und dadurch im Rahmen einer formalisierten Version der Dependenzgrammatik „eine von vornherein allgemein-formale Erweiterung bisheriger dependenzsyntaktischer Systeme“ leisten. Komplexe Elemente, z. B. Nominalphrasen oder Verbalkomplexe, sind Wortgruppen, „die sich nach außen wie ein Element verhalten, innen jedoch wie jede Wortgruppe dependenziell strukturiert sind“ (Lobin 1993, 46). Die graphische Darstellung, die Lobin (1993, 44, 57) für den Verbalkomplex verwendet, unterscheidet sich von der von Tarvainen zum einen dadurch, dass die Binnengliederung ⫺ in Anlehnung an Engel (1982, 127 ff.) ⫺ als ein Dependenzast dargestellt wird, und zum anderen dadurch, dass nicht nur der gesamte Verbalkomplex durch einen Kasten umringt wird, sondern dass sich innerhalb dieses „phrasalen“ Kastens noch weitere Kästen befinden, die die interne Strukturierung des komplexen Elements veranschaulichen (Lobin 1993, 57):
(8)
dürfte sein
(10) Er
Eine ähnliche Beschreibung der prädikatsinternen und -externen Dependenzbeziehungen bekommen bei Tarvainen (1984, 420) auch sog. Modalitätsverben sowie einige Verben, die „eine Art Aktionsartbezeichnung“ darstellen; die prädikatsinterne Dependenzhierarchie wird allerdings um eine Position vermehrt, weil zu als Dependens des Infinitivs angesetzt wird: (9)
verspricht werden zu
Wetter
ist
zu Hause
schön
das
4.1.1.3. Lobin (1995, 126) bemängelt Tarvainens Konzept der satzgliedinternen formalen
VRB worden VRB überfallen NOM Paul
SIT2 gestern
Der äußere Kasten fasst den Verbalkomplex als ein komplexes Element zusammen, das kraft seiner Rektionsfähigkeit (s. Lobin 1995, 117) externe Satelliten, Ergänzungen (NOM) und Angaben (SIT2), regiert. Dass dem gesamten Verbalkomplex Dependenzeigenschaften ⫺ und zugleich auch Valenzeigenschaften ⫺ zustehen, ist deswegen möglich, weil Lobin (1993, 42 f.) den komplexen Elementen ein gemeinsames Rektionspotential zuschreibt; die Rektionseigenschaften werden zwar in der Regel durch Wörter konstituiert, können aber im Rahmen des formalen Kon-
724 zepts der komplexen Elemente auf einen Zusammenschluss von mehreren Wörtern projiziert werden. Für Lobin (1993, 37) ist „eine der zentralen Fragen bezüglich der dependenziellen Struktur des Verbalkomplexes […] die nach der Stellung des Subjekts“, wobei es vor allem um die Frage geht, welchem Element eines mehrgliedrigen Verbalkomplexes das Subjekt zugeordnet werden soll. Wird das Subjekt dem infiniten Vollverb zugeordnet, wird die Valenzbindung dependenziell für ausschlaggebend gehalten, wird es dem finiten Auxiliarverb des Verbalkomplexes zugeordnet, wird die Kongruenz als „konstitutiv für die Dependenzrelation“ angesehen. Beide Lösungen weisen theoretische Inkonsequenzen auf (Lobin 1995, 119): Wenn das Subjekt als unmittelbares Dependens des Hauptverbs angesehen wird, „ist eine explizite Zusatzinformation vonnöten“, um die Kongruenzbeziehungen beschreiben zu können. Wenn dagegen das Subjekt ein unmittelbares Dependens des Finitums ist, „muß die ursprünglich durch das Hauptverb gesteuerte SubjektRektion an das finite Element vererbt werden“; hinzu kommt, dass das Subjekt auf eine höhere Dependenzstufe als andere Ergänzungen positioniert wird. Die Schwächen der beiden Lösungen können nach Lobin (1995, 123) vermieden werden, „wenn man bereit ist, sich von dem durch keinen sachlichen und formalen Gründen ausgezeichneten Ein-Wort-ein-Knoten-Prinzip […] zu verabschieden“. 4.1.1.4. Wenn man die Ansätze von Tesnie`re, Tarvainen und Lobin vergleicht, stellt man trotz der prinzipiellen Gemeinsamkeit, dass alle den gesamten Verbalkomplex als strukturelles Zentrum und oberstes Regens des Satzes betrachten, auch grundlegende Unterschiede fest. Für Tesnie`re ist der Verbalkomplex ein dissoziierter verbaler Nukleus, der sich aus dem Träger der strukturalen und aus dem Träger der semantischen Funktion zusammensetzt, aber weiterhin nicht intern strukturiert wird. Im Dependenzstemma wird er als eine lineare Kette wiedergegeben, die eventuell mit einem Nukleuskreis umringt wird. Alle Aktanten des infiniten Vollverbs werden als Dependentien des Gesamtnukleus angesehen, so dass die dependenziellen Konnexionen, unabhängig davon, ob der verbale Nukleus einfach oder dissoziiert ist, die Valenz des Vollverbs direkt abspielen. Tarvainen dagegen subsumiert Verbalkomplexe und ein-
VI. Valenz: Schwerpunkte der Forschung
fache finite Verben unter den Prädikatsbegriff. Innerhalb der komplexen Prädikate postuliert er satzgliedinterne Dependenzen zwischen ihren Bestandteilen. Diese prädikatsinternen Dependenzbeziehungen haben allerdings keinen Einfluss auf die prädikatsexternen Dependenzbeziehungen, die sich bei einfachen und komplexen Prädikaten ähnlich konstituieren. Nach Lobin ist der Verbalkomplex ein komplexes Element, das zwar intern strikt dependenziell strukturiert ist, sich aber sonst in seinen Dependenz- und Valenzbeziehungen wie ein atomares Element verhält. Der wichtigste Unterschied zwischen den Ansätzen von Tarvainen und Lobin ist darin zu sehen, dass Tarvainen auf den funktionalen Satzgliedbegriff Prädikat zurückgreift und ihn in die traditionelle dependenzgrammatische Darstellungsweise integriert, während Lobin (1993, 42 f.) seine komplexen Elemente als „konstituenzielle Erweiterungen“ versteht und somit mit einem Phrasenbegriff operiert, der nicht ohne weiteres mit den Prinzipien einer „reinen“ Dependenzgrammatik vereinbart werden kann. 4.1.2. Das Vollverb als strukturelles Zentrum Nach Engel (1994, 105) sind Sätze Verbalphrasen, d. h. Konstrukte, die ein Verb als Nukleus haben. Innerhalb der satzwertigen Verbalphrase befindet sich die „Verbalphrase im engeren Sinn“, der Verbalkomplex, der ausschließlich verbale Elemente enthält und sich aus einem Hauptverb (Vollverb) und zumindest einem Nebenverb zusammensetzt. Für die Nebenverben, die eine geschlossene Klasse bilden, ist nach Engel (1994, 105) charakteristisch, dass sie „auf Grund ihrer Valenz andere Verben regieren“. Nach ihren Valenzeigenschaften bilden die Nebenverben zwei Gruppen: Die Infinitivverben (Modalverben, Modalitätsverben und „sonstige Infinitivverben“) regieren „ein weiteres Verb, das im Infinitiv steht“, während die Partizipverben (Auxiliarverben und „sonstige Partizipverben“), ein weiteres Verb im Partizip regieren (S. 105 ff.). Die dependenzielle Anordnung innerhalb des Verbalkomplexes leitet Engel (1994, 107) von dem Prinzip ab, „daß jeweils dasjenige der beiden Elemente, das die Ausdrucksform des anderen festlegt, als dessen Regens erscheint; das in seiner Form spezifisch festgelegte Element fungiert in dieser Zweierkonstellation als Dependens“. Dies bedeutet, dass nur Nebenverben als Regentien möglich sind, während das Hauptverb immer die un-
52. Das Verb als strukturelles Zentrum des Satzes
725
terste Position im verbalen Dependenzast einnimmt. Wenn der Verbalkomplex mehrere Nebenverben enthält, fungiert als oberstes Regens das Nebenverb, das Träger der Flexionskategorien ist, d. h. das Finitum. Obwohl diese Anordnung rein strukturell begründet ist, hat sie nach Engel (1994, 111) auch gewisse semantische Relevanz, da die Bedeutung des Verbalkomplexes „als eine geregelte Folge von Prädikationen“ vorzustellen ist. Das strukturelle Anordnungsprinzip kann in Form von „einsträngigen Dependenzästen“ graphisch wiedergegeben werden, z. B. (Engel 1994, 109):
gelhafte Wiedergabe der Sonderrolle des Subjekts, das „zwar vom (infiniten) Hauptverb selegiert wird, aber mit dem finiten Verb kongruiert“. Aus dieser Formulierung geht hervor, dass Engel das Subjekt zwar valenziell ausdrücklich „zur Menge der Ergänzungen“ und somit zu den Satelliten des Hauptverbs rechnet, ihm aber zugleich ⫺ vor allem wegen der „flexematischen Kongruenz zwischen Subjekt und finitem Verb“ ⫺ einen Sonderstatus unter den Ergänzungen einräumt (Engel 1994, 151). Dies bedeutet, dass das Subjekt durch die Valenzbindung mit dem untersten Dependens des Verbalkomplexes (mit dem infiniten Hauptverb) und durch die Kongruenz mit seinem obersten Regens (dem finiten Nebenverb) verbunden ist. Da es in einem Dependenzdiagramm nicht möglich ist, sowohl der Valenz- als auch der Kongruenzeigenschaften des Subjekts gleichermaßen Rechnung zu tragen, entscheidet sich Engel für die Wiedergabe der Valenzbeziehung zugunsten der Kongruenzbeziehung. Als wichtigsten Grund dafür, dass es ⫺ zumindest in der Beschreibung der deutschen Satzstruktur ⫺ immer empfehlenswert ist, „das Subjekt dependenziell an das Hauptverb anzubinden“, führt Engel (1992, 72) die Subklassenspezifik des (deutschen) Subjekts an, denn schließlich hängt es von den Valenzeigenschaften des Hauptverbs ab, ob der Satz überhaupt ein Subjekt hat oder nicht. Die Subklassenspezifik bedeutet somit für Engel (1994, 151) einen wichtigeren, tieferliegenden satzkonstituierenden Faktor als „das oberflächennahe Kriterium der (ohnehin redundanten) Person-Numerus-Kongruenz“. Dieser morphologischen Kongruenz stellt Engel (1992, 72) noch die semantische Kongruenz ⫺ gemeint ist eigentlich die semantische Selektion bzw. semantische Valenz ⫺ gegenüber, die „ausnahmslos zwischen Subjekt und Hauptverb“ besteht und die er als ein weiteres Argument für die dependenzielle Abhängigkeit des Subjekts vom Hauptverb anführt, denn es hängt „vom Hauptverb, nicht vom Auxiliar- oder Modalverb ab, ob das Subjekt eines Satzes etwa nur Menschen oder nur Sachverhalte oder aber Beliebiges bezeichnen kann“. Zusammenfassend kann festgehalten werden, dass Engel insofern dem Hauptverb (⫽ Vollverb) den Status des strukturellen Zentrums des Satzes einräumt, als er alle Satzglieder, ob Satzergänzungen oder Satzangaben, als „Satelliten des Hauptverbs“ (Engel 1994, 148) betrachtet und somit dem Hauptverb
(11)
Va f wäre Va p
worden Vp getäuscht
Subklassensymbole: Va ⫽ Auxiliarverb, V ⫽ Hauptverb; Indizien der morphologischen Form: f ⫽ Finitum, p ⫽ Partizip; Rektionsindex ⬍p⬎ ⫽ Partizip.
Da Engel den Satz als eine erweiterte Verbalphrase versteht, in der der Verbalkomplex eingebettet ist, bildet der verbale Dependenzast einen integralen Teil des dependenziellen Satzdiagramms, wie das Stemma des Satzes Der Gast scheint kein Getränk bestellen zu wollen zeigt (Engel 1994, 142): (12)
Vn schein zu Vm woll V <sub akk> bestell
E sub der Gast
E akk kein Getränk
Subklassensymbole: Vn ⫽ Modalitätsverb, Vm ⫽ Modalverb, E ⫽ Ergänzung; Rektions- bzw. Valenzindizes: ⬍i⬎ ⫽ Infinitiv, ⬍sub akk⬎ ⫽ Subjekt, Akkusativergänzung; Indizien der morphologischen Form: sub ⫽ Subjekt, akk ⫽ Akkusativergänzung.
Als zentrales Problem dieser Darstellungsweise sieht Engel selbst (1994, 142) die man-
726 nicht nur valenziell, sondern auch dependenziell die zentrale Rolle in der Satzkonstituierung und Satzorganisation zuschreibt. Nur wenn der Satz ein einfaches Finitum als Nukleus hat, fallen das strukturelle Zentrum, das Zentralregens, und das oberste Regens des Satzes zusammen. 4.1.3. Das Finitum als strukturelles Zentrum 4.1.3.1. Eroms (1985, 308 f.) hält in seinem Konzept der „reinen“ Dependenzgrammatik (für das Deutsche) an Grundannahmen der verbozentrischen Dependenzgrammatik Tesnie`rescher Prägung fest, indem er für die Prävalenz des Verbs plädiert und das Subjekt zu den Ergänzungen des Verbs zählt. In zweierlei Hinsicht weicht er jedoch radikal von Tesnie`re und von den Hauptströmungen der Tesnie`re-Nachfolge ab. Denn zum einen leitet er die Struktur des Satzes nicht vom Verb als dem obersten Knoten der Dependenzhierarchie ab, sondern postuliert an der Satzspitze, oberhalb des Verbs weitere dependenziell relevante Kategorien (s. Kap. 4.3.). Zum anderen will er die syntaktische Sonderstellung des Subjekts unter den Verbergänzungen „auch dependentiell zum Ausdruck bringen“ (S. 313). Das Subjekt gehört nach Eroms (1985, 315) zweifelsohne zu den valenzgebundenen Ergänzungen, denn es ist „wie die anderen Ergänzungen verbabhängig, es ist anaphorisierbar und weist ähnliche Kommutationsformen auf “. Aber es unterscheidet sich von den übrigen Verbergänzungen dadurch, dass es die einzige Ergänzung ist, die nicht zur Subkategorisierung des Verbs beiträgt, und es ist die einzige Ergänzung, die in einer Kongruenzbeziehung zu dem Verb steht. Um die Sonderstellung des Subjekts syntaktisch sichtbar machen zu können, will Eroms (1985, 313) das Subjekt (die E1) immer „unmittelbar vom finiten Verb abhängig sein […] lassen“. Bei einfachen finiten Verben kann der Sonderstellung des Subjekts durch diese Entscheidung dependenziell nicht Rechnung getragen werden, weil alle Verbergänzungen von dem Finitum abhängig sind. Bei periphrastischen Verbformen dagegen werden die Folgen der Entscheidung ersichtlich, da „der finite [verbale Teil] das Subjekt, der infinite alle anderen Ergänzungen bindet“ (Eroms 1991b, 227). Eroms (1985, 311) geht von einer ähnlichen dependenziellen Binnengliederung des Verbalkomplexes aus wie Engel, so dass als unterstes Dependens des Verbalkom-
VI. Valenz: Schwerpunkte der Forschung
plexes das infinite Vollverb fungiert und als oberstes Regens das finite Auxiliarverb. Für die Stellung des Subjekts bedeutet dies, dass das Subjekt bei periphrastischen Verbformen eine höhere Position in der Dependenzstruktur bekommt als die übrigen Verbergänzungen und dass das Subjekt bei einfachen und periphrastischen Verbformen im Hinblick auf die übrigen Verbergänzung dependenziell unterschiedlich gestuft wird, wie die Stemmata (13) und (14) zeigen (vgl. Eroms 314 f.; „S.“ an der Satzspitze steht für Aussagesatz): (13)
S. liest Otto
(14)
Bücher
S. hat
Otto
gelesen ein Buch
abends
Diese Dependenzsstemmata veranschaulichen einige wichtige Prinzipien von Eroms’ „reiner“ Dependenzgrammatik: Die linksperiphere Positionierung des Subjekts und seine Anbindung an das Finitum sind Hinweise auf eine relativ geringe Bindungsfestigkeit des Subjekts an den verbalen Valenzträger, was Eroms (1985, 315) auf die fehlende Subklassenspezifik des Subjekts zurückführt, „denn verbal bedingte Subjektslosigkeit scheint es in der deutschen Gegenwartssprache nicht mehr zu geben“. Anders als Engel betrachtet Eroms die wenigen subjektlosen Verben des Deutschen eher als ein historisches Relikt als ein Argument für die Subklassenspezifik. Somit vertritt Eroms die außerhalb der Dependenzgrammatik weit verbreitete Auffassung, dass das Subjekt nicht lexikalisch, sondern kategorial regiert wird. Im Gegensatz zu den übrigen Verbergänzungen, die für Subklassen von Verben spezifisch sind und deren Kasus im Sinne der lexikalischen Rektion „Verb für Verb spezifiziert werden“ muss, wird der Kasus Nominativ, d. h. die Kasusform des Subjekts, ganz allgemein durch die Kategorie Verb im Sinne der kategorialen Rektion festgelegt, weil „[j]edes Verb einen Nominativ“ nehmen kann (Ei-
52. Das Verb als strukturelles Zentrum des Satzes
727
senberg 1994, 53). Für Wegener (1990, 154) bedeutet die fehlende Subklassenspezifik des Subjekts ein wichtiges Argument gegen die Dependenzgrammatik überhaupt, weil „sich die DG [Dependenzgrammatik] mit der Unterordnung des Subjekts unter das Verb in Widerspruch zu ihrer eigenen Definition von Valenz als ‘Vorkommensrestriktion’“ begibt. Für Eroms (1985, 313) dagegen bedeutet die fehlende Subklassenspezifik lediglich einen Grund dafür, „das Subjekt aus der Menge der übrigen E[rgänzungen] herauszulösen“. Bei periphrastischen Verbformen kann auch dependenziell zum Ausdruck gebracht werden, dass die „eigentliche“ Wertigkeit an das infinite Verb gekoppelt ist (Eroms 1985, 314) und dass das Subjekt nicht zu der „eigentlichen“ Valenzumgebung gehört. Durch den direkten Abhängigkeitskontakt zwischen dem Subjekt und dem Finitum kann die Kongruenzbeziehung zwischen den beiden im Dependenzstemma angedeutet werden. Während die übrigen Verbergänzungen auf Grund ihrer Valenzbindung in einer unidirektionalen Dependenzbeziehung zum Verb stehen, ist die Beziehung zwischen dem Subjekt und dem Verb eine bidirektionale: In der Dependenzbeziehung ist das Subjekt wie die übrigen Ergänzungen dem Verb untergeordnet, in der Kongruenzbeziehung dagegen die Quelle der Bindung; der Dependenz- und der Kongruenzweg laufen in entgegengesetzten Richtungen (Eroms 1985, 314 f.). Wegener (1990, 153) betrachtet auch die Kongruenz als ein Argument gegen die Dependenzgrammatik, denn „[d]as Subjekt steht durch die Kongruenz mit dem Verb auf einer Stufe mit diesem, also neben und nicht unter ihm, denn aufgrund der Kongruenz besteht zwischen beiden nicht Dependenz, sondern Interdependenz“. Eroms dagegen sieht die Kongruenz lediglich als eine Manifestation der Sonderstellung des Subjekts unter den Verbergänzungen. Bei Dependenz und Kongruenz handelt es sich um zwei grundverschiedene, gegenläufige Relationen, die einander nicht auszuschließen brauchen. Das Dependenzverhältnis, das seine Quelle in der Valenz des Verbs hat, ist eine strukturelle Abhängigkeitsrelation im Rahmen einer Syntaxtheorie, die Kongruenz dagegen eine formalflexematische Korrespondenz zwischen morphologischen Kategorien in einer Einzelsprache. Die formale Korrespondenz zwischen Subjekt und Finitum, die sich entweder als Personen- und Numeruskongruenz (bei pronominalen Subjekten) oder nur als Numerus-
kongruenz (bei nominalen Subjekten) verwirklicht (s. Eisenberg 1994, 55, 286), wird durch das Subjekt gesteuert. Das Subjekt fungiert als Kontrolleur, dessen Kongruenzkategorien ⫺ Person und Numerus ⫺ am Finitum als Kongruenten zum Ausdruck gebracht werden (s. Lehmann 1993, 723). Die Kongruenz zwischen Subjekt und Finitum gehört zum Bereich der externen Kongruenz, die „[w]egen des Vorherrschens der Person als Kongruenzkategorie“ auch als Personenkongruenz bezeichnet werden kann und für die ⫺ syntaktisch gesehen ⫺ typisch ist, dass der Kongruent den Kontrolleur regiert (Lehmann 1993, 726). Durch die Auflösung des Verbalkomplexes können „die Einsichten über die Wörter auch innerhalb periphrastischer Strukturen bewahrt werden“ (Eroms 1985, 314), was der Grundidee der Dependenzgrammatik als einer „Wortverkettungsgrammatik“ auch graphisch Rechnung trägt. Nach Eroms (1991b, 226 f.) werden die infiniten Verbformen von den finiten im Sinne der Statusrektion (Bech 1955) regiert. Diese Rektionsbeziehung ist nach Eroms (1991b, 226) zugleich auch eine Valenzbeziehung, denn er schreibt den Auxiliarverben eine reduzierte Valenzfähigkeit zu, die darin besteht, dass sie andere Verbformen (Partizipien und Infinitive) binden können. Die „Regelung der Abhängigkeitsbeziehung des Subjekts“ und die „Verrechnung der Valenzen im Prädikatsverband“ (Eroms 1991b, 226) basieren auf einer klaren Trennung zwischen Valenz- und Dependenzbeziehungen in der dependenziellen Satzanalyse. Für Eroms spielt die verbale Valenz eine durchaus wichtige Rolle in der Satzkonstituierung als „Quelle der Dependenzen im propositionalen Teil des Satzes“ (Eroms 1991b, 225), aber nicht alle Dependenzbeziehungen sind auf die Valenzbeziehungen zurückzuführen und nicht alle Valenzbeziehungen müssen sich direkt als Dependenzbeziehungen realisieren. Dieses Prinzip sei am Beispiel des Satzes Hat die alte Tante das neue Buch erst später gelesen? demonstriert. Als „(Teil)Interpretation“ des Satzes gibt Eroms (1985, 324) das folgende „virtuelle“ Stemma an: S?
(15)
VAO 12
EA 1
EO 2
A temp
728
VI. Valenz: Schwerpunkte der Forschung
In diesem Stemma, das als „kategoriale Umsetzung und damit Teil der semantischen Interpretation des realen Satzes“ (Eroms 1985, 323) zu verstehen ist, spielt die verbale Valenz eine zentrale Rolle: Im Zentrum des propositionalen Teils steht ein zweiwertiges Verb, das ein Agens (⫽ A) als E1 (⫽ 1) und ein Objekt (⫽ O) als E2 (⫽ 2) fordert; darüber hinaus lässt es eine temporale Angabe (⫽ Atemp) zu. Das „reale“ Stemma des Satzes hat die folgende Dependenzstruktur: S?
(16)
hat die Tante alte gelesen
stellung „der oberflächennähere Bezug auf die Wortebene konsequent durchgehalten“ (Eroms 1985, 313). 4.1.3.2. Die von Eroms gewählte Darstellungsweise, das Subjekt immer direkt vom Finitum abhängig sein zu lassen, ist deswegen problematisch, weil das Subjekt in Sätzen mit einfachen und periphrastischen Verbformen auf unterschiedliche Stufen der Dependenzhierarchie gelangt. Um dies zu vermeiden, schlägt Donhauser (1986, 123 f.) vor, die von Eroms (1985) vorgenommene „Binnengliederung des Verbalkomplexes auch auf nicht-periphrastische Verbformen zu übertragen, wobei hier das Flexionsmorphem als Träger der Kongruenzsignale und damit als Regens der Subjektstelle angesehen werden könnte“. Ein durch das Flexionsmorphem erweitertes Dependenzstemma hat die folgende Struktur (Donhauser 1986, 124): (17)
das Buch neue
S.
später erst
In diesem Stemma werden die umfangreicheren Elemente wie der Verbalkomplex hat gelesen und das Subjekt die alte Tante als Wortfür-Wort-Verkettungen durch Dependenzbeziehungen zusammengeschlossen und miteinander in Verbindung gesetzt. Der Verbalkomplex wird ausgestreckt, und das Subjekt wird, losgelöst von seiner Valenzbindung an das infinite Vollverb, dependenziell an das finite Auxiliarverb angebunden. Die Loslösung des Subjekts vom Infinitum führt Eroms (1991b, 227) auf das Wesen des Infinitivs zurück, denn „infinite verbale Teile sind ja gerade dadurch gekennzeichnet, daß das Subjekt nicht auftritt“. Seine Anbindung an das Finitum dagegen liegt darin begründet, dass die Kongruenzkategorien des Subjekts ihre Pendants im Finitum haben. Genau genommen besteht die Kongruenzbeziehung aber nicht zwischen dem Subjekt und dem Finitum schlechthin, sondern zwischen dem Subjekt und dem Verbalmorphem des Finitums, so dass eigentlich „[d]as Personmorphem ⫺ oder besser der personbezügliche Morphemteil“ ⫺ das Subjekt regiert (Eroms 1991b, 227). Trotz der Erwägungen, das Dependenzprinzip auf die morphematische Ebene zu erweitern, wird in der dependenziellen Dar-
-t Hans
schreibseinem Bruder
einen Brief
Daraus kann ein „Basismodell für Sätze mit finiten Verben“ abgeleitet werden (Donhauser 1986, 127): (18)
S FLEX
E1
num per
V
num per E2
En
Der Vorteil dieser Darstellungsweise ist, dass die Sonderstellung des Subjekts nicht nur bei periphrastischen, sondern auch bei einfachen Verbformen sichtbar wird. Der Nachteil ist, wenn man „traditionskonform“ denken will, dass das dependenzgrammatische Grundprinzip der Lexemorientierung verloren geht, wenn das Flexionsmorphem als eine regierende funktionale Kategorie in das Dependenzstemma eingeführt wird.
52. Das Verb als strukturelles Zentrum des Satzes
729
4.1.3.3. Heringer (1996, 28 f.) skizziert seine Dependenzsyntax (für das Deutsche) nach dem Prinzip der „theoretischen Sparsamkeit“ und charakterisiert diesen „rein dependentiellen Ansatz“ als oberflächennah, lexemorientiert und deszendent oder spitzenorientiert; darüber hinaus soll er interpretativ, regelorientiert und permissiv sein. Zur Beschreibung der syntaktischen Regularitäten verwendet er einen Regelformalismus, der aus Zeichen für lexikalische Kategorien, Festlegungen für den Aufbau der syntaktischen Regeln, Lexikonregeln und Regeln für den Aufbau von Lexikon-Einträgen besteht (Heringer 1996, 36⫺ 43, 46⫺50; 1993, 318⫺321). Die dependenzielle Analyse sowie die Dependenzregeln für wohlgeformte Sätze werden über die Struktur der Verbalphrase abgewickelt, denn Sätze sind nach Heringer (1996, 62) grundsätzlich große Verbalphrasen, obwohl sie auch Elemente enthalten, z. B. eine illokutionäre Komponente und einen Satzmodus sowie verschiedene „Rangierteile“, die nicht in der Verbalphrase integriert werden können. Die syntaktische Struktur eines konkreten Satzes kann in Form eines Dependenzstemmas veranschaulicht werden, in dem die stemmatischen Knoten mit Lexemen besetzt werden. Will man aber festlegen, welche Satzstrukturen überhaupt zugelassen sind, müssen die wohlgeformten Strukturen in Form von verallgemeinernden Regeln beschrieben werden, die nicht über Lexeme, sondern über lexikalische Kategorien formuliert werden können (Heringer 1996, 29). Unter lexikalischen Kategorien versteht Heringer (1996, 36) „Mengen von Lexemen oder Morphemen, die sich syntaktisch analog verhalten“ und postuliert zehn bzw. elf lexikalische Grundkategorien und vier Morphemkategorien. Unter den lexikalischen Kategorien gibt es kopfbildende, zentrale Kategorien, z. B. Verb und Nomen, und kaum kopffähige, periphere Kategorien, z. B. Determinierer und Adverb, die auch noch weitere Subkategorien haben können. Die wichtigsten Morphemkategorien sind das Verbal- und das Nominalmorphem. Am Aufbau der Satzstruktur sind die lexikalischen und die Morphemkategorien gleichermaßen beteiligt, denn „Lexeme und Morpheme sind die Elemente, aus denen sich die Satzstrings aufbauen“, wobei Morpheme „strukturell orientiert und eher für die syntaktische Struktur zuständig“ sind, während Lexeme „auf den Außensinn orientiert“ sind (Heringer 1996, 55).
Mit Hilfe von syntaktischen Regeln wird angegeben, wie sich die lexikalischen und die Morphemkategorien zu Sätzen zusammenfügen und in welchen Abhängigkeitsbeziehungen sie zueinander stehen. Diese Regeln legen auch fest, „welche Abhängigkeitsbäume oder Stemmas in der jeweiligen Sprache zugelassen sind“ (Heringer 1996, 38). Erfolgt die Darstellung der Satzstruktur stemmatisch, gilt für die wohlgeformten Stemmata u. a., dass sie „genau eine Wurzel“ als oberste Spitze haben, dass jeder Knoten im Stemma „mit genau einer lexikalischen Kategorie etikettiert“ ist und dass das Stemma verzweigend und zusammenhängend ist (Heringer 1996, 39). Die komplexe Satzstruktur kann sich aus mehreren Teilstemmata zusammensetzen, die nach den Prozeduren Anheften, Aufplätten und Einfügen zu einem komplexen Dependenzstemma zusammengefügt werden (Heringer 1996, 50). Die folgende „Ursprungsregel“ definiert die üblichen Verbalsätze mit einem einfachen finiten Verb (Heringer 1996, 151): (19) #V[N* nom, ⬃, VM fin, N*/P*/Ä*, …, N*/P*/Ä*, …] Zu den Symbolen: # ⫽ Wurzel, * ⫽ Phrase, ~ ⫽ Platzhalter, … ⫽ offen; V ⫽ Verb, N* nom ⫽ Nominalphrase im Nominativ, VM fin ⫽ finites Verbalmorphem, N* ⫽ (unspezifizierte) Nominalphrase, P* ⫽ Präpositionalphrase, Ä* ⫽ Äquationsphrase.
An der Spitze der Regelform steht das Regens, dem seine dependenten Kategorien in eckigen Klammern folgen. Die Regel (19) besagt, dass ein Verbalsatz als oberstes Regens ein Verb hat und dass diesem Verb eine Nominalphrase im Nominativ als Subjekt, ein finites Verbalmorphem als Kennzeichen eines Verbalsatzes und noch weitere alternative Phrasen dependenziell zugeordnet sind. Die Regel gibt auch durch die Platzhalter-Tilde die Position des verbalen Regens in der linearen Satzstruktur wieder. Für den syntaktischen Aufbau eines jeden Verbalsatzes sind zwei Faktoren von besonderer Bedeutung, nämlich die verbale Valenz und die Kongruenz. Die Valenzinformation ist in der Ursprungsregel schon eingebettet, weil die Dependentien des verbalen Regens seine „valenziell gebundenen Töchter“ sind (Heringer 1996, 62); will man die Valenzeigenschaften des verbalen Kopfs explizit zum Ausdruck bringen, kann man dies durch eine entsprechende Zusatzregel tun. Die Kongruenz zwischen dem Subjekt und dem Verbal-
730
VI. Valenz: Schwerpunkte der Forschung
morphem erklärt Heringer (1996, 40) als eine symmetrische Kookkurenz zwischen „Geschwistern“, da er beide als Dependentien des verbalen Kopfes betrachtet. Die Kookkurenz der Personen- und/oder Numeruskategorien im Subjekt und Verbalmorphem kann durch folgende einschränkenden Zusatzregeln expliziert werden (Heringer 1996, 155):
zip II, V-mod einen Infinitiv und V heb einen Infinitiv mit zu. Die Regel (22) besagt, dass in Sätzen mit einem Verbalkomplex das statusregierende Kopfverb die volle Verbalflexion trägt und außerdem das Subjekt dominiert und mit ihm kongruiert. Das dependente Vollverb kann je nach seiner Valenzund Rektionseigenschaften weitere Komplemente und Adverbiale dominieren, aber nicht das Subjekt, denn dieser „Slot ist blockiert“ (Heringer 1996, 70). Das Subjekt wird zwar valenziell durch das Vollverb selegiert, aber seine Aktualisierung wird „durch infinite VM blockiert“ und kann erst „durch das VM fin deblockiert“ werden (Heringer 1996, 152). Darum ist das Subjekt dependenziell nicht von dem infiniten Vollverb, sondern von dem Finitum, genauer gesagt von dem Verbalmorphem abhängig. Heringer setzt seine komplexen Dependenzregeln nicht in Form von umfangreichen Dependenzsstemmata um, sondern skizziert nur selektive Teilstemmata von Sätzen mit Verbalkomplexen. Im Folgenden soll auf der Grundlage diverser Teilstemmata ein komplettes Dependenzstemma der für die Auxiliarkomplexe zuständigen Teilregel (23) zusammengestellt werden, um die Dependenzverhältnisse bei Verbalkomplexen noch graphisch zu illustrieren. Die Teilregel für Auxiliarkomplexe lautet (Heringer 1996, 71).
(20) V[N sub nom[⬃, NM num α], ⬃, VM prs 3 num α, …] (21) V[N pro nom prs α num β, ⬃, VM prs α num β, …] Die Regel (20) besagt, dass „bei Substantiven als Subjekt […] nur der Numerus“ kongruiert, die Regel (21) dagegen, dass pronominale Subjekte sowohl in Numerus als auch in Person kongruieren; diese Zusatzregeln können in die Ursprungsregel der Verbalsätze aufgeplättet werden. Wenn der verbale Kern der Verbalphrase komplex ist, muss die Ursprungsregel erweitert werden, so dass „[d]ie Regelvariante der vollständigeren Struktur großer V* mit Rekursion und dependenten V“ wie folgt aussieht (Heringer 1996, 69): (22) V plx[N* nom, …, N*/P*/Ä*, V[%, …, N*/P*/Ä*, ⬃, VM ptz prf/VM inf], ⬃, VM] Zu den Symbolen: % ⫽ blockiert; V plx ⫽ Verb, das einen Verbalkomplex regiert, VM ptz prf ⫽ Verbalmorphem des Partizips, VM inf ⫽ Verbalmorphem des Infinitivs.
(23) V plx aux[N* nom, …, V[%, …, N*/P*/Ä*, ⬃, VM ptz prf], ⬃, VM]
An der Spitze steht nicht ein valenzfähiges Vollverb, sondern ein Verb, das einen Verbalkomplex regieren kann. Solche Verben, die mit infiniten Vollverben entsprechende Verbalkomplexe bilden können, sind u. a. Auxiliarverben (V aux), Modalverben (V mod) und Hebungsverben (V heb) (Heringer 1996, 57, 69 f.). Die Dependenzbeziehung zwischen dem dominierenden Kopfverb und dem infiniten Vollverb basiert nicht auf der Valenz, denn V plx verfügen nicht über Valenzeigenschaften, sondern auf der Rektion, denn das dominierende V plx statusregiert das VM des dependenten Verbs: V aux verlangt ein Parti-
(24)
Das entsprechende Dependenzstemma hat in Anlehnung an Heringer die folgende Form (s. (24)). Aus diesem Stemma wird ersichtlich, dass das Auxiliarverb mindestens drei Dependentien hat: das Subjekt, das finite Verbalmorphem und das valenzfähige Vollverb. Ersichtlich wird auch, dass die valenziell vom Vollverb prädeterminierte Subjektstelle (N* nom) beim Vollverb blockiert ist (⫽ %) und an das Auxiliarverb angehängt wird. Problematisch in Heringers Darstellungsweise ist, dass er das Subjekt auf die gleiche Dependenzstufe mit dem Verbalmorphem
V_plx_aux N*_nom
...
VM %
...
V N*/P*/Ä*
VM_ptz_prf
52. Das Verb als strukturelles Zentrum des Satzes
731
setzt, obwohl das Subjekt eigentlich vom Verbalmorphem abhängig ist, weil das Vorhandensein des finiten Verbalmorphems die Subjektrealisierung erst ermöglicht.
ein unmittelbares Dependens des auxiliaren Verblexems. Mit Vorbehalt könnte man in den reinen dependenzsyntaktischen Ansätzen von Eroms und Heringer dem Finitum den Status des strukturellen Zentrum des Satzes zuschreiben, denn das Finitum übernimmt nicht nur die Position des obersten Regens im Verbalkomplex ⫺ die bei Heringer zugleich die Satzspitze darstellt ⫺, sondern es ist auch im Wesentlichen für die Organisation der gesamten Dependenzstruktur des Satzes zuständig.
4.1.3.4. Wenn man die „rein“ dependenziellen Ansätze von Eroms und Heringer im Hinblick auf die Beschreibung der Verbalkomplexe miteinander vergleicht, kann man feststellen, dass sie trotz teilweise ganz unterschiedlicher Grundprämissen viele Gemeinsamkeiten haben. Gemeinsam für beide ist, dass sie traditonskonform von der Prävalenz des Verbs in der Satzkonstituierung ausgehen und der verbalen Valenz eine durchaus wichtige Rolle als „Lieferantin satzkonstituierender Konstellationen von Regimen und Dependentien“ (Askedal 1996, 80) einräumen. Gemeinsam ist aber auch, dass sie die Prävalenz des Verbs als strukturelles Zentrum des Satzes dadurch relativieren, dass sie den Verbalkomplex auflösen und seinen beiden Extrempunkten, dem finiten Auxiliarverb an der Spitze und dem Vollverb Dependentien zuschreiben. Auch die satzkonstituierende Rolle von Valenz wird relativiert, indem kein zwangläufiges Zusammenfallen von Valenzund Dependenzbeziehungen angenommen wird. Sowohl Eroms als auch Heringer gehen davon aus, dass die Valenzbindung zwischen dem Subjekt und dem infiniten Vollverb nicht für die dependenziell organisierte Satzstruktur ausschlaggebend ist, sondern die Kongruenzbeziehung zwischen dem Subjekt und dem Finitum. Beide begründen diese Entscheidung ⫺ allerdings mit anderen Akzentuierungen ⫺ damit, dass der Infinitiv eine Subjektrealisierung grundsätzlich blockiert und dass das Finitum sie grundsätzlich ermöglicht. Beide bemerken auch, dass das Subjekt eigentlich nicht vom Finitum, sondern von dem finiten Verbalmorphem als Träger der Kongruenzkategorien abhängig ist, geben das aber in ihren Dependenzstemmata nicht konsequent wieder. Weil Eroms in der stemmatischen Darstellung morphologische Kategorien nicht von den lexikalischen trennt, ist das Subjekt in seinen Dependenzstemmata von dem Finitum als Ganzem abhängig. Bei Heringer dagegen bilden Morphemkategorien einen integralen Teil seines Beschreibungsinventars, so dass die Beziehung zwischen dem Subjekt und dem Verbalmorphem theoretisch ausgedrückt werden könnte, aber in seinen Dependenzstemmata ist das Subjekt
4.2. Freie Angaben In der verbozentrischen Dependenzgrammatik, die die Grundstruktur des Satze als durch die verbale Valenz begründet betrachtet, ist die strukturelle Stellung von freien Angaben insofern problematisch, als ihre Zugehörigkeit zur syntaktischen Satzstruktur nicht auf die Valenzbindung zurückgeführt werden kann. Während die Aktanten zusammen mit dem verbalen Valenzträger das Grundgerüst des Satzes bilden, sind freie Angaben (im Rahmen semantischer und kommunikativpragmatischer Verträglichkeit) frei hinzufügbare Erweiterungen, die auch als Prädikationen über den Restsatz angesehen werden können (z. B. Tarvainen 1981, 89). Ohne auf die kontrovers diskutierte Abgrenzung zwischen valenzgebundenen Aktanten und freien Angaben einzugehen ⫺ einen Überblick über die Forschungslage bis Anfang der 90er Jahre bietet z. B. Helbig (1992, 72⫺98) ⫺, wird im Folgenden die Beziehung der freien Angaben zum verbalen Valenzträger sowie ihre Stellung in der dependenziell organisierten Satzstruktur thematisiert. In der Dependenzgrammatik Tesnie`rescher Prägung werden freie Angaben, was ihren dependenziellen Status betrifft, in der Regel mit den Aktanten gleichgestellt, so dass sie als unmittelbare Dependentien des verbalen Zentralregens erscheinen. Es gibt aber auch dependenzgrammatische Ansätze, die die freien Angaben ⫺ oder zumindest einen Teil von ihnen ⫺ entweder dem Verbalkomplex einverleiben oder dem verbalen Zentralregens überordnen. 4.2.1. Freie Angaben als Dependentien des verbalen Zentralregens Tesnie`re (1980, 115 f.) macht einen prinzipiellen Unterschied zwischen Aktanten und freien Angaben, indem er feststellt, dass Aktanten in semantischer Hinsicht mit dem Verb eine Einheit bilden, während Angaben grundsätzlich bzw. „ihrem Wesen nach“ (s.
732
VI. Valenz: Schwerpunkte der Forschung
Engel 1996, 58) fakultativ sind. Trotz dieses grundlegenden Unterschieds betrachtet er sowohl Aktanten als auch Angaben als unmittelbare Dependentien des verbalen Zentralregens (Tesnie`re 1980, 94) und bringt ihre unterschiedliche Beziehung zum verbalen Valenzträger nur dadurch zum Ausdruck, dass ⫺ „soweit irgend möglich“ ⫺ die Angaben im Dependenzstemma rechtsperipher eingetragen werden, z. B. (Tesnie`re 1980, 93): (25) Alfred
steckt Nase
immer
überall hinein
seine
Obwohl diese Entscheidung auf französische Daten zurückgeht, leitet Tesnie`re (1980, 114) daraus ein allgemeines Prinzip ab und setzt in seinen Dependenzstemmata Angaben grundsätzlich rechts von den Aktanten, „unabhängig davon, wo sie in der linearen Ordnung wirklich stehen“. Auch Engel macht keinen Unterschied in der dependenziellen Stellung von „Satzergänzungen“ und „Satzangaben“, sondern hält beide für unmittelbare Dependentien des verbalen Zentralregens, als „Satelliten des Hauptverbs“ (Engel 1994, 148). Da sich aber das Dependenzverhältnis der valenzgebundenen Ergänzungen und der freien Angaben zum verbalen Valenzträger sehr unterschiedlich konstituiert, werden sie im Dependenzstemma durch unterschiedliche Dependenzstriche gekennzeichnet: Ergänzungen durch eine zusammenhängende Linie (Engel 1994, 44) oder durch einen Doppelstrich (Engel 1988, 26), Angaben dagegen durch eine gestrichelte Linie (Engel 1994, 44; 1988, 26) oder auch mit einer Durchkreuzug der Linie (Engel 1982, 44 f.), die darauf hinweisen sollen, dass das Dependens „einen größeren Regensbereich als den aktuell angegebenen“ hat (Engel 1994, 44). Obwohl Engel (1994, 174⫺ 178; 1988, 219⫺239) die Angaben je nach ihrem Skopusbereich in vier Großklassen einordnet und zwischen verbbezogenen (modifizierenden), satzbezogenen (situierenden), negativen und äußerungsbezogenen (existimatorischen) Angaben unterscheidet, postuliert er in struktureller Hinsicht keinen Unterschied zwischen den verschiedenen Klassen, sondern betrachtet alle Angaben als dependenziell gleichrangig. Eine ähnliche Entscheidung trifft auch Heringer (1996), der konstatiert, dass alle Ad-
verbiale „in der flachen Satzstruktur direkt unter der V-Spitze“ hängen, obwohl sie als „externe Argumente […] nicht in den V-Frame eingebunden“ (S. 168) sind und „im Gegensatz zu Komplementen per Definition nicht vom V selegiert“ werden (S. 166). Somit wird der Unterschied zwischen den valenzgebundenen Komplementen, den internen Argumenten, und den nicht valenzgebundenen Adverbialen, den externen Argumenten, stemmatisch nicht festgehalten. Diese Entscheidung sieht Heringer (1996, 169) zum einen darin begründet, dass die Grenze zwischen Komplementen und Adverbialen fließend ist, und zum anderen darin, dass „eine hierarchische Struktur nicht zu rechtfertigen ist“ und dass eine Hierarchisierung „unter Umständen auch dazu führen [würde], manche Adverbiale über der V-Spitze anzusiedeln“. So ordnet Heringer (1996, 152, 178) auch solche Modalisatoren wie Satzadverbiale und Modalpartikeln dependenziell dem verbalen Valenzträger zu, obwohl sie eigentlich zur modalen Komponente des Satzes zu rechnen sind. Dies ist nur deshalb möglich, weil Heringer (1996, 152) die modale Komponente zwar als „eine knotenübergreifende Abstraktion“ versteht, aber nicht als ein „Superknoten über V“, sondern als „eine interne Modifikation“ einstuft. 4.2.2. Freie Angaben als Teil des verbalen Zentralregens Nach Tarvainen (1981, 87) gehören freie Angaben als freie Satzglieder generell zu den unmittelbaren Dependentien des Prädikats. Um den unterschiedlichen Status zwischen den freien Satzgliedern und den valenzgebundenen Satzgliedern kenntlich zu machen, markiert er den Dependenzstrich der Angaben mit Durchkreuzung (z. B. Tarvainen 1981, 89). Für einige Subklassen von freien Angaben, nämlich für die sog. Modalwörter und Satznegation, die „traditionell als normale Angaben, als freie Dependentien des Verbs“ betrachtet werden, schlägt Tarvainen (1984, 421 und 1987, 15 f.) jedoch einen ganz anderen strukturellen Status vor. Weil das Modalwort oft „eine rein grammatische Funktion hat (Modus) und auch mit einem Modusmorphem (z. B. ein Modalverb) umschrieben werden kann“, z. B. Er ist wahrscheinlich in München ⫽ Er dürfte in München sein, will Tarvainen (1981, 89) ihm den Status eines selbständigen Satzgliedes absprechen und es als Teil
52. Das Verb als strukturelles Zentrum des Satzes
733
des Prädikats sehen. Dies gilt auch für die Satznegation, die nach Tarvainen (1984, 421) „dem Verb einen bestimmten grammatisch modalen Inhalt“ gibt. Die Einverleibung der Modalwörter und der Satznegation im Prädikat geschieht durch satzgliedinterne Dependenzbeziehungen (Tarvainen 1987, 15):
Verwirklichung ihrer satzorganisierenden Kraft oft mehr als eine Ergänzung erfordern, benötigen die Adverbien immer nur eine einzige Ergänzung, um ihre semantische Funktion zu erfüllen; wenn diese Ergänzung ein Verb ist, spricht man von Adverbien im engeren Sinne, wenn sie aus dem Verb mit seinen Ergänzungen besteht, handelt es sich um Modalwörter (Welke 1988, 75). Welke (1988, 112) macht darauf aufmerksam, dass der strukturelle Unterschied zwischen Adverbien im engeren Sinne, die als „Prädikate (Funktoren) zu Prädikaten“ fungieren (S. 43 f.), und Modalwörtern, die „sich als übergeordnete Prädikate auf zugrunde liegende Sachverhaltsbeschreibungen“ beziehen (S. 44), in einem Dependenzstemma nicht wiedergegeben werden kann, sondern lediglich im Konstituentenbaum. So hat z. B. der Abhängigkeitsbaum der Sätze Emil kommt wahrscheinlich und Emil kommt schnell die gleiche Gestalt, obwohl sich wahrscheinlich als Modalwort auf die gesamte Proposition bezieht, schnell dagegen nur auf das Verb (Welke 1988, 112):
(26)
geht wahrscheinlich Kuno
nicht ins Theater
Die Argumentation von Tarvainen, was den Status der Modalwörter betrifft, basiert vornehmlich auf dem semantischen Kriterium, dass die Modalwörter oft die gleiche Bedeutung haben wie Modalverben; beide gehören somit als satzgliedinterne Teile zum Prädikat, Modalwörter allerdings als grammatische Dependentien, Modalverben als grammatische Regentien (Tarvainen 1984, 421). Für den prädikatsinternen Status der Satznegation spricht nach Tarvainen (1987, 13) vor allem, dass sie nicht „als eine mit einer ‘normalen’ Angabe […] vergleichbare freie Angabe angesehen werden kann“. Bei der satzgliedinternen Lokalisierung der Negation dient Tarvainen (1987, 13) als Ausgangspunkt seiner Argumentation ausdrücklich das Finnische, das die Negation durch ein Auxiliarverb realisiert, aber er kann sich auch auf Tesnie`re (1980, 156) stützen, der die konnexionelle Negation als Teil eines dissoziierten Nukleus betrachtet. 4.2.3. Freie Angaben oberhalb des verbalen Zentralregens Nach Welke (1988, 74) sind „die freien Angaben aus der Valenzbeschreibung gewissermaßen ausgeschlossen“, weil sie vom verbalen Valenzträger nicht benötigt werden, sondern frei hinzufügbar und somit außerhalb des Valenzbereichs sind. Man kann aber den freien Angaben bzw. Adverbien selbst Valenzeigenschaften zusprechen, wenn man die Valenz als Ergänzungsbedürftigkeit versteht, denn Adverbien brauchen „zur Erfüllung ihrer semantischen Funktion“ immer etwas, worauf sie sich beziehen können und „was sie hinsichtlich temporaler, kausaler und weiterer Beziehungen charakterisieren können“ (Welke 1988, 75). Im Unterschied zu Verben, die zur
(27)
wahrscheinlich kommt Emil
(28)
schnell kommt Emil
4.3. Dependenz an der Satzspitze Unzulänglichkeiten der bisherigen dependenzgrammatischen Modelle, solche zentralen syntaktischen Phänomene zu erfassen, die außerhalb des verbalen Valenzbereichs liegen, z. B. Intonation und Linearisierung, sind nach Eroms ein zwingender Grund, die Dependenzgrammatik nicht nur weiter zu entwickeln, sondern auch zu erweitern. Er hebt ausdrücklich hervor, dass eine reine Dependenzgrammatik „nicht auf eine bloße Verbvalenzgrammatik verengt werden darf“ (Eroms 1985, 307), sondern sie muss zu einer umfangreichen Syntaxtheorie entwickelt werden, die „über den Valenzansatz hinaus syntaktische Phänomene beschreibend erfassen und erklären kann“ (Eroms 1991a, 44). Während Heringer (1996, 152) einen „Superknoten über V“ als Lokalisierung des Satzmodus
734
VI. Valenz: Schwerpunkte der Forschung
ausdrücklich ablehnt, betrachtet Eroms in Anlehnung an Kunze (1975) einen solchen Knoten als notwendig. Seine Devise heißt: „Nicht das Verb, sondern ‘S’ steht an der Satzspitze“ (Eroms 1985, 309). Durch die Erweiterung der Dependenzstemmata um den S-Knoten als Satz-Ausgangszeichen können Intonations- und Serialisierungsunterschiede zwischen den Satzarten dependenziell signalisiert werden (Eroms 1991a, 47). S ist ein abstraktes Element, ein „Wortklassenäquivalent“, das sich entsprechend den kommunikativen Minimaleinheiten als ‘.’ (⫽ Aussage), ‘?’ (⫽ Entscheidungsfrage), ‘w?’ (⫽ w-Frage), ‘!’ (⫽ Imperativsatz) oder ‘-!’ (⫽ Wunschsatz) realisiert (Eroms 1995, 78). Der S-Knoten reicht aber nicht aus, um z. B. Modalwörter und Konjunktionen dependenziell adäquat in die Satzstruktur einbetten zu können, weshalb Eroms (1985, 310) noch zwei weitere Stemmaplätze an der Satzspitze postuliert, einen Platz über S und einen Platz unter S/über V. Dadurch entsteht ein Valenzschichtungssystem, das im Satz mit einfachem finiten Verb die folgende Struktur hat (Eroms 1991b, 226):
rungsbezogene Bedingungen“, und nur diese Angaben sind „über dem propositionsstiftenden Verb anzusiedeln“ (Eroms 1991b, 221). Das Valenzschichtungsmodell von Eroms ist oberflächennah, denn „[d]ie Satzartenunterschiede werden an der Quelle, nicht interpretativ oder durch Transformationen erfaßt“ (Eroms 1995, 80). Zum Beispiel der Unterschied zwischen dem Aussagesatz Wahrscheinlich ist er gestern gekommen und dem Fragesatz Ist er tatsächlich gekommen kann einfach „mit dem dependentiellen Ursymbol“ geregelt werden (Eroms 1991a, 45; 1995, 80 f.; die nicht-obligatorischen Konne xionen werden durch ‘ ’ gekennzeichnet): (30) Wahrscheinlich
ist er
gekommen
gestern
(31)
?
(29) Kj S
tatsächlich
ist
V
Mw
er mA
gekommen
nE
Der Kj-Platz ist die Bezugstelle für Konjunktionen. Sie verankern den Satz im Text, sind also textbezogen, und stehen „außerhalb der Intonationskontur“, weshalb ihr Platz über S ist (Eroms 1991b, 225). Der Mw-Platz unter S/über V ist die Bezugstelle für Modalwörter u. ä., die zwar satzintegriert sind, aber gleichzeitig auch als „übergeordnete Satzphänomene“ anzusehen sind (Eroms 1991b, 222, 225). Durch das Verb werden schließlich im propositionalen Teil des Satzes die Wertigkeit von Ergänzungen (⫽ nE) und die Zulässigkeit von Angaben (⫽ mA) geregelt. Nach Eroms (1991b, 221) wäre es „asyntaktisch gedacht“, wenn man alle Angaben als dem Verb übergeordnet, als eine Art Hyperprädikate über der Proposition ansehen würde, wie es z. B. Welke (1988, 74⫺85) tut. Denn nur ein Teil der Angaben bezieht sich auf den ganzen Satz und bezeichnet „nicht sachverhaltsbezogene Wahrheitsbedingungen, sondern äuße-
Ein weiterer Vorteil des „nach oben“ erweiterten Dependenzmodells ist, dass durch den neuen Stemmaplatz unter S/über V „satzbezogene Wörter und Syntagmen, vor allem die Modalwörter, adäquat in ihren Abhängigkeitsverhältnissen“ dargestellt werden können (Eroms 1995, 80). Dies betrifft auch die Satznegation nicht, die nach Eroms (1991a, 49) ein Operator zum Verb ist und deren Platz deshalb über dem Verb ist, so z. B. im Satz Er hat nicht viele Bücher gelesen, wenn nicht die gesamte Behauptung negieren soll (Eroms 1991a, 52): Schließlich kann durch die Position über S veranschaulicht werden, dass die Konjunktionen eine den Satz dominierende Funktion haben und sich außerhalb der durch S realisierten Satzmodi bzw. „Kommunikativer Minimaleinheiten“ befinden, wie das folgende Dependenzstemma des Aussagesatzes Aber das habe ich ganz anders gemeint zeigt (Eroms 1995, 81):
52. Das Verb als strukturelles Zentrum des Satzes S.
(32)
nicht hat er
gelesen
Bücher viele
(33) Aber . habe
ich
gemeint
das
anders
ganz
Zusammenfassend kann festgehalten werden, „daß die genauere Beachtung der Valenzschichtung im Satz seine hierarchische Struktur deutlicher machen kann“ (Eroms 1991b, 229) und dass die Erweiterung der Dependenzgrammatik um die Positionen oberhalb der verbalen Valenzdomäne die Erklärungskraft der Dependenzgrammatik in sowohl semantischer als auch pragmatischer Hinsicht wesentlich erhöht. Die Einführung von S als dependenziellem Ursymbol bedeutet aber, dass das Verb nicht als oberstes Regens und strukturelles Zentrum des Satzes fungiert, sondern lediglich für die Organisation der ⫺ um Angaben erweiterten ⫺ Proposition verantwortlich ist.
5.
Zusammenfassung und Ausblick
Das grundlegende Axiom der verbozentrischen Dependenzgrammatik, das Verb als strukturelles Zentrum des Satzes anzusehen, sowie ihr Leitgedanke, das Valenzkonzept in das syntaktische Dependenzmodell einzubetten, lassen sich in Sätzen mit einfachen finiten Verben auch relativ einfach nachvollziehen. Der verbale Valenzträger fungiert als Zentralregens des Satzes und legt kraft seiner
735 Valenz die Grundstruktur des Satzes fest; in der graphischen Strukturdarstellung bildet das einfache finite Verb das oberste Regens des Dependenzstemmas, von dem alle anderen Elemente des Satzes direkt oder indirekt abhängig sind. Dagegen ist in Sätzen, die einen Verbalkomplex enthalten, auch die Frage des verbalen Strukturzentrums wesentlich komplizierter, weil sich mehrere Kandidaten als Zentralregens anbieten. Räumt man dem Verbalkomplex als Ganzem den Status des Zentralregens ein, gilt als strukturelles Zentrum des Satzes nicht die lexikalische Kategorie Verb, sondern entweder eine strukturelle Kategorie (Nukleus) oder eine funktionale Kategorie (Prädikat), die sich als einfaches finites Verb oder als Verbalkomplex mit einem Finitum realisieren lässt; die Strukturdarstellungen von Sätzen mit einfachen finiten Verben und mit Verbalkomplexen sind folglich identisch. Bei einer lexemorientierten Darstellung der Satzstruktur wird der Verbalkomplex in seine Bestandteile aufgelöst, wobei sich die Frage stellt, welchem der verbalen Elemente der Status des verbalen Zentralregens zuzusprechen ist. Betrachtet man wie Engel (1994) das infinite Vollverb als unmittelbares Regens der Satzglieder, d. h. aller Elemente, die sich außerhalb des Verbalkomplexes befinden, ist es naheliegend, das Vollverb als verbalen Valenzträger zum strukturellen Zentrum des Satzes zu deklarieren. Dies würde allerdings bedeuten, dass man generell zwischen dem Zentralregens und dem obersten Regens im Satz unterscheiden müsste, denn in der dependenziellen Binnengliederung des Verbalkomplexes nimmt das Finitum den Platz des obersten Regens ein und fungiert somit auch als oberstes Regens des ganzen Satzes. Wenn man aber das Subjekt von den übrigen Verbergänzungen trennt und es direkt an das Finitum bindet, wie Eroms (1985 u. a.) und Heringer (1996) in ihren rein dependenziellen Ansätzen vorschlagen, kommt dem Finitum eine zentrale Rolle in der Satzorganisation zu. Es regiert auf Grund der Kongruenzbeziehung das Subjekt, ohne dass eine Valenzbeziehung zwischen den beiden besteht, und es statusregiert das infinite Vollverb, das seinerseits die restliche Satzstruktur organisiert. Der Status des Verbs als oberster Satzspitze ist vor allem im Zusammenhang mit der strukturellen Stellung der freien Angaben problematisiert worden, aber die dargebote-
736
VI. Valenz: Schwerpunkte der Forschung
nen Lösungen haben keine theoretische Tragweite für das grammatische Gesamtkonzept gehabt. In der „reinen“ Dependenzgrammatik von Eroms (1985 u. a.) dagegen wird eine systematische Erweiterung der Dependenzgrammatik um weitere Positionen oberhalb des Verbalknotens ausgearbeitet, die auch einen wesentlichen Beitrag zur Organisation des Gesamtsatzes leisten und den Status des Verbs als strukturelles Zentrums des Satzes zumindest in Frage stellen. Es bleibt abzuwarten, ob sich die Dependenzgrammatik endgültig vom Axiom der Verbzentriertheit, das seit Tesnie`re als ihr markantestes Kennzeichen gilt, verabschieden soll, um zu einem umfassenden, theoretisch etablierten Grammatikkonzept zu finden.
6.
Literatur in Auswahl
´ gel, Vilmos (1993): Ist die Dependenzgrammatik A wirklich am Ende? Valenzrealisierungsebenen, Kongruenz, Subjekt und die Grenzen des syntaktischen Valenzmodells. In: Zeitschrift für Germanistische Linguistik 21, 20⫺70. ´ gel, Vilmos (1995): Valenzrealisierung, GrammaA tik und Valenz. In: Zeitschrift für Germanistische Linguistik 23, 2⫺32. Albrecht, Jörn (1988): Europäischer Strukturalismus (⫽ Uni-Taschenbücher 1487). Tübingen. Askedal, John Ole (1996): Valenz- und Dependenzdiagramme bei Charles S. Peirce und Lucien Tesnie`re. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996): Lucien Tesnie`re ⫺ syntaxe structurale et ope´rations mentales. Akten des deutsch-französischen Kolloquiums anläßlich der 100. Wiederkehr seines Geburtstages, Straßbourg 1993 (⫽ Linguistische Arbeiten 348). Tübingen, 75⫺90. Bech, Gunnar (1955): Studien über das deutsche verbum infinitum 1 (⫽ Det Kongelige Danske Videnskabernes Selskab, Historisk-filologiske Meddelelser 35:2). Köbenhavn. Donhauser, Karin (1986): Der Imperativ im Deutschen. Studien zur Syntax und Semantik des deutschen Modussystems (⫽ Bayreuther Beiträge zur Sprachwissenschaft 6). Hamburg. Eisenberg, Peter (1994): Grundriß der deutschen Grammatik. Stuttgart/Weimar (3. Aufl.). Engel, Ulrich (1982): Syntax der deutschen Gegenwartssprache (⫽ Grundlagen der Germanistik 22). Berlin (2. Aufl.). Engel, Ulrich (1988): Deutsche Grammatik. Heidelberg. Engel, Ulrich (1992): Der Satz und seine Bausteine. ´ gel, Vilmos/Hessky, Regina (Hgg.) (1992): OfIn: A fene Fragen ⫺ offene Antworten in der Sprachgermanistik (⫽ Reihe Germanistische Linguistik 128). Tübingen, 53⫺76.
Engel, Ulrich (1994): Syntax der deutschen Gegenwartssprache (⫽ Grundlagen der Germanistik 22). Berlin (3. Aufl.). Engel, Ulrich (1996): Tesnie`re mißverstanden. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996): Lucien Tesnie`re ⫺ syntaxe structurale et ope´rations mentales. Akten des deutsch-französischen Kolloquiums anläßlich der 100. Wiederkehr seines Geburtstages, Straßbourg 1993 (⫽ Linguistische Arbeiten 348). Tübingen, 53⫺61. Engel, Ulrich/Schumacher, Helmut (1978): Kleines Valenzlexikon deutscher Verben (⫽ Forschungsberichte des Instituts für deutsche Sprache 31). Tübingen (2. Aufl.). Engelen, Bernhard (1986): Einführung in die Syntax der deutschen Sprache. Band 2. Satzglieder und Satzbaupläne. Balltmannsweiler. Eroms, Hans-Werner (1985): Eine reine Dependenzgrammatik für das Deutsche. In: Deutsche Sprache 13, 306⫺326. Eroms, Hans-Werner (1991a): Die Dependenzsyntax in der kontrastiven Satzanalyse. In: Iwasaki, Eijiro¯ (Hg.) (1991): Akten des VIII. internationalen Germanisten-Kongresses. Tokyo 1990. Begegnung mit dem ‘Fremden’. Grenzen ⫺ Traditionen ⫺ Vergleiche. Band 4. München, 43⫺53. Eroms, Hans-Werner (1991b): Valenzbindung und Valenzschichtung im Satz. In: Feldbusch, Elisabeth/Pogarell, Reiner/Weiß, Cornelia (Hgg.) (1991): Neue Fragen der Linguistik. Akten des 25. Linguistischen Kolloquiums, Paderborn 1990. Band 1. Bestand und Entwicklung (⫽ Linguistische Arbeiten 270). Tübingen, 219⫺231. Eroms, Hans-Werner (1995): Dependenz an der Satzspitze. In: Eichinger, Ludwig M./Eroms, HansWerner (Hgg.) (1995): Valenz und Dependenz (⫽ Beiträge zur germanistischen Sprachwissenschaft 10). Hamburg, 71⫺84. Fourquet, Jean (1970): Prolegomena zu einer deutschen Grammatik (⫽ Sprache der Gegenwart 7). Düsseldorf. Helbig, Gerhard (1992): Probleme der Valenz- und Kasustheorie (⫽ Konzepte der Sprach- und Literaturwissenschaft 51). Tübingen. Helbig, Gerhard/Buscha, Joachim (1991): Deutsche Grammatik. Ein Handbuch für den Ausländerunterricht. Berlin/München/Leipzig/Wien/Zürich/ New York (14. Aufl.). Helbig, Gerhard/Schenkel, Wolfgang (1973): Wörterbuch zur Valenz und Distribution deutscher Verben. Leipzig (2., überarb. und erw. Aufl.). Heringer, Hans Jürgen (1988): Lesen lehren lernen. Eine rezeptive Grammatik des Deutschen. Tübingen. Heringer, Hans Jürgen (1993): Formalized Models. In: Jacobs, Joachim/von Stechow, Arnim/Sternefeld, Wolfgang/Vennemann, Theo (Hgg.) (1993): Syntax. Ein internationales Handbuch zeitgenössischer Forschung. 1. Halbband (⫽ Handbücher zur
52. Das Verb als strukturelles Zentrum des Satzes
737
Sprach- und Kommunikationswissenschaft 9.1). Berlin/New York, 316⫺328.
Sadzin´ski, Roman (1989): Statische und dynamische Valenz. Probleme einer kontrastiven Valenzgrammatik Deutsch-Polnisch (⫽ Beiträge zur Sprachwissenschaft 1). Hamburg. Storrer, Angelika (1992): Verbvalenz. Theoretische und methodische Grundlagen ihrer Beschreibung in Grammatikographie und Lexikographie (⫽ Reihe Germanistische Linguistik 126). Tübingen. Tarvainen, Kalevi (1981): Einführung in die Dependenzgrammatik (⫽ Reihe Germanistische Linguistik 35). Tübingen. Tarvainen, Kalevi (1984): Zur satzgliedinternen formalen Dependenz. In: Zeitschrift für Germanistik 5, 415⫺427. Tarvainen, Kalevi (1987): Zur dependentiellen Beschreibung der Negation. In: Deutsch als Fremdsprache 24,12⫺20. Tesnie`re, Lucien (1980): Grundzüge der strukturalen Syntax. Herausgegeben und übersetzt von Ulrich Engel. Stuttgart. Vater, Heinz (1996): VP-Struktur und Verbvalenz im Deutschen. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996): Lucien Tesnie`re ⫺ syntaxe structurale et ope´rations mentales. Akten des deutsch-französischen Kolloquiums anläßlich der 100. Wiederkehr seines Geburtstages, Straßbourg 1993 (⫽ Linguistische Arbeiten 348). Tübingen, 169⫺181. Wegener, Heide (1990): Komplemente in der DG und der GB-Theorie. In: Zeitschrift für germanistische Linguistik 18, 150⫺184. Welke, Klaus M. (1988): Einführung in die Valenzund Kasustheorie. Leipzig. Welke, Klaus M. (1995): Dependenz, Valenz und Konstituenz. In: Eichinger, Ludwig M./Eroms, Hans-Werner (Hgg.) (1995): Valenz und Dependenz (⫽ Beiträge zur germanistischen Sprachwissenschaft 10). Hamburg, 163⫺175. Zöfgen, Ekkehard (1989): Das Konstruktionswörterbuch. In: Hausmann, Frans Josef/Reichmann, Oskar/Wiegand, Herbert Erns/Zgusta, Ladislav (Hgg.) (1989): Wörterbücher. Ein internationales Handbuch zur Lexikographie. 1. Teilband (⫽ Handbücher zur Sprach- und Kommunikationswissenschaft 5.1). Berlin/New York, 1000⫺1010.
Heringer, Hans Jürgen (1996): Deutsche Syntax dependentiell. Tübingen. Homberger, Dietrich (1993): Das Prädikat im Deutschen. Linguistische Terminologie in Sprachwissenschaft und Sprachdidaktik. Opladen. Hyvärinen, Irma (1989): Zu finnischen und deutschen verbabhängigen Infinitiven. Eine valenztheoretische kontrastive Analyse. Teil 1. Theoretische Fundierung und Abgrenzung des Prädikats (⫽ Werkstattreihe Deutsch als Fremdsprache 25). Frankfurt am Main/Bern/New York/Paris. Jacobs, Joachim (1994): Kontra Valenz (⫽ Fokus 12). Trier. Kunze, Jürgen (1975): Abhängigkeitsgrammatik (⫽ Studia grammatica XII). Berlin. La´szlo´, Sarolta (1988): Mikroebene. In: Mrazovic´, Pavica/Teubert, Wolfgang (Hgg.) (1988): Valenzen im Kontrast. Ulrich Engel zum 60. Geburtstag. Heidelberg, 218⫺233. Lehmann, Christian (1993): Kongruenz. In: Jacobs, Joachim/von Stechow, Arnim/Sternefeld, Wolfgang/Vennemann, Theo (Hgg.) (1993): Syntax. Ein internationales Handbuch zeitgenössischer Forschung. 1. Halbband (⫽ Handbücher zur Sprach- und Kommunikationswissenschaft 9.1). Berlin/New York, 722⫺729. Lobin, Henning (1993); Koordinationssyntax als prozedurales Phänomen (⫽ Studien zur deutschen Grammatik 46). Tübingen. Lobin, Henning (1995): Komplexe Elemente ⫺ Indizien aus Nominalphrase und Verbalkomplex. In: Eichinger, Ludwig M./Eroms, Hans-Werner (Hgg.) (1995): Valenz und Dependenz (⫽ Beiträge zur germanistischen Sprachwissenschaft 10). Hamburg, 117⫺133. Pasierbsky, Fritz (1981): Sprachtypologische Aspekte der Valenztheorie unter besonderer Berücksichtigung des Deutschen. In: Zeitschrift für Phonetik, Sprachwissenschaft und Kommunikationsforschung 34, 160⫺177. Schumacher, Helmut (Hg.) (1986): Verben in Feldern. Valenzwörterbuch zur Syntax und Semantik deutscher Verben (⫽ Schriften des Instituts für deutsche Sprache 1). Berlin/New York.
Marja Järventausta, Köln (Deutschland)
738
VI. Valenz: Schwerpunkte der Forschung
53. Der verbale Valenzträger 1. 2.
6. 7.
Einführung in die Problematik Ebenen der Valenz und konkurrierende Valenzkonzepte Strukturale und semantische Konnexionen Das verbale Prädikat in nukleusorientierten Theorien Das verbale Regens in wortdependenziellen Theorien Zusammenfassung und Fazit Literatur in Auswahl
1.
Einführung in die Problematik
3. 4. 5.
Mit dem Titel dieses Beitrags haben wir es mit konkreten lexikalisierten Einheiten der Wortartkategorie Verb zu tun. Demgemäß geht es im Folgenden primär um oberflächennahe syntaktische Strukturen. Das Interesse der Dependenz- und Valenztheorie gilt der hierarchischen Struktur bei der syntaktischen Verkettung von Wörtern. Rein dependenziell kommen allen Wortarten „Fügungspotenzen“ zu (Admoni 1982, 29; 82⫺86; Eroms 1993, 21; 28). Tesnie`re (1980, 63⫺74; 91) allerdings hatte mit seinem Valenzkonzept vor allem die vier „vollen“ bzw. „konstitutiven“ Hauptwortarten Verb, Substantiv, Adjektiv und Adverb im Auge, wobei die Verbvalenz im Mittelpunkt stand. Auch nach der Ausweitung des Valenzbegriffs (vgl. 2) kommt der Verbvalenz als „Prävalenz“ (Eroms 1985, 308) eine zentrale Stellung zu. Eine Verbgrammatik muss nicht eine Dependenz-Valenz-Grammatik sein. Umgekehrt betrachtet ist eine Dependenz-Valenz-Grammatik nicht notwendigerweise verbzentriert, denn was in einer hierarchischen Struktur jeweils als oberes, regierendes Element (Regens) und was als unteres, regiertes Element (Dependens) anzusehen ist, ist weitgehend eine Setzung des Linguisten und muss theorieintern plausibel gemacht werden (vgl. Engel 1994, 28; Heringer 1996, 51). Das Hauptaxiom der verbzentrierten Dependenz- und Valenzgrammatik, wonach dem verbalen Prädikat der oberste Status als Zentrum des Satzes zukommt (vgl. u. a. Korhonen 1977, 104⫺108; Engelen 1986, 91 ff.), wird jedoch auch innerhalb von stark verborientierten Ansätzen zum Teil in Frage gestellt (vgl. Eroms 1985; 1991; Welke 1988). Die nachstehenden Ausführungen sollen vor allem für Deutsch, aber mutatis mutandis
auch für andere Finitprädikatsprachen Gültigkeit haben, d. h. für Sprachen, in denen ein prototypischer (Elementar-)Satz ein und nur ein finites Prädikat enthält und somit ein Verbalsatz ist. Eben die finite Konjugation ist ein wesentliches Strukturmerkmal der Wortart Verb; „deshalb lässt es sich auch nicht durch Elemente anderer paradigmatischer Klassen ersetzen“ (Korhonen 1977, 105; vgl. auch Heringer 1996, 57; Engel 1994, 61). Andersherum kann eine finite Verbform nur im grammatischen Prädikat vorkommen. Auch in den Finitprädikatsprachen gibt es allerdings neben dem prototypischen Verbalsatz andere Typen, z. B. Substantiv- und Adjektivsätze (vgl. Tesnie`re 1980, 29; 91 f.). Im Folgenden soll es aber nur um Verbalsätze gehen. Ein Verbalsatz muss ein Finitum enthalten, aber das grammatische Prädikat besteht nicht immer nur aus dem Finitum. Im Deutschen z. B. sind Vollverben zwar in den einfachen Tempusformen (Präsens, Präteritum) fähig, das grammatische Prädikat allein auszumachen, vgl. Die Rose blüht; Maria schenkt der Mutter rote Rosen. Es ist aber eben für Deutsch als eine Klammersprache typisch, mehrteilige Verbalgruppen zu bevorzugen (Eroms 1985, 314), vgl. Die Rose hat geblüht; Maria würde der Mutter rote Rosen schenken. Neben grammatischen Prädikatsteilen gibt es auch lexikalisch-idiomatische wie in dem Satz Sie stand dem Künstler Modell. Die verbalen und nicht-verbalen weiteren Teile des Prädikatskomplexes weisen Formen auf, die nicht nur innerhalb des Prädikats, sondern auch in anderen Funktionen vorkommen können. Der Begriff ‘verbales Prädikat’ bedarf also einer Abgrenzung: „Welche Konstituenten gehören zum verbalen Valenzträger?“ (Storrer 1992, 21) Dass ein Verbalsatz im Prädikat ein Finitum enthalten muss, ist ein morphosyntaktisches und somit ausdrucksseitiges Kriterium. Inhaltsseitig geht man wiederum davon aus, dass das Prädikat ein Vollverb enthalten muss. Semantisch werden die Vollverben in Handlungs- und Tätigkeitsverben, Vorgangsund Ereignisverben sowie Zustandsverben eingeteilt (Duden Grammatik 1995, 90; Flämig 1991, 366). Diese Bedeutungsgruppen implizieren einige syntaktisch-semantische Valenzbeziehungen, können aber die jeweiligen vollständigen Satzbaupläne nicht genau
53. Der verbale Valenzträger
voraussagen ⫺ es gibt ja mehr Satzbaupläne als Bedeutungsgruppen. Auch wenn eine solche Grobklassifizierung der Verbalinhalte nachvollziehbar ist, ist es in der Praxis nicht immer leicht, jedes Verb mit einer der Bedeutungsgruppen zu identifizieren. Vor allem ist es manchmal schwer, objektiv zu entscheiden, ob überhaupt ein „voller Verbalinhalt“ vorliegt, oder ob es sich vielleicht um ein Auxiliarverb handelt, das zur Bildung eines grammatischen Prädikats noch eines weiteren Teils bedarf. Unten wird im Kapitel 2. kurz auf die verschiedenen Ebenen der Valenz eingegangen. In 3. werden sodann die dependenz- und valenztheoretischen Prinzipien zur Darstellung von strukturalen und semantischen, d. h. ausdrucks- und inhaltsseitigen Konnexionen, erörtert. Im Kapitel 4. wird versucht, vom semantischen Verbalnukleus her prädikatsinterne Dependenzbeziehungen von prädikatsexternen Satzgliedkonnexionen zu unterscheiden. Kapitel 5. stellt dann drei primär ausdrucksseitige, wortdependenziell orientierte Ansätze vor. Eine kurze Zusammenfassung mit Fazit folgt in 6. ⫺ Auf Probleme der Linearisierung kann in diesem Rahmen nicht näher eingegangen werden, wie auch nicht darauf, wie die Verbvalenz außerhalb der Prädikatssphäre des Verbalsatzes, etwa bei Infinitiven oder Partizipien in nominalen Funktionen oder aber bei deverbalen Wortbildungsprodukten, zum Tragen kommt.
2.
Ebenen der Valenz und konkurrierende Valenzkonzepte
Nach der klassischen syntaktischen Verbvalenzdefinition (vgl. Helbig/Schenkel 1973, 26; 49; Engel/Schumacher 1978, 15) legt das Verb auf Grund seiner Valenz einen (subklassen-)spezifischen Satzbauplan fest, indem es eine bestimmte Zahl von obligatorisch oder fakultativ zu besetzenden Leerstellen für Ergänzungen bestimmter Art eröffnet. Die Ergänzungen (im Weiteren auch Aktanten oder Komplemente genannt) können morphosyntaktisch ⫺ etwa als Substantiv in einem bestimmten Kasus, Präpositionalphrase, Adjektiv oder Adverb ⫺ beschrieben werden, und/ oder ihnen können Satzgliedwerte zugeschrieben werden. Neben den valenzgebundenen Satzgliedern kann der Satz auch so genannte freie Angaben enthalten, die ebenfalls als syntaktisch vom verbalen Prädikat dependent, jedoch nicht als valenzbedingt betrach-
739 tet werden. Außerdem können die Ergänzungen und Angaben ersten Grades eigene valenzgebundene oder freie Dependentien haben, so dass mehrstufige Dependenzrelationen entstehen, wobei „jedes Dependens das Schicksal des Regens teilt“ (Tesnie`re 1980, 28). Ein (unmittelbares) Dependens bündelt somit die eventuellen Dependentien niedrigeren Grades zu einem Satelliten, innerhalb dessen mehrfache hierarchische Dependenzrelationen bestehen können. ⫺ Nach dieser Auffassung ist die Valenz eine lexikalischsyntaktische Eigenschaft eines Valenzträgers, die nur eine Teilmenge aller Dependenzbeziehungen erfasst. Seit den Anfängen der Valenztheorie hat sich der Valenzbegriff zu einem Multimodulkonzept entwickelt. Schon Helbig/Schenkel (1969; 1973) haben die Valenz nicht nur quantitativ (Ebene I) und morphosyntaktisch-qualitativ (Ebene II), sondern auch semantisch-qualitativ nach lexikalisch-kategorialen Merkmalen (Ebene III) dargestellt. In der Grammatik von Helbig/Buscha (1984, 625) enthält die morphosyntaktische Kodifizierung der Aktanten zusätzlich syntaktischrelationale Satzgliedinformationen. Während Helbig/Schenkel (1973, 30) nur kurz auf Zusammenhänge zwischen Valenz und Relationslogik hinweisen, ist die logische Valenz u. a. bei Stepanowa/Helbig (1978, 128⫺134 und passim) als eigene Ebene angesetzt, und in den Arbeiten von Bondzio (z. B. 1971; 1993) steht die logisch-semantische Valenz von Anfang an im Mittelpunkt. Ebenfalls bei Welke (1988) spielen logische Prädikat-Argument-Beziehungen eine wesentliche Rolle. Durch die Integrierung der fillmoreschen Tiefenkasustheorie mit ihren semantischen Rollen (vgl. Fillmore 1971; 1977) in die Valenzbeschreibung ist die relational bedingte semantisch-funktionale Ebene zu einem üblichen Bestandteil des Valenzrepertoires geworden (vgl. Stepanowa/Helbig 1978, 135 f.; Helbig/ Buscha 1984, 559⫺563; 634⫺637; Helbig 1992, 19⫺46). Eine Weiterentwicklung ist der pragmatische Ansatz, der sich mit prototypischen kognitiven Szenen und deren Versprachlichung durch unterschiedlich perspektivierte Rahmen sowie mit den Realisierungsbedingungen von Ergänzungen und Angaben im aktuellen Kommunikationsprozess beschäftigt (vgl. Heringer 1984; Helbig 1992, 47⫺71). Helbig (1992, 149⫺177) z. B. sieht (für lexikographische Zwecke) sechs nicht-isomorphe Valenzebenen vor: (i) logische Struktur
740
VI. Valenz: Schwerpunkte der Forschung Kategoriale Einordnung
Quantitativ Syntaktisch Semantisch Logisch Pragmatisch
Relationale Einordnung
Realisierungsbedingungen Quantität, Obligatheit
Morphologie Satzgliedfunktionen Lex.-sem. Merkmale Sem. Rollen („Tiefenkasus“) Argumentstruktur Pragmatische Faktoren
Helbig (vi) (v) (iii) ⫹ (iv) (i) ⫺
Abb. 53.1: Ebenen für die Beschreibung von valenzbedingten Größen
des Prädikats mit der Zahl seiner Argumente; (ii) inhärente Semantik des Verbs, wobei valenzrelevanten Merkmalen eine besondere Bedeutung zukommt; (iii) semantische Kasusrollen der auf der ersten Stufe erwähnten Argumente; (iv) referenziell-semantische Charakteristik der Argumente; (v) Syntax, d. h. Satzgliedschaft und morphologische Repräsentation; (vi) Zahl und Obligatheit der Aktanten. Die Abb. 53.1 unten stellt ein von Helbigs Modell leicht abweichendes Mehrebenenmodell für die Beschreibung von valenzbedingten Größen dar. Helbigs Stufe (ii), die inhärente Semantik des verbalen Valenzträgers als die valenzbedingende Instanz, steht quasi als dritte Dimension oberhalb des ganzen Schemas. Für die vorliegende Studie ist Helbigs syntaktische Stufe (v) relevant. Jacobs (1994) kritisiert eine solche Aufspaltung des Valenzkonzepts, denn die Abgrenzungskriterien der verschiedenen Ebenen führen jeweils zu divergierenden Deckungsdomänen von Ergänzungen und Angaben. Ebenfalls Storrer (1992) geht es in erster Linie um diese Unterscheidung zwischen Einheiten, die schon per definitionem als eigenständige Satzglieder gelten. Weniger Beachtung findet aber oft die ⫺ sich ebenfalls auf die Valenzbeschreibung auswirkende ⫺ Frage, wo die Grenze zwischen einem Teil des Prädikatskomplexes und einer vom Prädikat regierten Ergänzung zu ziehen ist. In seiner Prädikat-Monographie hat Homberger (1993) anschaulich gezeigt, dass diese Frage mit dem Ebenenkonzept der jeweiligen Theorie zusammenhängt und dass das Prädikat „die derzeit schillerndste Kategorie in der deutschen Grammatik ist“ (Homberger 1993, 10). Anders als Jacobs, der die auf der Heterogenität der sprachlichen Wirklichkeit beruhende Konzeptvielfalt „Valenzmisere“ nennt, plädiert Homberger jedoch für ein Koexistenzmodell, das verschiedenen Ansätzen Raum lässt. Dem ist schon deswegen zuzustimmen, weil linguistische Konzepte über-
haupt mehr oder weniger vage zu bleiben tendieren ⫺ man denke nur an Begriffe wie ‘Wort’ und ‘Satz’ oder ‘Transitivität’ und ‘Aktionsart’, um nur einige zu nennen. Bei allem Aspektreichtum müssen aber die Entscheidungen innerhalb eines Konzepts konsistent bleiben. Unten sollen alternative Lösungen von Detailfragen im Sinne eines Koexistenzmodells diskutiert werden, ohne entscheiden zu wollen, welche Theorie die „beste“ ist ⫺ das hätte m. E. genauso wenig Sinn, wie wenn man eine Stilrichtung der bildenden Kunst als die einzige richtige erklären wollte.
3.
Strukturale und semantische Konnexionen
Wenn man die Valenz weit auffasst, kann man jeder einzelnen Verbform eine Fügungspotenz auf der Wortebene zuschreiben. Untersucht man aber verschiedene Verben bzw. Verbvarianten im Hinblick auf ihre gesamte syntaktische Umgebung, kann man feststellen, dass nicht alle Verben gleichermaßen auf die Satzgliedkonstellation Einfluss haben. Verben, die mittels eines spezifischen Satzbauplans lexikalisierte Perspektivierungen von Sachverhalten als Wirklichkeitsausschnitten ausdrücken, sind Vollverben. Kann man wiederum nachweisen, dass ein bestimmtes Verb bzw. eine aktuelle finite Verbform den Satzbauplan nicht festlegt, muss man für das Herausfinden des Hauptvalenzträgers weitere Elemente in Betracht ziehen. Finitformen von Vollverben bieten der Analyse am wenigsten Schwierigkeiten: Das Finitum bildet allein das strukturelle Zentrum, und seine Valenzspezifik zeigt sich darin, dass es nicht in beliebige andere Satzbaupläne eingepflanzt werden kann. So können etwa die Verben in den eingangs angeführten Beispielsätzen Die Rose blüht und Maria schenkt der Mutter rote Rosen nicht gegenein-
741
53. Der verbale Valenzträger
ander ausgetauscht werden, vgl. *Die Rose schenkt; *Maria blüht der Mutter rote Rosen. Die Sätze Maria blüht und Die Rose schenkt uns viel Freude dagegen weisen zwar auf der Ebene der semantischen Selektion eine von den Ausgangssätzen abweichende Belegung auf, die auf Metaphorisierung beruht. Auf der quantitativen und morphosyntaktischqualitativen Ebene bleibt die Satzgliedkonstellation hier (aber nicht unbedingt bei jeder Metaphorisierung) jeweils konstant: Während blühen einwertig ist und ein Nominativsubjekt verlangt, regiert das dreiwertige schenken ein Nominativsubjekt, ein Akkusativobjekt und ein Dativobjekt. Will man einfache und periphrastische Formen desselben Verbs auf der Satzgliedebene auf einen gemeinsamen Nenner bringen, können die Sätze (1a) Maria schenkt der Mutter rote Rosen und (1b) Maria hat der Mutter rote Rosen geschenkt im Valenzstemma so dargestellt werden, dass die jeweilige einfache oder zusammengesetzte Konjugationsform von schenk- das Zentrum bildet und die drei Ergänzungen (die gesamten Phrasen) je an einem eigenen Ast, aber auf derselben horizontalen Ebene abgebildet werden. Alle drei Verbergänzungen ⫺ und wohlgemerkt, auch das Subjekt als primus inter pares ⫺ sind hierarchisch miteinander gleichgeordnet: (1)
a.
schenkt
Maria
der Mutter
(1)
hat
geschenkt
Maria
Mutter
Rosen
der
rote
Laut Tesnie`re (1980, 63⫺69) besteht aber ein wesentlicher Unterschied zwischen autosemantischen „vollen“ Wörtern wie schenk-, Maria, Mutter, Rose einerseits sowie synsemantischen „leeren“ Wörtern wie dem Hilfsverb hat oder der Artikelform der andererseits: Prinzipiell sind nur volle Wörter strukturell konstitutiv und haben die Fähigkeit, nexusbildend zu sein, d. h. eigene Dependentien zu bekommen. Leere Wörter haben bloß eine subsidiäre Funktion, indem sie die konstitutiven Wörter begleiten und „in einem Nukleuskreis“ mit diesen erscheinen (Tesnie`re 1980, 67; vgl. ebd. 55 f.). Der Nukleus ist die eigentliche strukturale Einheit, während das Wort „als einfaches Segment der gesprochenen Sprache nur die lineare Einheit des Satzes“ ist (Tesnie`re 1980, 58). Die Nuklei können im Stemma umringt werden, und bei Bedarf kann die semantische Konnexion mit einem punktierten Strich markiert werden (Tesnie`re 1980, 54). Das Stemma (1b”) bildet die Nukleusstruktur des Satzes (1b) ab:
rote Rosen
(1) b.
b’.
b”.
hat geschenkt
hat geschenkt
Maria Maria
der Mutter
der Mutter
Rosen
rote Rosen
Bei Bedarf können die mehrwortigen Glieder in weitere hierarchische Stufen zergliedert werden. „Jedes Regens, das ein oder mehrere Dependentien regiert, bildet einen Nexus“ (Tesnie`re 1980, 28). Dabei steht ‘Nexus’ für frz. ‘nœud’, d. h. ‘Knoten’ (vgl. Tesnie`re 1980, 390). Wenn alle Dependenzkonnexionen zwischen den Wörtern ausgezeichnet werden, entstehen mehrfach gestufte Stemmas mit Dependentien zweiten und weiteren Grades, wie sie z. B. bei Engel (1994, 38; 92 ff.; 108 f.) üblich sind, vgl.:
rote
Mehrwortige Nuklei, in denen ein leeres, subsidiäres Wort ein volles, konstitutives Wort begleitet, ohne diesem den struktural-konstitutiven Status abzusprechen, etwa der Artikel als Begleitwort eines Substantivs wie bei der Mutter, scheinen für Tesnie`re nicht so sehr auf der hierarchisch-strukturalen Ebene, sondern vor allem auf der Linearisierungsebene problematisch zu sein (vgl. Tesnie`re 1980, 36; 283). Dagegen wird für die Darstellung von zusammengesetzten Verbformen wie hat ge-
742 schenkt, bei denen die morphologische Dependenz der infiniten Vollverbform vom „leeren“ Finitum unbestritten ist, der Begriff des dissoziierten (zweigeteilten) Nukleus eingeführt. Anders als bei der synthetischen Präsensform schenkt, in dem das strukturale und das semantische Zentrum in einem Wort zusammenfallen, ist in der periphrastischen Form hat geschenkt das temporale Hilfsverb hat für die strukturale und die Perfektpartizipform geschenkt für die semantische Funktion zuständig (vgl. Tesnie`re 1980, 57). Hier muss Tesnie`re eine Ausnahme von der Hauptregel, nur volle Wörter seien konstitutiv, einräumen: „Die Auxiliarverben sind leere Wörter, aber gerade sie konstituieren den Verbalnexus des Satzes. Deshalb sind sie konstitutive leere Wörter“ (Tesnie`re 1980, 284). Da ein Nukleus aber sowohl eine strukturale als auch eine semantische Schnittstelle ist, kann ein konstitutives leeres Wort nicht allein nukleusfähig sein: Zu dem Auxiliarverb tritt eine infinite Verbform als volles, aber subsidiäres Wort hinzu. Da verschiedene Auxiliarverben kombiniert werden können, können mehrteilige Nuklei entstehen (Tesnie`re 1980, 284 f.). Die innerhalb der Valenztheorie herrschenden zum Teil stark differierenden Auffassungen vom Umfang des verbalen Satzzentrums können weitgehend dadurch erklärt werden, dass jeweils andere Aspekte der nicht vollständigen Überlappung der semantischen und der rein strukturalen Konnexion berücksichtigt werden. Semantisch orientierte Ansätze nehmen vor allem auf die Hierarchie der Nuklei Bezug, während rein morphosyntaktisch orientierte Ansätze auch Hilfsverben trotz deren relativer Leere unmittelbare und mittelbare Dependentien zuweisen. Weiter kann es eine Rolle spielen, ob eine „Analyse von oben“ (vom Satzganzen her) oder aber eine „Analyse von unten“ (von den kleinsten Elementen her) unternommen wird: Der Versuch, ein Satzganzes zu segmentieren, endet eher mit nukleusartigen Struktureinheiten, während eine vom Finitum ausgehende Betrachtungsweise leicht wortdependenzielle Ketten ergibt. Als Beispiel für einen vorwiegend strukturalen Ansatz seien hier vorwegnehmend die wortdependenziellen Strukturstemmas und die von Tesnie`re abweichende Nukleus-Definition von Engel (1994) kurz vorgestellt (siehe 5.1). Ein Stemma wie (1b’) oben oder (2a) unten mit einem leeren, aber konstitutiven Wort als oberstem Regens würde der tes-
VI. Valenz: Schwerpunkte der Forschung
nie`reschen semantischen Nukleus-Definition widersprechen. Bei Engel ist aber der Nukleus rein struktural als „intern oberstes Element in einem Dependenzkonstrukt“ (Engel 1994, 311) definiert. Auch wenn Engel den Begriff ‘Satellit’ im tesnie`reschen Sinne als ein „untergeordnetes (meist komplexes) Element in einer Dependenzrelation“ (Engel 1994, 313) bzw. „ein Dependens mit sämtlichen von ihm abhängigen Elementen“ (Engel 1994, 92) definiert, führt der abweichende Nukleusbegriff zu einer unterschiedlichen Grenzziehung des Umfangs eines möglichen Satelliten. Laut der Definition Engels wäre in dem Satz Mein bester Freund wäre getäuscht worden (vgl. Engel 1994, 109) die Form wäre der oberste Nukleus, vgl. (2a). Der Rest mein bester Freund getäuscht worden könnte Satellit von wäre genannt werden. Entsprechend kann alles, was unterhalb der Form worden steht, nämlich mein bester Freund getäuscht, als ihr Satellit gelten usw. Die engelschen Satellitengrenzen laufen somit nicht immer parallel mit intuitiv erfassten Phrasengrenzen. Bei Tesnie`re wiederum wäre die ganze Verbkette wäre getäuscht worden der (dissoziierte) Zentralnukleus und mein bester Freund ein Satellit, vgl. (2b): (2)
a.
wäre worden getäuscht Freund mein bester
b.
wäre getäuscht worden
Freund
mein
bester
In den Stemmas (1a) und (1b) wurde davon ausgegangen, dass ein Nukleus alle seine Satelliten simultan an gleichgeordneten Verzweigungen, d. h. auf derselben hierarchischen Ebene, bindet. Im Unterschied dazu plädieren Fourquet/Grunig (1971) für eine
743
53. Der verbale Valenzträger
sukzessive Valenzsättigung (vgl. auch Erben 1972, 253), wie sie z. B. in der Kategorialgrammatik, etwa in der neuen IdS-Grammatik von Zifonun/Hoffmann/Strecker u. a. (1997), dargestellt wird. Für das dreiwertige Verb schenken in dem Satz Maria schenkt der Mutter rote Rosen bedeutet dies ⫺ vereinfachend ⫺ Folgendes: Das Verb bindet zuerst eine Ergänzung (ein Komplement), das Akkusativobjekt, an, wonach die „detransitivierte“ Einheit rote Rosen schenk- nur noch zweiwertig ist. Durch die nächste Konnexion entsteht die Wortgruppe der Mutter rote Rosen schenk-, die noch eine ungesättigte Leerstelle, die des Subjekts, aufweist. Die Anbindung des Subjekts löst zugleich die Verbalkongruenz aus. Die Zwischenstufen sind komplexe verbale Valenzträger und der fertige Satz eine Art gesättigte Verbalgruppe, einem nullwertigen Verb vergleichbar. Vgl. das sukzessive Diagramm (1a’) unten mit dem dreiästigen Stemma (1a) oben: (1)
a’. Maria der Mutter rote Rosen schenkt
Durch die Sukzessivität bekommt das Subjekt als die zuletzt zu bindende Stelle in der Konnexionsfolge eine sichtbare Sonderstellung, und der Unterschied zu Konstituentendiagrammen ist nicht mehr groß. Ein Vorteil der Sukzessivität ist, dass freie Angaben (Supplemente) in jeder Phase einsetzbar sind und ihre Skopus-Abstufung so anschaulicher abgebildet werden kann als in einem simultan verzweigenden Diagramm, wo Modalwörter wie wahrscheinlich, Temporalbestimmungen wie morgen und Artbestimmungen wie gerne alle pauschal als Satzglieder ersten Grades nicht nur miteinander, sondern auch mit den Ergänzungen ersten Grades hierarchisch gleichgestellt sind. Ein weiterer Vorteil liegt darin, dass die Sukzessivität mit Linearisierungsregeln verbunden werden kann. Außerdem kann mit sukzessiven Konnexionen der Entstehungsmechanismus von Funktionsverbgefügen, Verbidiomen und Reflexivverben wenigstens zum Teil erklärt werden (vgl. 4.2 und 4.4). Unüblich ist dagegen, dass die sukzessiv entstehenden komplexen Prädikate, etwa der Mutter rote Rosen schenk-, nicht nur prädizierende, sondern auch referierende Teile enthalten. Weniger gelungen scheint die teilweise Sukzessivität in den Diagrammen der Duden Grammatik (1995, 654⫺680). Dort werden die Satzbaupläne in Subjekt ⫹ Prädikatsver-
band geteilt, und in den Nebenmodellen erscheinen Ergänzungen zweiten Grades in einem Ergänzungsverband. Der Prädikatsverband wird als aus Prädikat und Ergänzungen bestehend definiert. Die Definition ist insoweit inkonsistent, als das Subjekt, das immerhin als Ergänzung gilt (Duden Grammatik 1995, 652), nicht im Prädikatsverband steht. Hier schimmert also trotz der prinzipiellen Gleichstellung des Subjekts mit anderen Ergänzungen noch die alte Subjekt-PrädikatDichotomie durch. Wenn das die Absicht ist, muss das Herausnehmen des Subjekts begründet werden und der Prädikatsverband entsprechend exakt definiert werden. Die Sonderstellung des Subjekts lässt sich explizit in eine verzweigende Valenzstruktur einbauen, wie Eroms (1985; 1991) und Heringer (1996) gezeigt haben, vgl. 5.2⫺5.3.
4.
Das verbale Prädikat in nukleusorientierten Theorien
Nukleusorientiert im tesnie`reschen Sinne sind Theorien, die für den verbalen Zentralnexus einen (und nur einen) vollen lexikalischen Inhalt vorsehen, der sich mit verschiedenen grammatischen Elementen verbinden kann. Hierher zählt u. a. Tarvainen: „Das Prädikat ist eine finite Verbform oder eine Verbalgruppe mit einem Finitum, die einen lexikalischen Verbalinhalt ausdrückt und diesen in bezug auf 1) den Modus, 2) das Tempus und 3) das Genus verbi (Aktiv und Passiv) verwirklicht. In einigen Sprachen gehört zu den grammatischen Aufgaben des Prädikats auch der Ausdruck des Aspekts (der Aktionsart). Auch die Person und der Numerus werden vom Prädikat zum Ausdruck gebracht, aber normalerweise zusammen mit dem Subjekt (Kongruenz).“ (Tarvainen 1981, 36) Ähnlich geht Korhonen vor: Als Valenzträger könne „nur eine solche Form fungieren […], die einen deutlich abgrenzbaren lexikalischen Inhalt aufweist; auf einem solchen Inhalt beruht ja die Fähigkeit einer sprachlichen Form, um sich herum Leerstellen zu eröffnen […]“; weiter müsse der Hauptvalenzträger „mit den Satzkategorien des Tempus, Modus und Genus verbi ausgerüstet sein.“ (Korhonen 1977, 234 f.) 4.1.
Nicht-Vollverben mit grammatischen Prädikatsteilen 4.1.1. Die traditionellen Auxiliare haben, sein und werden Die heutigen deutschen Vergangenheitsformen Perfekt und Plusquamperfekt, die Futurformen sowie sämtliche Passivformen
744 können nicht am lexikalischen Verbstamm selbst realisiert werden, sondern sie werden periphrastisch mit haben, sein oder werden als Auxiliar und einer infiniten Form des Vollverbs „umschrieben“. Die ursprünglichen lexikalisch-syntaktischen Verbindungen haben sich grammatikalisiert, und die originär-lexikalischen Bedeutungen der genannten Verben sind verblasst. Von jedem Vollverb können aus Auxiliar und Perfektpartizip zusammengesetzte Perfekt- und Plusquamperfektformen gebildet werden, wobei die Auxiliare haben und sein in komplementärer Distribution stehen (vgl. Heringer 1996, 71). Ebenfalls lässt jedes finite Vollverb eine Umformung in Futur I oder II zu, wobei sich werden mit einem Infinitiv Präsens bzw. Infinitiv Perfekt verbindet. Weder bei den zusammengesetzten Vergangenheitsnoch Futurformen unterliegt der Satzbauplan Veränderungen, so dass das infinite Vollverb als semantischer Kern des Prädikats bzw. als eigentlicher Valenzträger gelten kann. Ebenfalls als grammatikalisiert gelten das Vorgangs- und Zustandspassiv mit werden bzw. sein ⫹ Perfektpartizip, die Spuren der originären lexikalisch-syntaktischen Verbindung sind aber noch in den verschiedenen Passivrestriktionen erkennbar (vgl. z. B. Helbig/Buscha 1984, 170⫺173; 181 f.; zur historischen Entwicklung siehe Eroms 1990). Das sogenannte sein-Passiv steht der ursprünglichen Konstruktionsbedeutung (Kopula ⫹ adjektivisches Perfektpartizip) so nahe, dass es laut Admoni (1982, 178) in Sätzen wie Die Tür ist geöffnet (vgl. offen) nicht als zusammengesetzte Verbform gelten kann. Beim Passiv handelt es sich nicht um eine bloße Erweiterung des Vollverbs bei einem unveränderten Satzbauplan, sondern mit Passiv ist eine Diathesenkonversion verbunden, die satzgliedsyntaktische und quantitative Folgen hat. Das Subjekt, das im Aktivsatz obligatorisch ist, wird getilgt oder zu einem fakultativen Präpositionalagens degradiert, was eine Reduktion der obligatorischen Valenz bedeutet, vgl. Er las das Buch ⇒ Das Buch wurde (von ihm) gelesen (Tarvainen 1981, 35). Das Akkusativobjekt der aktiven Standardvalenz eines transitiven Verbs avanciert zum syntaktischen Subjekt des Passivsatzes (vgl. das Buch im obigen Beispielsatz). Intransitive passivfähige Verben bilden ein subjektloses Passiv, vgl. Man verzichtet auf Einzelheiten ⇒ Auf Einzelheiten wird verzichtet.
VI. Valenz: Schwerpunkte der Forschung
Als Neuankömmling unter den passiven Diathesenformen kann das sog. bekommenPassiv gelten, das auch Dativ-, Rezipientenbzw. Adressatenpassiv genannt wird, weil anstatt des Akkusativobjekts eine dativische Größe zum Subjekt wird. Zumindest in der Umgangssprache gebräuchliche Sätze wie Er bekam den Führerschein (vom Dorfpolizisten) entzogen und Sie bekam auf die Schulter geklopft sind Beweise dafür, dass die Grenzen der dahinter steckenden lexikalisch-syntaktischen Konstruktion (bekommen ⫹ Perfektpartizip des Vollverbs als akkusativobjektbezogenes prädikatives Attribut) aufgelockert sind und eine Restrukturierung zu einer zusammengesetzten Verbform weit fortgeschritten ist. Semantisch kann das bekommen-Passiv neben dem werden-Passiv zum Vorgangspassiv gezählt werden. (Vgl. Askedal 1984; Reis 1976 und 1985; Hentschel/Weydt 1995.) Die Valenzrealisierungen in Sätzen wie (3) Das Problem ist gelöst worden und (4) Er hat den Führerschein vom Dorfpolizisten entzogen bekommen, die eine doppelt zusammengesetzte Verbform (Passiv und Perfekt) aufweisen, können nach dem nukleusorientierten Ansatz wie folgt stemmatisch abgebildet werden: (3)
ist gelöst worden
Das Problem
(4)
Er
hat entzogen bekommen
den Führerschein
vom Dorfpolizisten
Trotz der weitgehenden Grammatikalisierung unterliegt das deutsche Passiv semantischen Restriktionen. Da es kein durchgängiger Parameter der Verbalkonjugation ist, liegt es nahe, die Passivinformation (auch) lexikalisch zu erfassen, vgl. Engel/Schumacher (1978, 90 ff.). In anderen als nukleusorientierten Ansätzen wird auch Auxiliaren eine eigene Valenz zugeschrieben. In der Erstauflage des Verbvalenzwörterbuchs von Helbig/Schenkel (1969, 179 ff.) wurden haben und werden auch in den Auxiliarfunktionen als zweiwertige Verben lemmatisiert, in der zweiten Auflage sind aber entsprechende Varianten gestrichen (zu werden als Hilfsverb siehe aber Helbig/Schenkel 1973, 260 Anm. 1). Zur Struktur des Auxiliarknotens in wortdependenziellen Darstellungen vgl. 5.
745
53. Der verbale Valenzträger
4.1.2. Modalverben ⫺ Voll- oder Hilfsverben? Sowohl Tarvainen (1981) als auch Korhonen (1977) wenden das Kriterium des „einen Verbalinhalts“ nicht nur auf die traditionell im Konjugationsparadigma des deutschen Verbs angeführten periphrastischen Verbformen an, sondern sie wollen damit auch die Zweiteilung in den nicht-epistemischen (dynamischen und deontischen, d. h. „objektiven“) und epistemischen („subjektiven“) Modalverbgebrauch begründen (siehe auch Helbig/ Buscha 1984, 136 f.). Der erstere Gebrauch sei „lexikalisch“, der letztere „grammatisch“ bzw. „syntaktisch“ (Tarvainen 1981, 37 ff.; Korhonen 1977, 236). Im Satz (5a) Er hat das Buch lesen können lägen „zwei Verben als begriffliche Bedeutungsträger“ vor (Tarvainen 1981, 37), und folglich fungiere der eine Bedeutungsträger (d. h. können in der zusammengesetzten Form hat können) als strukturelles Zentrum des Satzes, während der andere (lesen) ⫺ gleichrangig mit der Subjektergänzung Er ⫺ Objektergänzung ersten Grades sei; das Buch wiederum sei eine vom Infinitiv abhängige Objektergänzung, d. h. Objekt zweiten Grades. Im Satz (5b) Er kann das Buch gelesen haben dagegen handle es sich bei kann um ein rein grammatisches, modusersetzendes Element, das als Teil des strukturellen Zentrums (kann gelesen haben) zu gelten habe. Vgl. (5a) und (5b) miteinander: (5)
a.
hat können
Er
lesen das Buch
b.
kann gelesen haben
Er
das Buch
Das Kriterium „ein lexikalischer Verbalinhalt“ bzw. „eine Verbalsituation“ (vgl. Tarvainen 1981, 235; Helbig 1983, 111; 119) ist schwer zu operationalisieren, denn es gibt keine zuverlässigen semantischen Kriterien für die Zählbarkeit von Verbalinhalten. Durch lexikalische Dekomposition in sog. Primitivprädikate kann nachgewiesen werden, dass es schon innerhalb einer Sprache Verben mit unterschiedlicher semantischer Komplexität gibt, und zwischensprachliche
Vergleiche machen besonders deutlich, wie unterschiedlich lexikalische Prägungen schon durch abweichende Wortbildungskonventionen sein können. Im Finnischen z. B. gibt es ein produktives kausatives Verbalsuffix, so dass in vielen Fällen ein einziges Verb dem deutschen Gefüge lassen ⫹ Infinitiv entspricht, so etwa bei fi. leikkauttaa ⫺ dt. schneiden lassen. Ähnliches trifft auch für Verbformen zu. Im Finnischen gibt es einen synthetischen Vermutungsmodus, den Potential, der im Deutschen mit den „subjektiven“ Modalverbvarianten analytisch wiedergegeben wird (Tarvainen 1985, 73 ff.). Die Tatsache jedoch, dass die eine Sprache etwas in einem Wort erfasst, was die andere Sprache auf mehrere Wörter verteilt, führt leicht zu voreiligen Strukturanalogien. Um auf eine intersubjektiv nachvollziehbare Weise Vollverben von Nicht-Vollverben in Infinitivkonstruktionen abgrenzen zu können, verbindet Hyvärinen (1989, 155⫺164; 321⫺347; 381⫺442) das rein semantische Verfahren mit einem syntaktischen. Die Betrachtung setzt bei konkreten Sätzen an, wonach Sätze mit unterschiedlichen Satzgliedkonstellationen und Diathesenstrukturen probeweise mit einem potenziellen Nicht-Vollverb („Nebenverb“) erweitert („multipliziert“) bzw. um ein solches reduziert („dadurch dividiert“) werden, um festzustellen, ob die Satzgliedkonstellation und die Kontrollbeziehungen des Infinitivs dabei Veränderungen unterliegen. Nur wenn der Eingriff die Parallelität im Sachverhaltbezug nicht verstellt, kann für den Multiplikator bzw. Divisor Valenzneutralität (vgl. Askedal 1983) und somit Nebenverbstatus angenommen werden, so etwa für scheinen oder sollen, vgl. Peter scheint den Gegner zu besiegen ⫺ Der Gegner scheint von Peter besiegt zu werden; Peter soll das Buch gelesen haben ⫺ Das Buch soll von Peter gelesen worden sein. Nebenverben sind also „Chamäleonverben“: Sie passen sich der syntaktischen Unterlage an, so dass (fast) beliebige Satzbaupläne ⫺ auch solche ohne Subjekt bzw. mit dem semantisch leeren formalen Subjekt es ⫺ um sie erweitert werden können, vgl. Es regnet ⫺ Es scheint zu regnen. Sie legen zwar durch die sog. Statusrektion (Bech 1955, 12; Heringer 1996, 70) die infinite Form des zweiten Verbs fest, alle Aktanten werden aber durch die Spezifik dieses zweiten Verbs selegiert. In der Transformationsgrammatik heißen entsprechende Verben ⫺ im Unterschied zu Kontrollverben ⫺ Hebungsverben.
746 Das Valenzneutralitätsprinzip zeigt, dass zwar sog. dynamische Modalverben, die per definitionem ein Subjekt regieren (etwa können im Sinne von ‘inhärente Fähigkeit der Subjektgröße’ oder wollen als echt-voluntatives Willensverb), als zweiwertige Vollverben mit einem Infinitivobjekt als zweiter Ergänzung gelten können. Deontische und epistemische Modalverben sind jedoch meistens gleichwohl valenzneutral, was sich insbesondere darin zeigt, dass sie auf ein lexikalisches Subjekt verzichten können, so z. B. in dem Satz Ihm kann geholfen werden, der beide Lesarten haben kann. Das semantisch leere formale Subjekt es ist bei der dynamischen Lesart per definitionem ausgeschlossen, bei den beiden anderen Lesarten aber kann es nur durch die Eigenart des Infinitivverbs in den Satz Eingang finden, so bei der „objektiven“ können-Variante der als Behauptung aufgestellten existenziellen Möglichkeit Damals hat es dort wochenlang regnen können, und genauso bei der „subjektiven“ Vermutung An dem Tag kann es dort geregnet haben. Weiter zeigt sich, dass das „subjektive“ wollen als Indikator für die Wiedergabe einer fremden Behauptung sein Subjekt selegiert, denn wollen ⫺ anders als das valenzneutrale sollen ⫺ impliziert, dass es ausdrücklich um die Behauptung der Subjektgröße geht, vgl. Er will von dem Vorfall nichts bemerkt haben (Helbig/Buscha 1984, 137), aber *Von dem Vorfall will nichts bemerkt worden sein. Durch diese Einsichten geht die von Tarvainen (1981) und Korhonen (1977) vermutete strikte syntaktisch-semantische Parallelität, „objektives“ Modalverb sei Vollverb, „subjektives“ Modalverb sei Hilfsverb, verloren. Folglich muss entweder die eventuelle Valenzspezifik bei jeder einzelnen Modalverbvariante eigens entschieden werden, was Homonymielösung genannt werden könnte (vgl. Rolland 1998, 440 ff.), oder aber man kann auf eine Varianteneinteilung verzichten. Im letzteren Fall haben die Modalverben pauschal als (polyseme) Nebenverben zu gelten, denn bei jedem Modalverb gibt es valenzneutrale Verwendungsweisen. Zudem können die am deutlichsten vollverbähnlichen Gebrauchsweisen von wollen, ob volitiv oder referativ, auch als Komplementarformen von sollen erklärt werden. In der einschlägigen Literatur sind nach wie vor die beiden extremen Auffassungen und verschiedene Kompromisse zwischen beiden vertreten:
VI. Valenz: Schwerpunkte der Forschung
(i)
Engel/Schumacher gehen auf eine eventuelle Varianteneinteilung nicht ein; die Modalverben zählen anscheinend nicht zu den Vollverben, denn sie werden gar nicht aufgeführt, „da sie keinen eigenen SBP [⫽ Satzbauplan] konstituieren“ (Engel/Schumacher 1978, 34). (ii) Für Öhlschläger sind Modalverben Vollverben: „Alles in allem sprechen die syntaktischen Eigenschaften der Modalverben m. E. dafür, sie als Vollverben zu behandeln“; „Modalverben in epistemischem und nicht-epistemischem Gebrauch unterscheiden sich zwar hinsichtlich ihrer syntaktischen Eigenschaften: diese Unterschiede gehen jedoch nicht so weit, daß man die Modalverben je nach Bedeutung verschiedenen syntaktischen Kategorien zuordnen müßte.“ (Öhlschläger 1989, 251) (iii) Diewald teilt die Ansicht Tarvainens (1981) und Korhonens (1977) von dem Doppelcharakter der Modalverben, da „die Anwendung der Grammatikalisierungsparameter einen deutlichen Unterschied der Grammatikalisierungsgrade der beiden Varianten ergibt. Die epistemischen Varianten der Modalverben sind dabei, sich zu analytischen Modi zu entwickeln und sind stärker grammatikalisiert als die deontischen Varianten, die in etwa dem Verhalten ‘normaler’ Vollverben entsprechen.“ (Diewald 1997, 29) (iv) Das Verbvalenzwörterbuch von Helbig/ Schenkel (1973, 156; 260⫺263) kodifiziert die Modalverben (wollen und mögen sind nicht angeführt) als strukturell zweiwertig. Ein Teil der Varianten mit Infinitiv ist selektional voll spezifiziert, was einen Vollverbstatus nahelegt. Bei den „subjektiven“ Varianten dürfen V3 (‘wahrscheinlich sein’) und können V2 (‘möglich sein’), aber auch bei den „objektiven“ Varianten nicht brauchen V2 (‘nicht müssen’) und dürfen V2 (‘sollen’) sowie bei den ohne Lesartenaufteilung angeführten müssen und können geben die Subjektbelegungsanweisung „keine Selektionsbeschränkungen“ sowie Anmerkungen, die die Abhängigkeit aller weiteren Bestimmungen vom Infinitivverb unterstreichen, einen Hinweis auf selektionale Valenzneutralität. (v) Heringer (1996, 72 f.) verzichtet auf eine Varianteneinteilung und lässt die Modalverben pauschal als selektional un-
747
53. Der verbale Valenzträger
spezifisch gelten: Sie bringen keine eigene Valenz mit. Die Strukturregel für Modalverben enthält (über die Stelle des Verbalmorphems hinaus) jedoch eine Stelle für das Nominativsubjekt ⫺ denn laut Heringer haben alle finiten Verben eine Subjektstelle ⫺ und eine weitere Stelle für ein zweites Verb im Infinitiv. Bei dessen Anbindung entsteht ein Verbalkomplex, wobei das Finitum das blockierte Subjekt des Infinitivs deblockiert, so dass es zu einer Strukturüberlagerung kommt (vgl. 5.3). (vi) Die folgende Feststellung Tesnie`res kann verschieden ausgelegt werden: „Die Einführung eines (temporalen oder modalen) Auxiliarverbs ändert nichts an der Aktantenstruktur: Sie ist in dem Satz Alfred kann Karl das Buch geben […] dieselbe wie in dem Satz Alfred gibt Karl das Buch“ (Tesnie`re 1980, 99). Der Wortlaut deutet auf Valenzneutralität, wobei zwischen verschiedenen Lesarten nicht unterschieden wird. Dies könnte zugunsten der Hilfsverbhypothese interpretiert werden. Dagegen weist das entsprechende Stemma eine Hierarchisierung auf, wie sie für die „objektive“ zweiwertige Vollverbvariante charakteristisch ist, vgl. (6) unten. An anderer Stelle, im Stemma für den Satz Man soll den Verräter nie nachahmen (Tesnie`re 1980, 115), steht jedoch die Verbindung sollen ⫹ Infinitiv als Ganzes als verbaler Zentralnexus, vgl. (7), was wieder die Hilfsverbhypothese unterstützt: (6)
kann
Alfred
prozesses, das Stemma (6) zeigt eine Phase, in der der zweiteilige Verbalkomplex auf zwei Ebenen „gestreckt“ ist. 4.1.3. Weitere Problemfälle Obwohl weitgehende Einigkeit darüber herrscht, dass es Vollverben und Nicht-Vollverben gibt, gibt es jedoch erhebliche Unterschiede in den Auffassungen darüber, welche Einzelverben zu den Nicht-Vollverben zu zählen sind. So unterscheidet sich z. B. der Nebenverbbegriff Engels (1988; 1994) von der obigen satzgliedsyntaktisch definierten Auffassung von Nebenverben als „Chamäleonverben“, weil die Kriterien zum Teil anders gesetzt sind, vgl. 5.1. Anhand des Multiplikations- bzw. Divisionsverfahrens zeigen sich u. a. die Modalitätsverben scheinen, pflegen, versprechen und drohen als Nicht-Vollverben. Zu den Modalitätsverben werden üblicherweise auch haben und sein in den modalen Konstruktionen mit zu ⫹ Infinitiv gezählt, die Notwendigkeit bzw. Möglichkeit ausdrücken. Diese scheinen in einer diathesenbedingten komplementären Distribution zueinander zu stehen, wobei haben für die aktivische, sein ⫺ trotz der Aktivform des Infinitivs ⫺ für die passivische Sichtweise steht (Hyvärinen 1989, 290⫺296), vgl. die Sätze (8a) Peter hat den Brief zu schreiben ⫺ (8b) Der Brief ist von Peter zu schreiben und die entsprechenden Stemmas. Die Komplementaritätshypothese wird dadurch gestützt, dass Sätze wie *Der Brief hat von Peter geschrieben zu werden in der Praxis nicht begegnen. Und dass sein nicht von sich aus ein Subjekt selegiert, zeigen subjektlose Sätze wie (9) Ihm ist zu helfen. Die entsprechenden Stemmas können also wie folgt gezeichnet werden:
geben
(8) Karl
(7)
hat zu schreiben
a.
das Buch Peter
soll nachahmen
b. Man
den Veräter
den Brief ist zu schreiben
nie
Letztendlich kann der scheinbare Widerspruch zwischen dem Wortlaut und dem Stemma (6) oder zwischen den Stemmas (6) und (7) im Sinne von (v) oben verstanden werden: Der Wortlaut und das Stemma (7) beschreiben das Resultat des Verschmelzungs-
der Brief
(9)
ist zu helfen
Ihm
von Peter
748 Problematischer sind die modalen Fügungen der Möglichkeit mit sich lassen. Die Diathesenstruktur ist passivisch, aber es fehlt ein aktives Pendant. Außerdem ist in Konstruktionen mit einem intransitiven Infinitivverb ein formales es auch im Mittelfeld möglich, vgl. Hier lässt es sich effektiv arbeiten ⫺ anders als beim subjektlosen werden-Passiv, bei dem ein semantisch leeres es bloß als ein nur-vorfeldfähiges Stützelement für die Zweitstellung des Finitums vorkommen kann. Modalitätsverben zählen bei Tarvainen (1985, 146) zu den nicht-autonomen Prädikatsteilen, wogegen das Phasenverb beginnen (Tarvainen 1985, 144) als Vollverb gilt. Demnach würden die Sätze Es beginnt allmählich schöner zu werden und Es verspricht allmählich schöner zu werden jeweils eine andere hierarchische Struktur haben, obwohl sie das formale Subjekt es nicht vom Finitum, sondern vom Infinitivverb zugewiesen bekommen. Diathesenmultiplikationen führen jedoch meistens zu abweichenden Sätzen, vgl. Peter begann das Buch zu lesen vs. *Das Buch begann von Peter gelesen zu werden. Anscheinend ist hier bei agentiven Zweitverben der Infinitiv Passiv blockiert, was bedeutet, dass der Nebenverbstatus von beginnen nicht voll entfaltet ist. An sich ist es nicht erstaunlich, dass lexikalische Gefüge, deren Bedeutung die typischen Konjugationskategorien des Verbs tangiert, sich allmählich zu sog. konkurrierenden Konstruktionen entwickeln können, deren originäre syntaktische Gebrauchsrestriktionen aufgelockert werden. Da es sich um langwierige Restrukturierungsprozesse handelt, kann der aktuelle Grammatikalisierungsgrad variieren. Im Deutschen und/oder im Finnischen gibt es im Bereich der Temporalität (insbesondere Futuralität), Aktionalität (u. a. Inchoativität, Egressivität, Progressivität, Proximativität, Kasualität, Usualität) und Modalität (Potentialität und Anschein, Referativität, Irrealität, Irrelevanz des Wahrheitsgehalts) zahlreiche infinitivische Gefüge und Strukturformeln, deren finiter Teil völlige oder partielle Valenzneutralität aufweist (Hyvärinen 1989, 321⫺442). 4.2.
Nicht-Vollverben mit lexikalischen und idiomatischen Prädikatsteilen 4.2.1. Funktionsverbgefüge Die deutsche Sprache besitzt eine Fülle von so genannten Funktionsverbgefügen, die seit den 60er Jahren Gegenstand eines regen For-
VI. Valenz: Schwerpunkte der Forschung
schungsinteresses sind (siehe Helbig 1979; Fleischer 1982, 139⫺142; Böhmer 1994, 17⫺ 75). Während in mehrteiligen Prädikatsformen, die oben unter 4.1. behandelt wurden, der semantische Kern der Fügung durch eine infinite Verbform manifestiert wird, ist er bei diesen „Streckformen“ als deverbales Substantiv realisiert. Das Deverbativum verbindet sich mit einem semantisch verblassten Verb, das seinerseits die grammatischen Funktionen Modus, Tempus, Person und Numerus ausdrückt und allenfalls aktionsartund diathesenspezifische grammatische Bedeutungen tragen kann (vgl. Helbig/Buscha 1984, 79⫺105). So liegen in der Reihe in Anwendung sein ⫺ zur Anwendung kommen ⫺ in/zur Anwendung bringen jeweils ein duratives, ein inchoatives und ein kausatives Gefüge vor. Ausdrücke wie zur Anwendung kommen, eine Verbesserung erfahren oder Anerkennung finden werden wiederum wegen der passivähnlichen Satzgliedkonstellation oft Konkurrenzformen des Passivs genannt. Reihenbildungen im nominalen Teil, etwa zur Anwendung/zum Ausbruch/in Bewegung kommen oder eine Verbesserung/eine Bestätigung/eine Veränderung erfahren, oder aber im verbalen Teil, wie bei dem aktionalen Tripel mit sein, kommen und bringen, zeugen von einer gewissen Produktivität. Für Grammatikalisierung sprechen morphosyntaktische Defekte: Besonders bei dem präpositionalen Typ ist der Numerus- und Artikelgebrauch der substantivischen Komponente festgelegt, und die Präpositionalphrase kann nicht um Attribute erweitert oder pronominalisiert (anaphorisiert oder erfragt) werden ⫺ all das spricht dagegen, den nominalen Teil als einen autonomen Aktanten zu betrachten. Helbig/ Buscha (1984, 80) z. B. sprechen zwar von der Grammatikalisierung der Funktionsverben, aber von der Lexikalisierung (eines Teils) der Funktionsverbgefüge. So gesehen sind zur Anwendung kommen oder zur Anwendung bringen nicht „Konjugationsformen“ von anwenden, sondern eine Art Wortbildungsprodukte in Form von Mehrwortlexemen. In einem Valenzstemma lassen sich die Teile des Funktionsverbgefüges als ein dissoziierter Zentralnukleus darstellen, vgl. das Stemma für den Satz (10) Das Studententheater brachte das Stück zur Aufführung: (10)
brachte zur Aufführung
Das Studententheater
das Stück
749
53. Der verbale Valenzträger
4.2.2. Verbidiome Das obige Prinzip kann auf Verbidiome (verbale Phraseolexeme) angewendet werden: Die festen Bestandteile eines Verbidioms gehören zum Zentralnukleus. Somit unterscheidet sich das Valenzstemma eines Verbidioms von dem eines entsprechenden literal verwendeten Verbs (vgl. Wotjak 1992, 34): Dem Satz Lotte gab dem Nachbarn einen Korb entspricht das Stemma (11a), falls von einem konkreten Überreichen eines Korbs die Rede ist. Bei der idiomatischen Bedeutung ‘ablehnende Antwort auf einen (Heirats-)Antrag geben’ ist die Komponente einen Korb dagegen Teil des verbalen Nukleus, vgl. (11b). gab
(11) a.
Lotte
b.
dem Nachbarn einen Korb gab einen Korb
Lotte
dem Nachbarn
Auch das Subjekt kann durch Metaphorisierung und idiomatische Konventionalisierung auf das Regens fallen und zum Teil des Nukleus eines Verbidioms werden. Da das Subjekt in der verbzentrierten Valenztheorie keine Sonderstellung hat, sind auch die sog. festgeprägten prädikativen Konstruktionen wie jmdm. fällt das Herz in die Hose oder jmdn. reitet der Teufel (vgl. Reichstein 1974; Fleischer 1982, 104⫺107) so zu analysieren, dass (auch) die nominativische Komponente zum Zentralnukleus gehört und der syntaktische Stellenplan des Idioms somit subjektlos ist, vgl. Korhonen (1995b, 95; 101). Der Satz (12) Ihm ist das Herz in die Hose gefallen sieht also wie folgt aus: (12)
ist das Herz in die Hose gefallen
Ihm
Fleischer (1982, 164 f.) unterscheidet bei Verbidiomen zwischen innerer (konstruktionsinterner) und äußerer (konstruktionsexterner) Valenz und meint damit Folgendes: Von den originären Ergänzungen des Vollverbs geben in (11a) oben sei in (11b) das Akkusativobjekt einen Korb durch Idiomatisierung zu einem unauflöslichen Partner von geben geworden, so dass die entsprechende
Leerstelle in dieser festen Konstruktion schon gesättigt ist. Die konstruktionsexterne Valenz, d. h. der syntaktische Stellenplan mit variabel zu besetzenden Leerstellen, ist entsprechend um eine Stelle ärmer geworden (vgl. das Prinzip der sukzessiven Konnexionen unter 3.). Auch wenn dies den Restrukturierungsprozess nachvollziehbar macht, würde es eine Simplifizierung bedeuten, die Stellenpläne von Verbidiomen nur durch solche Subtraktionen als eine Art Restvalenz erklären zu wollen. Dies hat unter anderem die gründliche Gegenüberstellung von idiomatischen und nicht-idiomatischen Satzbauplänen durch Barbara Wotjak (1992, 47⫺71) gezeigt. Denn es gibt idiomatische Gefüge ohne literales freies Pendant, z. B. etw. auf die Beine stellen, wo das Akkusativobjekt ein Abstraktum ist und deswegen mit der literalen Bedeutung von Beine inkompatibel ist. Oft enthalten die Idiome auch Komponenten, die gar nicht zum Stellenplan des entsprechenden frei verwendeten Verbs gehören, vgl. jmdm. ein Loch in den Bauch fragen. Und schließlich tendieren die Verbidiome dazu, auf Grund der idiomatischen Bedeutung solche Leerstellen zu eröffnen, die das Idiom konzeptuell in ein semantisches Feld integrieren, die aber bei dem entsprechenden freien Verb nicht vorhanden sind, vgl. Er zerbrach die Vase aber Er zerbrach sich den Kopf über diese Frage, wo das Präpositionalobjekt mit demjenigen bei über etw. nachdenken parallel ist. Solche Fälle können nicht als bloße Grenzverschiebungen zwischen dem verbalen Nukleus und dem Restsatz erklärt werden. Besondere Probleme bei der Abbildung der Valenzstruktur entstehen dann, wenn eine semantische Leerstelle bei einem Verbidiom durch eine grammatische Größe realisiert wird, die ihrer Bauart und/oder Distribution sowie Permutierbarkeit nach nicht selbstständiges Satzglied sein kann. Morphosyntaktisch handelt es sich um ein ähnliches Problem, wie es bei substantivischen Prädikativen mit weiteren Bestimmungen entsteht, falls das Prädikativ zum Zentralnukleus gezählt wird, vgl. 4.3. So kommt Korhonen (1995a, 82; 1995b, 97) zu dem Schluss, dass etwa in dem Idiom zu jmds. Diensten stehen der genitivischen Größe wegen ihres Attributcharakters in einer syntaktisch orientierten Valenzbeschreibung kein Satzgliedstatus und somit keine Stelle im Satzbauplan zukommt; sie sei Teil des Idiomkerns. Dagegen nehme bei der morphosyntaktischen Variante jmdm. zu
750 Diensten stehen die Dativphrase durchaus eine syntaktische Stelle im Satzbauplan des Idioms ein. So sei die erstere Variante syntaktisch einwertig, die letztere zweiwertig, obwohl bei beiden zwei (erfragbare) Größen involviert sind. Ein Ausweg aus dem Dilemma, dass bei gleichbleibender inhaltlicher Ergänzungsbedürftigkeit ein quantitativer Unterschied in den syntaktischen Stellenplänen entsteht, weil die Variante mit der Genitivbestimmung quasi um eine Stelle ärmer ist, könnte es m. E. sein, in einem nukleusorientierten Konzept für Verbidiome als Sonderkategorie fester verbaler Mehrwortlexeme einen neuen Ergänzungstyp zu gründen, die etwa ‘attributartige Semi-Ergänzung’ heißen könnte. Der Satzbauplan des Variantenpaares könnte also heißen: Subjekt ⫹ Dativobjekt/genitivattributartige Semi-Ergänzung. Andernfalls würde nämlich tatsächlich im Idiomkern eine Art interne Valenzleerstelle (auch wenn syntaktisch nominaler Art) postuliert werden müssen, und per definitionem darf der Idiomkern nur feste Elemente enthalten. 4.3. Kopulakonstruktionen Die Termini ‘Prädikatsnomen’, ‘nominales Prädikat’ bzw. ‘Prädikativ’ deuten darauf hin, dass mit Adjektiven und Substantiven ⫺ ähnlich wie mit Verben ⫺ etwas über eine Bezugsgröße prädiziert werden kann. Während Prädikatsverben primär dynamische Tätigkeiten ausdrücken, geben prädikative Adjektive statische Eigenschaften an, und durch ein substantivisches Prädikativ kann die Bezugsgröße in eine Klasse eingeordnet oder identifiziert werden. Logisch-semantisch gesehen liegt der Inhaltskern namentlich im Prädikativ. Somit müsste es in einem nukleusorientierten Dependenzstemma oberhalb der Bezugsgröße stehen; dem Kopulaverb käme nur die Funktion eines grammatischen Hilfswortes zu. Da ein Adjektiv immer eine Bezugsgröße haben muss, gilt im Adjektivvalenzwörterbuch von Sommerfeldt/Schreiber (1974) jedes Adjektiv als zumindest einwertig. Außerdem regieren viele Adjektive valenzbedingte kasuelle oder präpositionale Ergänzungen, die mit denen des Verbs vergleichbar sind. Wird die Einheit Kopula ⫹ adjektivisches Prädikativ als ein dissoziierter Nukleus betrachtet, ist der Vorteil gewonnen, dass die Sätze (13a) Er dankt uns für die Hilfe und (13b) Er ist uns für die Hilfe dankbar ähnliche Strukturstemmas haben (vgl. auch Welke 1988, 158 f.):
VI. Valenz: Schwerpunkte der Forschung
(13) a.
dankt
Er
b.
uns
für die Hilfe
ist dankbar
Er
uns
für die Hilfe
Besonders gut eignet sich diese Lösung für solche (allerdings wenige) Adjektive, die nur prädikativ verwendet werden und bei denen die Verbindung mit der Kopula somit besonders eng ist. Einige der von Helbig/Buscha (1984, 315 f.) angeführten Kopulaverbindungen können tatsächlich als Verbidiome gelten, so etwa pleite sein oder jmdm./einer Sache gerecht werden. Ein weiterer Vorteil wäre, dass die Verbindung sein ⫹ Perfektpartizip auch in dem Fall, dass sie als Kopula- und nicht als Passivkonstruktion betrachtet wird, letztendlich ⫺ auch wenn aus anderen Gründen ⫺ ein hierarchisch ähnliches Stemma bekäme wie das werden-Passiv, vgl. (14a) Die Tür ist geöffnet und (14b) Die Tür wird geöffnet. (14) a. ist geöffnet
Die Tür
b. wird geöffnet
Die Tür
Auch Tesnie`re (1980, 137 ff.; 324 f.) geht davon aus, dass in Kopulakonstruktionen das Prädikatsnomen (Adjektiv oder Substantiv) der eigentliche Valenzträger ist, der mit Hilfe des Auxiliars sein durch eine einfache verbale Translation in ein Verb überführt wird. Anstatt diese zweiteilige Einheit auf der hierarchisch höchsten Ebene darzustellen, platziert er die Kopula an die Spitze, das Prädikativ aber auf dieselbe Ebene mit der Bezugsgröße, und umringt Kopula und Prädikativ mit einem Nukleuskreis, während die logisch-semantische Konnexion zwischen Prädikativ und Bezugsgröße (die eigentlich Aktant des Prädikativs ist) mit einem punktierten Strich visualisiert werden kann. Der Satz Er ist uns für die Hilfe dankbar bekommt somit das Stemma:
751
53. Der verbale Valenzträger
(13) b’.
ist
Er
dankbar
uns
für die Hilfe
Diese hierarchische Aufteilung ist besonders begründet, wenn „das Prädikatsnomen aus mehreren Elementen besteht, denn dann müssten alle diese Elemente zusammen mit dem Auxiliarverb an einer Stelle im Stemma erscheinen“ (Tesnie`re 1980, 138). Insbesondere das substantivische Prädikativ kann Erweiterungen haben, die struktural nicht als Verbdependentien gelten können. Denn während der Satz Alexander ist Herrscher über ein Weltreich noch durchaus verglichen werden könnte mit dem Satz Alexander herrscht über ein Weltreich, der aus Vollverb, Subjekt und Präpositionalobjekt besteht (vgl. Erben 1972, 256), liegt im Satz Herr Müller ist der Direktor der 20. Oberschule (vgl. Welke 1988, 161) eine genitivische Erweiterung des Prädikativs vor, die syntaktisch nicht Objekt, sondern Attribut ist. Logisch-semantisch ist der Satz allerdings noch mit Herr Müller leitet die 20. Oberschule vergleichbar. Sätze mit einem Nomen actionis als Prädikativ würden aber Schwierigkeiten bereiten, denn würde im Satz Das ist die Unterstützung der Sportler durch die Regierung die Sequenz ist die Unterstützung als dissoziierter Nukleus betrachtet, läge mit Das, der Sportler und durch die Regierung als Ergänzungen Dreiwertigkeit vor, obwohl das Basisverb unterstützen zweiwertig ist (vgl. Helbig/Schenkel 1973, 178). Korhonen (1977, 230⫺233) warnt vor einer Ebenenvermischung und plädiert dafür, das Kopulaverb als Hauptvalenzträger zu betrachten, der „das Subjekt und das substantivische Prädikativ als Ergänzungen“ hat, wobei „das Prädikativ […] aber seinerseits als Valenzträger auftreten und Ergänzungen zu sich nehmen [kann], die jedoch keine Satzmodelle, sondern nominale Gruppen konstituieren“ (Korhonen 1977, 233). Ebenfalls Tarvainen (1981, 57 ff.) hebt hervor, dass das Prädikativ syntaktisch vom Verb abhängt. Den Vollverbcharakter des Kopulaverbs begründet er u. a. damit, dass sein in dieser Funktion ⫺ anders als das temporale Hilfsverb ⫺ über ein volles Tempusparadigma verfügt (vgl. auch Rolland 1998, 438). Seine Anaphorisierungs- und Permuta-
tionsproben weisen das Prädikativ dagegen nicht eindeutig als Satzglied aus, denn Prädikative und infinite Prädikatsteile verhalten sich oft ähnlich. Zur Anaphorisierung vgl. die Fragen Ist er gekommen? Ist er froh?, die beide mit Ja, er ist es beantwortet werden können; zur Vorfeldpermutation vgl. Gekommen ist er erst später, und froh ist er überhaupt nicht. Das substantivische Prädikativ bildet dagegen eine deutlichere syntaktische Einheit, denn die weiteren Bestimmungen bleiben in der Regel topologisch im Substantivfeld, vgl. *Über ein Weltreich ist Alexander Herrscher; *Heiteren ist Alfred Sinnes; *Der 20. Oberschule ist Herr Müller der Direktor. In den Valenzwörterbüchern von Helbig/ Schenkel (1973, 55 f.) und Engel/Schumacher (1978, 26; 72⫺76) sowie in der Duden Grammatik (1995, 652) gelten die prädikativen Adjektive und Substantive als eigenständige Aktanten. Sowohl die Duden Grammatik (1995, 667⫺671) als auch die Grammatik von Helbig/Buscha (1984, 629 ff.) sehen besondere Nebenpläne mit einem prädikativen Adjektiv als (sekundärem) Valenzträger vor. Helbig/ Buscha (1984, 631⫺634) gehen auch bei prädikativen Verbalsubstantiven ähnlich vor und machen bei dem substantivischen Prädikativ im Nominativ auf die Valenzerhöhung aufmerksam. Darüber, ob das neutrale Kopulaverb sein ein leeres Hilfswort oder aber ein Vollverb ist, sind die Meinungen also geteilt. Neben den zwei extremen Auffassungen gibt es eine Kompromissalternative, nach der nur das adjektivische Prädikativ zum Zentralnukleus gehört, das substantivische Prädikativ aber einen Aktantenstatus hat. Diese Auffassung wurde z. B. von Heringer (1970) vertreten (vgl. auch Fabricius-Hansen 1972), während Heringer (1996, 79⫺82) heute eine Einheitslösung anstrebt und neben prädikativen Adjektiven auch Substantive als Bestandteile von sog. (inneren) Verbalphrasen betrachtet: „Semantisch gehören beide zu den prädizierenden Satzteilen, sie sollten darum nicht als Komplemente behandelt werden“ (Heringer 1996, 81; vgl. auch 5.3). Ausgenommen sind aber identifizierende substantivische Prädikative; sie werden als referierende Komplemente mit einer Null als Äquationselement betrachtet. Immerhin wird auch die Gegenalternative in Erwägung gezogen, dass adjektivische Äquationen zugelassen würden, was eine Zusammenfassung von adjektivischen und substantivischen Prädikativen als Kom-
752 plemente ermöglichen würde (Heringer 1996, 82; 140 f.). Nebenbei sei angemerkt, dass ein logischsemantisch orientiertes Valenzkonzept, das das Prädikativ zum eigentlichen Valenzträger erhebt, mit der Auffassung kompatibel ist, dass sowohl situierende Adverbiale als auch Einstellungsbekundungen in Form von Modalwörtern wie wahrscheinlich oder hoffentlich (vgl. Welke 1988, 44; 74⫺85; Helbig/Buscha 1984, 500 ff.) im Valenzstemma dem Prädikat übergeordnet werden müssten, d. h. eine Art Prädikat zu Prädikat wären. Damit wäre die Auffassung vom Verb als hierarchischem Zentrum des Satzes verlassen. Den obigen Elementen fehlt jedoch die Eigenschaft, struktural und semantisch spezifische Konnexionen zu knüpfen: Sie beteiligen sich nicht an der Konstituierung des Satzbauplanes. Da die prädikatenlogische und die syntaktische Analyse an mehreren Stellen in Widerspruch geraten, rät Erben dem Grammatiker (1972, 255), „nicht von der Wertigkeit des ‘Prädikats’, sondern unmissverständlicher von der Valenz des Verbs zu sprechen“. Zusammenfassend sei festgehalten, dass ein nukleusorientierter Ansatz nur dann das Kopulaverb für das eigentliche Satzzentrum erklären kann, wenn es ihm den Status eines autosemantischen Vollverbs einräumt. Die Kompromisslösung Heringers (1970) kann semantisch nicht begründet werden. Wird das Kopulaverb wiederum als semantisch leer betrachtet, muss man mit einem zweigeteilten Nukleus rechnen. 4.4. Pronominale Elemente als Teil des Verbs Es gibt pronominale Satzteile, die kein lexikalisches Substitutionsparadigma haben, nämlich das Reflexivpronomen bei den echten, nur-reflexiven Verben oder Verbvarianten (sich schämen; sich vorstellen) und das semantisch leere es als formales Subjekt oder (Akkusativ-)Objekt (Es schneit; Er hat es eilig). Schon Stötzel (1970) hat auf das Auseinanderklaffen der Inhalts- und Ausdrucksvalenz aufmerksam gemacht (vgl. auch Erben 1972, 250 f.). Wenn die genannten Pronominalelemente aus Inhaltsgründen nicht als Aktanten gelten können, ist es naheliegend, sie zum verbalen Zentralnukleus zu zählen, auch wenn es sich nicht um klammerbildende Elemente handelt. Während es im Satz dieselben Positionen einnehmen kann wie das echte neutrale Pro-Wort es, gibt es in den Stellungsregulari-
VI. Valenz: Schwerpunkte der Forschung
täten des substituierbaren und nicht-substituierbaren sich Unterschiede: Nur das erstgenannte ist akzentuierbar und vorfeldfähig, vgl. Sich hat er gewaschen, aber *Sich hat er geschämt. Die beiden Verbvalenzwörterbücher Helbig/Schenkel (1973, 95 f.) und Engel/Schumacher (1978, 42⫺45) sowie die Grammatik von Helbig/Buscha (1984, 624) lassen die leeren Pronominalformen als Verbbestandteile gelten, genau wie für Tesnie`re (1980, 97; 162 f.; 194) in (15a) Es regnet ein nullwertiges, in (16) Alfred erhebt sich ein auf die „rezessive Diathese“ zurückgehendes einwertiges Verb vorliegt. Korhonen (1977, 248 ff.) referiert sorgfältig die einschlägige Literatur, sieht aber einen graduellen Unterschied zwischen es und sich, und zwar dahingehend, dass es als formales Subjekt auf Grund der Permutierbarkeit und der beschränkten Substituierbarkeit (vgl. Es läutet ⫺ Die Glocke läutet) mehr an einen Aktanten erinnert. Für Tarvainen (1981, 104; 108) läuft die Grenze tatsächlich zwischen diesen beiden Pronominalelementen. So sei das Reflexivpronomen bei sich weigern (und entsprechend bei sich erheben) Teil des Verbs, vgl. (16). Für Verben mit dem formalen es unterscheidet Tarvainen (1981, 41; 50; 67⫺70; 105 ff.) aber besondere „Formwortmodelle“ mit einem rein syntaktischen Subjekt bzw. Objekt und markiert die inhaltsleere Konnexion mit einer besonderen Wellenlinie, vgl. (15b) unten. Auch in der Duden Grammatik (1995, 327) gilt das Reflexivpronomen der echt reflexiven Verben als Verbbestandteil, wogegen das formale Subjekt in den Satzbauplänen syntaktisch mit dem lexikalischen Subjekt voll gleichgesetzt wird (Duden Grammatik 1995, 655; 658; 664). Ebenfalls Rolland (1998, 442 ff.) betrachtet es als Subjekt, das Reflexivpronomen möchte sie aber sogar bei den unechten reflexiven Verben zum Verb selbst zählen. Anstatt den Satzbauplan Alfred wäscht sich wie üblich als zweiwertig, wie im Stemma (17a) unten, darzustellen, würde Rollands Auffassung das einwertige Stemma (17b) ergeben. (15) a. Es regnet b.
regnet
Es
(16)
erhebt sich Alfred
753
53. Der verbale Valenzträger
(17) a.
wäscht
Alfred
sich
b. wäscht sich Alfred
Ein fast umgekehrtes Problem liegt vor, wenn die Valenzpotenz eines Verbs zwar eine Subjektstelle vorsieht, ein deiktisches Subjekt aber pronominal nicht realisiert zu werden braucht und trotzdem „mitverstanden“ wird. Im Finnischen etwa können Personalpronomina der ersten und zweiten Person unerwähnt bleiben; bei den Formen laulan ‘ich singe’, laulat ‘du singst’ ist das Subjekt schon in der finiten Personalendung integriert (Tarvainen 1985, 106 f.). Im Lateinischen kann die Subjektgröße sogar in der dritten Person fehlen. In Anlehnung an lat. amat will Tesnie`re bei frz. il aime in il nur einen subsidiären „persönlichen Index“ sehen, da die Pronominalform „ohne Verb gar nicht anwendbar ist“ (Tesnie`re 1980, 68 f.). Im Stemma steht il zwar unter aime, beide sind aber mit einem Kreis zu einem Nukleus verbunden. Weiter macht Tesnie`re darauf aufmerksam, dass im Ungarischen „die persönlichen Indizes des Verbs eine deutliche Analogie zu den Possessivsuffixen des Substantivs aufweisen“ (Tesnie`re 1980, 73). Neben der „subjektiven“ Konjugation gibt es im Ungarischen auch eine „objektive“, so dass gegebenenfalls sowohl das Subjekt als auch das Objekt in der finiten Verbform morphologisch „amalgamiert“ sind. In Anleh´ gel nung an La´szlo´ (1988) u. a. plädiert A (1993, 40 ff.) dafür, zwischen einer morphologischen Mikroebene und einer syntaktischen Makroebene der Valenz zu unterscheiden, wobei einige Aktanten auf beiden Ebenen realisiert werden können und somit Zwei-Ebenen-Aktanten sind. Dabei ist die Realisierung auf der morphologischen Mikroebene obligatorisch, wogegen die Bezeichnung auf der syntaktischen Makroebene ausbleiben kann; diese wird zur informationsstrukturellen Markierung, etwa Topikalisierung oder Hervorhebung, ausgenutzt. In diesem Ansatz ´ gel (1993, 43) auch eine Lösung für sieht A die Beschreibung des deutschen (und ungarischen) Imperativs: Anstatt die Form Iß! als eine Reduktionsform des Indikativs anzuse-
hen, kann das deiktische Subjekt hier als mikrovalenziell realisiert gelten, und die umstrittene Frage, ob du im Satz Iß du! tatsächlich als Subjekt ⫺ oder etwa als Anrede ⫺ fungiert, findet eine elegante Lösung in der Erklärung, dass die makrovalenzielle Subjektrealisierung hier bei besonderer Betonung erfolgt. Das Weiterführende in diesem Ansatz ist, dass die Valenz als „Potenz relationaler Lexemwörter verstanden wird, die zu realisierende grammatische Struktur zu prädetermi´ gel 1995, 3), die Formen, Typen nieren“ (A und Ebenen der grammatischen Realisierung aber einzelsprachspezifisch sind und sogar sprachintern je nach grammatischer Struktur variieren können, was eine gute Grundlage für typologische Vergleiche bildet (vgl. auch ´ gel 1993, 28). Zugleich ist der Ansatz ein A sprechender Beweis für das Primat der Verbmorphologie bei der Strukturbeschreibung ´ gel 1993, 40). des Satzes (A 4.5. Verbzusätze, Pseudoverbzusätze und Kompositionsglieder Engel (1994, 107 ff.) zählt die Verbzusätze (d. h. die trennbaren Präfixe) zu den Klammerelementen und stellt sie im Dependenzstemma des Verbalkomplexes auf einer separaten Ebene dar, auch wenn sie als integrale Wortbestandteile eine Sonderstellung haben. Eroms (1985, 311; 1993, 27) berücksichtigt ihre Klammerbildungsfähigkeit, lässt sie aber als Wortteile im Stemma bei ihrem Basisverb bleiben und begründet dies mit der funktionalen Ähnlichkeit zwischen festen und trennbaren Präfixen. Pronominaladverbien wie herunter, hinein, davor, dahinter sind Pseudoverbzusätze, denn sie können mit Adverbialergänzungen kommutieren, aber auch mit ihnen kookkurieren. Sie sind laut Engel/Schumacher (1978, 36 f.) als Ergänzungen oder Teile von Ergänzungen zu analysieren. In der Wortbildung gelten sie aber als trennbare Kompositionsteile (Duden Grammatik 1995, 427 f.). Weitere Überlappungen von Wortbildung und Syntax zeigen Inkorporierungen von Dependentien bzw. autosemantischen Satellitenteilen, vgl. danksagen (⬍ Dank sagen), seiltanzen (⬍ auf dem Seil tanzen). Die neue Rechtschreibung macht viele Kompositionsfugen rückgängig, vgl. leicht fallen, kennen lernen. Eine genauere Analyse der Konsequenzen der Reform für strukturelle Interpretationen ist Aufgabe der Wortbildungsforschung.
754
5.
VI. Valenz: Schwerpunkte der Forschung
Das verbale Regens in wortdependenziellen Theorien
Während in 4. der struktural und semantisch definierte Nukleus den Ausgangspunkt für die Staffelung der hierarchischen Struktur des Satzes bildete, werden hier Ansätze erörtert, die zwar die semantische Ebene berücksichtigen, die stemmatische Darstellung aber primär auf strukturale Konnexionen auf der Wortebene gründen. 5.1. Engels Monemkonnexionen Engel (1994, 18 f.) setzt sich eine Produktionsgrammatik zum Ziel, in der es in erster Linie um ausdrucksseitige Kombinatorik geht. Er setzt bei den kleinsten Elementen, den Monemen ⫺ die Wörter, Flexeme oder Derivate sein können ⫺ an und schreitet zu den immer größeren Einheiten Phrase, Satz und Text weiter (Engel 1994, 18 f.; 38; 48). Unter Wörtern sind flexemfreie Elemente (also eigentlich Wortstämme) gemeint (Engel 1994, 57). In den sog. monematisierten Diagrammen wird der Verbalbereich entweder durch Verbstämme oder Verbformen abgebildet; Verbflexeme werden nicht, Verbzusätze bei Bedarf auf einer eigenen Hierarchieebene dargestellt (vgl. Engel 1994, 46 f.; 49; 107⫺ 112). In Regeln und in Diagrammen, die Symbole enthalten, werden Monemklassensymbole (etwa V ⫽ Verb, Nom ⫽ Nomen usw.) und/oder Pauschsymbole für (Satz-) Glieder (E ⫽ Ergänzung, A ⫽ Angabe) und Phrasen (etwa NomP ⫽ Nominalphrase) verwendet (Engel 1994, 45 f.). Es werden drei Regeltypen unterschieden, nämlich Konnexions-, Transformations- und phonische Regeln, wobei es in der konnexionellen Komponente um abstrakte, stellungsneutrale Strukturen in einem rein kombinatorischen Sinn geht (Engel 1994, 34; 37). Folgeregeln bilden ein eigenes Subkapitel (Engel 1994, 181⫺206). In der Dependenzhierarchie werden die Konnexionen aus zwei Perspektiven, extern und intern, betrachtet: Das Regens regiert einen Satelliten (der aus einem oder mehreren Wörtern bestehen kann) von außen her. Wird der Satellit als Ganzes betrachtet, so wird das intern regierende Element Nukleus genannt. Die Phrasen werden nach ihrem Nukleus benannt. (Engel 1994, 91) Da der Satz von einem Verb regiert wird, ist der Satz in sich eine Verbalphrase (Engel 1994, 105) ⫺ Engel operiert nicht mit dem Begriff Prädikat. In dem Satz Der Spatz sitzt auf dem Dach(e) regiert das Verb sitz- extern die nominativische No-
minalphrase Der Spatz und die Präpositionalphrase auf dem Dach(e). Der intern regierende Nukleus der nominativischen Phrase ist Spatz, derjenige der Präpositionalphrase die Präposition auf. Bei Tesnie`re wiederum ist die Präposition als leeres Translativ nicht allein nukleusfähig, sondern nur in dem Sinne „intranuklear“, als sie Teil eines „gemischten Nukleus“ ist (Tesnie`re 1980, 81 f.; 259 f.). Es ist also darauf zu achten, dass Engel an manchen Stellen bewusst von Tesnie`res Prinzipien abweicht (vgl. Engel 1994, 42). Ein wesentlicher Gesichtspunkt ist weiter, dass Phrase und Glied nicht gleichbedeutend sind. Phrasen werden intern durch den Nukleus bestimmt, während Glieder vom Regens extern selegierte Satelliten (und somit relationale Größen) sind, die in den Stemmas auch ohne explizite Phrasenstruktur als Pauschsymbole erfasst werden können. Die Bezeichnung Gruppe kann undifferenziert für Phrase oder Glied stehen. (Engel 1994, 92⫺96) Die syntaktische Eigenschaft eines Wortes, Glieder in einer strukturalen Konnexion regieren zu können, nennt Engel Rektion. Auf Teile von Wortklassen beschränkte und somit subklassenspezifische Rektion heißt wiederum Valenz, und subklassenspezifische Glieder sind Ergänzungen. Angaben können dagegen von allen Elementen einer Wortklasse abhängen. Valenzbedingte Ergänzungen können bei Verben, Adjektiven, Substantiven und Präpositionen vorkommen, und die drei erstgenannten können freie Angaben regieren (Engel 1994, 96⫺101; zu freien Angaben bei Präpositionen vgl. jedoch Eroms 1991, 223). Während Engels Verbalphrase (im weiteren Sinn) sowohl das Regens als auch die Satelliten umfasst, besteht der Verbalkomplex aus der „Verbalphrase im engeren Sinn, […] aus lediglich verbalen Elementen (unter Einschluss des Verbzusatzes)“ (Engel 1994, 315). Die Verben werden in Haupt- und Nebenverben eingeteilt (Engel 1994, 105 ff.). Hauptverben brauchen in ihrer Distribution kein weiteres Verb, wogegen Nebenverben auf Grund ihrer Valenz immer andere Verben regieren. Die regierte infinite Form (mit ihren Dependentien) ist Verbativergänzung des Nebenverbs. Je nachdem, in welcher Form das regierte Verb steht, werden die Nebenverben in Infinitiv- und Partizipverben eingeteilt. (Eine detailliertere, teilweise abweichende Typologie des Verbal Komplexes findet sich bei Engel 1988, 443⫺449.) Zu den Infinitivverben zählt Engel (1994, 106) Modalverben, Modalitätsverben und sonstige Infinitivver-
755
53. Der verbale Valenzträger
ben. Valenzneutralität im askedalschen Sinne ⫺ und als Teilaspekt davon Subjektneutralität ⫺, wie sie oben unter 4.1.2⫺4.1.3 bei den „Chamäleonverben“ definiert wurde, spielt für Engel keine Rolle, denn für ihn ist schon das zweite Verb eine valenzspezifische (Verbativ-)Ergänzung. So ist es für die Einordnung der Modalverben (dürfen, können, mögen, müssen, sollen, wollen, werden, brauchen) als Nebenverben irrelevant, ob sie epistemisch oder deontisch verwendet werden, sie stehen immer eine Ebene höher als der Infinitiv. Unter Engels Modalitätsverben erscheinen neben den syntaktisch neutralen scheinen und pflegen auch Verben wie belieben, gedenken und verstehen, die schon aus eigener Kraft (und nicht erst durch das Infinitivverb) ein belebtes Subjekt verlangen und somit nicht „Chamäleonverben“, sondern Subjektkontrollverben (und nach diesem Kriterium also Vollverben) sind. Unter Engels „sonstigen Infinitivverben“ stehen ⫺ neben dem AcI-Verb lassen ⫺ auch heißen und bedeuten, die ihr belebtes Subjekt selbst selegieren und darüber hinaus ein eigenes Objekt verlangen, so dass hier ⫺ wieder mit anderen als Engels Kriterien ⫺ Objektkontroll-Vollverben vorliegen. Zu den Partizipverben gehören u. a. die üblichen Auxiliarverben haben, sein, werden und die selteneren bekommen und gehören. Bei Perfekt, Passiv und Futur handelt es sich laut Engel (1994, 107; 113) nicht um Flexemkategorien des Verbs, etwa um periphrastische Konjugation, sondern um Verbalkomplexe. Perfekt und Plusquamperfekt z. B. seien keine Tempusformen, sondern aspektische Phasenkonstruktionen. Neben den Auxiliaren gibt es sonstige Partizipverben, u. a. kommen und stehen, vgl. Es kommt ein Schiff gefahren. Eine mit den Nebenverben verwandte Klasse sind die Funktionsverben, sie regieren aber statt eines zweiten Verbs eine Nominaloder Präpositionalphrase mit einem Deverbativum (Engel 1994, 105 f.; vgl. auch Engel 1988, 407⫺410). Mehrere Nebenverben können verkettet werden, so dass mehrgliedrige Verbalkomplexe bzw. lange Dependenzäste entstehen. Jedes Element des Verbalkomplexes habe neben der strukturellen Funktion eine bestimmte „lexikalische“ Bedeutung, so dass eine geregelte Folge von Prädikationen entstehe, in der jedes Regens seinen Satelliten prädiziere bzw. näher bestimme. Im Stemma des Verbalkomplexes laufe die Prädikation
von oben nach unten. Der Verbzusatz gilt einerseits als integraler Bestandteil des Hauptverbs, der die (grammatische) Bedeutung des Verbalkomplexes nicht beeinflusst, zugleich sei er aber das dependentiell unterste Element im Verbalkomplex (Engel 1994, 111 f.). Bei dem Stemma des Verbalkomplexes stellt Engel (1994, 108 f.) gewisse Regelmäßigkeiten fest: Da die Regentien immer Nebenverben seien, gebe es erstens keine Verzweigungen, und zweitens gebe es nur obligatorische Ergänzungen. An anderer Stelle findet sich eine dritte Behauptung: „Das Vorkommen sämtlicher Ergänzungen, also auch des Subjekts, wird durch die Valenz des Hauptverbs, nicht die des finiten Verbs gesteuert“ (Engel 1988, 188; vgl. auch ebd. 183). Engels erste Behauptung scheint nicht ganz klar. Verbbifurkationen gibt es nicht, und ohne sonstige Zweige kommt man aus, solange die Regentien im Verbalkomplex „Chamäleonverben“ sind. Allerdings kommt das Nominativsubjekt so unter eine infinite Form zu stehen, obwohl infinite Formen bekanntlich kein Subjekt haben, vgl. unten das Stemma des Satzes (18) Karl hat lachen müssen. Weiter braucht man auf eventuelle Verzweigungen nicht zu achten, falls nur der Verbalkomplex, nicht der ganze Satz abgebildet wird, vgl. das Teilstemma für (19) Er hat etwas vorführen lassen wollen (vgl. Engel 1994, 108 f.). (18)
Vaf
hat
Vm p müssen
Vi<sub> lachen
Esub Karl
Von Engels Symbolen kommen in den Stemmas unten folgende vor: Va ⫽ Auxiliarverb, Vm ⫽ Modalverb, Vz ⫽ Verbzusatz, V ⫽ Hauptverb; Esub ⫽ Subjekt, Eakk ⫽ Akkusativergänzung, Evrb ⫽ Verbativergänzung. Die Indizes f, p, i weisen auf die morphologischen Formen Finitum, Perfektpar-
756
VI. Valenz: Schwerpunkte der Forschung
tizip und Infinitiv hin. In spitzen Klammern stehen Rektionsindizes (für f, p, i vgl. oben) bzw. Valenzindizes wie sub, akk, die den Ergänzungsklassen entsprechen. Der sog. Ersatzinfinitiv müssen in (18) ist funktional mit einem Perfektpartizip gleichzusetzen.
(19)
(20)
bedeutet
sie
ihm
zu verlassen
Va f
hat
Zimmer das
Vm p wollen
(21)
V<sub vrb> lass
Vi i lassen Esub Peter
Vi führen
V<sub akk> unterschreib
Esub alle Kollegen
Eakk die Petition
Vz vor
In Schwierigkeiten kommt man aber u. a. mit dem Satz (20) Sie bedeutet ihm, das Zimmer zu verlassen, in dem das Regens zu den „sonstigen Infinitivverben“ gehört (Stemma einfachheitshalber ohne Kategorial- und Valenzindizes), oder mit dem Satz (21) Peter lässt alle Kollegen die Petition unterschreiben, denn hier müssen die Stemmas schon oberhalb des untersten Verbs verzweigen ⫺ aus Gründen, die mit Engels dritter Behauptung im Widerspruch stehen, denn in beiden Sätzen ist das Subjekt, in (20) außerdem das Dativobjekt nicht vom untersten Hauptverb selegiert. Den Satz (21) stellt Engel (1994, 165) in dem Abschnitt über Verbativergänzungen nicht mehr unter dem Aspekt der Phrasenstruktur des Verbalkomplexes, sondern als eine Bündelung von (Satz-)Gliedern dar; der Infinitiv regiert ein „Subjekt“, dessen Akkusativform aus dem Stemma nicht hervorgeht, vgl. (21). Die Umstellung von Phrasenstrukturen auf Pauschsymbole bleibt teilweise problematisch. Zwar definiert Engel (1994, 46) die Pauschsymbole als Satzgliedsymbole, es stellt sich aber heraus, dass erstens ein „syntaktisches Glied“ auch kleiner als ein Satzglied sein kann, so etwa das Nomenglied mit Oskar in der Nominalphrase Ärger mit Oskar (Engel 1994, 94), und dass zweitens nicht alle Verba-
tivergänzungen (Evrb) „Satzergänzungen“ (etwa Satzgliedern) im herkömmlichen Sinne entsprechen (Engel 1994, 165). Zwar wird klar, dass Nebenverben in Verbalkomplexen immer Verbativergänzungen regieren, nicht aber, ob die Verbformen der Verbativergänzung immer ⫺ auch bei Extraposition ⫺ mit denen des Obersatzes einen „Verbalkomplex“ bilden. Unter den Verbativergänzungen führt Engel (1994, 164) denn auch nebensatzförmige an. Dass auch in dem Satz Man muss sich fragen, wozu wir so lange gearbeitet haben die verbalen Elemente, darunter zwei Finitformen, einen Verbalkomplex bilden sollten, leuchtet weder topologisch noch satzgliedsyntaktisch ein. Engels als strikt gemeinte Einteilung in Hauptund Nebenverben ⫺ und damit die Begriffe des Hauptvalenzträgers und des Verbalkomplexes ⫺ bleibt also letztendlich ⫺ zumindest auf der Formulierungsebene ⫺ inkonsistent. Unter 4.1.2 wurden Nebenverben ⫺ von Engel abweichend ⫺ so definiert, dass das Vorkommen eines zweiten ⫺ infiniten ⫺ Verbs zwar eine notwendige, jedoch keine ausreichende Bedingung ist: Darüber hinaus muss Subjektneutralität (als wichtigste Form der Valenzneutralität) vorliegen. Das regierte Vollverb wird dann nicht als Ergänzung, son-
53. Der verbale Valenzträger
dern als ein satzgliedinternes (prädikatinternes) Dependens des regierenden Verbs angesehen, und dieses Vollverb determiniert den Satzbauplan. Wenn keine Subjektneutralität vorliegt, werden Infinitivgruppen oder Nebensätze bei Verben wie sich trauen, lassen oder finden, fürchten, wähnen, sich fragen als eine peripherische, nicht mit Nominalgruppen kommutierende Sonderform des Objekts (Infinitiv- bzw. Nebensatzobjekt) klassifiziert. 5.2. Eroms’ reine Dependenzkonnexionen In seinen neueren Arbeiten hat Eroms die Valenzperspektive um Anregungen durch die Rektions-Bindungs-Theorie und die X-barTheorie bereichert. Eroms fasst die Valenz primär lexikalisch-syntaktisch auf: „Valenz [bringt] wortsemantische Vorgaben syntaktisch ein […] und [leistet] einen Beitrag zur ⫺ interpretativen ⫺ Satzsemantik“ (Eroms 1991, 221). Die Art und Weise, wie in der Logik ein Prädikat Argumente bindet, bildet laut Eroms vor allem eine metaphorische Grundlage für den dependenzgrammatischen Valenzbegriff; die Aufgabe des Syntaktikers besteht darin, das Auseinanderklaffen der logischen und grammatischen Anordnung von Elementen im Satz auf eine möglichst elegante und empirisch nachvollziehbare Weise darzustellen (Eroms 1985, 307; 1991, 220 f.; 1993, 17). Logisch betrachtet eröffnet z. B. ein Adverbial „gleichsam eine Leerstelle für eine Proposition“ (Eroms 1991, 221), aber es gibt dennoch gute Gründe, die syntaktischen Valenzverhältnisse umgekehrt darzustellen, d. h. freie Adverbialangaben als Verbdependentien zu betrachten. Während Ergänzungen vom Verb gefordert sind und einer strikten Selektion unterliegen, sind Angaben nur schwach selegiert, indem sie zwar vom Verb restringiert werden, nicht aber im Stellenplan verankert sind (Eroms 1985, 315; 1993, 28). Der radikale Valenzbegriff geht von einem allgemeinen Rektionsprinzip aus, indem er für alle Wortarten Valenzen und freie Dependenzrelationen vorsieht, auch wenn diese sich in unterschiedlichen Ausprägungen realisieren. „Leerstellenbesetzung und Angabenkontrolle als grundlegende syntaktische Prinzipien von Wortverkettungen“ (Eroms 1991, 221) sowie das Klammerprinzip bilden im Satz ein hierarchisches Schichtensystem, in dem eine Strukturanalogie von Wörtern, Phrasen und Sätzen erkannt werden kann ⫺ hier wird also das Konstruktionsparallelitäts-
757 prinzip der X-bar-Theorie dependenztheoretisch fruchtbar gemacht (Eroms 1991, 219; 226; 1993, 20). Im Hinblick auf den verbalen Valenzträger enthält Eroms’ Ansatz drei wichtige Punkte: Das Verb verliert seine Spitzenstellung im Valenzdiagramm, die interne Dependenzstruktur der Verbalgruppe wird explizit dargestellt und die Sonderstellung des Subjekts wird im Dependenzstemma deutlich markiert. Die zwei letzgenannten Punkte hängen insoweit miteinander zusammen, als die Regelung der Abhängigkeitsbeziehung des Subjekts auf die Verrechnung der Valenzen im Prädikatskomplex Einfluss hat. Bekanntlich ist die Verbvalenz nur im propositionalen Teil des Satzes Quelle der Dependenzen, sie erklärt also nicht die gesamte Saztstruktur. „Die meisten Valenzgrammatiker sind so aufs Verb fixiert, dass sie die Dependenzverhältnisse an der Satzspitze auf sich beruhen lassen“ (Eroms 1991, 225). In Anlehnung an Kunze (1975) setzt Eroms das suprasegmentale Satzzeichen S an die Satzspitze. Dieses S gilt als Wortklassenäquivalent, die mit Punkt, Ausrufe- oder Fragezeichen indizierten S. S! S? wiederum als Wortäquivalente. Erst über das Satzzeichen wird das virtuelle Urteilsmuster eines Verbs aktualisiert. Materiell realisiert sich das Satzzeichen in der Intonation und einer satzartspezifischen Wortstellung. Eine zusätzliche Legitimation findet das Satzzeichen darin, dass die Markierung der „Satzkategorien“ Tempus und Modus vom S auf das Verb transportiert wird. Durch die Einführung des Satzzeichens können im Dependenzstemma außerdem noch zwei weitere Plätze eingeführt werden, nämlich ein Platz über dem Satzzeichen für Konnektoren und „Konjunktionsäquivalente“ und ein Platz unter dem Satzzeichen ⫺ aber über dem Verb ⫺ für Modalwörter (Eroms 1985, 309 f.; 1991, 224). Für Eroms sind Modalwörter also eine Art Hyperprädikate über dem Verb, während freie Angaben trotz ihres logischen Prädikatorcharakters zu den Verbdependentien zählen (siehe auch den letzten Abschnitt unter 4.3). ⫺ Das Stemma für den Teilsatz (22) denn vermutlich ist das richtig hat folgendes Aussehen (s. S. 758). Laut Eroms sind nur finite Verbformen eigentliche Verben, infinite Formen sind dagegen Nominalformen (ähnlich Engel 1994). Analytische Formen entsprechen deswegen nicht den synthetischen. So ist die Gesamtbe-
758
VI. Valenz: Schwerpunkte der Forschung denn
(22)
S. vermutlich ist
das
richtig
deutung von dt. wird gelesen werden nicht einfach gleichzusetzen mit lat. legetur, und der Prädikatskomplex soll nicht als eine „zusammengesetzte Verbform“ verstanden werden. Vielmehr bilden die Einheiten eine logische, unter Umständen mehrfach gestufte ⫺ und für die Linearisierung relevante ⫺ Hierarchiekette von Determinans-Determinatum-Beziehungen: Die für Nebensätze typische Wortfolge ist ein Spiegelbild der Hierarchie der Verbformen. Hier ⫺ wie bei Engel ⫺ ist das Prinzip der sukzessiven Konnexionen von Fourquet/Grunig (1971) (vgl. unter 3) also auf die innere Struktur des Verbalkomplexes angewandt worden. (Eroms 1985, 311; 1993, 21 f.; 28) Um die kommunikative Sonderstellung, die dem Subjekt schon durch den Stellenwert des Nominativs in der Kasushierarchie und durch prototypische Rollenrealisierungen zukommt, auch dependenziell zum Ausdruck zu bringen, macht Eroms das Subjekt bei mehrteiligen Verbalgruppen unmittelbar vom Finitum abhängig, ohne ihm den Ergänzungsstatus abzusprechen ⫺ die semantisch-selektionale und die morphosyntaktische Ebene müssen ja nicht immer parallel laufen. Das Finitum dominiert das Subjekt ⫺ oder genauer gesagt, das am Finitum anhaftende Personmorphem regiert das Subjekt, auch wenn dieses selektional von dem untergeordneten Vollverb bedingt ist. Die Konnexionen können als Transportwege aufgefasst werden. Bei freiem Vorkommen sind die Hilfs- und Modalverben zweiwertig. Die interne Einwertigkeit der periphrastischen Bindungen könne aus einer prinzipiellen (morphosyntaktischen) Zweiwertigkeit abgeleitet werden, denn „in auxiliarer Funktion ist die Valenz dieser Verben auf die Bindung anderer Verbformen (Partizipien und Infinitive) reduziert“ (Eroms 1991, 226). Die erste Valenzstelle des Auxiliars ist ⫺ strukturell ⫺ für das Subjekt vorgesehen, bekommt aber vom Auxiliar
selbst keine Selektionsanweisungen. Die zweite Valenzstelle wird durch das regierte Verb gebunden. Durch diese Anbindung an ein Regens wird das regierte Verb infinit und verliert die Subjektstelle, es reicht das „heimatlos gewordene“ Subjekt an das hierarchisch oberste Verb, an das Finitum weiter, bringt aber seine sonstigen Ergänzungen mit. Es kommt also zu einer Art Subjektanhebung. Strukturelle Widerstände gibt es schon deswegen nicht, weil das Subjekt im unmarkierten Kasus steht und morphosyntaktisch nicht subklassenspezifisch ist. (Eroms 1985, 313 ff.) Die Gesamtwertigkeit des Verbalkomplexes bleibt in diesem Fall also unverändert; die eigentliche Valenzquelle ist das infinite Vollverb. ⫺ Je nach dem oberen Verb (etwa beim Passiv oder den AcI-Konstruktionen) können die Transportwege komplizierter verlaufen. Zusammenfassend kann aber festgehalten werden, „dass ein infinites Verbmorphem anzeigt, dass ein Verb regiert ist, das finite zeigt an, dass es regiert“ (Eroms 1991, 227). Ein weiteres Argument für die Sonderstellung des Subjekts ist die Kongruenz. Eroms (1985, 314 f.) schließt sich der traditionellen Ansicht an, nach der der Kongruenzweg ein zu der Dependenzrichtung gegenläufiger Weg ist; die Kongruenz werde durch das Subjekt ausgelöst. Allerdings erwägt Eroms auch die Alternative, den Kongruenzweg in der gleichen Richtung mit dem Dependenzweg verlaufen zu lassen. „Das Subjekt wäre dann kategorial doppelt gekennzeichnet, einmal am finiten Verb selbst, sodann an der eigentlichen E-1-Stelle“ (Eroms 1985, 315). Diese Blickrichtung harmoniert mit dem Ansatz der ungarischen Valenzforscher, die für die Valenzrealisierung eine Mikro- und Makroebene vorsehen, so dass in gewissen Fällen Zwei-Ebenen-Aktanten begegnen (vgl. 4.4). Eroms bemüht sich darum, die Dependenzstrukturen nicht nur rein hierarchisch darzustellen, sondern Dependenz- und Linearisierungsstrukturen in einem projektiven Stemma zu vereinen. In einer neutralen Abfolge steht das Subjekt am weitesten links, im Hauptaussagesatz gefolgt vom Finitum, das die Verbalklammer öffnet. Der Schlussteil der Verbalklammer steht rechts unmittelbar vor dem Satzzeichen, und weitere Satzteile stehen zwischen den Klammerteilen. Die neutrale Abfolge kann für thematische Zwecke umgeprägt werden. (Eroms 1991, 226 ff.) Der Satz Der Herbst wird morgen Stürme gebracht haben kann nach den eromsschen Prinzipien
759
53. Der verbale Valenzträger
entweder rein hierarchisch, vgl. (23a), oder aber projektiv, vgl. (23b), stemmatisiert werden: .
(23) a. wird
Der Herbst
haben
gebracht Stürme
morgen
b.
S
Vfin Enom VinfI VinfII Atemp
Eakk
DerHerbst wird morgen Stürme gebracht haben.
5.3. Heringers lexemorientierte minimale Dependenzsyntax Während Engel (1994, 18) seine Syntaxdarstellung als eine Produktionsgrammatik charakterisiert, strebt Heringer (1996) eine „permissive“ und dadurch möglichst ökonomische lexemorientierte interpretative Oberflächensyntax an, die die hierarchischen Dependenzbeziehungen innerhalb von Wortstrings „deszendent“, d. h. spitzenorientiert darstellt und außerdem die Topologie berücksichtigt (Heringer 1996, 23; 28 f.). Heringers Terminus ‘deszendent’ bezieht sich also auf die Dependenzhierarchie, während Engel (1994, 18) mit ‘deszendent’ eine Analyse vom Satzganzen her, mit ‘aszendent’ eine Analyse von den kleinsten Elementen her (d. h. dasselbe wie Heringer mit ‘deszendent’) meint. Heringers Konzept hat Ähnlichkeiten mit dem von Eroms (5.2), ist aber wesentlich weiter zu einem Gesamtkonzept mit einem Regelformalismus entwickelt und zeigt auch einige gravierende Unterschiede. Ein Vergleich
mit Eroms (5.2) ergibt Folgendes: (a) Auch wenn der Satz sich nicht in der Proposition (in einer „großen Verbalphrase“) erschöpft, sondern auch eine modale Komponente enthält, gilt für Heringer im Verbalsatz das Verb als oberster Slot: „Was über V liegt, ist syntaktisch nicht als Knoten realisiert“; der Satzmodus sei eine „knotenübergreifende Abstraktion“, „kein Superknoten über V“ (Heringer 1996, 152; vgl. damit das Satzzeichen S bei Eroms). Die „Satzadverbien“ (d. h. Modalwörter) und Modalpartikeln gehören zu der knotenfreien Modalkomponente, während Eroms für die Modalwörter eine Stelle unter dem Satzzeichen, aber über dem Verb vorsieht. (b) Auch Heringer geht auf die Struktur des Verbalkomplexes im Detail ein. (c) Genau wie Eroms die Sonderstellung des Subjekts unterstreicht, ist das Subjekt „die Chef-Nominalphrase“ (Heringer 1996, 153): Das Subjekt ist ein valenzieller Default-Wert jedes Verbs; es wird valenziell selegiert, jedoch erst durch das finite Verbalmorphem deblockiert. Bei infiniten Formen wird es blockiert oder umkodiert. „So realisiert sich die volle Valenz erst im Verbalsatz“ (Heringer 1996, 152). (d) Für Eroms ist das prädikative Adjektiv eine Ergänzung, für Heringer Teil des Verbalkomplexes. (e) Sowohl Heringer als auch Eroms verbinden hierarchische Dependenzregeln mit projektiven Regeln. Hier soll es jedoch nur um die hierarchische Struktur gehen. Valenz ist für Heringer „eine semantische Kraft, die eine syntaktische Auswahl bewirkt“ (Heringer 1996, 157). Syntaktisch gesehen ist sie eine Distributionseigenschaft eines Vollverbs (V-val), durch die quantitativ, selektional und qualitativ spezifische Slots eröffnet werden, die durch Nominalphrasen (N*) oder „verkappte“ Nominalphrasen als Komplemente gefüllt werden (Heringer 1996, 62⫺65). Zu den letztgenannten gehören Präpositionalphrasen (P*) und Äquationsphrasen mit als oder wie (Ä*), denn sie enthalten eine Nominalphrase. Die Selektionsbeschränkungen, die sich auch auf das Subjekt erstrecken, sind „idiosynkratisch und wesentlicher Bestandteil der V-Bedeutung“ (Heringer 1996, 64). Sie umfassen einerseits semantische Merkmale, andererseits semantische Rollen. Die qualitative Valenz wird rein strukturell verstanden, d. h. die morphosyntaktischen Anschlüsse sind überwiegend bedeutungsleer; ausgenommen sind nur Präpositionalphrasen insbesondere bei den variierenden, „nach-mehrdeutigen“ (adverbialen) Anschlüssen (Heringer
760 1996, 65). Der Valenz-Frame erfasst eine Standardvalenz als einen Default-Wert, von dem alternierende Realisierungen, z. B. Stilllegung eines Komplements, Valenzerhöhung, Umkodierung oder Diathese, abgeleitet werden (Heringer 1996, 67 ff.). So liegt bei es regnet z. B. eine lexikalisierte Stilllegung des Subjektkomplements vor. Heringer (1996, 57) definiert Verben (V) durch die Kategorie der Verbalmorpheme (VM), die an der Konjugation (Person, Numerus, Modus, Tempus) teilhaben. Er unterscheidet valenztragende Vollverben (V val) von Verben, die Verbalkomplexe regieren (V plx). Weiter teilt Heringer (1996, 62⫺91) Verbalphrasen (V*) in minimale und maximale. Die minimale V* besteht aus einem Wort, nämlich einem Verbalstamm (V) mit seinem Verbalmorphem (VM). Wortformintern ist das VM vom Verbstamm dependent, vgl. die Stemmas bei Heringer (1996, 71⫺78), es geht aber um eine Dependenz außerhalb der Valenz. Die maximale bzw. „große“ V* besteht aus dem Prädikat und sämtlichen verbvalenzbedingten Ergänzungen, das Subjekt mit eingeschlossen. Sie ist aber nicht mit dem Satz schlechthin gleichzusetzen, denn die illokutionäre Komponente, der Satzmodus sowie freie Elemente und „Rangierteile“ (z. B. Partikeln) werden nicht durch die Verbvalenz festgelegt. Für die große V* sieht die Strukturregel, in der die Tilde als Platzhalter für das jeweils vorangestellte Regens fungiert und Alternativen mit Schrägstrichen, offene Stellen mit drei Punkten markiert sind, wie folgt aus (Heringer 1996, 69): (24) V val[N* nom,…,N*/P*/Ä*,…,⬃, VM] Für den Fall, dass der verbale Kern des Satzes komplex ist, werden „innere Verbalphrasen“ vorgesehen. Diese umfassen keine referierenden Teile, sondern nur komplexe V-Teilstemmas mit prädizierender Funktion (Heringer 1996, 69). Infinite Verbalphrasen, d. h. Infinitiv (VM inf) oder Perfektpartizip (VM ptz prf), blockieren bzw. reduzieren den Subjekt-Slot, was mit % markiert wird. Der oberste V-Kopf steht rechtsperipher und trägt die volle finite Verbalflexion, durch die er das Subjekt (N* nom) dominiert und mit ihm kongruiert (Heringer 1996, 70). Die folgende vollständige Strukturregel der großen Verbalphrase kann in gewissen Grenzen rekursiv angewendet werden (Heringer 1996, 69):
VI. Valenz: Schwerpunkte der Forschung
(25) V plx[N* nom,…,N*/P*/Ä*,V[%,…, N*/P*/Ä*,⬃,VM ptz prf/VM inf], ⬃,VM] Zu den Subkategorien der Heringerschen V plx, die als V-Köpfe fungieren, zählen ähnliche Nicht-Vollverben wie bei Engel (1994, 104⫺115) und Eroms (1993, 20⫺27) ⫺ eventuell mit anderen Namen ⫺, aber auch einige zusätzliche: Heringer unterscheidet Auxiliarverben (V aux), Modalverben (V mod), Hebungsverben (V heb) und AcI-Verben (V aci); weiter bilden Kopulaverben (V kop) mit Adjektiven und Funktionsverben (V fnk) mit Substantiven einen Verbalkomplex (Heringer 1996, 57). Die Kopfverben der Komplexe haben spezifische Eigenschaften, zu denen nicht nur die Statusrektion, d. h. die Wahl der subjektblockierten infiniten Form, sondern ggf. auch Umkodierungen der Ergänzungen des regierten Vollverbs gehören. So wird für jede Subkategorie in einer konsistenten Weise gezeigt, wie die Valenzverhältnisse der Verbalkomplexe durch ihre Teile erklärbar sind. Auxiliar-, Modal- und Kopulaverben sind selektional unspezifizierte Dummies, aber sie prägen trotzdem die Gesamtvalenz mit, das AcI-Verb lassen bewirkt eine Valenzerhöhung, und Funktionsverben können Valenzerhöhungen und -reduktionen herbeiführen, wobei die Valenz des Basisverbs des Verbalsubstantivs auch eine Rolle spielt. Anstatt einen konkreten Satz mit seinen aktuellen Valenzrealisierungen als maximale Verbalphrase auch stemmatisch abzubilden, wobei alle Hierarchieebenen sichtbar würden, begnügt sich Heringer (1996, 70⫺76) bei den Auxiliar-, Modal- und Hebungskomplexen vorerst mit einem abstrahierten Auszug für die innere Verbalphrase. Im Zusammenhang mit den Diathesen (Heringer 1996, 86⫺ 89) werden für Hebungsverben auch voll ausgebaute Stemmas gegeben. ⫺ Bei den Auxiliar- und Hebungskomplexen laufen die Umkodierungen der Valenzverhältnisse relativ kompliziert und nicht bei allen regierenden Verben gleich, denn in beiden Fällen gilt sein als monovalent, haben als bivalent, vgl. Heringer (1996, 72; 75); bei Eroms sind dagegen alle Auxiliare (vor der Anbindung) zweiwertig. Modalkomplexe sind einfacher: In dem Satz Die Patienten sollten nichts mitbekommen bringt das Modalverb keine eigene Valenz mit, es deblockiert aber den blockierten Subjektslot des infinitivischen Verbs und macht ihn zum Satzsubjekt. Das infinitivische Verb bringt seine weiteren Komplemente
761
53. Der verbale Valenzträger
(im aktuellen Satz das Akkusativobjekt nichts) mit. Die Strukturregel für den Modalkomplex (26a) und das Stemma für die „innere Verbalphrase“ (26b) sehen wie folgt aus (Heringer 1996, 73): (26) a. V plx mod[N* nom,…,V[%,…, N*/P*/Ä*,⬃,VM inf],⬃,VM] b. V_mod
VM
V
(28)
VM_inf
Die AcI-Komplexe zeigen wiederum, dass für Heringers Verbalkomplexe Kriterien wie „ein lexikalischer Verbalinhalt“ (vgl. Tarvainen 1981, 36) oder Subjektneutralität (vgl. Askedal 1983) nicht ausschlaggebend sind, denn im Satz Georg hörte seine Kameraden von Vietnam sprechen gibt es zwei semantisch volle Verben, hören und sprechen, die in ihrer Standardvalenz je ein eigenes Subjekt selegieren. Indem die Frames der beiden zweiwertigen Verben zu einer topologischen Struktur verschmelzen, kommt es insgesamt zu einem dreiwertigen Stellenplan. Zu den zwei Stellen des unteren Verbs kommt durch das obere Verb eine neue Subjektstelle hinzu, was eine Valenzerhöhung bedeutet. Es findet aber auch eine Umkodierung statt: Das blockierte Subjekt des regierten Verbs wird durch den Akkusativobjekt-Slot des regierenden Verbs realisiert, so dass eine Subjekt-zu-Objekt-Anhebung stattfindet. So wird der syntaktische Anschluss des vom regierten Verb selegierten Komplements durch das regierende Verb bestimmt, was stemmatisch wie folgt visualisiert werden kann, vgl. Heringer (1996, 76): (27)
N*
V_aci
VM
N*_akk
V
P*
mit dem Subjekt. Den Stellenwert des Subjekts sah schon Tesnie`re ähnlich: „Die strukturale Konnexion, die den Aktanten mit dem verbalen Nukleus verbindet, kann nach der geltenden Regelung ohnehin nur mit dem Auxiliarverb bestehen, weil im dissoziierten Nukleus dieses allein Träger der strukturalen Funktion ist“ (Tesnie`re 1980, 138). Dem Satz Dies war allen unangenehm (Heringer 1996, 80) enstpricht das Stemma (28), dessen Hierarchieebenen (von der Platzierung des Verbalmorphems abgesehen) denen a` la Tesnie`re, vgl. (13b’) oben, gleich sind, vgl.:
VM_inf
Valenzbestimmend in Komplexen aus Kopulaverb und prädikativem Adjektiv ist das Adjektiv: „Es bestimmt die Anzahl der abhängigen N, hat selbst einen blockierten EinserSlot, selegiert aber das Subjekt und andere Komplemente“ (Heringer 1996, 79 f.). Das Kopulaverb trägt das VM und kongruiert
V_kop
N*_nom
VM
A
N*_dat
6.
Zusammenfassung und Fazit
Den Rahmen für die obigen Ausführungen bildete der Gedanke, dass der verbale Valenzträger der archimedische Punkt ist, von dem aus andere Satzteile bestimmt werden können. Da die verbalen Fügungspotenzen sich nur mittels eines Finitums voll entwickeln können, bildete der Verbalsatz den eigentlichen Gegenstand des Interesses. Da in der Sprache Form, Inhalt und Funktion nur im Idealfall zusammenfallen, muss jede Valenzbeschreibung ihren primären Ausgangspunkt in dem heute zu einem Multimodulkonzept entwickelten Valenzbegriff verorten. Bei Verben als lexikalisierten Einheiten sind logische Argumentbeziehungen schon semantisch-syntaktisch gebrochen, aber es gilt immer noch, die semantischen und strukturalen Fügungspotenzen der sprachlichen Elemente auf eine plausible Weise in Einklang zu bringen. Zu diesem Zweck stellte Tesnie`re neben den rein strukturalen Begriff des wörterverbindenden Nexus den des Nukleus als einer semantisch definierten Einheit, die neben „vollen“ Wörtern auch „leere“ Hilfswörter enthalten kann. Tesnie`res Lehre wurde nicht dogmatisiert, sondern mit verschiedenen Betonungen weiterentwickelt. Perspektivenunterschiede entstanden insbesondere in dem Bereich, wo die rein strukturalen Konnexionen mit den semantischen nicht völlig übereinstimmen. Ein Paradebeispiel dafür ist der verbale Prädikatskomplex.
762 In nukleusorientierten Satzgliedmodellen (vgl. 4) werden die internen Dependenzbeziehungen des grammatischen Prädikats nicht für Valenzbeziehungen i. e. S. gehalten. Die Ergänzungen (und Angaben) hängen vom gesamten mehrteiligen Verbnukleus ab, ohne dass der Beitrag der einzelnen Verbformen zur strukturalen Gesamtvalenz spezifiziert zu werden braucht. In den Stemmas entsteht dann kein Widerspruch, auch wenn eine infinite Verbform (als Teil des Prädikatsnukleus) über der Subjektergänzung steht. Eine solche Darstellung setzt analytische Verbformen mit synthetischen gleich und impliziert, dass der syntaktische und der semantische Valenzweg von Prädikat zu Ergänzung an einem String laufen. Wortorientierte Konzepte (vgl. 5) fassen die Valenz weiter auf: Auch „leere“ Auxiliarwörter haben eine strukturale Valenz (und ggf. freie Fügungspotenzen). Das Finitum ist das eigentliche Verb; Infinitformen sind eben Nominalformen. Die Wahl zwischen verschiedenen Infinitformen wird jedoch durch die Statusrektion des Auxiliars festgelegt. Wenn Valenz als Subklassenspezifik definiert wird, dann ist dies eine Valenzerscheinung. Die semantische Selektion braucht aber nicht mit der morphosyntaktischen Spezifik parallel zu laufen. In Auxiliarkonstruktionen wird die selektionale Valenz vom regierten Vollverb in den Satz eingeführt. Der syntaktische und der semantische Valenzweg werden also voneinander getrennt. Dies ermöglicht eine Sonderbehandlung des Subjekts: In den Konzepten von Eroms (5.2) und Heringer (5.3) gehört das Subjekt nie in die strukturale Dominanz einer Infinitform, denn diese sind subjektblockiert. Da erst das Finitum das Subjekt deblockiert, hängt das Subjekt struktural unmittelbar vom Finitum ab, so dass die Kongruenz struktural begründet werden kann. Eine nukleusorientierte Satzgliedsyntax mit dem engeren Valenzbegriff bedeutet also eine gewisse Vereinfachung, ist aber ⫺ mit ihren eigenen Prämissen gemessen ⫺ nicht an sich widersprüchlich. Sie lässt sich z. B. im Fremdsprachenunterricht mit Gewinn einbringen. In der hier präsentierten Form deckt sie jedoch nur einen Teil der Syntax ab. Der wortdependenzielle Ansatz ist ehrgeiziger, weil er ⫺ wie ursprünglich auch Tesnie`re ⫺ eine Gesamtdarstellung verschiedener Teilsysteme der Sprachstruktur nach gleichen Prinzipien anstrebt. Insgesamt zeigt der Aspektreichtum der verschiedenen Ansätze,
VI. Valenz: Schwerpunkte der Forschung
dass der Valenzbegriff bei weitem noch nicht ausgeschöpft ist und dass die Valenzgrammatik eine ernstzunehmende Alternative für konkurrierende Grammatikmodelle ist.
7.
Literatur in Auswahl
Admoni, Wladimir (1982): Der deutsche Sprachbau. 4., überarbeitete und erweiterte Auflage. München. ´ gel, Vilmos (1993): Ist die Dependenzgrammatik A wirklich am Ende? Valenzrealisierungsebenen, Kongruenz, Subjekt und die Grenzen des syntaktischen Valenzmodells. In: Zeitschrift für Germanistische Linguistik 21, 20⫺70. ´ gel, Vilmos (1995): Valenzrealisierung. GrammaA tik und Valenz. In: Zeitschrift für germanistische Linguistik 23, 2⫺32. Askedal, John Ole (1983): Über scheinen als Modalitätsverb im gegenwärtigen Deutsch. In: Askedal, ˚ dne John Ole/Christensen, Christen/Findreng, A u. a. (Hgg.) (1983): Festschrift für Laurits Saltveit zum 70. Geburtstag am 31. Dezember 1983. Oslo/ Bergen/Tromsø, 30⫺39. Askedal, John Ole (1984): Grammatikalisierung und Auxiliarisierung im sogenannten „bekommen/ kriegen/erhalten-Passiv“ des Deutschen. In: Kopenhagener Beiträge 22, 5⫺47. Bech, Gunnar (1955): Studien über das deutsche verbum infinitum 1 (⫽ Det Kongelige Danske Videnskabernes Selskab, Historisk-filologiske Meddelelser 35:2). Köbenhavn. Böhmer, Heiner (1994): Komplexe Prädikatsausdrücke im Deutschen und Französischen. Theoretische Aspekte, kontrastive Aspekte, Aspekte der Verwendung (⫽ Europäische Hochschulschriften, Reihe 21, Linguistik 138). Frankfurt am Main/Berlin/Bern/New York/Paris/Wien. Bondzio, Wilhelm (1971): Valenz, Bedeutung und Satzmodelle. In: Helbig, Gerhard (Hg.) (1971), 85⫺103. Bondzio, Wilhelm (1993): Funktorenstrukturen in der deutschen Sprache. Ein Beitrag zur Grundlegung einer semantischen Valenztheorie. In: Simmler, Franz (Hg.) (1993): Probleme der funktionellen Grammatik (⫽ Berliner Studien zur Germanistik 1). Bern/Berlin/Frankfurt am Main/New York/Paris/Wien, 21⫺88. Diewald, Gabriele (1997): Grammatikalisierung. Eine Einführung in Sein und Werden grammatischer Formen (⫽ Germanistische Arbeitshefte 36). Tübingen. Duden. Grammatik der deutschen Gegenwartssprache (1995). Hg. u. bearb. v. Günther Drosdowski in Zusammenarbeit mit Peter Eisenberg. 5., völlig neu bearb. u. erw. Aufl. Mannheim/Leipzig/Wien/ Zürich. Engel, Ulrich (1988): Deutsche Grammatik. Heidelberg.
53. Der verbale Valenzträger
763
Engel, Ulrich (1994): Syntax der deutschen Gegenwartssprache (⫽ Grundlagen der Germanistik 22). 3., völlig neu bearbeitete Auflage. Berlin.
Helbig, Gerhard (1979): Probleme der Beschreibung von Funktionsverbgefügen im Deutschen. In: Deutsch als Fremdsprache 16, 273⫺285.
Engel, Ulrich/Schumacher, Helmut (1978): Kleines Valenzlexikon deutscher Verben (⫽ Forschungsberichte des Instituts für deutsche Sprache 31). 2., durchgesehene Auflage. Tübingen.
Helbig, Gerhard (1983): Prädikate als Aktanten (im Deutschen). In: Helbig, Gerhard (Hg.) (1983): Studien zur deutschen Syntax 1. Linguistische Studien. Leipzig, 106⫺124.
Engelen, Bernhard (1986): Einführung in die Syntax der deutschen Sprache. Band II. Satzglieder und Satzbaupläne. Baltmannsweiler.
Helbig, Gerhard (1992): Probleme der Valenz- und Kasustheorie (⫽ Konzepte der Sprach- und Literaturwissenschaft 51). Tübingen.
Erben, Johannes (1972): Deutsche Grammatik. Ein Abriss. 11., völlig neubearbeitete Auflage. München.
Helbig, Gerhard/Buscha, Joachim (1984): Deutsche Grammatik. Ein Handbuch für den Ausländerunterricht. 8. Auflage. Leipzig.
Eroms, Hans-Werner (1985): Eine reine Dependenzgrammatik für das Deutsche. In: Deutsche Sprache 13, 306⫺326.
Helbig, Gerhard/Schenkel, Wolfgang (1969): Wörterbuch zur Valenz und Distribution deutscher Verben. Leipzig.
Eroms, Hans-Werner (1990): Zur Entwicklung der Passivperiphrasen im Deutschen. In: Betten, Anne/ Riehl, Claudia M. (Hgg.) (1990): Neuere Forschungen zur historischen Syntax des Deutschen. Referate der Internationalen Fachkonferenz Eichstätt 1989 (⫽ Reihe Germanistische Linguistik 103). Tübingen, 82⫺97.
Helbig, Gerhard/Schenkel, Wolfgang (1973): Wörterbuch zur Valenz und Distribution deutscher Verben. 2., überarbeitete und erweiterte Auflage. Leipzig.
Eroms, Hans-Werner (1991): Valenzbindung und Valenzschichtung im Satz. In: Feldbusch, Elisabeth/Pogarell, Reiner/Weiß, Cornelia (Hgg.) (1991): Neue Fragen der Linguistik. Akten des 25. Linguistischen Kolloquiums, Paderborn 1990. Band 1: Bestand und Entwicklung (⫽ Linguistische Arbeiten. 270). Tübingen, 219⫺231.
Heringer, Hans Jürgen (1970): Deutsche Syntax (⫽ Göschen 2546). Berlin.
Eroms, Hans-Werner (1993): Hierarchien in der deutschen Satzklammer. In: Marillier, Jean-Franc¸ois (Hg.) (1993): Satzanfang ⫺ Satzende. Syntaktische, semantische und pragmatische Untersuchungen zur Satzabgrenzung und Extraposition im Deutschen (⫽ Eurogermanistik 3). Tübingen, 17⫺34.
Heringer, Hans Jürgen (1996): Deutsche Syntax dependentiell. Tübingen.
Fabricius-Hansen, Cathrine (1972): Über das Prädikat der neueren Wertigkeitstheorie. In: Kopenhagener Beiträge zur Germanistischen Linguistik 1, 37⫺92. Fillmore, Charles J. (1971): Plädoyer für Kasus. In: Abraham, Werner (Hg.) (1971): Kasustheorie (⫽ Schwerpunkte Linguistik und Kommunikationswissenschaft 2). 2. korrigierte Auflage. Frankfurt am Main, 1⫺118. Fillmore, Charles J. (1977): The Case for Case Reopened. In: Syntax and Semantics 8, 59⫺81. Flämig, Walter (1991): Grammatik des Deutschen. Einführung in Struktur und Wirkungszusammenhänge. Berlin. Fleischer, Wolfgang (1982): Phraseologie der deutschen Gegenwartssprache. Leipzig. Fourquet, Jean/Grunig, Blanche (1971): Valenz und Struktur. In: Helbig, Gerhard (Hg.) (1971), 11⫺16. Helbig, Gerhard (Hg.) (1971): Beiträge zur Valenztheorie (⫽ Janua Linguarum, Series Minor 115). The Hague/Paris.
Hentschel, Elke/Weydt, Harald (1995): Das leidige bekommen-Passiv. In: Popp, Heidrun (Hg.) (1995), 165⫺183.
Heringer, Hans Jürgen (1984): Neues von der Verbszene. In: Stickel, Gerhard (Hg.) (1984): Pragmatik in der Grammatik (⫽ Sprache der Gegenwart 60). Düsseldorf, 34⫺64.
Homberger, Dietrich (1993): Das Prädikat im Deutschen. Linguistische Terminologie in Sprachwissenschaft und Sprachdidaktik. Opladen. Hyvärinen, Irma (1989): Zu finnischen und deutschen verbabhängigen Infinitiven. Eine valenztheoretische kontrastive Analyse. Teil I. Theoretische Fundierung und Abgrenzung des Prädikats (⫽ Werkstattreihe Deutsch als Fremdsprache 25). Frankfurt am Main/Bern/New York/Paris. Jacobs, Joachim (1994): Kontra Valenz (⫽ Fokus 12). Trier. Korhonen, Jarmo (1977): Studien zu Dependenz, Valenz und Satzmodell. Theorie und Praxis der Beschreibung der deutschen Gegenwartssprache. Dokumentation, kritische Beschreibung, Vorschläge. Teil I (⫽ Europäische Hochschulschriften. Reihe I. Deutsche Literatur und Germanistik 212). Bern/ Frankfurt am Main/Las Vegas. Korhonen, Jarmo (1995): Studien zur Phraseologie des Deutschen und des Finnischen (⫽ Studien zur Phraseologie und Parömiologie 7). Bochum. Korhonen, Jarmo (1995a): Morphosyntaktische Variabilität von Verbidiomen. In: Korhonen, Jarmo (1995), 67⫺93. Korhonen, Jarmo (1995b): Valenz und Verbidiomatik. In: Korhonen, Jarmo (1995), 95⫺113.
764
VI. Valenz: Schwerpunkte der Forschung
Kunze, Jürgen (1975): Abhängigkeitsgrammatik (⫽ Studia grammatica XII). Berlin. La´szlo´, Sarolta (1988): Mikroebene. In: Mrazovic´, Pavica/Teubert, Wolfgang (Hgg.) (1988): Valenzen im Kontrast. Ulrich Engel zum 60. Geburtstag. Heidelberg, 218⫺233. Öhlschläger, Günther (1989): Zur Syntax und Semantik der Modalverben des Deutschen (⫽ Linguistische Arbeiten 144). Tübingen. Popp, Heidrun (Hg.) (1995): Deutsch als Fremdsprache. An den Quellen eines Faches. Festschrift für Gerhard Helbig zum 65. Geburtstag. München. Reichstein, A. D. (1974): Festgeprägte prädikative Konstruktionen im Deutschen. In: Deutsch als Fremdsprache 11, 321⫺384. Reis, Marga (1976): Zum grammatischen Status der Hilfsverben. In: Beiträge zur Geschichte der deutschen Sprache und Literatur 98. Tübingen, 64⫺82. Reis, Marga (1985): Mona Lisa kriegt zuviel ⫺ Vom sogenannten „Rezipientenpassiv“ im Deutschen. In: Linguistische Berichte 96, 140⫺155. Rolland, Maria Theresa (1998): Das Verb im Deutschen. Zur Ausprägung des Verbs in Wortart, als Wort und in Wortformen. In: Wirkendes Wort 48, 434⫺452. Sommerfeldt, Karl-Ernst/Schreiber, Herbert (1974): Wörterbuch zur Valenz und Distribution deutscher Adjektive. Leipzig. Stepanowa, Marija D./Helbig, Gerhard (1978): Wortarten und das Problem der Valenz in der deutschen Gegenwartssprache. Leipzig.
Storrer, Angelika (1992): Verbvalenz. Theoretische und methodische Grundlagen ihrer Beschreibung in Grammatikographie und Lexikographie (⫽ Reihe Germanistische Linguistik 126). Tübingen. Stötzel, Georg (1970): Ausdrucksseite und Inhaltsseite der Sprache. Methodenkritische Studien am Beispiel der deutschen Reflexivverben (⫽ Linguistische Reihe 3). München. Tarvainen, Kalevi (1981): Einführung in die Dependenzgrammatik (⫽ Reihe Germanistische Linguistik 35). Tübingen. Tarvainen, Kalevi (1985): Kontrastive Syntax Deutsch-Finnisch (⫽ Deutsch im Kontrast 4). Heidelberg. Tesnie`re, Lucien (1980): Grundzüge der strukturalen Syntax. Herausgegeben und übersetzt von Ulrich Engel. Stuttgart. Vater, Heinz (1975): Werden als Modalverb. In: Calbert, Joseph P./Vater, Heinz (Hgg.) (1975): Aspekte der Modalität (⫽ Studien zur deutschen Grammatik 1). Tübingen, 71⫺148. Vater, Heinz (1995): Zum Reflexiv-Passiv im Deutschen. In: Popp, Heidrun (1995), 185⫺192. Welke, Klaus (1988): Einführung in die Valenz- und Kasustheorie. Leipzig. Wotjak, Barbara (1992): Verbale Phraseolexeme im System und Text (⫽ Reihe Germanistische Linguistik 125). Tübingen. Zifonun, Gisela/Hoffmann, Ludger/Strecker, Bruno u. a. (Hgg.) (1997): Grammatik der deutschen Sprache (⫽ Schriften des Instituts für deutsche Sprache 7,1⫺7,3). Berlin/New York.
Irma Hyvärinen, Helsinki (Finnland)
54. Ergänzungen und Angaben 1. 2. 3. 4. 5. 6.
Problematisierung Zur Terminologie Verfahren der Valenzermittlung Graduelle Abstufungen der Valenzgebundenheit Fazit Literatur in Auswahl
1.
Problematisierung
Das Tesnie`resche Bild vom Satz als kleinem Drama mit den „actants“ als Handlungsbeteiligten und den „circonstants“ als den handlungsbegleitenden Umständen wurde in der Nachfolge vielfach aufgenommen und übt bis heute seinen metaphorischen Zauber
auf die Valenzforschung aus. Die Metapher hat ihren Zweck, nämlich die grundlegende Unterscheidung zwischen valenzgebundenen Ergänzungen und nicht valenzgebundenen Angaben zu erhellen, jedoch nur begrenzt erfüllt ⫺ zu widersprüchlich sind die Aussagen Tesnie`res darüber, an welchen Kriterien die Beteiligtheit von nicht-metaphorischen „actants“, von konkreten Struktureinheiten in konkreten Sätzen, zu erkennen ist. Die in Tesnie`re (1959) genannten syntaktischen und semantischen Kriterien erwiesen sich schnell als widersprüchlich und führten schon früh zu einer Kontroverse über die Frage, ob es sich bei der Valenzbindung um ein syntaktisches oder ein semantisches Phänomen handelt (z. B. Heger 1966, Bondzio 1971, Zifo-
54. Ergänzungen und Angaben
nun 1972, Helbig 1982b). Aus der Diskussion entwickelten sich immer differenziertere Valenzmodelle, die sich in Mehrebenenmodelle und mehrdimensionale Modelle einteilen lassen (vgl. hierzu Art. Nr. 29): ⫺ In Mehrebenenmodellen werden die in Äußerungen und Sätzen beobachtbaren Strukturen aus einer oder dem Zusammenspiel mehrerer „tieferliegender“, ontologisch oder kognitiv-semantisch motivierter Strukturebenen abgeleitet. Die Vorschläge variieren in der Art und der Zahl der angesetzten Beschreibungsebenen und in der Frage, inwieweit und wie die Valenz der oberflächennahen Strukturen aus den tieferliegenden Strukturebenen abgeleitet werden kann. ⫺ In mehrdimensionalen Modellen wird ein Nebeneinander verschiedener Valenzrelationen angenommen, die unabhängig voneinander diagnostizierbar sind, jedoch in verschiedenen Implikationsbeziehungen zueinander stehen und insgesamt die Valenz, verstanden als dispositionelle Eigenschaft lexikalischer Einheiten, determinieren. Es gibt eine große Anzahl von Publikationen zur Frage der Abgrenzung von Ergänzungen und Angaben, die jeweils einen oder beide der folgenden Teilaspekte des Problems behandeln: (a) Der Status der beiden Kategorien muss in einem Grammatikmodell theoretisch expliziert werden; dazu stehen beim aktuellen Stand der Forschung nicht nur eine, sondern eine Reihe teilweise voneinander unabhängiger, teilweise sich gegenseitig bedingender Valenzrelationen zur Debatte. (b) Für die theoretischen Explikanda müssen empirische Indikatoren angegeben werden, anhand derer eindeutig entschieden werden kann, ob und warum eine Konstituente von einer anderen Konstituente valenzgebunden ist. Mit dem Aspekt (a) hat sich vor allem die Grammatiktheorie und Grammatikographie intensiv auseinandergesetzt. Um den Aspekt (b) haben sich vor allem die lexikographischen Anwendungen der Valenztheorie bemüht ⫺ eine Folge des lexikographischen Usus, nur die Ergänzungen, nicht aber die Angaben ins Wörterbuch aufzunehmen. Die wichtigsten Ansätze zu (a) und deren Stellenwert für die Grundlegung des Valenzbegriffs
765 sind in Artikel 29 besprochen. Der vorliegende Artikel konzentriert sich auf den Aspekt (b), auf die verschiedenen Vorschläge zur Operationalisierung der Valenzbeziehung, bzw. der Explikation verschiedener Valenzrelationen und deren Zusammenspiel. Bei dieser Schwerpunktsetzung wird jedoch stets die Tatsache im Auge behalten, dass die Teilaspekte (a) und (b) sich wechselseitig bedingen: Eine auf Argumenthaftigkeit (ARG) abzielende Explikation der Valenzbindung muss mit anderen Verfahren ermittelt werden als eine Explikation, die die syntaktische Notwendigkeit (NOT) oder die Rektionsbeziehung (FOSP) in den Vordergrund stellt. In Ebenenmodellen muss die Frage geklärt werden, inwieweit sich Strukturen aus einer Ebene systematisch auf eine andere übertragen lassen und welche Ebene zentral für die Valenzermittlung ist. Bei mehrdimensionalen Modellen benötigt man für unterschiedliche Valenzrelationen entsprechend verschiedene Indikatoren. Gerade weil der Zusammenhang zwischen theoretischer Explikation und empirischer Evidenz in der bisherigen Valenzermittlungspraxis oft nicht hinreichend beachtet wurde, wird er in der folgenden Darstellung stets mitgeführt werden. Die Vielfalt der Lösungsvorschläge spiegelt sich in der Vielfalt der Termini, die in der deutschen Valenzliteratur für die französischen Begriffe „actants“ und „circonstants“ verwendet werden; die wichtigsten sind im folgenden Abschnitt genannt. Dort werde ich auch einige Termini einführen, die für die systematische Darstellung der Diskussion um Ergänzungen und Angaben benötigt werden. Abschnitt 3 diskutiert die wichtigsten Verfahren zur Unterscheidung von Ergänzungen und Angaben, wobei ich zunächst auf die kompetenzorientierten Verfahren eingehe, d. h. auf einfache und komplexe Valenztests zur Ermittlung von Argumenthaftigkeit, formaler Spezifizität und syntaktischer Notwendigkeit, um dann zu zeigen, wie sich diese mit korpusorientierten Verfahren kombinieren lassen. Abschnitt 4 behandelt Ansätze, in denen die dichotomische Unterscheidung zwischen Ergänzungen und Angaben ersetzt wird durch eine graduelle Abstufung der Verbbegleiter nach der Stärke ihrer Valenzgebundenheit. Nach der Art der methodischen Konsequenzen, die in den Ansätzen für die E-A-Abgrenzung gezogen wurden, unterscheide ich Ansätze der Valenzstufung, in denen Verbbegleiter mit verschiedenen Verfahren in mehrere Klassen mit unterschiedlicher
766
VI. Valenz: Schwerpunkte der Forschung
Valenzbindungsstärke eingeordnet werden, von Ansätzen der Valenzquantifizierung, bei denen die Bindungsstärke der Verbbegleiter nach einem einheitlichen Verfahren gemessen wird. Der Artikel konzentriert sich auf die verbale Valenz und auf die Verhältnisse im gegenwärtigen Deutsch. Es geht darum, die prominentesten Vorschläge zur E-A-Abgrenzung kritisch zu sichten. Spezielle Abgrenzungsprobleme bei bestimmten Konstituententypen, z. B. dem deutschen Dativ, den Prädikativkonstruktionen, den Präpositionalobjekten, oder Abgrenzungsprobleme bei anderen Valenzträgern anderer Wortarten, z. B. bei Nomina und Adjektiven, werden in den jeweiligen Spezialartikeln dieses Handbuchs behandelt.
2.
Zur Terminologie
Die Tesnie`resche Unterscheidung zwischen valenzgebundenen „actants“ und nicht valenzgebundenen „circonstants“ wurde in der deutschen Forschung unterschiedlich terminologisiert. Als deutsche Lehnübersetzung zu „actant“ ist bis heute der Terminus „Aktant“ gebräuchlich, daneben sind die Termini „Valenzpartner“ oder „Mitspieler“ eingeführt (z. B. Helbig 1982a, Grundzüge 1981). „Circonstant“ wurde mit „Zirkumstant“ übersetzt (z. B. Heger 1966); üblicher sind die Termini „(freie) Angabe“, in Bezug auf Adverbialia auch „Umstand“, „Umstandsbestimmung“, „Umstandsangabe“. Die terminologische Opposition „Ergänzungen“ vs. „Angaben“ ist in Grammatiken (z. B. Engel 1988, Engel 1994, Duden 1995) und Wörterbüchern (Engel/Schumacher 1976) verbreitet und findet sich auch häufig im Titel von Publikationen zu Problemen der E-A-Abgrenzung (z. B. in Andresen 1973, Biere 1976, Askedal 1985, Varnhorn 1986, Welke 1990, Adamzik 1992). In der wissenschaftlichen Fachdiskussion wird häufig auch von Komplementen und Supplementen gesprochen (z. B. Zifonun/ Hoffmann/Strecker u. a. 1997), dies vor allem in Bezug auf komplexe Modelle, in denen syntaktische und semantische Beschreibungsebenen unterschieden und zueinander in Beziehung gesetzt werden. Komplemente und Supplemente bezeichnen dann syntaktische Kategorien, die terminologisch von den semantischen Kategorien „Argumente“ vs. „Adjunkte“ abgehoben werden. Im Englischen stehen die nicht-valenzgebundenen
„adjuncts“ (Somers 1984) oder „supplements“ (Heringer 1986) den valenzgebundenen „complements“ gegenüber, die auch hier auf semantischer Ebene als „arguments“ bezeichnet werden. Da die Valenzidee rasch auf andere lexikalische Kategorien als das Verb ausgeweitet wurde, musste auch eine Benennung für die valenzbindende Einheit gefunden werden; hierfür hat sich allgemein der Ausdruck „Valenzträger“ eingebürgert. Einen groben Überblick über die terminologischen Varianten gibt die folgende Tabelle: actants Ergänzungen Aktanten Mitspieler Valenzpartner Komplemente Argumente (engl.) complement (engl.) argument
circonstants Angaben Zirkumstanten Umstandsbestimmungen (freie) Angaben Supplemente Adjunkte (engl.) supplement (engl.) adjunct
Tab. 54.1
In der vorliegenden Überblicksdarstellung werde ich die Termini „Ergänzungen“ und „Angaben“ verwenden. Um die operationalen Verfahren zur Abgrenzung zwischen Ergänzungen und Angaben, im weiteren kurz „E-A-Abgrenzung“, beschreiben und vergleichen zu können, werden einige weitere Termini benötigt. Als Oberbegriff für Ergänzungen und Angaben verwende ich in Anlehnung an Jacobs (1994a) den Terminus „Begleiter“, bei der Beschreibung der Valenztests auch den Terminus „Valenzkandidat“. Da das Problem der E-A-Abgrenzung darin besteht, Valenz als potenzielle Eigenschaft auf der Ebene des Lexikons anhand von Indikatoren auf der Ebene empirisch zugänglicher sprachlicher Äußerungen zu ermitteln, muss terminologisch zwischen Einheiten auf der Äußerungsebene und entsprechenden Einheiten auf der Ebene des Lexikons differenziert werden: ⫺ Auf der Ebene des Lexikons verfügt ein Valenzträger über ein lexemspezifisches Rollenpotenzial, das sind alle Begleiterrollen, die prinzipiell zum Valenzträger erfrag- und anschließbar sind. Das Rollenpotenzial verbaler Valenzträger entspricht also der Menge der verbspezifischen Begleiterrollen; diese müssen bei den Valenztests als Valenzkandidaten geprüft werden. Bei einer dichotomischen E-A-Klas-
767
54. Ergänzungen und Angaben
Lexikon Valenzträger lexemspezifisches Rolleninventar = Menge der Begleiterrollen E
A
E
KE
E
KA
A
KE
A
A
KA
Menge der Begleiterkonstituenten Valenzträger-Konstituente Äußerung
Abb. 54.1
sifikation wird diese Menge aufgeteilt in die Menge der Ergänzungen und die Menge der Angaben. Die Valenz eines Verbs auf der Ebene des Lexikons entspricht dann der Anzahl der als Ergänzungen klassifizierten Begleiterrollen, die über syntaktische, satzsemantische und semantisch-funktionale Merkmale kategorisierbar sind. ⫺ Auf der Äußerungsebene wird nur der Teil des Rollenpotenzials eines Valenzträgers realisiert, der für die Mitteilung im jeweiligen Äußerungskontext relevant ist. Auf dieser Ebene werde ich davon sprechen, dass eine Valenzträger-Konstituente zusammen mit einer Menge von Begleiterkonstituenten vorkommt. Im Falle verbaler Valenzträger bezeichnet man die Valenzträger-Konstituente üblicherweise als Verbalkomplex. Die Zusammenhänge zwischen den Ebenen sind in Abbildung 1 verdeutlicht. Sie sind wichtig für das Verständnis der Probleme mit den in 3.1 geschilderten Valenztests, bei denen der Status der Begleiterkonstituenten als Ergänzungen bzw. Angaben durch eine Reihe operationaler Verfahren bestimmt wird. Dies geschieht meist in einer Art Laborsituation, d. h. unter Verwendung konstruierter Testsätze ohne Anbindung an eine Sprachverwen-
dungssituation und ohne sprachlichen Kontext. Da kontextuelle Parameter Grammatikalitätsurteile häufig beeinflussen, variiert die Einschätzungen der Valenzgebundenheit einer Begleiterkonstituente in Abhängigkeit davon, welchen Kontext sich die Testperson dazudenkt. Dies gilt insbesondere für die in 3.1.3 behandelte Einschätzung der syntaktischen Notwendigkeit von Begleiterkonstituenten.
3.
Verfahren der Valenzermittlung
Tesnie`re war sich der Tatsache bewusst, dass die Ermittlung der Valenzgebundenheit im Einzelfall nicht unproblematisch ist: „A premie`re vue la limite entre actants et circonstants est nette. Mais a` y regarder de pre`s, on s’aperc¸oit qu’elle est de´licate a` fixer avec pre´cision“ (Tesnie`re 1959, 125). An einfachen Beispielen lässt sich die Dramenmetapher gut nachvollziehen: (1)
Peter rasiert Herrn Maier (K1).
(2)
Peter schläft auf dem Dachgarten (K2).
Während K1 sicherlich zu den Akteuren einer Rasieren-Handlung zu zählen ist, gehört für den Schlafen-Vorgang der Schlafplatz (K2) wohl eher zu den begleitenden Umständen.
768
VI. Valenz: Schwerpunkte der Forschung
Problematischer ist die Einschätzung der Beteiligtheit von (K3)⫺(K5), die nach gängigen Kriterien gute Anwärter auf den Ergänzungsstatus sind: (3)
Die Krähe sitzt auf dem Dachgarten (K3).
(4)
Petra fährt mit dem Interregio (K4).
(5)
Der Ball prallt gegen den Pfosten (K5).
Es sind im Deutschen funktional vor allem die Adverbialia, syntaktisch die Präpositionalphrasen und die Dativ-NPs, bei denen Präzisierungsbedarf besteht (vgl. Breindl 1989, Wegener 1985, Wegener 1989). Hier variieren die Einschätzungen, je nachdem, ob man Valenzbindung eher als formal-syntaktische oder als funktional-semantische Relation ansieht, ob man Valenzbindung auf der Ebene des Lexikons oder auf Satzebene betrachtet, ob man eine Einzelsprache untersucht oder mehrere Sprachen kontrastiert. Die meisten Modelle nehmen Bezug auf mindestens eine der drei Valenzrelationen, die Jacobs (1994a) als Argumenthaftigkeit (ARG), als formale Spezifizität (FOSP) und als syntaktische Notwendigkeit (NOT) bezeichnet hat. Im Folgenden werden die wichtigsten Verfahren dargestellt, die zur empirischen Fundierung dieser Relationen vorgeschlagen wurden. Nach der Art der Daten, die dabei herangezogen werden, unterscheide ich zwischen kompetenzorientierten Verfahren und korpusorientierten Verfahren. ⫺ Zu den kompetenzorientierten Verfahren rechne ich einfache und komplexe Valenztests, die ein Lexikograph oder eine Grammatikerin auf der Basis ihrer Sprachkompetenz mit selbstkonstruierten Beispielsätzen durchführt. ⫺ Korpusorientierte Verfahren haben als empirische Basis Textkorpora, die in bestimmter Weise quantitativ und qualitativ ausgewertet werden. 3.1. Kompetenzorientierte Verfahren Es wurden im Laufe der Diskussion um die E-A-Abgrenzung eine Reihe von Testverfahren vorgeschlagen, mit Hilfe derer die Valenzgebundenheit eines in Frage stehenden Valenzkandidaten ermittelt werden kann. Sie beruhen auf generellen Verfahren zur kompetenzgestützten grammatischen Analyse; getestet wird u. a. die Weglassbarkeit, Ersetzbarkeit, Permutierbarkeit und Erfragbarkeit von Valenzkandidaten in einem Testsetting, das sich folgendermaßen skizzieren lässt:
Der Proband, meist die Grammatikerin oder der Lexikograph selbst, konstruiert einen einfachen Testsatz T mit der Valenzträger-Konstituente V und dem Valenzkandidaten K. Das Vorliegen einer Valenzrelation zwischen V und K wird geknüpft an ein Kriterium, dieses ist meist verbunden mit einer Vorschrift, nach der T in einen anderen Testsatz T’ überführt wird, und der nachfolgenden Beurteilung der Grammatikalität bzw. Akzeptabilität von T’. Die theoretische Begründung für das Funktionieren der Tests und deren Status für die Valenzermittlung werden sehr unterschiedlich eingeschätzt, einen guten Überblick über den Diskussionsverlauf geben Vater (1978a), Welke (1988, Kap. 2.2⫺2.5), Storrer (1992, Kap. 4.2 und 7.2) und Helbig (1992, Kap. 4). Zunächst wurden einfache Valenztests zur alleinigen oder zur parallelen Verwendung empfohlen. Die wichtigsten davon werden im Folgenden kurz auf ihre Eignung zur Ermittlung der drei zentralen Valenzrelationen Argumenthaftigkeit (ARG), formale Spezifiziertheit (FOSP) und syntaktische Notwendigkeit (NOT) hin vorgestellt und diskutiert. Die in 3.1.4 dargestellten komplexen Verfahren stellen mehrere Einzeltests als Filter hintereinander; dadurch kann in mehrstufigen und mehrdimensionalen Ansätzen das Zusammenspiel verschiedener Valenzrelationen berücksichtigt werden. 3.1.1. Valenztests für Argumenthaftigkeit (ARG) Wenn es zur E-A-Abgrenzung bislang überhaupt eine einheitliche Forschungsmeinung gibt, so kann als deren kleinster gemeinsamer Nenner die Annahme gelten, dass die Valenz ein syntaktischer Reflex semantisch-kognitiver Strukturen ist. Dies macht die Relation der Argumenthaftigkeit zum zentralen Kriterium für Valenzgebundenheit. In vielen Fällen lässt sich der Argumentstatus einer Begleiterrolle kategorial bestimmen, so gelten beispielsweise Begleiterrollen wie Agens und Patiens generell als Argumente. Bei lokalen, temporalen, instrumentalen und direktionalen Begleiterrollen hingegen muss das Vorliegen von Argumenthaftigkeit im Einzelfall geprüft werden. Zur Diagnose für das Vorliegen der Valenzbindungsdimension ARG propagiert Jacobs (1994a, 18) den sog. „geschehen-Test“, der bereits in Eroms (1981) und Helbig/Schenkel (1983) beschrieben ist. Vorschrift: Lagere K aus T aus und bette ihn in einen an T angeschlossenen Satz mit
769
54. Ergänzungen und Angaben
einem semantisch unspezifischen Verb wie „geschehen“, „tun“, „machen“ ein. Beispiele: (T) Peter schläft auf dem Dachgarten. (T’) Peter schläft und das geschieht auf dem Dachgarten. (T) Die Krähe sitzt auf dem Dachgarten. (T”) Die Krähe sitzt und das geschieht auf dem Dachgarten. Kriterium: Ist T’ oder T” grammatisch, so ist K eine Angabe, sonst ist K eine Ergänzung. Die in Eroms (1981, 44 f.) gelieferte, satzfunktional motivierte Begründung für diesen Test geht davon aus, dass die mit Verben wie „geschehen“ und „tun“ vorgenommene thematische Wiederaufnahme von Handlungen und Ereignissen auch die Ergänzungen umfasst, sodass diese nicht mehr in rhematischer Funktion angeschlossen werden können. Im Gegensatz dazu können die Angaben rhematische Funktion im ausgelagerten Satz übernehmen, indem sie zu dem bezeichneten Sachverhalt eine neue Information, z. B. die raum-zeitliche Situierung, hinzufügen. Ähnlich in der theoretischen Begründung ist der auf Conrad (1978) zurückgehende Fragetest, der auf der Annahme beruht, dass sich Ergänzungsfragen mit „machen“, „tun“ auf die gesamte Verbalphrase, also den Verbalkomplex und die Ergänzungen mit Ausnahme des Subjekts beziehen, weshalb sie zwar um Angaben, nicht aber um Ergänzungen erweitert sein können. Helbig (1992, 86 f.) beschreibt den Test mit folgenden Beispielen: Vorschrift: Prüfe, ob sich K durch eine mit den Verben „tun“, „machen“ gebildete Ergänzungsfrage erfragen lässt: Beispiele: (T1’) Frage: Was machte er gestern abend ? (T1) Antwort: Er arbeitete gestern abend. (T2’) Frage: *Was machte er in die Stadt ? (T2) Antwort: Er begleitete sie in die Stadt. Kriterium: Ist K in die Ergänzungsfrage integrierbar, so handelt es sich um eine Angabe; ist sie nicht integrierbar, so handelt es sich um eine Ergänzung. Das Beispiel T2’ macht bereits deutlich, dass es in Bezug auf die Anwendbarkeit des Tests verschiedene Einschränkungen gibt, die
auch für den „geschehen-Test“ gelten. Dass sich T2’ nicht bilden lässt, hängt nämlich weniger mit der Valenz des Verbs „begleiten“ zusammen, die ja eigentlich ermittelt werden soll, als mit der Valenz des Verbs „machen“, das nur in einer sehr speziellen Bedeutung überhaupt ein direktionales Adverbiale als Begleiterkonstituente zulässt. Dasselbe gilt für das Verb „geschehen“, weshalb sowohl der Fragetest (*Wohin geschieht etwas?) als auch der geschehen-Test (*Er X-t, und das geschieht irgendwohin) Direktionaladverbialia grundsätzlich als Ergänzungen ausweisen werden. Für diese Zuordnungen sind jedoch die Valenzeigenschaften des im Test verwendeten Proverbs ausschlaggebend und nicht die Valenzeigenschaften des Verbs, dessen Valenzeigenschaften ursprünglich getestet werden sollten. Beide Tests sind also nur mit der Einschränkung verwendbar, dass die Begleiterrolle des Valenzkandidaten prinzipiell mit dem verwendeten Proverb kompatibel ist. Der in 3.1.4 beschriebene „und-das“-Anschlusstest vermeidet bei ähnlicher theoretischer Fundierung die Abhängigkeit vom Proverb und ist deshalb als Indikator für Argumenthaftigkeit genereller einsetzbar. Eine weitere Einschränkung der Anwendbarkeit betrifft nicht nur den „geschehenTest“, sondern generell alle Valenztests, in denen der Valenzkandidat vom Hauptsatz in einen Nebensatz ausgelagert wird: Eine solche Auslagerung ist nur bei fakultativen Konstituenten ohne Schaden für die Akzeptabilität des gesamten Satzes möglich, d. h. der Satz: (5’)
*Der Ball prallt, und das geschieht gegen den Pfosten.
ist schon deshalb nicht akzeptabel, weil der Satz (5”) *Der Ball prallt. nicht akzeptabel ist, d. h. „prallen“ eine syntaktisch notwendige Direktionalergänzung verlangt. Auslagerungstests sollten deshalb am besten in einen Testablauf wie den in 3.1.4 beschriebenen eingebunden werden, bei dem syntaktisch notwendige Konstituenten bereits herausgefiltert sind, bevor die Prüfung von ARG durch Auslagerung erfolgt. Gänzlich ungeeignet für die Diagnose von ARG ist der „und-zwar“-Test, der ursprünglich von Brinker (1972, 190 f.) zur Präzisierung des Eliminierungstests (s. u.) vorgeschlagen wurde, in jüngerer Zeit aber auch zur Abgrenzung zwischen Argumenten und Adjunkten herangezogen wird (z. B. Beckmann 1994).
770
VI. Valenz: Schwerpunkte der Forschung
Vorschrift: Lagere K aus T in eine mit „und zwar“ angeschlossene Konstruktion T’ aus. Beispiel: (T1) Der Ball prallt gegen den Pfosten. (T1’) Der Ball prallt, und zwar gegen den Pfosten. Kriterium: Ist T’ grammatisch, so ist K eine Angabe, sonst ist K eine Ergänzung. Auch bei diesem Test führt die Auslagerung obligatorischer Konstituenten stets zu nicht akzeptablen Testsätzen. Wie Jacobs (1994a, 18, Fußnote 14) mit Verweis auf Altmann (1981, Kap. 2.3.9) feststellt, besteht bei diesem Test aber das zusätzliche Problem, dass alle fakultativen Begleiterkonstituenten, wenn sie prinzipiell als Rhema des Satzes in Frage kommen, auf diese Weise ausgelagert werden können, sodass auch prototypische Ergänzungen wie in T3 und T4 als Angaben bewertet werden: (T3) Er baut ein Einfamilienhaus. (T3’) Er baut, und zwar ein Einfamilienhaus. (T4) Er isst das vegetarische Gericht. (T4’) Er isst, und zwar das vegetarische Gericht. Der Test kann also, wenn überhaupt, nur für die Ermittlung syntaktischer Notwendigkeit NOT eingesetzt werden; als Indikator für den Argumentstatus ist er ungeeignet. Als Kriterium für den Argumentstatus wird häufig auch die fehlende Akkumulierbarkeit von Begleiterrollen gewertet. Akkumulierbarkeit heißt, dass eine Begleiterrolle auf Äußerungsebene durch mehrere Begleiterkonstituenten realisiert ist, die sich inhaltlich wechselseitig spezifizieren, z. B. die Ortsbestimmungen in: (6)
Peter liegt auf dem Dachgarten neben dem Oleander in einer Hängematte.
(7)
Das Zimmer liegt im Erdgeschoss neben der Küche.
(8)
Petra fährt nach München zu ihrer Freundin.
Das Kriterium greift zwar bei den klassischen Ergänzungsrollen wie Agens, Patiens oder Thema recht gut. Wie (6)⫺(8) zeigen, kann es aber die verbspezifischen Unterschiede bei der Beurteilung des Argumentstatus der problematischen Lokal-, Temporal- und Direktionalbestimmungen nicht erfassen. Nach die-
sem Kriterium wird Valenzkandidaten der Argumentstatus abgesprochen, die man intuitiv als Ergänzungen bewerten würde, es ist also für die Ermittlung von ARG ungeeignet (vgl. auch Jacobs 1994, 61 f.). Der in 3.1.4 beschriebene Implikationstest, der ARG aufgrund von Folgerungsbeziehungen zwischen einfachen und erweiterten Sätzen ermittelt, kann nur im Rahmen eines komplexen Valenztests Anwendung finden, da die meisten Lokal- und Temporaladverbialia entgegen gängigen Intuitionen als Ergänzungen gewertet werden. 3.1.2. Valenztests für Formale Spezifizität (FOSP) Formale Spezifizität liegt nach Jacobs (1994a, S. 22 f.) dann vor, wenn die Formmerkmale des Valenzkandidaten vom Valenzträger festgelegt werden. Zifonun/Hoffmann/ Strecker u. a. (1997, 1034 ff.) differenzieren dabei noch feiner in drei rektionale Formrelationen: ⫺ Rektion (REKT) geht auf den Rektionsbegriff in Eisenberg (1994) zurück und bezeichnet die Kasusfestlegung bzw. die Festlegung anderer Rektionskategorien wie z. B. die einschlägigen Nebensatzeinleiter von Valenzkandidaten durch den Valenzträger. ⫺ Konstanz (KONST) betrifft Valenzkandidaten, die als Präpositionalphrase realisiert sind, und bezeichnet die Tatsache, dass deren Präposition durch den Valenzträger festgelegt ist. ⫺ Sofern es sich um eine Präposition handelt, die mehrere Kasus regieren kann, besteht zusätzlich die Relation Kasustransfer (TRANS), d. h. der von der Präposition regierte Kasus ist ebenfalls vom Valenzträger spezifiziert. Die Ermittlung von REKT ist bei kasusmarkierten Objekten im Allgemeinen unproblematisch. Von kasusmarkierten Konstituenten mit adverbialer Funktion unterscheiden sie sich u. a. dadurch, dass sie nicht durch ein Fragepronomen wie in (9), sondern durch ein Frageadverb wie in (10) erfragbar sind. (9)
Er hat den ganzen Tag gearbeitet (J wie lange?)
(10) Er hat den ganzen Tag verplant (J was?) Kompliziert im Einzelfall ist die Beurteilung verschiedener Formen deutscher Dative, die hier mit dem Verweis auf den Artikel 71 die-
771
54. Ergänzungen und Angaben
ses Handbuchs aus der Diskussion ausgenommen werden. Präpositionale Konstanz und Kasustransfer können in prototypischen Fällen durch Ersetzungsproben diagnostiziert werden, bei denen geprüft wird, ob die Präposition und der davon regierte Kasus eines präpositionalen Valenzkandidaten unter Beibehaltung der lexikalischen Bedeutung des Valenzträgers variiert werden können, wie in (11) oder ob sie fest vorgegeben sind wie in (12): (11) Peter schläft auf/unter/neben dem Dachgarten. (12) Peter wartet Freund.
auf/*neben/*über
den
Bei Valenzkandidaten wie in (4) und (5) besteht keine oder nur eine begrenzte Austauschbarkeit der Präposition; dennoch möchte man intuitiv keine Präpositionskonstanz im Sinne einer durch den Valenzträger festgelegten Präposition diagnostizieren. Es sind also auch hier wieder die instrumentalen und direktionalen Adverbialia, die ein feineres Diagnoseinstrumentarium erfordern, das auf andere Valenzrelationen Bezug nimmt (vgl. dazu Breindl 1989 und Zifonun/Hoffmann/Strecker u. a. 1997, 1367 ff.). Auf die Ermittlung von FOSP zielt auch der sog. „Substitutionstest“ bzw. „Subkategorisierungstest“ ab, der auf der theoretischen Annahme basiert, dass Angaben nicht zur syntaktischen Subkategorisierung des Verbs beitragen und deshalb ein im Testsatz vorgegebener Valenzträger weitgehend beliebig durch andere Valenzträger ersetzt werden kann (z. B. Helbig 1982a, Welke 1988). Vorschrift: Ersetze V durch eine Reihe beliebiger anderer Verben. Beispiel: (T) Die Krähe sitzt auf dem Dachgarten. (T’) Die Krähe sitzt/frisst/schläft/(?)fliegt/ (?)stürzt/ auf dem Dachgarten Kriterium: Lässt sich V durch beliebige andere Verben ersetzen, so handelt es sich bei K um eine Angabe; ist die Substituierbarkeit eingeschränkt, ist K eine Ergänzung. Im Anschluss an Vater (1978b) wurde allerdings von verschiedener Seite darauf hingewiesen, dass dieses Verfahren nicht das Vorliegen einer Valenzrelation zwischen einem Valenzträger und einem Valenzkandidaten ermittelt. Es führt vielmehr zu einer kategorialen Einteilung von Konstituententypen
in solche, die als Ergänzung, und solche, die als Angabe gewertet werden, und zwar unabhängig von deren Verhalten in Bezug auf ein konkretes Verb. Es besteht aber in der Valenzforschung weitgehend Konsens darüber, dass Valenz kein kategoriales, sondern ein relationales Phänomen ist, das für jede Valenzträger-Valenzkandidaten-Konstellation neu zu bestimmen ist; die Assoziationsexperimente in Heringer (1986) bestätigen diese Hypothese. Es ist genau das Ziel der Valenztests, die Intuition, dass sich beispielsweise das Lokaladverbiale in (2) von dem in (3) bezüglich seiner Valenzgebundenheit zum Verbalkomplex unterscheidet, durch ein operationales Verfahren abzusichern. Der Substitutionstest in der hier angegeben Form ist hierfür ebenso wenig geeignet wie der sog. „Test der freien Hinzufügbarkeit“ (vgl. Helbig 1982a, 30 ff.). Das o. g. Beispiel zeigt zudem, dass selbst bei einer nach diesem Verfahren vorgenommenen kategorialen Abgrenzung nur wenige Konstituententypen als Angaben klassifiziert würden, da selbst lokale Adverbialia, intuitiv gute Kandidaten für eine Angabekategorie, sich nicht beliebig hinzufügen lassen. 3.1.3. Valenztests für syntaktische Notwendigkeit (NOT) Syntaktische Notwendigkeit gilt allgemein als hinreichendes, wenngleich nicht als notwendiges Kriterium für die Einstufungen eines Valenzkandidaten als Ergänzung. Notwendige Valenzkandidaten sind somit stets Ergänzungen, nicht-notwendige Valenzkandidaten sind entweder fakultative Ergänzungen oder Angaben. Diese Auffassung resultiert in der Subklassifikation der Ergänzungen in obligatorische (⫹NOT) und fakultative (-NOT). Als Valenztest zur Ermittlung syntaktischer Notwendigkeit wird fast durchgängig der sog. Eliminierungstest, auch Weglassprobe genannt, propagiert: Vorschrift: Eliminiere K aus T. Beispiel: (T) Die Krähe sitzt auf dem Dachgarten. (T’) Die Krähe sitzt. Kriterium: Ist T’ ungrammatisch, so ist K eine obligatorische Ergänzung, sonst ist K eine Angabe oder eine fakultative Ergänzung. Der Eliminierungstest ist nicht zu verwechseln mit der in der frühen Duden-Grammatik von Grebe eingeführten sog. „Abstrichprobe“ (vgl. Duden 1973, 468). Bei dieser
772 wird zwar auch der Valenzkandidat eliminiert („abgestrichen“), die Bewertung des Restsatzes erfolgt aber im Hinblick auf das semantische Kriterium der Sinnnotwendigkeit, das in etwa ARG entspricht; geprüft wird also die semantische Vollständigkeit der im Restsatz ausgedrückten Proposition. Beim Eliminierungstest hingegen geht es um syntaktische Notwendigkeit. Es wird also geprüft, ob der betreffende Satz ohne den Valenzkandidaten noch grammatisch ist. Die Beurteilung der Grammatikalität der Restsätze erweist sich jedoch häufig als problematisch; der Eliminierungstest kann nur durch verschiedene Zusatzbedingungen überhaupt zu intuitiv einleuchtenden Ergebnissen führen. Relativ früh wurde z. B. gefordert, dass die Verbalkomplexe im vollständigen und im reduzierten Satz dieselbe lexikalische Bedeutung haben müssen, um Fälle zu vermeiden wie: (13) Er schlägt das Buch auf. (13’) Er schlägt auf. bei dem (13’) zwar als lexikalisierte Ellipse in der Fachsprache des Tennis korrekt ist, nicht aber als Redukt von (13) gelten kann. Das Kriterium der Bedeutungskonstanz ist jedoch nur vor dem Hintergrund einer Theorie von der Struktur des Lexikons trennscharf. Die Weglassung von adverbialen Konstituenten geht beispielsweise häufig einher mit regulären Bedeutungsverschiebungen. So erfährt „sitzt“ im obigen Testsatz durch die Weglassung des Adverbiale eine systematische Bedeutungsverschiebung hin zum absoluten Gebrauch des Verbs, zur Fokussierung des Positionsmodus des Subjekts; eine Verschiebung, die jedoch nur unter speziellen Kontextbedingungen möglich ist und deshalb von Testsatz zu Testsatz variieren kann (vgl. Maienborn 1991, 61 ff., Steinitz 1992). Ohne Kenntnis solcher Regularitäten ist es nicht einfach, „richtige“, weil trennscharfe Testsätze zu konstruieren und festzulegen, wann die Forderung nach Bedeutungskonstanz erfüllt ist und wann nicht. Insgesamt wurde im Laufe der Diskussion immer detaillierter herausgearbeitet, dass die Weglassbarkeit von Konstituenten von kommunikativ-pragmatischen, semantischen und syntaktischen Faktoren beeinflusst wird (vgl. ´ gel 1991, Blume 1993, Jacobs 1994b, StorA rer 1996). Entscheidende Parameter sind der im Testsatz vorliegende Minimalkontext, semantische Faktoren wie Habitualität, Generizität, Kontrast sowie syntaktische Konstella-
VI. Valenz: Schwerpunkte der Forschung
tionen wie Wortstellung, definiter vs. indefiniter Artikel usw. Werden diese beim Eliminierungstest nicht ausreichend kontrolliert, ergeben sich für dasselbe Verb bei verschiedenen Testsätzen unterschiedliche Klassifikationsergebnisse. Um dies zu vermeiden, hat Blume (1993, 24 ff.) den Eliminierungstest so modifiziert, dass die o. g. Parameter durch restriktivere Anweisungen bei der Konstruktion der Testsätze unter Kontrolle gehalten werden. So ist z. B. die Eliminierung von Valenzkandidaten nur im Mittelfeld und nur unter Verwendung von finiten Verbformen in der 3. Person Plural erlaubt; weiterhin sind habituelle, generische und kontrastierende Interpretationen der Semantik des Restsatzes explizit auszuschließen. Neben der Restriktion der Testbedingungen können zusätzliche Tests verwendet werden, die für die o. g. Faktoren sensitiv sind. Dazu gehören die in Pasch (1977, 23 ff.) vorgeschlagenen Tests, mit denen obligatorische Ergänzungen weiter subklassifiziert werden in relativ-obligatorische und absolut-obligatorische: Beim Modalisierungstest wird der in Frage stehende Valenzträger in einen Fragesatz mit einem Modalverb vom Muster: „Kann er Xen?“ eingebunden, wobei X der Infinitiv des in T realisierten Verbalkomplexes ist, z. B. (3’) Kann sie sitzen? (5’’’) *Darf er prallen? Geprüft wird also, ob ein Valenzkandidat unter der Bedingung weggelassen werden kann, dass sich die Bedeutung des Verbalkomplexes systematisch von einem aktuellen zu einem potenziellen Geschehen verschiebt. Beim Kontrasttest wird der Valenzträger mit einem anderen Verb kontrastiert, das in semantischer Opposition zum Valenzträger steht (3’’)
Sie sitzt nicht, sondern sie steht.
(5’’’’) *Er prallt nicht, sondern er hüpft. Kann eine obligatorische Ergänzung beim Modalisierungs- oder Kontrasttest weggelassen werden, wie z. B. der Valenzkandidat in (3), so wird sie als relativ-obligatorisch eingestuft; ist Weglassung auch in diesen Kontexten nicht möglich, wie in (5), so handelt es sich um eine absolut-obligatorische Ergänzung. Auch der für die Ermittlung von ARG ungeeignete „und-zwar-Test“ (s. o. 3.1.1) kann zur Diagnose syntaktischer Notwendigkeit herangezogen werden. Gegenüber dem Elimi-
54. Ergänzungen und Angaben
nierungstest hat er den Vorteil, dass der Valenzkandidat nicht einfach weggelassen, sondern ausgelagert wird (vgl. Storrer 1992, 221 f.). Der im Satz vorliegende Minimalkontext bleibt also erhalten, was u. a. die Beurteilung der Bedeutungskonstanz (s. o.) erheblich vereinfacht. 3.1.4. Komplexe Valenztests Unter komplexen Valenztests werden Verfahren zur Valenzdiagnose verstanden, in denen mehrere Valenztests hintereinander geschaltet sind. Komplexe Valenztests sind vor allem für gestufte und mehrdimensionale Valenzmodelle nützlich: Aufgrund von Hypothesen über Interdependenzen zwischen Valenzrelationen können die Tests so kombiniert werden, dass an der Filterung ersichtlich wird, welche Valenzrelationen zwischen Valenzkandidat und Valenzträger bestehen und welche nicht. In Projektgruppe-Verbvalenz (1981, 145 f.) wird das komplexe Testverfahren vorgestellt, auf dem die Valenzbeschreibungen des semantisch orientierten Valenzwörterbuchs „Verben in Feldern“ (Schumacher 1986) basieren. Das onomasiologisch gegliederte Wörterbuch legt ein semantisch fundiertes Valenzmodell zugrunde, in dem Ausdrücke einer übereinzelsprachlich-begrifflichen lambdakategorialen Konstruktsprache, deren Ausdrücke über einem Modell möglicher Welten interpretiert sind, in das „deutschnahe“ Kategorialdeutsch übersetzt werden (vgl. Projektgruppe-Verbvalenz 1981). Entsprechend spielt die Valenzrelation der Argumenthaftigkeit eine zentrale Rolle. Der komplexe Valenztest besteht aus drei Einzeltests. Zunächst werden mit dem Eliminierungstest die syntaktisch notwendigen Valenz-Kandidaten herausgefiltert; sie gelten als obligatorische Ergänzungen. Beim folgenden Implikationstest wird erfragt, ob sich ein Satz T aus einem um den Valenzkandidaten reduzierten Restsatz T’ logisch erschließen lässt: Vorschrift: Ersetze K in T durch ein Indefinitpronomen und bilde T’ durch Eliminierung von K aus T. Prüfe, ob man von Satz T’ auf den Satz T schließen kann. Beispiel: (T) Die Krähe sitzt irgendwo. (T’) Die Krähe sitzt. Frage: Kann man von „Die Krähe sitzt.“ schließen auf „Die Krähe sitzt irgendwo.“
773 Kriterium: Ist ein solcher Schluss nicht möglich, so handelt es sich um eine Angabe. Ist der Schluss möglich, so entscheidet der nachfolgende Subklassenspezifizitätstest über den Status als Ergänzung oder Angabe. Man sieht, dass Impliziertheit zwar als notwendiges, nicht aber als hinreichendes Kriterium für den Ergänzungsstatus gewertet wird. Dies liegt daran, dass lokale und temporale Adverbialia, da sich alles Geschehen und Tun in Raum und Zeit abspielt, in den meisten Fällen den Implikationstest bestehen. Als dritter und letzter Test wird der Subklassenspezifizitätstest durchgeführt, mit ihm sollen also vor allem fakultative Adverbialia auf Valenzgebundenheit geprüft werden. Entscheidend ist bei diesem Test die Frage, ob der in Frage stehende Valenzkandidat spezifisch für die semantische Subklasse ist, zu der das Verb gehört. Dieses Kriterium ist zwar im Hinblick auf die onomasiologische Ausrichtung des Wörterbuchs sinnvoll, ohne Rückgriff auf die vorgenommene Feldstrukturierung aber nur schwer operationalisierbar (vgl. Storrer 1992, 72 ff., Adamzik 1992, 303 f.). In Zifonun/Hoffmann/Strecker u. a. (1997) wird der für „Verben in Feldern“ entworfene komplexe Valenztest im Hinblick auf die grammatikographische Anwendung modifiziert, verfeinert und als Diagnoseinstrument für das der „Grammatik der deutschen Sprache“ zugrunde liegende mehrdimensionale Valenzmodell genutzt. In diesem Modell werden vier morphosyntaktische Formrelationen, vier semantisch-pragmatische Bedeutungsrelationen und eine unabhängige Valenzrelation zueinander in Beziehung gesetzt und in ihrer Bedeutung für die E-A-Abgrenzung gewichtet. Das Vorliegen bzw. das Nicht-Vorliegen einer bestimmten Formbzw. Bedeutungsrelation wird dabei entweder als Fürsprecher oder als Gegenspieler für den Ergänzungsstatus eines Valenzkandidaten gewertet. Der komplexe Valenztest reflektiert diesen theoretischen Hintergrund, indem die Funktion der einzelnen Tests im Hinblick auf die Diagnose verschiedener Valenzrelationen expliziert wird (Zifonun 1995, Zifonun/Hoffmann/Strecker u. a. 1997, 1060 ff.). Das Verfahren resultiert konsequenterweise auch nicht in der Subklassifikation der Valenzkandidaten in obligatorische Ergänzungen, fakultative Ergänzungen und Angaben, sondern in einer graduellen Abstufung in Ergänzungen des Kernbereichs (a, c), Ergänzungen des Randbereichs (d, e, f) und Angaben(b, g).
774
VI. Valenz: Schwerpunkte der Forschung Einstieg [a]
+
–
R-Test
++
[c]
An-Test
–
[d]
[b]
+
An-Test
++ +
–
F-Test
++
[e]
[ ]
+
[f]
Supplemente
–
[g]
Komplemente Kern
Rand
Abb. 54.2
Der Entscheidungsbaum in Abbildung 2 zeigt den Ablauf im Einzelnen: Zunächst wird die syntaktische Notwendigkeit mit dem Reduktionstest geprüft, einem in den Anwendungsbedingungen verschärften Eliminierungstest. Nicht-weglassbare Valenzkandidaten gehören zur Kategorie [a], weglassbare Kandidaten durchlaufen als nächsten Filter den Folgerungstest. Dieser entspricht in der Grundidee dem oben beschriebenen Implikationstest, es wird allerdings zwischen einer eingeschränkt positiven (⫹) und einer uneingeschränkt positiven (⫹⫹) Beurteilung der Impliziertheit unterschieden. Valenzkandidaten mit negativer Beurteilung (⫺) werden ohne weitere Prüfung als klarer Fall von Angabe in Kategorie [b] eingeordnet. Valenzkandidaten, die als eingeschränkt oder uneingeschränkt impliziert gelten, durchlaufen als letzten Filter den „und-das-Test“, einen Anschlusstest, bei dem der Valenzkandidat ausgelagert und mit „und das“ angeschlossen wird: (T) Peter schläft auf dem Dachgarten. (T’) Peter schläft, und das auf dem Dachgarten. Auch hier wird wiederum zwischen einer eingeschränkt positiven (⫹) und einer uneingeschränkt positiven (⫹⫹) Beurteilung der Ak-
zeptabilität des entstehenden Testsatzes unterschieden. Aus einer negativen Beurteilung folgt die Klassifizierung als Angabe des Typs [g]. In den anderen Fällen werden die Valenzkandidaten, je nachdem, wie sie beim Folgerungs- und Anschlusstest bewertet wurden, als Ergänzungen des Kernbereichs [c] oder des Randbereichs [d], [e], [f] klassifiziert. 3.1.5. Bewertung kompetenzorientierter Verfahren Der Hauptvorteil kompetenzorientierter Verfahren liegt sicherlich darin, dass sie schnell und unkompliziert durchführbar und somit v. a. für lexikographische Anwendungen praktikabel sind. Sie haben jedoch auch gravierende Nachteile, die v. a. mit folgenden Eigenschaften bei der Durchführung zusammenhängen: 1. In den Testsätzen, mit denen Valenztests durchgeführt werden, vertritt die Begleiterkonstituente die gesamte paradigmatische Klasse, d. h. die Begleiterrolle, zu der sie gehört. Der Test wird daher im Allgemeinen pro Begleiterrolle nur einmal durchgeführt. 2. Die Tests werden mit selbstkonstruierten Sätzen durchgeführt, sind also nicht in einem authentischen situativen Kontext eingebunden.
54. Ergänzungen und Angaben
Die Beurteilung der Testsätze ist deshalb in hohem Maße abhängig davon, wie der Testsatz konstruiert wurde und welchen Kontext die Probanden sich dazudenken. Dies führte dazu, dass die Diskussion um die E-A-Abgrenzung lange Zeit bestimmt war von der Propagierung bestimmter Tests anhand einleuchtender Beispiele und deren Widerlegung durch Gegenbeispiele, in denen anders konstruierte Kontexte zu kontraintuitiven Einordnungen führen. Besonders sensitiv für den im Testsatz vorgegebenen Minimalkontext ist der Eliminierungstest, der, wie in 3.1.3 gezeigt, durch komplexe Zusatzbedingungen gestützt werden muss. Dass die unreflektierte Verwendung solcher Tests tatsächlich zu sehr unterschiedlichen Beurteilungen führt, dokumentiert der in Storrer (1992, Kap. 5) durchgeführte Vergleich dreier Wörterbücher mit Valenzangaben, deren gemeinsam beschriebene Verbeinträge sich zu 46 % in der Beurteilung der quantitativen Valenz und zu 20 % in der Beurteilung der Weglassbarkeit von Ergänzungen unterscheiden. Es zeigt sich auch in der von Krause (1977) durchgeführten Untersuchung zum „geschehen-Test“, in der ca. 70 Studierende Testsätze der Art „Die Kinder haben mich sehr gestört. Das geschah am Abend.“ oder „Karl wurde angeklagt. Das geschah wegen Diebstahls.“ auf einer vierstufigen Akzeptabilitätsskala zu beurteilen hatten. Die Ergebnisse machen deutlich, dass die Urteile gerade in den kritischen Fällen sehr uneinheitlich sind, dass in diesen Fällen häufig die mittleren Werte gewählt wurden. Gerade für grammatisch weniger versierte Testpersonen sind Valenztests nur bedingt geeignet, da deren Einsatz einen geübten „Strukturblick“ und ein theoretisches Vorverständnis über die Natur der zu ermittelnden Valenzrelation voraussetzt. In Storrer (1992, 76 ff.) wurde zudem gezeigt, dass die unreflektierte, parallele Verwendung verschiedener Tests zu widersprüchlichen Beurteilungen desselben Valenzkandidaten im selben Testsatz führt. Von den zur Verfügung stehenden Tests müssen also diejenigen ausgewählt werden, die mit der jeweils gewählten Präzisierung des Valenzbegriffs kompatibel sind. Die wichtigsten Vorschläge für die Valenzrelationen FOSP, ARG und NOT wurden oben erörtert. Die Benutzung mehrerer Valenztests ist sinnvoll für mehrdimensionale und Mehrebenenmodelle, wenn sie, wie bei den im vorigen Abschnitt skizzierten komplexen Testverfahren, in eine feste Abfolge eingebunden sind.
775 3.2. Korpusorientierte Verfahren Korpusorientierte Verfahren treffen die E-AAbgrenzung mithilfe von quantitativen und qualitativen Valenzanalysen in Textkorpora. Eine exemplarische Nutzung von Korpora liegt vor, wenn eine Belegsammlung mit möglichst typischen, aber auch ungewöhnlichen und interessanten Valenzrealisierungen aufgebaut wird. Sowohl beim Valenzwörterbuch „Verben in Feldern“ (Schumacher 1986) als auch beim Nachfolgeprojekt „ValBu“ (vgl. Schumacher 1990) wurden Korpusbelege einerseits genutzt, um einen Überblick über das Rollenpotenzial der zu beschreibenden Verben zu erhalten, andererseits, um die Satzbauplanangaben im Wörterbuch durch authentische Beispiele zu illustrieren. Korpora können aber auch eingesetzt werden, um die E-A-Abgrenzung durch Frequenzanalysen empirisch zu stützen. Eine Methode für die korpusgestützte Valenzer´ gel (1988, Kap. 6) vorgeschlamittlung hat A gen und an einem geschlossenen Korpus des Frühneuhochdeutschen erprobt. Dabei wurde aus der Not, dass Valenztests zu Verben älterer Sprachstufen nicht problemlos durchgeführt werden können, weil keine kompetenten Sprecher mehr für Akzeptabilitätsurteile zur Verfügung stehen, eine Tugend: Die E-AAbgrenzung derjenigen Begleiterrollen, die nicht in der Valenzrelation FOSP zum betreffenden Valenzträger stehen, wurde nach quantitativen Kriterien getroffen: Trat eine solche Kategorie in mehr als 70 % der Belege als Begleiterkonstituente zum betreffenden Verbalkomplex auf, so wurde sie als E, sonst als A gewertet. Je nach Anzahl der gefundenen Belegstellen kann der Schwellenwert bis zu 90 % oder 100 % der ausgewerteten Belege ´ gel 1988, nach oben verschoben werden (A 108 f.). Manuell können Frequenzanalysen nur unter enormem Zeitaufwand oder an sehr kleinen Korpora durchgeführt werden. Die linguistische Annotierung maschinenlesbarer Korpora, die auch für das Deutsche vorangetrieben wird (vgl. Feldweg/Hinrichs 1996), eröffnet aber neue Perspektiven für korpusgestützte quantitative Valenzanalysen. Linguistische Annotierung reicht von der Rückführung flektierter Formen auf Lemmata über die automatische Zuordnung eindeutiger syntaktischer Kategorien bis hin zur Auszeichnung von Phrasentypen; einen Überblick über den Stand der Kunst gibt Abney (1997). Je reichhaltiger die linguistische Annotierung, desto besser können die Valenza-
776
VI. Valenz: Schwerpunkte der Forschung
nalysen durch automatische Verfahren unterstützt werden. Entsprechende Annotierungsarbeiten haben für das Deutsche erst begonnen; schon jetzt gibt es aber hinreichend Werkzeuge zur Korpusrecherche, um die o. g. Valenztests durch Sichtung authentischer Korpusbelege zu ergänzen. Semiautomatische Verfahren zur Ermittlung und Vervollständigung von Subkategorisierungsrahmen für deutsche Verben wurden bereits erprobt (z. B. Eckle/Heid 1996). Solche Verfahren werden künftig in der Valenzlexikographie an Bedeutung gewinnen. Gerade auch die im nachfolgenden Abschnitt erörterten Ansätze zur Stufung und Graduierung der Valenzrelationen könnten durch quantitative Korpusanalysen bei hinreichend großen Textmengen empirisch untermauert werden. Kompetenzorientierte Verfahren wie Valenztests werden dennoch weiterhin zur Feindiagnose bei speziellen Klassifikationsproblemen benötigt werden.
4.
Graduelle Abstufungen der Valenzgebundenheit
In den 80er Jahren verschob sich die Diskussion um die E-A-Abgrenzung von der Propagierung neuer Valenztests hin zu Arbeiten, in denen nach Erklärungen für die Klassifikationsprobleme gesucht wird. Eine von verschiedener Seite vorgebrachte Erklärungshypothese ist die, dass die Unterscheidung von Ergänzungen und Angaben deshalb so schlecht operationalisiert werden kann, weil es sich bei der Valenzbindung gar nicht um ein dichotomisches, sondern um ein graduelles Phänomen handelt, weil es zentralere und weniger zentrale Begleiterrollen gibt (z. B. Somers 1987, Heringer 1986, Ehrich 1997). Im Folgenden unterscheide ich zwei Typen von Modellen, in denen diese Hypothese auf unterschiedliche Weise methodisch reflektiert wird: ⫺ Modelle der Valenzstufung ersetzen die dichotomische E-A-Abgrenzung durch eine Mehrfachklassifikation, für deren Klassen unterschiedliche Valenzbindungsstärke postuliert wird. ⫺ Modelle der Valenzquantifizierung ersetzen den klassifikatorischen durch einen quantitativen Valenzbegriff, bei dem die Bindungsstärke der Begleiterrollen anhand eines einheitlichen Verfahrens gemessen werden kann.
4.1. Valenzstufung Die Aufhebung der Ergänzungen-AngabenDichotomie ist im Grunde eine folgerichtige Konsequenz von Mehrebenen-Modellen und mehrdimensionalen Valenzbetrachtungen: Zentrale Begleiterrollen sind solche, die auf allen Ebenen an den Valenzträger gebunden sind bzw. die in allen Valenzrelationen zum Valenzträger stehen. Begleiterrollen, auf die nur einige Valenzrelationen zutreffen, können als mehr oder weniger peripher betrachtet werden. Das in Zifonun/Hoffmann/ Strecker u. a. (1997, 1043 ff.) benutzte mehrdimensionale Valenzmodell resultiert konsequenterweise auch in der in 3.1.4 bereits beschriebenen Dreiteilung der Valenzkandidaten in Komplemente des Kernbereichs ⬎ Komplemente des Randbereichs ⬎ Supplemente, die für die einzelnen Phrasenklassen weiter ausdifferenziert ist. Eine Valenzstufung ist implizit auch in vielen Mehrebenenmodellen angelegt. In Grundzüge (1981, 125 f.) wird beispielsweise die Menge der Begleiterrollen in mehrere disjunkte Teilklassen, in valenznotwendige, valenzmögliche und valenzunabhängige Konstituenten subklassifiziert. ⫺ Valenzunabhängige Konstituenten sind fakultative direkte Konstituenten der Satzbasis und damit nicht kontextuell beschränkt. ⫺ Valenzmögliche Konstituenten gehören zur erweiterten Prädikatsgruppe und unterliegen damit kontextuellen und verbgruppenspezifischen Beschränkungen. ⫺ Valenznotwendige Konstituenten schließlich sind Teil der „engeren Prädikatsgruppe“ und dort in der Grundstruktur (dem terminologischen Pendant der „Tiefenstruktur“) stets angelegt. Der Terminus „notwendig“ bezieht sich hier nicht auf die Notwendigkeit der Realisierung in der Oberflächenstruktur; syntaktische Notwendigkeit wird vielmehr durch eine weitere Subklassifizierung der valenznotwendigen Konstituenten in tilgbare (fakultative) und nicht-tilgbare (obligatorische) berücksichtigt. Die Explikation der Subklassen in Anlehnung an das Standardmodell der generativen Transformationsgrammatik legt die folgende Stufung nahe: Valenznotwendige Konstituenten ⬎ valenzmögliche Konstituenten ⬎ valenzunabhängige Konstituenten. Sawicki (1988) klassifiziert die Begleiterrollen nach den Unterschieden „in the degree
54. Ergänzungen und Angaben
of their participation in the action denoted by the verb“ (Sawicki 1988, 19). Mit fünf parallel durchgeführten recht heterogenen Valenztests wird die Zugehörigkeit zu einer der drei Valenzsubklassen ermittelt, deren Bindungsstärke folgendermaßen beurteilt wird: „actants“ ⬎ „valential complements“ ⬎ „nonvalential complements“. Somers (1990, 24 ff.) unterscheidet sechs Klassen von Begleiterrollen und ordnet diese in Bezug auf Valenzbindungsstärke in folgender Weise: integral complements (1) ⬎ obligatory complements (2) ⬎ optional complements (3) ⬎ middles (4) ⬎ adjuncts (5) ⬎ extra-peripherals (6). Die 6-stufige Einteilung wird dann wieder auf eine dreistufige abgebildet, bei der (1)⫺(3) als valenzgebundene „inner roles“, (5) u. (6) als nicht valenzgebundene „outer roles“ angesehen werden (Somers 1990, 187 ff.). Den „middles“ werden diejenige Valenzkandidaten zugeordnet, deren Valenzgebundenheit nicht klar entschieden werden kann, d. h. die sich nach dem von Somers vorgeschlagenen Valenztest, dem „do-so-Tests“, einem dem „und-das-Test“ entsprechenden Verfahren (vgl. Somers 1984), nicht nach Wunsch verhalten. Die „middles“ werden damit jedoch zu einer theoretisch nicht explizierten Restkategorie, die das differenzierende Potenzial, das prinzipiell in einer Stufung liegt, ungenutzt lässt und das Zusammenspiel der Valenzrelationen eher verdeckt als erhellt. In allen genannten Fällen wird die Stärke der Valenzgebundenheit für die einzelnen Teilklassen nicht ⫺ wie bei dem unten genannten Verfahren zur Valenzquantifizierung ⫺ anhand eines einheitlichen Kriteriums bewertet, mit dem die Bindungsstärke zweier Begleiterrollen miteinander verglichen werden kann. Die Skalierung der Kategorien erfolgt vielmehr intuitiv vor dem Hintergrund theoretischer Hypothesen, die mehr oder weniger plausibel erscheinen können. 4.2. Valenzquantifizierung Methodisch bedeutet der Übergang von einem klassifikatorischen zu einem quantitativen Valenzbegriff, dass nicht mehr die Qualität einer oder mehrerer Valenzrelationen untersucht, sondern die Quantität der Bindungsstärke in einer Valenzträger-Valenzkandidaten-Verbindung ermittelt wird. Ein solcher Übergang ist zwar mit einem Gewinn an Information und Messgenauigkeit verbun-
777 den, stellt dafür aber erhöhte Anforderungen an die Präzision der Messverfahren (vgl. Stegmüller 1970, Kap. I). Es muss ein einheitliches Kriterium gefunden werden, wonach sich alle Begleiterrollen nach der Stärke von Valenzbindung auf einer Skala anordnen lassen, sodass für jedes Paar von Begleiterrollen B1 und B2 entschieden werden kann, ob B1 einen höheren oder einen niedrigeren Valenzbindungswert aufweist als B2, oder ob B1 und B2 mit derselben Stärke valenzgebunden sind (vgl. Storrer 1992, Kap. 4.2.7.4). Im Gegensatz zur chemischen Valenzbindung, die von jeher durch Messung der Atomgewichtsverhältnisse für jedes Element quantifizierbar ist, genügt für die grammatische Valenzbindung bislang nur das in Heringer (1986) vorgeschlagene und erprobte Verfahren diesem Anspruch. In diesem Assoziationsexperiment bekamen Probanden eine Reihe von Verbinfinitiven als Stimuli vorgelegt, zu denen Fragewörter für mögliche Ergänzungsfragen genannt werden sollten. Das experimentelle Szenario beruht auf der Annahme, dass die semantische Distanz zwischen einem verbalen Valenzträger und seinen potenziellen Begleiterkonstituenten sich darin ausdrückt, ob und wie schnell das dem Begleiter entsprechende Fragewort assoziiert wird. Unter Berücksichtigung von Parametern wie Häufigkeit der Nennung und Latenzzeit kann aus den Ergebnissen der Probanden für jeden Valenzkandidaten ein Valenzbindungswert berechnet werden, sodass sich letztlich alle Begleiterrollen eines Verbs nach ihren Bindungswerten auf einer Skala anordnen lassen. Es ging Heringer dabei weniger um ein messtheoretisch einwandfreies Verfahren für Valenzbindungsstärke als darum, mit neuen Mitteln bestimmte Hypothesen der Valenzforschung zu überprüfen. Das Experiment zeigte, dass Valenzkandidaten, die traditionell als Ergänzungen gelten, im Allgemeinen auch höhere Valenzbindungswerte aufweisen als Valenzkandidaten, die meist den Angaben zugeordnet werden. Gerade für die problematischen Fälle ergeben sich aber auch hier keine klaren Zuordnungen. Es muss beachtet werden, dass bei der Valenzquantifizierung genaugenommen alle Begleiterrollen als valenzgebunden gelten, wenngleich mit unterschiedlicher Bindungsstärke. Dies sollte aber nicht als Einebnung der durch die E-A-Abgrenzung erfassten Unterschiede missverstanden werden. Quantifizierende Verfahren erlauben vielmehr sogar
778
VI. Valenz: Schwerpunkte der Forschung
eine empirisch fundiertere, differenzierte Erfassung des gesamten Valenzpotenzials im Hinblick auf verschiedene Valenzrelationen, aus denen dann für verschiedene Anwendungen eine zweckmäßige Auswahl getroffen werden kann. Eine Unterscheidung zwischen Ergänzungen und Angaben kann leicht dadurch wieder eingeführt werden, dass, wie auch in dem in 3.2 beschriebenen korpusorientierten Verfahren, ein bestimmter Schwellenwert an Valenzbindungsstärke festgelegt wird und Begleiterrollen, die den Schwellenwert überschreiten, als Ergänzungen, Begleiterrollen, die ihn unterschreiten, als Angaben gewertet werden. Durch mehrere Schwellenwerte können entsprechend mehrstufige Einteilungen erzielt werden. Man sollte jedoch im Auge behalten, dass es sich bei der Festlegung solcher Schwellenwerte immer um Setzungen eines Valenztheoretikers handelt, die mehr oder weniger sinnvoll und zweckmäßig sein können, die sich aber nicht aus dem empirisch beobachtbaren Verhalten der Valenzkandidaten ableiten lassen.
5.
Fazit
Der E-A-Abgrenzung liegt eine Intuition zugrunde, die in jeder Lexikon- oder Grammatiktheorie neu präzisiert werden muss. Während die Diskussion lange von der Suche nach der richtigen Valenzebene bzw. dem richtigen Abgrenzungskriterium bestimmt war, hat sich spätestens seit der Arbeit von Jacobs (1994a) die Auffassung durchgesetzt, dass es eine Reihe extensionsverschiedener Valenzrelationen gibt, die jede für sich an verschiedenen Stellen einer sprachsystematischen Beschreibung fruchtbar und relevant sind. Auch wenn diese Relationen in verschiedenen Implikationsbeziehungen zueinander stehen und erst in ihrem Gesamt die Valenz vollständig erfassen, können für verschiedene Anwendungsbereiche ⫺ z. B. für typologische Untersuchungen, für einsprachige Wörterbücher oder Lernerwörterbücher, für die maschinelle Sprachverarbeitung und Übersetzung ⫺ diese oder jene Valenzaspekte herausgegriffen werden. Der Anwendungsbezug entscheidet auch darüber, ob ein graduelles Konzept von Valenzbindung durch die Setzung von Schwellenwerten auf die E-A-Dichotomie abgebildet werden sollte oder nicht. Die Ansicht, dass die Suche nach der einzigen und richtigen Grenzlinie zwischen Ergänzungen und Angaben ein müßiges Unterfangen
ist, war zwar ein Befreiungsschlag für die Valenzforschung, der den Blick auf andere, spannendere Aspekte frei gemacht hat. Dennoch muss die E-A-Abgrenzung für die Anwender transparent und nachvollziehbar bleiben, d. h. die Grammatikbenutzer, die Fremdsprachenlerner und insbesondere natürlich die maschinellen Sprachanalyseprogramme müssen wissen, was hinter den vorgenommenen Unterscheidungen, seien sie nun dichotomisch, gestuft oder graduiert, im Einzelnen steckt. Der Übergang von der dichotomischen E-A-Abgrenzung zu mehrdimensionalen, gestuften Modellen, legt es nahe, den Valenzrahmen eher weit zu fassen und die Begleiterrollen dann bezüglich der verschiedenen Valenzrelationen zu subklassifizieren. Dies ist insbesondere für kontrastive Untersuchungen von Vorteil, ebenso für die maschinelle Übersetzung und für Anwendungen im Bereich „Deutsch als Fremdsprache“: Einerseits enthält ein weiter Valenzrahmen auch ein Mehr an Information über das kombinatorische Potenzial eines Verbs, andererseits kann sich dieses Potenzial in verschiedenen Sprachen ja genau in den Bereichen unterscheiden, die von einem engen Valenzrahmen nicht erfasst sind. Im methodischen Bereich führt die Pluralität der Valenzrelationen dazu, dass die Tests auf die Ausdifferenzierung in Valenzebenen und -dimensionen abgestimmt sein müssen, d. h. jeder Valenztest sollte klar einer bestimmten Ebene oder Dimension zugeordnet sein. Die praktische Erfahrung mit Valenztests hat auch gezeigt, dass die meisten Verfahren speziellen Anwendungsbeschränkungen unterliegen, die durch entsprechende Restriktionen bei der Durchführung der Tests abgefangen werden müssen. Um solche Beschränkungen besser erkennen und erklären zu können, lohnt auch der Blick in nichtvalenztheoretisch orientierte Arbeiten zur Struktur des Lexikons, die notorisch problematische Valenzkandidaten wie Lokal-, Temporal-, Direktional- und Instrumentaladverbialia betreffen, auch wenn darin die Frage nach der empirischen Untermauerung der semantischen und konzeptuellen Strukturen meist nicht thematisiert wird. Die größten Veränderungen für die empirische Fundierung der E-A-Abgrenzung sind künftig von der sich rasch entwickelnden Korpuslinguistik zu erwarten: Wenn für die Einzelsprachen hinlänglich große und linguistisch annotierte Korpora zur Verfügung ste-
54. Ergänzungen und Angaben
779 Breindl, Eva (1989): Präpositionalobjekte und Präpositionalobjektsätze im Deutschen (⫽ Linguistische Arbeiten 220). Tübingen.
hen, können die bislang vornehmlich in der historischen Valenzforschung eingesetzten korpusorientierten Verfahren mit maschineller Hilfe für umfangreiche quantitative und qualitative Valenzanalysen eingesetzt werden. Valenztests erhalten dann einen anderen Stellenwert, sie werden zu Instrumenten, die ergänzend und problembewusst zur gezielten Feindiagnose bei speziellen Klassifikationsproblemen herangezogen werden.
Conrad, Rudolf (1978): Studien zu Syntax und Semantik von Frage und Antwort (⫽ Studia Grammatica XIX). Berlin.
6.
Duden. Grammatik der deutschen Gegenwartssprache (1973): Hg. v. Paul Grebe u. a. Mannheim/ Leipzig/Wien/Zürich (3. Aufl.).
Literatur in Auswahl
Abney, Steven (1997): Part-of-Speech-Tagging and Partial Parsing. In: Young, Steve/Bloothooft, Gerrit (eds.): Corpus-based Methods in Language and Speech Processing. Dordrecht, 118⫺136. Adamzik, Kirsten (1992): Ergänzungen zu Ergänzungen und Angaben. In: Deutsche Sprache 20, 289⫺313. ´ gel, Vilmos (1988): Überlegungen zur Theorie und A Methode der historisch-synchronen Valenzsyntax und Valenzlexikographie. Mit einem Valenzlexikon zu den „Denkwürdigkeiten der Helene Kottanerin (1439⫺1440)“ (⫽ Lexicographica Series Maior 25). Tübingen. ´ gel, Vilmos (1991): Lexikalische Ellipsen. Fragen A und Vorschläge. In: Zeitschrift für germanistische Linguistik 19, 24⫺48. Altmann, Hans (1981): Formen der „Herausstellung“ im Deutschen. Tübingen. Andresen, Helga (1973): Ein methodischer Vorschlag zur Unterscheidung von Ergänzungen und Angaben im Rahmen der Valenztheorie. In: Deutsche Sprache 1, 49⫺63. Askedal, John Ole (1985): Einige kritische Überlegungen zur Unterscheidung von Ergänzungen und Angaben in der Valenzlehre. In: Nouveaux Cahiers d’Allemand 3, 113⫺121. Beckmann, Frank (1994): Adjunkt oder Argument? Probleme der Abgrenzung, Lizensierung und Interpretation am Beispiel von Instrumentalphrasen. In: Schwarz, Monika (Hg.) (1994): Kognitive Semantik/Cognitive Semantics. Ergebnisse, Probleme, Perspektiven. Tübingen, 119⫺129. Biere, Bernd-Ulrich (1976): Ergänzungen und Angaben. In: Schumacher, Helmut (Hg.) (1976): Untersuchungen zur Verbvalenz (⫽ Forschungsberichte des Instituts für deutsche Sprache in Mannheim 30). Tübingen, 129⫺173. Blume, Kerstin (1993): Valenz deutscher Verben und (Nicht-)Notwendigkeit. Arbeiten des Sonderforschungsbereichs 282 „Theorie des Lexikons“ Nr. 48. Wuppertal. Bondzio, Wilhelm (1971): Valenz, Bedeutung und Satzmodelle. In: Helbig, Gerhard (Hg.) (1971): Beiträge zur Valenztheorie. Halle, 85⫺103.
Brinker, Klaus (1972): Konstituentenstrukturgrammatik und operationale Satzgliedanalyse: Methodenkritische Untersuchungen zur Syntax des einfachen Satzes im Deutschen. Frankfurt.
Duden. Grammatik der deutschen Gegenwartssprache (1995): Hg. v. Günther Drosdowski, Peter Eisenberg, Hermann Gelhaus, Helmut Henne, Horst Sitta und Hans Wellmann. Mannheim/Leipzig/ Wien/Zürich (5. Aufl.). Eckle, Judith/Heid, Ulrich (1996): Extracting raw material for a German subcategorization lexicon from newspaper text. In: Proceedings of the 4th International Conference on Computational Lexicography COMPLEX 96. Budapest, Hungary. Ehrich, Veronika (1997): Wertsteigerung und Wertverlust ⫺ Die Veränderung der Valenz. In: Dürscheid, Christa/Ramers, Karl Heinz/Schwarz, Monika (Hgg.) (1997): Sprache im Fokus. Festschrift für Heinz Vater zum 65. Geburtstag. Tübingen, 259⫺276. Eisenberg, Peter (1994): Grundriß der deutschen Grammatik. Stuttgart (3. Aufl.). Engel, Ulrich (1988): Deutsche Grammatik. Heidelberg/Tokyo. Engel, Ulrich (1994): Syntax der deutschen Gegenwartssprache (⫽ Grundlagen der Germanistik 22). Berlin. Engel, Ulrich/Schumacher, Helmut (1976): Kleines Valenzlexikon deutscher Verben. Tübingen. Eroms, Hans-Werner (1981): Valenz, Kasus und Präpositionen. Untersuchungen zur Syntax und Semantik präpositionaler Konstruktionen in der deutschen Gegenwartssprache. Heidelberg. Grundzüge einer deutschen Grammatik (1981). Hg. v. einem Autorenkollektiv unter der Leitung von Karl Erich Heidolph, Walter Flämig und Wolfgang Motsch. Berlin. Feldweg, Helmut/ Hinrichs, Erhard W. (Hgg.): Lexikon und Text. Wiederverwendbare Methoden und Ressourcen zur linguistischen Erschließung des Deutschen. Tübingen. Heger, Klaus (1966): Valenz, Diathese und Kasus. In: Zeitschrift für romanische Philologie 82, 138⫺ 170. Helbig, Gerhard (1982a): Valenz ⫺ Satzglieder ⫺ semantische Kasus ⫺ Satzmodelle. Leipzig. Helbig, Gerhard (1982b): Valenz und Sprachebenen. In: Zeitschrift für Germanistik 3, 68⫺84.
780 Helbig, Gerhard (1992): Probleme der Valenz- und Kasustheorie (⫽ Konzepte der Sprach- und Literaturwissenschaft 51). Tübingen. Helbig, Gerhard/Schenkel, Wolfgang (1983): Wörterbuch zur Valenz und Distribution deutscher Verben. Leipzig (7. Aufl.). Heringer, Hans-Jürgen (1986): The Verb and Its Semantic Power: Association as a Basis for Valence Theory. In: Journal of Semantics 4, 79⫺99. Jacobs, Joachim (1994a): Kontra Valenz (⫽ Fokus 12). Trier. Jacobs, Joachim (1994b): Das lexikalische Fundament der Unterscheidung von obligatorischen und fakultativen Ergänzungen. In: Zeitschrift für Germanistische Linguistik 22, 284⫺319. Krause, Jürgen (1977): Untersuchungen über das Verb „geschehen“. Eine Vorstudie zu den Verben des Geschehens. Tübingen. Maienborn, Claudia (1991): Position und Bewegung: Zur Semantik lokaler Verben (⫽ IWBS Report 138). Stuttgart.
VI. Valenz: Schwerpunkte der Forschung Brückenschlags. In: Linguistische Berichte 137, 33⫺44. Storrer, Angelika (1992): Verbvalenz. Theoretische und methodische Grundlagen ihrer Beschreibung in Grammatikographie und Lexikographie (⫽ Reihe Germanistische Linguistik 126). Tübingen. Storrer, Angelika (1996): Wie notwendig sind obligatorische Valenzstellen? ⫺ Faktoren der Weglaßbarkeit von Valenzstellen im Text. In: Gre´ciano, Gertrud/Schumacher, Helmut (Hgg.) (1996): Lucien Tesnie`re ⫺ Syntaxe structurale et ope´rations mentales. Akten des deutsch-französischen Kolloquiums anläßlich der 100. Wiederkehr seines Geburtstages Strasbourg 1993. Tübingen, 225⫺238. Tesnie`re, Lucien (1959): E´le´ments de syntaxe structurale. Paris. Varnhorn, Beate (1986): Nochmals: Ergänzungen und Angaben. Forschungskritik und ein neuer Vorschlag. In: Deutsche Sprache 14, 1⫺11. Vater, Heinz (1978a): Probleme der Verbvalenz (⫽ Kölner Linguistische Arbeiten Germanistik). Trier.
Stegmüller, Wolfgang (1970): Probleme und Resultate der Wissenschaftstheorie und analytischen Philosophie 2: Theorie und Erfahrung. Berlin/Heidelberg/New York.
Vater, Heinz (1978b): On the Possibility of Distinguishing between Complements and Adjuncts. In: Abraham, Werner (Hg.) (1978): Valence, Semantic Case and Grammatical Relations. Amsterdam, 21⫺46. Wegener, Heide (1985): Der Dativ im heutigen Deutsch (⫽ Studien zur deutschen Grammatik 28). Tübingen. Wegener, Heide (1989): Rektion, Valenz und Selektion. Zur Abhängigkeitsstruktur der Dative im Deutschen. In: Zeitschrift für Germanistik 10, 19⫺33. Welke, Klaus (1988): Einführung in die Valenz- und Kasustheorie. Leipzig. Welke, Klaus (1990): Schwierigkeiten beim Schreiben einer Einführung in die Valenztheorie: Ergänzungen und Angaben. In: Zeitschrift für Germanistik 11, 5⫺11. Zifonun, Gisela (1972): Über die Unverträglichkeit verschiedener Valenzbegriffe und ihre Verwertbarkeit in semantischen Beschreibungen. In: Zeitschrift für Dialektologie und Linguistik 39, 171⫺ 205. Zifonun, Gisela (1995): Wieviele Valenzrelationen braucht eine Grammatik? In: Eichinger, Ludwig M./Eroms, Hans-Werner (Hgg.) (1995): Dependenz und Valenz (⫽ Beiträge zur germanistischen Sprachwissenschaft 10). Hamburg, 177⫺190. Zifonun, Gisela/Hoffmann, Ludger/Strecker, Bruno u. a. (1997): Grammatik der deutschen Sprache. Berlin/New York.
Steinitz, Renate (1992): „Modern“: Argumentstruktur, "Traditionell": Valenz ⫺ Versuch eines
Angelika Storrer, Mannheim (Deutschland)
Pasch, Renate (1977): Zum Status der Valenz. In: Linguistische Studien A 42, 1⫺50. Projektgruppe-Verbvalenz (1981): Konzeption eines Wörterbuchs deutscher Verben. Zu Theorie und Praxis einer semantisch orientierten Valenzlexikographie. Tübingen. Sawicki, Lea (1988): Verb-Valency in Contemporary Polish. A Study of the Major Valency Types. Tübingen. Schumacher, Helmut (Hg.) (1986): Verben in Feldern ⫺ Valenzwörterbuch zur Syntax und Semantik deutscher Verben. Berlin/New York. Schumacher, Helmut (1990): Konzeptionelle Überlegungen zur Neubearbeitung des „Kleinen Valenzlexikons deutscher Verben“. In: Muttersprache 100, 128⫺139. Somers, Harold L. (1984): On the Validity of the Complement-Adjunct Distinction in Valency. In: Linguistics 22, 507⫺550. Somers, Harold L. (1987): Valency and Case in Computational Linguistics. Edinburgh. Somers, Harold L. (1990): Subcategorization Frames and Predicate Types. In: Schmitz, Ulrich/ Schürz, Rüdiger/Kunz, Andreas (Hgg.) (1990): Linguistic Approaches to Artificial Intelligence. Frankfurt, 461⫺488.
781
55. Das Subjektproblem in der Valenzforschung
55. Das Subjektproblem in der Valenzforschung 1. 2. 3. 4. 5. 6. 7.
Heterogenität des Subjektbegriffs Degradierung des Subjekts in der DG Subjektdefinition und ihre Anwendung in der DG Fehlen des Subjekts Sonderstellung des Subjekts Ausblick Literatur in Auswahl
1.
Heterogenität des Subjektbegriffs
Das Subjekt hat sich in der Grammatiktradition als eine Art grammatische Notwendigkeit eingebürgert, die nicht nur in Deskriptionen von Einzelsprachen, sondern auch in umfassenden typologischen Vergleichen und in kontrastiven Studien mit einer gewissen Selbstverständlichkeit verwendet wird. Der Inhalt des Subjektbegriffs bleibt oft verschwommen, weil darunter verschiedene morphosyntaktische, semantische und pragmatische Eigenschaften miteinander verquickt werden, deren Gewichtung noch von den jeweils abgesteckten Zielstellungen und dem gewählten theoretischen Rahmen abhängt. In Nominativsprachen ⫺ inwiefern der Subjektbegriff in Ergativsprachen überhaupt verwendbar ist, muss hier dahingestellt bleiben (vgl. Sasse 1978) ⫺ scheint jedoch ein weiter Konsens über den Kernbereich der Subjektfälle zu herrschen: Das Subjekt bildet zusammen mit dem Prädikat das Grundgerüst des Satzes, es steht im unmarkierten Kasus Nominativ und drückt den Täter der Handlung (= Agens) aus, es ist satzinitial positioniert und fungiert als Gegenstand der Äußerung (= Topik). Deskriptionen von Einzelsprachen begnügen sich oft, wenn sie nicht einer neueren Grammatiktheorie verpflichtet sind, mit einem gewissermaßen theorieneutralen Subjektbegriff. Zur Definitionsgrundlage wird nicht selten eine einzige Eigenschaft des Kernbereichs hervorgehoben. Welche von den Eigenschaften jeweils gewählt wird, ist zum großen Teil typologisch bedingt. In Sprachen mit einem ausgeprägten Kasussystem, z. B. im Deutschen, kann das Subjekt weitgehend mit dem Kasus Nominativ gleichgestellt werden (Reis 1982, 171 ff.), und in Sprachen mit einer festen linearen Abfolge, z. B. im Norwegischen, kann von einer positionellen Definition Gebrauch gemacht werden (Askedal
1988, 31). Ein kasuell oder positionell definiertes Subjekt kann ausreichend sein, um syntaktische Gesetzmäßigkeiten innerhalb einer Sprache zu erfassen, für umfassende typologische oder kontrastive Studien bilden sie jedoch keine geeignete Basis. Eine auf Nominativ zurückgehende kasuelle Subjektdefinition wäre z. B. für das Finnische, das traditionell zwischen einem Nominativ- und einem Partitivsubjekt unterscheidet (Järventausta 1991, 191 ff.), und für das Isländische, in dem neben dem Nominativsubjekt auch sog. oblique Subjekte angenommen werden (Askedal 1988, 31), nicht möglich. Eine positionelle Definition wäre dagegen in Sprachen mit einer flexiblen Satzgliedfolge, z. B. im Deutschen, unbrauchbar. In typologischen Studien wird oft mit einem prototypischen oder multifaktoriellen Subjektbegriff operiert. Der von Keenan (1976) zusammengestellte Katalog von über dreißig typischen Subjekteigenschaften hat einen wichtigen Anstoß für die universale Subjektforschung gegeben. Der Katalog enthält Kontroll- und Verhaltenseigenschaften, die die Beteiligung des Subjekts an syntaktischen Prozessen beschreiben, Kodierungseigenschaften (z. B. neutrale Kasusmarkierung) und semantische Eigenschaften (z. B. Agentivität), mit deren Hilfe das Subjekt in jedem beliebigen (Basis-)Satz in jeder beliebigen Sprache ermittelbar sein soll. Das Subjekt wird nicht als fest definierbares Konzept verstanden, sondern als ein loses Bündel verschiedener Eigenschaften, als ein multifaktorielles und gradientes Konzept. Diese Definitionsgrundlage bietet einen geeigneten Ausgangspunkt vor allem für typologische Vergleiche, ist aber für feinkörnigere kontrastive Studien zu diffus. Schließlich führen auch die Prämissen verschiedener Grammatiktheorien zu sehr unterschiedlichen Subjektdefinitionen. Im funktionalen Paradigma, in dem die Sprache vordergründig in ihrer kommunikativen Funktion untersucht wird, werden grammatische Konzepte als Reflex von pragmatischen und semantischen Prinzipien verstanden (Dik 1989, 2 ff.). Im formalen Paradigma geht man dagegen von einer gewissen Autonomie von Grammatik aus, und grammatische Regularitäten werden ohne Rekurs auf pragmatische (und/oder semantische) Gesetzmäßigkeiten formuliert (Radford 1988, 31). Für funktio-
782
VI. Valenz: Schwerpunkte der Forschung
nale Subjektdefinitionen ist gemeinsam, dass das Subjekt als syntaktischer Knotenpunkt von pragmatischer Topikalität und semantischer Agentivität aufgefasst wird (vgl. Dik. 1989, 212 ff.). In formalen Grammatiktheorien wird das Subjekt als syntaktische Relation ohne Rückgriff auf Pragmatik oder Semantik ausschließlich syntaktisch bestimmt, z. B. in der generativen Grammatik konfigurationell als eine NP-Konstituente, die direkt von der S-Konstituente dominiert wird (Radford 1988, 113). Auch die Dependenzgrammatik geht von der Autonomie der Syntax aus (Tesnie`re 1980, 43; 49) und strebt nach einer Subjektdefinition, die syntaktisch begründet ist. Im Folgenden wird die Subjektfrage in der Dependenzgrammatik aus einer Perspektive betrachtet, die in doppelter Hinsicht eingeschränkt ist. Erstens wird unter Dependenzgrammatik nur eine Ausrichtung der Dependenzgrammatik verstanden, und zwar die verbozentrische Dependenzgrammatik Tesnie`rescher Prägung, deren Kern die Valenztheorie bildet und die vor allem von Germanisten für das Deutsche ausgearbeitet worden ist; die Abkürzung DG ist ausschließlich in diesem Sinne zu verstehen. Zweitens wird hauptsächlich nur deutsches Beispielmaterial herangezogen; die angeführten Beispiele stammen aus der zitierten Literatur. Ausgehend von dieser doppelten Abhängigkeit vom Deutschen und mit Berücksichtigung anderer Sprachen wird versucht zu zeigen, dass sich einige kontrovers diskutierte Prinzipien der DG im interlingualen Rahmen als einzelsprachliche, nämlich deutsche Optionen erweisen.
2.
Degradierung des Subjekts in der DG
2.1. Aufhebung der Subjekt-PrädikatDichotomie Die Binarität der Satzstruktur, die Unterscheidung von Subjekt und Prädikat als Grundpfeiler des Satzes, gilt in der auf die aristotelische Logik zurückgehende Grammatiktradition als Grundprinzip der syntaktischen Analyse. An dieser Tradition hat Lucien Tesnie`re in seiner strukturalen Syntax gerüttelt, indem er feststellt, dass es ⫺ „[w]enn man sich auf die strikt linguistische Beobachtung der sprachlichen Fakten beschränkt“ (Tesnie`re 1980, 95) ⫺ keinen zwingenden Grund gibt, an der traditionellen Sub-
jekt-Prädikat-Dichotomie festzuhalten. Denn zum einen ist eine grundsätzliche Gegenüberstellung von Subjekt und Prädikat nicht immer möglich (s. Punkt 4.2), zum anderen kann die Subjekt-Prädikat-Dichotomie in vielen Fällen das strukturale Gleichgewicht des Satzes verschleiern, „indem sie einen Aktanten im Gegensatz zu den andern als ‘Subjekt’ isoliert und diese andern im ‘Prädikat’ mit dem Verb und allen Angaben zusammenwirft“ (Tesnie`re 1980, 96). Die Aufhebung der binären Satzstruktur und die Degradierung des Subjekts zu einem verbabhängigen Aktanten gehen auf zwei zentrale Axiome des von Tesnie`re skizzierten Syntaxmodells zurück, nämlich auf die hierarchische Ordnung der Konnexionen und auf die Verbzentriertheit (Tesnie`re 1980, 27 ff.). Diese Ordnungsprinzipien werden in der DG in Form eines Stemmas repräsentiert (vgl. Tesnie`re 1980, 29): (1)
singt
Lied
Freund
mein
alter
dieses
hübsche
Konnexionen, die zwischen den lexikalischen Knoten bestehen und „deren Gesamtheit das Gerüst des Satzes bildet“ (Tesnie`re 1980, 25), sind nach dem Prinzip der Dependenz als unidirektionale Abhängigkeitsrelationen organisiert. Die Satzstruktur wird als eine Dependenzstruktur dargestellt, die aus regierenden Elementen und dependenten Elementen besteht. Die Relation zwischen einem Regens und seinem Dependens kann als eine endozentrische Abhängigkeitsrelation („a ist von b abhängig“) oder als eine Rektionsbeziehung („b regiert a“) spezifiziert werden (vgl. Welke 1988, 110 ff.). Als oberstes Regens und Zentralknoten des Satzes, von dem aus die gesamte Satzstruktur durch Dependenzrelationen organisiert wird, fungiert in der DG der verbale Nukleus. Diese Entscheidung, die keineswegs eine notwendige Voraussetzung für eine dependenzielle Syntaxbeschreibung ist (Tesnie`re 1980, 29), ist darin begründet, dass das Verb durch seine flexionsparadigmatische Abwandelbarkeit „eine Aktualisierung für den ganzen Satz“ leistet (Heringer 1988, 56) und
55. Das Subjektproblem in der Valenzforschung
durch seine Valenzeigenschaften die morphosyntaktische und semantische Fixierung des Satzes festlegt. Bedingt durch das Axiom der Verbzentriertheit bildet die verbale Valenz das Kernstück der Dependenzgrammatik Tesnie`rescher Prägung. Der Status des Subjekts ist durch seine Valenzbindung an den verbalen Nukleus bedingt, so dass die Aufhebung der binären Satzstruktur ihre Begründung schließlich darin hat, dass Verben eine Valenzstelle für das Subjekt haben. Die Bezeichnung der Dependenzgrammatik als Valenzgrammatik ist allerdings insofern irreführend, als durch die Valenz nur ein Teil ⫺ allerdings ein zentraler Teil ⫺ von syntaktischen Relationen im Satz erfasst werden kann. Der grundlegende Unterschied zwischen Valenz- und Dependenztheorie besteht darin, dass die Valenztheorie eine Lexikontheorie ist, die in verschiedene syntaktische Modelle integriert werden kann, die Dependenztheorie dagegen eine umfassendere Syntaxtheorie. Die Valenz ist eine inhärente Eigenschaft eines Lexikonelements, sein syntaktisches Umfeld zu prädeterminieren, während Dependens eine syntaktische Abhängigkeitsrelation darstellt. Wegen des syntaktischen Potentials des verbalen Valenzträgers bleibt die Grenzziehung zwischen Valenz (= Lexikon) und Dependenz (= Syntax) in der DG unscharf, und die Schnittstelle wird unterschiedlich angesetzt (vgl. „Mikro- vs. Makrovalenz“ in La´szlo´ 1988, „statische vs. dynamische Valenz“ in Sadzin´ski 1989 und „Valenzpotenz vs. Valenzrealisierung“ in ´ gel 1995). A 2.2. Valenzbindung des Subjekts Die strukturelle Gleichstellung des Subjekts mit anderen Aktanten kommt in der DG darin zum Vorschein, dass das Subjekt als unmittelbares Dependens des verbalen Nukleus auf derselben Dependenzebene mit den anderen Aktanten lokalisiert wird (vgl. Bsp. 1). Diese Gleichstellung wird terminologisch unterschiedlich festgehalten. Das Subjekt wird als „erster Aktant“ im Gegensatz zum zweiten, dritten usw. Aktanten (Tesnie`re 1980, 102) oder als Subjekt- bzw. Nominativergänzung im Gegensatz zu Akkusativ- und Dativergänzung usw. (z. B. Engel 1988) bezeichnet, oder es wird numerisch als E0 (z. B. Engel/ Schumacher 1978) oder E1 (z. B. Erben 1980) von den übrigen Ergänzungen (E1, E2 usw. oder E2, E3 usw.) unterschieden.
783 Die Valenzbindung des Subjekts wird darauf zurückgeführt, dass es „dem Verb zugeordnet, vom Verb gesteuert oder abhängig“ ist wie die übrigen Aktanten auch (Engel 1994, 151). Wenn man ⫺ so wie es in der Tesnie`re-Nachfolge üblich ist ⫺ unter Valenz ganz allgemein die Fähigkeit eines Lexikonelements versteht, sein syntaktisches Umfeld hinsichtlich der Zahl und Art der Aktanten festzulegen (so z. B. Tarvainen 1981, 14), werden die zentralen Argumente für oder gegen die Valenzbindung des Subjekts darauf hinauslaufen, ob und inwiefern sein Vorkommen durch den verbalen Valenzträger überhaupt gesteuert wird, d. h. ob der verbale Valenzträger einen Subjektaktanten verlangt oder blockiert, und ob und inwiefern die Art des Subjekts, d. h. seine Form und sein Inhalt vom jeweiligen verbalen Valenzträger abhängig ist. Daraus können drei Kriterien für die Valenzbindung des Subjekts abgeleitet werden, die in der einschlägigen Literatur als Argumente für seinen Aktantenstatus angeführt worden sind: Subklassenspezifik, morphosyntaktische Selektion und semantische Selektion. Inwiefern diese Kriterien repräsentativ für die verschiedenen Aspekte der Valenz sind und inwiefern sie überhaupt miteinander korrelieren, muss hier dahingestellt bleiben (zur ausführlichen Kritik des Valenzbegriffs Jacobs 1994). Die Valenzaspekte, die hier vorausgesetzt werden, sind (vgl. Heringer 1996, 63 ff.): die quantitative Valenz, die die Anzahl der Valenzpartner festlegt, die morphosyntaktische bzw. qualitative Valenz, die kategorial die morphologische Form und relational die syntaktische Funktion der Valenzpartner steuert, und die semantische bzw. selektionale Valenz, die kategorial die semantischen Merkmale und relational die semantischen Rollen der Valenzpartner bestimmt. 1) Das Subjekt ist subklassenspezifisch, denn sein Vorkommen bzw. Nicht-Vorkommen wird ebenso wie das der anderen Aktanten durch die (quantitative) Valenz des verbalen Valenzträgers festgelegt. „Es gibt daher im Deutschen Sätze ohne Subjekt (z. B. Mich friert., Es gibt keine weißen Mäuse., Mir graut vor dir.) wie es Sätze ohne beliebige andere Ergänzungen gibt“ (Engel 1994, 151). Dieses Kriterium ist vielfach kritisiert worden. Nach Wegener (1990, 154) begebe sich die Dependenzgrammatik sogar „mit der Unterordnung des Subjekts unter das Verb in Widerspruch zu ihrer eigenen Definition von
784 Valenz als ‘Vorkommensrestriktion’“, denn ⫺ so Wegener ⫺ in Sprachen wie z. B. Englisch, Französisch, Türkisch, Japanisch gibt es gar keine Verben, die kein Subjekt hätten und im Deutschen „nur ein paar marginale Sonderfälle“. Zweifel an der valenzbedingten Subjektlosigkeit und somit an der Subklassenspezifik des Subjekts ist auch in der DG geäußert worden (z. B. Eroms 1985, 315 und Welke 1988, 37). Im Gegensatz zu subjektprominenten Sprachen, in denen das Subjekt ein konstitutiver Teil der Satzstruktur ist, gibt es auch viele Sprachen ⫺ u. a. Latein, Italienisch, Polnisch, Ungarisch, Finnisch ⫺, die subjektlose Verben haben und subjektlose Sätze ohne expletive Füllung zulassen und in denen das Subjekt zweifelsohne subklassenspezifisch ist. Das Deutsche befindet sich zwischen diesen Extrempunkten, und hinsichtlich des Deutschen ist die Frage nach der Subklassenspezifik des Subjekts zum großen Teil mit der Frage nach dem Stellenwert des nicht-referentiellen es gekoppelt (s. Punkt 3.2.1). Wird dem es kein Aktantenstatus zuerkannt, kann für das Deutsche eine Subklasse subjektloser Verben mit es als integralem Bestandteil des Verbs postuliert werden (Engel 1994, 155). 2) Die Form des Subjekts wird ebenso wie die von anderen Aktanten durch die morphosyntaktische Valenz des verbalen Valenzträgers festgelegt. „Das Subjekt ist ein vom Prädikatsverb valenzmäßig gefordertes Substantiv oder Pronomen im Nominativ bzw. deren Äquivalent […]“ (Tarvainen 1981, 45). Die neutrale Kodierung (= Nominativ in Nominativsprachen) ist eine der zentralen von Keenan (1976) aufgelisteten Subjekteigenschaften. In der DG wird die nominativische Kasuszuweisung auf die Valenzbindung zurückgeführt. Wenn man aber davon ausgeht, dass das Subjekt ein konstitutiver Teil jedes finiten Satzes ist, liegt die Interpretation nahe, dass der Nominativ als Subjektkasus nicht durch die lexikalisch-inhärenten Valenzeigenschaften des Verbs festgelegt wird, sondern strukturell durch die Flexionskategorie „Finitheit“ (vgl. Wegener 1990, 154 ff.; 179; im DG-Rahmen Eroms 1985, 311 ff.; ´ gel 1993, 22 ff.). Für die lexikavgl. auch A lisch-inhärente Valenzbindung des Subjekts spricht neben der ⫺ in subjektprominenten Sprachen zugegebenerweise anfechtbaren ⫺ nominativischen Kasuszuweisung die Tatsache, dass das Vorkommen von Infinitiv- und Nebensatzsubjekten strikt verbspezifisch ge-
VI. Valenz: Schwerpunkte der Forschung
regelt ist (vgl. Eisenberg 1994, 285). Die Bezeichnung des Subjekts als „Nominativergänzung“ erweckt zwar den falschen Eindruck, das Subjekt sei mit einem Substantiv ⫺ oder mit einer Nominalphrase ⫺ im Nominativ gleichzustellen, aber es wird immer explizit erwähnt, dass das Subjekt auch „eine satzartige oder andersartige Phrase“ sein kann, „die mit einer nominativischen Phrase kommutiert“ (Engel 1994, 154; s. Punkt 3.1.2). 3) Der Inhalt des Subjekts wird ebenso wie der von anderen Aktanten durch die semantische Valenz des verbalen Valenzträgers festgelegt. Beispielsweise ist die Ungrammatikalität des Satzes Diese Rinne überlegt zu lange. darauf zurückzuführen, dass „das Verb überlegen ein Subjekt verlangt, das Menschen bezeichnet“ (Engel 1994, 151), d. h. ein substantivisches Subjekt mit dem semantischen Merkmal [⫹hum]. Unter semantischer Valenz wurde ursprünglich nur die auf kategorialen Merkmalen beruhende semantische Verträglichkeit zwischen dem Valenzträger und seinen Aktanten verstanden (vgl. Helbig/Schenkel 1973 ⫺ die allerdings von „Distribution“ sprechen ⫺ und Engel/Savin 1983). In der neueren Forschung gehören auch die semantischen Rollen zum festen Beschreibungsinventar der semantischen Valenz, so dass man im allgemeinen zwischen der referentiell-semantischen und der funktional-semantischen Valenzbindung unterscheidet (Helbig 1992, 155; Heringer 1996, 64; Engel 1988, 357 ff.). Ob die referentiell-semantischen Verträglichkeitsbedingungen zwischen dem Subjekt und dem verbalen Valenzträger tatsächlich ein Beweis für eine semantische Selektion und Valenzbindung sind, kann in Frage gestellt werden, denn „Verträglichkeitsbedingungen dieser Art sind […] nicht nur bei Valenzbeziehungen einschlägig“ (Steinitz 1992, 35). Die semantischen Rollen der Aktanten, auch die des Subjekts, sind dagegen eindeutig verbspezifisch und können auf die inhärente Verbsemantik zurückgeführt werden (hierzu ausführlich Helbig 1983). Das Subjekt ist nicht auf eine bestimmte semantische Rolle fixiert, sondern bekommt seine semantische Rolle jeweils durch den verbalen Valenzträger zugewiesen. Dass es oft mit der Agens-Rolle gleichgestellt wird ⫺ auch Keenan (1976) führt die Agentivität als eine der wichtigsten semantischen Eigenschaften des Subjekts an ⫺, ist lediglich dadurch bedingt, dass die Agens-Rolle immer durch das Subjekt realisiert wird. Erst wenn
55. Das Subjektproblem in der Valenzforschung
zum funktional-semantischen Umfeld des verbalen Valenzträgers keine Agens-Rolle gehört, bekommt das Subjekt im Sinne der Subjektselektionshierarchie (Fillmore 1968, 33 und 1971, 247; 252) eine andere Rolle zugewiesen.
3.
Subjektdefinition und ihre Anwendung in der DG
3.1. Operationelle Kriterien Nach dem dependenzgrammatischen Grundprinzip der Verbzentriertheit erfolgt der ganze Strukturbau des Satzes von dem verbalen Valenzträger aus, der als Zentralnukleus den Ausgangspunkt der Erzeugung und Analyse von Satzstrukturen bildet. Satzglieder stellen in der DG eine Beschreibungskategorie dar, die unter Bezug auf die dependenziell organisierte Satzstruktur als Relationen zwischen dem verbalen Valenzträger als dem strukturellen Zentrum des Satzes und seinen unmittelbaren Dependentien aufgefasst werden. Deshalb ist die korrekte Ermittlung und Abgrenzung des verbalen Valenzträgers die erste Voraussetzung für eine korrekte depen´ gel 1988, denzgrammatische Satzanalyse (A 32 ff.; Hyvärinen 1989, 321 ff.). Die Strukturanalysen werden herkömmlicherweise in Form von Dependenzstemmata festgehalten, aber von konfigurationellen Definitionen der Satzglieder wird nicht Gebrauch gemacht, obwohl es naheliegend wäre, beispielsweise das Subjekt als das linksperiphere unmittelbare Dependens des verbalen Valenzträgers zu bezeichnen. In der DG wird aber danach gestrebt, das Subjekt ⫺ sowie die anderen Satzgliedfunktionen ⫺ im Sinne des Autonomieprinzips rein syntaktisch mit Hilfe von syntaktischen Operationen zu bestimmen. Die meist verwendeten Operationen zur Ermittlung von Satzgliedern sind Permutation und Kommutation. Während die Permutation in vieler Hinsicht anfechtbar ist (Engel 1994, 102), gilt die Kommutation in den meisten dependenzgrammatischen Ansätzen als das wichtigste Kriterium, wenn entschieden werden muss, ob ein Wort oder eine Wortgruppe ein Satzglied bildet: Satzglieder sind kommutierbar und bilden ein Paradigma (Engel 1994, 48; vgl. Heringer 1996, 32 ff.). Unter den Satzgliedern wird in der DG eine grundlegende Unterscheidung zwischen valenzgebundenen Aktanten und nicht-valenzgebundenen freien Angaben vorgenommen. Das Subjekt wird ohne Ausnahme zu
785 den Aktanten gezählt, so dass hier auf die zum Teil recht kontroversen Unterscheidungskriterien (vgl. Helbig 1992, 72 ff.) nicht eingegangen zu werden braucht. Die Aktanten zeichnen sich auf Grund ihrer Valenzbindung von den freien Angaben durch ihre Obligatorik und ihre Subklassenspezifik aus (Engel 1994, 154). Die Obligatorik ist ein hinreichendes aber keineswegs ein notwendiges Kriterium für die Valenzbindung eines Satzglieds. Die Auffassung, dass Aktanten durchweg nicht weglassbar seien (vgl. Helbig/ Schenkel 1973, 40 ff.), geht nach Engel (1994, 97) auf eine falsche Verallgemeinerung der Tesnie`reschen Formulierung zurück, Circumstanten (= freie Angaben) seien ihrem Wesen nach fakultativ (Tesnie`re 1980, 116). Denn es gibt keinen zwingenden Grund, aus dieser Formulierung den Schluss zu ziehen, dass Aktanten obligatorisch sein müssen, wohl aber den, dass obligatorische Satzglieder Aktanten sind (ähnlich auch Helbig 1992, 99 f.). Die syntaktische Operation zur Feststellung der Obligatorik ist der Eliminierungstest (vgl. Helbig 1992, 85; 99 f.). Im Gegensatz zur Obligatorik ist Subklassenspezifik sowohl ein notwendiges als auch ein hinreichendes Spezifikum von Aktanten. Mit der Subklassenspezifik ist das Kriterium der Selektion eng verbunden, denn einerseits dienen Aktanten zur Subkategorisierung des Valenzträgers, andererseits werden Aktanten morphosyntaktisch und semantisch durch den Valenzträger selegiert. Zur Operationalisierbarkeit der Subklassenspezifik sind verschiedene Tests vorgeschlagen worden (vgl. Helbig 1992, 81 ff.), von denen jedoch keiner vorbehaltslos anwendbar ist. Die Satzglieder sind relationale Größen, die verschiedene syntaktische Funktionen innehaben. Zur Bestimmung der einzelnen Satzgliedfunktionien wird in der DG meist das operationelle Kriterium der Anaphorisierung herangezogen (Engelen 1975, 90; Tarvainen 1981, 41; Engel 1994, 148). Für jede Satzgliedfunktion ist eine anaphorische Proform als ihr „typischer Vertreter“ festgelegt worden, die repräsentativ für das gesamte funktionale Paradigma steht und zur Definition der Satzgliedfunktion verwendet wird (vgl. Engel 1994, 148). Die Subjektsanapher ist ein Pronomen im Nominativ, und folglich ist jedes Syntagma, das eine Kommutationsreihe bildet und auf ein nominativisches Pronomen rückführbar ist, seiner Satzgliedfunktion nach als Subjekt definierbar (vgl. Engel 1994, 154). Neben Anaphern können auch
786 Fragepronomen als „prototypische Füllungen“ von Satzgliedfunktionen eingesetzt werden (Heringer 1996, 160). Sowohl die Anaphorisierung als auch die Fragemethode heben die morphologische Kodierung des Subjekts durch den Nominativkasus hervor, setzen jedoch keine Gleichstellung zwischen der syntaktischen Funktion und der morphologischen Form voraus, da auch Nebensätze und Infinitivkonstruktionen anaphorisierbar und erfragbar sind (s. Punkt 3.2.2). Syntaktische Prozesse, an denen das Subjekt typischerweise beteiligt ist, werden in der DG nicht als konstitutiv für die Bestimmung der Subjektfunktion betrachtet, sondern meist nur als Beweise für die syntaktische Sonderstellung des Subjekts unter den Aktanten erwähnt (s. Punkt 5). 3.2. Drei Problemfälle Die angeführten operationellen Kriterien fungieren relativ problemlos, wenn das Subjekt eine nominativische NP ⫺ und zwar die einzige im Satz ⫺ oder ein referentielles Pronomen ist. Inwiefern sie außerhalb dieses Standardbereichs anwendbar sind, sei am Beispiel von drei Phänomenen des Deutschen diskutiert, die abgesehen von dem gewählten Grammatikkonzept im Zusammenhang mit der Subjektfrage als problematische Subjektfälle betrachtet werden: das nichtreferentielle es, Nebensatz- und Infitivitivsubjekte und Kopulasätze mit zwei nominativischen NPs. 3.2.1. Typische Beispiele für das „subjektverdächtigte“ nichtreferentielle es sind (vgl. hierzu die „Endmenge 8“ in Pütz 1986, 120 ff.): (2) Regnet es schon wieder? (3) Mich friert (es). (4) In der Stadt gibt es viele Arme. Dieses es ist permutierbar und kann in allen für ein pronominales Subjekt möglichen Positionen im Satz auftreten. Dadurch unterscheidet es sich von dem nur vorfeldfähigen expletiven es (z. B. Es ritten drei Reiter zum Tore hinaus., Engel 1994, 154) und weist Gemeinsamkeiten mit dem Subjekt auf. Es ist auch von einigen wenigen Ausnahmen abgesehen (Bsp. 3) obligatorisch, was für seinen Aktantenstatus und folglich auch für seinen Subjektstatus spricht. Ein weiteres Argument für seine Valenzbindung ist die ⫺ allerdings sehr eingeschränkte ⫺ Subklassenspezifik, die sich darin zeigt, dass es nicht stellungsbe-
VI. Valenz: Schwerpunkte der Forschung
dingt, sondern bei einer Gruppe von verbalen Valenzträgern morphosyntaktisch selegiert wird (vgl. Korhonen 1977, 250). Es bleibt jedoch wegen seiner Nichtreferentialität semantisch aspezifisch und unterliegt keiner semantischen Selektion, so dass ihm keine semantische Valenzbindung zuerkannt werden kann. Tarvainen (1981, 68 f.) u. a. ziehen daraus den Schluss, dass dieses es ein formaler, nur morphosyntaktisch bedingter Aktant ist, und zwar entweder ein obligatorisches oder (seltener) ein fakultatives formales Subjekt. Das triftigste Argument gegen den Subjektstatus dieser es-Verwendungen ist ihre fehlende Kommutierbarkeit (vgl. Engel 1988, 190), wenn man nicht eine ein-elementige Kommutationsklasse postulieren will (vgl. Emons 1978, 23). Bei Witterungsverben ist auf eine sporadische Kommutierbarkeit des es hingewiesen worden (z. B. Die Wolken wollen nicht regnen. vs. Es regnet. oder Dicke Flocken schneiten vom Himmel. vs. Es schneite., Engelen 1975, 130 f.), aber wegen der fehlenden Referentialität und semantischen Aspezifik des es sind diese ohnehin sehr beschränkten Kommutationsreihen defekt. Bei einer Anzahl von weiteren Verben scheinen ein nichtreferentielles es und ein referentielles Subjekt auch miteinander zu kommutieren, z. B. Der Mann klopft. vs. Es klopft. Das referentielle Subjekt und das nichtreferentielle es bilden jedoch auch in diesen Fällen keine lechte Kommutationsreihe (vgl. Pütz 1986, 120), sondern es handelt sich um zwei separate Verwendungen des Verbs klopfen; mit dem referentiellen Subjekt ist es ein Handlungsverb, mit dem nichtreferentiellen es drückt es ein Geräusch aus, dessen Ursprung nicht näher spezifiziert wird. Die operationellen Kriterien führen zu keinem einheitlichen Ergebnis, und weil sie in den dependenzgrammatischen Ansätzen unterschiedlich gewichtet werden, bleibt der Status des nichtreferentiellen es umstritten. Wenn (echte) Kommutierbarkeit als notwendige Bedingung für den Subjektstatus angesehen wird, ist das nichtreferentielle es kein Subjekt. Es kann als „fixes es“ als diskontinuierlicher Bestandteil des Verbs angesehen werden (Engel 1994, 172, ähnlich auch Tesnie`re 1980, 98) ⫺ wobei die fakultativen esVerwendungen einer zusätzlichen Erklärung bedürfen ⫺, oder es kann als integraler Teil der Flexionsmorphologie betrachtet werden, als „Bestandteil des Allomorphs des Mor´ gel 1988, 92). phems {Singular 3. Person}“ (A Wenn dagegen die morphosyntaktische Se-
787
55. Das Subjektproblem in der Valenzforschung
lektion als ein hinreichendes Kriterium für den Subjektstatus betrachtet wird, kann man das es als formales Subjekt, als eine „Sonderform des Subjekts“ (Engelen 1986, 101) bezeichnen. Für die letztere Entscheidung mag auch sprechen, dass sich das nichtreferentielle es in vieler Hinsicht syntaktisch ähnlich verhält wie Subjekte, z. B. kann es elliptisch getilgt werden (z. B. Es regnet und schneit., Pütz 1986, 137) und es fehlt in Infinitivkonstruktionen (z. B. Es regnet ohne zu schneien., Reis 1982, 188).
Infinitivkonstruktionen nicht unproblematisch sind, denn beispielsweise können formal identische Nebensätze (dass-Sätze) sowohl mit nominativischen als auch akkusativischen NPs je nach der Satzgliedfunktion ´ gel 1988, 132 ff.). kommutieren (hierzu A Hinzu kommt, dass die satzwertigen Subjekte kaum typische Verhaltenseigenschaften der nominativischen Subjekt-NPs aufweisen, beispielsweise lösen koordinierte Subjektsätze trotz pluralischer Referenz keine Verbalkongruenz aus (Reis 1982, 194 f.).
3.2.2. In der DG besteht ein weitgehender Konsens über den Subjektstatus von Nebensätzen und Infinitivkonstruktionen folgender Art (zu weiteren Beispielen s. Engel 1988, 244; 248 f.):
3.2.3. Ein klassisches Problem der Satzgliedanalyse stellen Kopulasätze mit zwei Nominativ-NPs dar:
(5) Dass Sie doch noch gekommen sind, freut mich. (6) Einmal ausschlafen zu können, ist mein einziger Wunsch. (7) Wer dieses Dach gedeckt hat, kriegt einen Tag Extraurlaub. Sie sind als solche permutierbar (z. B. Es freut mich, dass Sie doch noch gekommen sind.) und kommutieren vielfach mit einer nominativischen NP (z. B. Ihr Kommen freut mich.), was eindeutig für ihren Satzgliedstatus spricht. Auf ihren Aktantenstatus weist hin, dass sie ⫺ mit der Ausnahme von indefiniten und generalisierenden Nebensätzen (Bsp. 7) ⫺ insofern subklassenspezifisch sind, als sie nicht bei jedem beliebigen Verb mit nominativischen NPs kommutieren können; sie sind keine freien Varianten von nominalen Subjekten schlechthin, sondern unterliegen der morphosyntaktischen Selektion des verbalen Valenzträgers (Engel 1994, 167; vgl. auch Eisenberg 1994, 285). Dass sie als Subjekt angesehen werden können, ist auf ihre Kommutierbarkeit mit einer nominativischen NP und vor allem auf ihre Anaphorisierbarkeit mit einer dem Subjekt typischen Proform zurückzuführen (Tarvainen 1981, 45; Engel 1994, 154). Im Großen und Ganzen scheinen die verschiedenen operationellen Kriterien relativ widerspruchslos anwendbar zu sein, um Nebensätze und Infinitivkonstruktionen bei einer Anzahl von verbalen Valenzträgern als Subjekte definieren zu können. Es ist jedoch darauf hingewiesen worden, dass die Kriterien der morphosyntaktischen Selektion und der Anaphorisierung bei Nebensätzen und
(8) Unsere Nachbarn sind sangesfrohe Leute. (9) Konrad I. war der erste deutsche König. Nach Reis (1982, 198) geht „[d]ie oft gestellte Frage nach ‘dem’ Subjekt von Kopulasätzen […] in jeder Hinsicht ins Leere“. In der DG, die sonst mit relationalen Satzgliedbegriffen operiert, hat man versucht, die Satzgliedfunktionen auch in Kopulasätzen operationell zu ermitteln. Wenn der Kopula allein der Status des verbalen Valenzträgers zuerkannt wird, wird in der DG die Unterscheidung des funktionalen Status der beiden NominativNPs mit Hilfe der Anaphorisierung durchgeführt: Die Nominativ-NP, die durch ein genus- und numerusidentisches Personalpronomen im Nominativ anaphorisierbar ist, gilt als Subjekt, die Nominativ-NP, deren Anapher ein genus- und numerusindifferentes es ist (u. U. auch so), als Prädikativ (vgl. Engel 1994, 162; Tarvainen 1981, 59 f.). In klassifizierenden Kopulasätzen (Bsp. 8) scheint die Anaphorisierung meist einwandfrei zu funktionieren, aber ihre Anwendung als eine syntaktische Operation ist insofern problematisch, als sie nur unter semantischen Rückschlüssen durchführbar ist. In identifizierenden Kopulasätzen mit referenzidentischen Nominativ-NPs (Bsp. 9) führt die Anaphorisierung zu keinen eindeutigen Ergebnissen.
4.
Fehlen des Subjekts
4.1. Valenzbedingte Subjektlosigkeit Echt subjektlose Sätze haben als Zentralnukleus einen verbalen Valenzträger, der keine Valenzstelle für einen Subjektaktanten hat. Im Deutschen ist diese valenzbedingte, „echte“ Subjektlosigkeit relativ selten, sogar so selten, dass man auch im valenztheoreti-
788 schen Rahmen erwogen hat, das Auftreten des Subjekts nicht auf die inhärent lexikalische Valenzbindung zurückzuführen (Eroms 1985, 313 ff.; vgl. auch Eisenberg 1994, 53; 284). Es gibt aber auch im Deutschen einige marginale Fälle, in denen das Subjekt obligatorisch fehlt, z. B. Mir liegt an diesem Plan., Dem Kind war komisch zumute. (Beispiele von Reis 1982, 185), und wenn man dem nichtreferentiellen es in Sätzen wie Regnet es schon wieder? keinen Subjektstatus zuschreibt, steigt die Anzahl von subjektlosen Verben und verbalen Valenzträgern um einiges mehr. Von dem Stellenwert des nichtreferentiellen es hängt auch ab, ob im heutigen Deutsch fakultative Subjektaktanten anzunehmen sind, z. B. Mir ist (es) nicht gut. (Beispiel von Reis 1982, 185). Die Uneinheitlichkeit in der Verwendung des es im Gegenwartsdeutschen weist auf einen Strukturwandel hin. Diachron ist im Deutschen die Tendenz festzustellen, dass das Auftreten des expletiven es bei verschiedenen subjektlosen Konstruktionen zunimmt und die subjektlosen Verben „in ihrer strikten Subkategorisierung in zunehmendem Maße ein Subjekt verlangen“; bei manchen intransitiven Verben, z. B. bei Witterungsverben, ist es im Gegenwartsdeutschen, bei Verben mit einem Akkusativ- oder Dativobjekt als Experiencer mehr oder weniger obligatorisch (Lenerz 1992, 128). Man könnte diese Tendenz als einen Hinweis darauf deuten, dass sich das Deutsche zu einer subjektprominent(er)en Sprache im Sinne von Li/Thompson (1976, 483 ff.) entwickelt. 4.2. Strukturbedingte Subjektlosigkeit Der Zentralnukleus von sekundär subjektlosen Sätzen ist ein verbaler Valenzträger, zu dessen Stellenplan ein Subjektaktant gehört, der jedoch strukturbedingt nicht realisiert wird bzw. werden kann (von textuell bedingten, kontextuell erschließbaren Subjektellipsen wird hier abgesehen). Syntaktische Prozesse, die das Auftreten des Subjektaktanten blockieren, sind die Bildung von Infinitivund Passivkonstruktionen (s. Punkt 5). Darüber hinaus können pronominale Subjektaktanten im Imperativ, zum Teil auch im Indikativ fehlen. 4.2.1. Imperativfähige Verben haben in ihrem Stellenplan grundsätzlich einen Subjektaktanten, aber in Imperativsätzen, dessen verbaler Valenzträger morphologisch als 2. Person Imperativ Singular oder Plural gekenn-
VI. Valenz: Schwerpunkte der Forschung
zeichnet sind, wird das Subjekt in der Regel ⫺ und zwar nicht nur im Deutschen ⫺ getilgt: (10) Komm um zwei Uhr mittags! Zum Imperativ kann aber ein Personalpronomen der 2. Person auftreten. Wenn es dem Imperativ nachgestellt und intonatorisch hervorgehoben ist, kann es als Subjekt interpretiert werden (Bsp. 11); ein unbetontes und vor dem Imperativ platziertes Pronomen (Bsp. 12) gilt dagegen als Vokativ (Donhauser 1986, 98 ff.; 113 f.). (11) Komm du` mir ja nicht zu nahe! (12) Du geh mir aus dem Weg! Die Tilgung des Subjekts in morphologisch markierten Imperativsätzen ist nach Donhauser (1986, 124 ff.) dadurch bedingt, dass der Imperativ wegen seiner schwachen Personenmarkiertheit eine „semifinite“ Verbform ist, die nicht eine ebenso starke strukturelle Bindung des Subjekts leisten kann wie eine ´ gel (1993, 12 ff.; 43 f.) dafinite Verbform. A gegen erklärt das Fehlen des Subjekts im (deutschen) Imperativ dadurch, dass in der imperativischen Valenzrealisierungsstruktur das Subjekt im Normalfall nicht makrovalenziell, d. h. lexikalisch, realisiert wird, sondern nur mikrovalenziell, d.h. im Verbflexiv inkorporiert (s. Punkt 4.2.2); eine makrovalenzielle Realisierung ist allerdings nicht ausgeschlossen (Bsp. 11). 4.2.2. Im Indikativ kann ein pronominaler Subjektaktant im Deutschen nur in ganz fest umrissenen Kontexten, z. B. in dem sog. Telegrammstil, fehlen (vgl. Engel 1988, 189): (13) Komme bald. In vielen anderen Sprachen dagegen (im Italienischen, Lateinischen, Polnischen, Ungarischen, Finnischen u. a.) ist die Nichtrealisierung eines Subjektpronomens der Normalfall. Typisch für diese sog. Null-Subjekt- oder Pro-drop-Sprachen ist, dass der zum Stellenplan des verbalen Valenzträgers gehörende Subjektaktant, wenn er pronominal ist, lexikalisch nur bei intonarischer Hervorhebung realisiert wird. In der DG ist das Null-Subjekt-Phänomen kaum Gegenstand des Interesses gewesen, wohl nicht zuletzt deswegen, weil es für die Deskription des Deutschen ohne Belang ist. Happ hat in seiner für das Lateinische konstruierten Dependenzgrammatik dieses Phä-
789
55. Das Subjektproblem in der Valenzforschung
nomen aufgegriffen, indem er feststellt, dass „[d]as Subjekt […] im Lateinischen (und Griechischen?) ⫺ im Gegensatz zum Deutschen, Englischen und Französischen ⫺ eine merkwürdige Besonderheit aufzuweisen“ scheint, denn „[e]in substantivisches Subjekt kann unter bestimmten Kontextbedingungen […] entweder durch ein Personalpronomen ersetzt oder ganz weggelassen werden“ (Happ 1976, 222). Happ (1976, 236) schlussfolgert daraus, dass das Subjekt im Lateinischen auch ein fakultativer Aktant sein kann. Der Versuch, die Null-Subjekt-Fälle auf fakultatives Auftreten des Subjektaktanten zurückzuführen, trägt jedoch dem Wesen des Phänomens nicht voll Rechnung, denn das Subjekt ist nicht (valenzbedingt) fakultativ schlechthin, sondern kann nur unter der Bedingung weggelassen werden, dass es pronominal und intonatorisch nicht hervorgehoben ist. Paradox wäre auch, dass Fakultativität in den Null-Subjekt-Fällen nicht als fakultative Realisierbarkeit, sondern als obligatorische ´ gel Nichtrealisierbarkeit zu verstehen wäre (A 1995, 6). In Bezug auf das Finnische betrachtet Järventausta (1991, 177) pronominale Subjekte in der 1. und 2. Person als fakultativ weglassbar, „[d]a die Subjektperson […] schon in der Personalendung des Prädikatsverbs inkorporiert zum Ausdruck kommt“. Schon Tesnie`re (1980, 84) hat darauf hingewiesen, dass das Verbflexiv den Subjektaktanten inkorporieren kann, indem er feststellt, dass ein Personalpronomen z. B. im Französischen „das genaue syntaktische Äquivalent der Personalendungen in Sprachen wie dem Lateinischen“ darstellt. Dieser Gedanke wurde von La´szlo´ (1988) zur Beschreibung des Null-Subjekt-Phänomens im Ungarischen in Form eines Valenzmodells ausgearbeitet, dem eine prinzipielle Unterscheidung zwischen mikro- und makrovalenzieller Realisierung von Aktanten zugrunde liegt. Im Wesentlichen besteht die Idee dieser Zwei-Ebenen-Darstellung darin, dass Valenzinformation über Aktanten morphologisch und/oder syntaktisch (lexikalisch) kodiert wird. In Null-Subjekt-Sprachen ist das Subjekt mikrovalenziell (morphoplogisch) im Verbflexiv kodiert und braucht makrovalenziell (lexikalisch) als Pronomen gar nicht realisiert zu werden, wogegen es in Nicht-NullSubjekt-Sprachen nicht oder nicht ausreichend auf der Mikroebene kenntlich gemacht wird, so dass seine makrovalenzielle Realisie´ gel 1993, 28 ff.). rung obligatorisch ist (vgl. A
5.
Sonderstellung des Subjekts
Obwohl die DG von der prinzipiellen Degradierung des Subjekts und von seiner Gleichstellung mit anderen Aktanten ausgeht, ist daraus nicht zu schließen, dass dem Subjekt „keinerlei Sonderstellung“ unter den Aktanten zukäme (Wegener 1990, 153). Sein Primat kommt einerseits durch die Bezeichnung Erstaktant, andererseits durch die feste Position in der linken Peripherie des Dependenzstemmas zum Vorschein. Darüber hinaus wird die zentrale Rolle des Subjekts in syntaktischen Prozessen durchaus anerkannt. Tesnie`re (1980, 99 ff.) hat die Kategorie „erster Aktant“ als Entsprechung des traditionellen ⫺ nach Tesnie`re semantischen ⫺ Subjektbegriffs benutzt. Auch in der Tesnie`re-Nachfolge wird der Erstaktant (E0, E1, 1. Ergänzung, 1. Argument) vorwiegend mit der syntaktischen Subjektrelation gleichgestellt, aber er wird auch, direkt oder indirekt, mit dem morphologischen Nominativkasus (vgl. Engel/Schumacher 1978) sowie mit dem semantischen Agens und dem pragmatischen Topik (Welke 1988, 214 ff.) in Verbindung gesetzt. Obwohl die Tendenz zur unmarkierten nominativischen Kodierung des Subjekts, des Agens und des Topiks, d. h. des zentralen syntaktischen, semantischen und pragmatischen Konzepts, in Nominativsprachen unverkennbar ist (vgl. Sasse 1982, 269 ff.), sind sie in einer formalen Grammatiktheorie definitorisch auseinanderzuhalten. Das syntaktische Subjekt realisiert zwar häufig die AgensRolle, ist aber nicht daran fixiert, und es fungiert oft als Topik, weist aber trotz seiner häufigen satzinitialen Positionierung keine inhärente Topikalität auf. Die linksperiphere Stellung des Subjekts im hierarchischen Dependenzstemma impliziert seine topologische Erstposition in der linearen Satzstruktur, die in Form eines projektiven Stemmas ausbuchstabiert werden kann (vgl. Heringer 1996, 39, auch zu Abkürzungen der lexikalischen Kategorien): V
(14) N
D
N
D
A
mein alter Freund
singt
A
dieses hübsche Lied
790 Eine Gleichstellung des Subjekts mit der Initialposition ist jedoch in Sprachen mit einer flexiblen Satzgliedstellung wie z. B. im Deutschen nicht möglich. Die unmarkierte Abfolge in deutschen Deklarativsätzen ist zwar in der Regel subjektinitial, aber es gibt auch eine Anzahl zweistelliger ergativer Verben, die eine von der Normalabfolge abweichende unmarkierte Stellung „Dativ vor Nominativ“ aufweisen, z. B., auffallen, gelingen, unterlaufen (Grewendorf 1989, 211 ff.); ein projektives Stemma mit der linksperipheren Stellung des Subjekts wäre nicht möglich (vgl. Heringer 1996, 245). Syntaktisch hebt sich das Subjekt von anderen Aktanten dadurch ab, dass die Mehrzahl von syntaktischen Prozessen über das Subjekt läuft (z. B. Verbalkongruenz, Passivbildung). Von diesen Prozesseigenschaften (zum Terminus s. Askedal 1988, 27), die von Keenan (1976, 324) zum Teil unter Kodierungs-, zum Teil unter Kontroll- und Verhaltenseigenschaften aufgelistet sind, werden in der DG vor allem Verbalkongruenz, Tilgung des Infinitivsubjekts und Passivbildung als Argumente für die Sonderstellung des Subjekts angeführt. 5.1. Kongruenz Das Subjekt zeichnet sich im Deutschen und in vielen anderen Sprachen gegenüber allen anderen Aktanten dadurch aus, dass das Finitum mit ihm insofern übereinstimmt, als vom Subjekt „der Numerus und die Person des Prädikats im Sinne der Kongruenz bestimmt werden“ (Tarvainen 1981, 45). Die Verbalkongruenz wird in der DG durchweg als der wichtigste Grund für die Sonderstellung des Subjekts angeführt (anders jedoch Engelen 1975, 108). Sie wird aber auch von Kritikern der DG als Hauptargument gegen den Aktantenstatus des Subjekts und für die Binarität der Satzstruktur herangezogen, z. B.: „Das Subjekt steht durch die Kongruenz mit dem Verb auf einer Stufe mit diesem, also neben und nicht unter ihm, denn auf Grund der Kongruenz besteht zwischen beiden nicht Dependenz, sondern Interdependenz“ (Wegener 1990, 153). Wenn man den Subjektaktanten als den Auslöser der Verbalkongruenz ansieht, läuft der Kongruenzweg dem valenzbedingten Dependenzweg entgegen, vom Aktanten zum verbalen Valenzträger (Eroms 1985, 314), was tatsächlich als eine gegenseitige Abhängigkeit gedeutet werden kann. Es gibt jedoch keinen zwingenden Grund, aus dieser
VI. Valenz: Schwerpunkte der Forschung
Interdependenz eine syntaktisch-strukturelle Gleichstellung zwischen Subjekt und Prädikat ⫺ oder besser: Subjekt und Finitum ⫺ herzuleiten, zumal es sich um sehr ungleiche, einerseits formal-flexematische und andererseits syntaktisch-strukturelle Abhängigkeitsrelationen handelt. Hinzu kommt, dass die formale Korrespondenz zwischen dem Subjekt und dem Finitum in Person und Numerus nicht pauschal vom Subjekt im Sinne der Kongruenz gesteuert wird (zur Differenzierung zwischen Kongruenz- und Rektionsbeziehung Eisenberg 1994, 53 ff.; 286 f.). Der Tatsache, dass das Subjekt formal nicht mit dem verbalen Valenzträger („Prädikat“) schlechthin korrespondiert, sondern mit dem Finitum, wird in der DG kaum Rechnung getragen. In Anlehnung an Tesnie`re (1980, 56) ist es üblich, dass Verbalkomplexe ⫺ von anderen verbalen Valenzträgern sei hier abgesehen ⫺ als mehrteilige Zentralnuklei aufgefasst werden (vgl. Tarvainen 1981, 36 ff.): (15)
hat singen können
Freund
mein
Lied
alter
dieses
hübsche
Durch interne dependenzielle Strukturierung des Verbalkomplexes als einsträngigen Dependenzast kann die Ähnlichkeit der Valenzbindung in Sätzen mit einfachen und periphrastischen Verbformen zum Ausdruck gebracht werden (vgl. Engel 1994, 107 ff.), wobei das Subjekt und das Finitum im Stemma weit auseinander geraten:
(16)
hat können singen
Freund
mein
Lied
alter
dieses
hübsche
791
55. Das Subjektproblem in der Valenzforschung
Damit die formale Anbindung des Subjekts an das Finitum auch dependenziell zum Ausdruck kommt, löst Eroms (1985) den Verbalkomplex auf und trennt das Subjekt in periphrastischen Verbformen von anderen Aktanten (vgl. Eroms 1985, 315; S. steht für den obersten Knoten „Aussagesatz“):
den. Dass aus dieser Korrespondenz ein allgemeines Strukturprinzip der DG abgeleitet wird, ist jedoch insofern fraglich, als es zum einen Sprachen gibt, die keine Verbalkongruenz haben (z. B. das moderne Schwedisch) und Sprachen mit einer Objekt-PrädikatKongruenz (z. B. Swahili).
(17)
5.2. Tilgung des Infinitivsubjekts Die Infinitivprobe gilt neben der Kongruenz als ein zentrales Argument für die Sonderstellung des Subjekts unter den Aktanten (z. B. Engel 1988, 190). Subjekt ist das Satzglied, das im Gegensatz zu allen anderen Aktanten in Infinitivkonstruktionen obligatorisch getilgt wird (Bsp. 18⫺20) und in Zitierformen mit dem Infinit nicht nennbar ist (Bsp. 21):
S. hat
gesungen Lied
Freund
(18) Er versucht, nach Hause zu kommen. mein
alter
dieses
hübsche
Das Subjekt wird im Gegensatz zu anderen Aktanten als unmittelbares Dependens des Auxiliarverbs betrachtet und bekommt somit seinen Sonderstatus gewissermaßen zurück. Wegen der oberflächennahen Lexemorientierung der DG als „Wortverkettungsgrammatik“ kommt dieser Sonderstatus in Eroms’ Dependenzmodell allerdings nur in Sätzen mit periphrastischen Verbformen zum Tragen, so dass Sätze mit periphrastischen und nicht-periphrastischen Verbformen sehr unterschiedliche Strukturanalysen bekommen. Um den Sonderstatus des Subjekts hervorzuheben, will Donhauser (1986, 123 f.) „diese Binnengliederung des Verbalkomplexes auch auf nicht-periphrastische Verbformen […] übertragen“, und sie lanciert ⫺ gegen das dependenzgrammatische Grundprinzip der Lexemorientierung ⫺ einen dem INFL(ection)Knoten der Rektions- und Bindungstheorie ähnlichen funktionalen Knoten FLEX(ion) als Träger der Kongruenzsignale und als Regens des Subjekts. Auch Heringer (1996, 40; 70 ff.) hebt das Subjekt in periphrastischen Verbalkomplexen von anderen Aktanten ab, betrachtet es aber wegen seiner formalen Korrespondenz mit dem Verbalmorphem zusammen mit dem Verbalmorphem (und dem Infinitivverb) als direktes Dependens des Auxiliarverbs. Es ist notwendig, dass die Gesetzmäßigkeiten der formalen Korrespondenz zwischen dem Subjekt und dem Finitum in Sprachen, die eine ausgeprägte Subjekt-Verb-Kongruenz aufzeigen, syntaktisch beschrieben wer-
(19) Er befiehlt ihr, nach Hause zu kommen. (20) Er sieht den Jungen nach Hause kommen. (21) jm e. stehlen / e. aus e. schließen / auf jn warten Dies kann als ein Indiz dafür angesehen werden, dass die Valenzbindung des Subjekts nicht so fest ist wie die der anderen Aktanten (vgl. Heringer 1996, 153), aber auch als ein Indiz gegen seine Valenzbindung überhaupt (vgl. Wegener 1990, 153). Dass Infinitivformen das Auftreten des Subjekts obligatorisch blockieren, unterstreicht die starke Anbindung des Subjekts an die flexematische Kategorie „Finitheit“, schließt aber nicht notwendigerweise seine Valenzbindung aus. Denn man kann auch argumentieren, dass die Valenzstelle für das Subjekt, anders als die für andere Aktanten, nur dann aktualisiert werden kann, wenn im Verbflexiv die Personund Numerusinformation kodiert ist (hierzu ⫺ mit einer etwas anderer Akzentuierung ⫺ ´ gel 1995, 18 f.). A Eine Frage, die hier nur angedeutet werden kann, ist der Subjektbezug des Infinitivs, d. h. „woher der Inf[initiv] seinen Subjektaktanten gewinnt“ (Eisenberg 1994, 376). Meist wird davon ausgegangen, dass sich das getilgte Subjekt, oft „logisches Subjekt“ genannt (vgl. Hyvärinen 1989, 126), eine Leerstelle hinterlassen hat, die implizites Informationen über den Subjektbezug enthält und entweder mit dem Subjekt (Bsp. 18) oder mit dem Objekt (Bsp. 19) des Matrixverbs im Sinne der Subjekt- oder Objektkontrolle identisch ist (Reis 1982, 188 ff.; im DG-Rah-
792
VI. Valenz: Schwerpunkte der Forschung
´ gel (1993, 19; men Hyvärinen 1989, 141 ff.). A 27) argumentiert gegen eine Leerstelle und geht in seinem Valenzrealisierungsmodell von einer direkten Matrixsatzrealisierung des Infinitivsubjekts aus. So wäre der akkusativische Aktant in deutschen Acl-Konstruktionnen (Bsp. 20) nicht entweder das Objekt des Matrixverbs (vgl. Heringer 1996, 76) oder das Subjekt des eingebetteten Infinitivs (vgl. Engel 1988, 487 ff.), sondern eben beides, eine makrovalenzielle Realisierung des Matrixsatzobjekts und des Infinitivsubjekts.
des Subjekts in der Passivierung sowohl als Ausgangs- als auch als Zielgröße (Askedal 1988, 28) der syntaktischen Umkehrung unterstreicht. Gelegentlich wird auch dem expletiven es, das in subjektlosen Passivsätzen in der Initialposition auftreten kann (z. B. Es wird dem Meier von keinem vertraut., Eisenberg 1994, 141) der Status eines formalen Subjekts zuerkannt (vgl. Eroms 1987, 90 f.).
5.3. Passivierung Anders als die Kongruenz und die Tilgung des Infinitivsubjekts, die nur dem Subjekt im Deutschen eigen sind, werden von der Passivierung auch das Akkusativ- und das Dativobjekt betroffen:
Das Subjekt wird in der traditionellen DG als unmittelbares Dependens des verbalen Valenzträgers in der hierarchischen Satzstruktur definiert. Grundlegend für den Status des Subjekts ist die Dependenzrelation, die es dem Zentralnukleus des Satzes unterordnet. Diese Aufhebung der binären Satzstruktur ist keine willkürliche Entscheidung, sondern wird durch die Valenzbindung des Subjekts begründet. Argumente für und gegen diese Valenzbindung sind jedoch nicht eindeutig und variieren je nach einzelsprachlichen Daten und nach der jeweils zugrunde gelegten Valenzauffassung oder der Gewichtung von verschiedenen Aspekten der Valenz. In neueren Dependenzmodellen (Eroms 1985, Heringer 1996) wird die formale Korrespondenz zwischen dem Subjekt und dem Finitum in der Strukturanalyse stärker in den Vordergrund gerückt, wobei in periphrastischen Verbformen die in der DG ursprünglich so markante Gleichstufung des Subjekts mit anderen Aktanten teilweise rückgängig gemacht wird. In den meisten dependenzgrammatischen Ansätzen wird der relationale Charakter des Subjekts ausführlich diskutiert, aber die syntaktischen Funktionen, die für das Subjekt typisch sind und die es von anderen Satzgliedern unterscheiden, werden meist nicht systematisch ausgearbeitet. Auch die Frage, ob und inwiefern ein relationaler Subjektbegriff überhaupt eine relevante Beschreibungskategorie im dependenzgrammatischen Rahmen darstellt, wird nicht gestellt. Eine dependenzgrammatische Subjektdefinition muss unabhängig von spezifischen Optionen einzelner Sprachen sein, um als eine theoretisch haltbare und interlingual anwendbare Grundlage für subjektbezogene syntaktische Fragestellungen fungieren zu können. Weil die DG in der Tesnie`re-Nachfolge insbesondere für das Deutsche ausgearbeitet worden ist, ist auch für oder gegen the-
(22) Hier wurde getanzt. (23) Der Hase wird von allen gejagt. (24) Sie bekam das Ernennungsschreiben (vom Minister) ausgehändigt. Es gibt jedoch einen graduellen Unterschied: Das Akkusativ- und das Dativobjekt können in Passivierung unberührt bleiben (vgl. Er bekommt den Computer geschenkt. und Der Computer wird ihm geschenkt., Beispiele in Anlehnung an Eisenberg 1994, 144), das Subjekt dagegen nicht. Darum gehört das Passiv neben Kongruenz und Tilgung des Infinitivsubjekts zu den wichtigsten syntaktischen Prozessen, die die Sonderstellung des Subjekts unter den Aktanten markiert (vgl. Askedal 1988, 28). Das Subjekt eines Aktivsatzes wird im Passiv meist getilgt (Bsp. 22), kann aber fakultativ als Agens eingeführt werden (Bsp. 23 und 24). Inwiefern es sich hier um eine Valenzveränderung handelt, wird in der DG kontrovers diskutiert. Heringer (1996, 86) geht davon aus, dass die quantitative Valenz im Aktiv und Passiv konstant bleibt ⫺ die Aktanten werden nur „mit neuen Indizes“ versehen ⫺ und Helbig/Schenkel (1973, 58) sprechen lediglich von einer „Reduzierung der obligatorischen Valenz“, Sadzin´ski (1989, 140) dagegen schließt das Agens gänzlich aus dem Valenzumfeld des passivischen Valenzträgers aus, was eine Valenzminderung im Passiv dem Aktiv gegenüber bedeuten würde. Passivsätze bekommen sekundäre, kongruierende Nominativsubjekte von Akkusativobjekten (Bsp. 23), seltener auch von Dativobjekten (Bsp. 24), was die zentrale Rolle
6.
Ausblick
55. Das Subjektproblem in der Valenzforschung
oretische Grundannahmen ⫺ zu denen der Status des Subjekts ohne weiteres gehört ⫺ ausschließlich auf der Basis deutschen Beispielmaterials argumentiert worden. Die Entwicklung der DG auf interlinguale Deskriptionstauglichkeit hin setzt voraus, dass die Übertragbarkeit und interlinguale Evidenz vieler Theoreme anhand anderer Sprachen, womöglich im Kontrast mit dem Deutschen, überprüft werden. Erst die theoretische Konsistenz der grundlegenden Prinzipien ermöglicht ihre empirische Tragfähigkeit und einzelsprachliche Parametrisierung. Die Frage nach der Relevanz des Subjektbegriffs ist dann eher eine praktische: Gibt es einzelsprachliche oder interlinguale Gesetzmäßigkeiten, zu deren Beschreibung im dependenzgrammatischen Rahmen ein Subjektbegriff notwendig ist, und ist dieser Subjektbegriff ein solcher, mit dessen Hilfe diese Gesetzmäßigkeiten adäquat beschrieben werden können?
7.
Literatur in Auswahl
793 Engel, Ulrich/Savin, Emilia u. a. (1983): Valenzlexikon deutsch-rumänisch (⫽ Deutsch im Kontrast 3). Heidelberg. Engel, Ulrich/Schumacher, Helmut (1978): Kleines Valenzlexikon deutscher Verben. Tübingen (2. Aufl.). Engelen, Bernhard (1975): Untersuchunggen zu Satzbauplan und Wortfeld in der geschriebenen deutschen Sprache der Gegenwart. Teilband 1. München. Engelen, Bernhard (1986): Einführung in die Syntax der deutschen Sprache. Band 2. Satzglieder und Satzbaupläne. Baltmannsweiler. Erben, Johannes (1980): Deutsche Grammatik. Ein Abriß. München (12. Aufl.). Eroms, Hans-Werner (1985): Eine reine Dependenzgrammatik für das Deutsche. In: Deutsche Sprache 13, 306⫺326. Eroms, Hans-Werner (1987): Passiv und Passivfunktionen im Rahmen einer Dependenzgrammatik. In: Centre de Recherche en Linguistique Germanistique (Nice) (Hg.): Das Passiv im Deutschen. Akten des Kolloquiums über das Passiv im Deutschen, Nizza 1986. Tübingen, 73⫺95. Fillmore, Charles J. (1968): The Case for Case. In: Bach, Emmon/Harms, Robert T. (eds.) (1968): Universals in Linguistic Theory. New York, 1⫺88.
´ gel, Vilmos (1988): Überlegungen zur Theorie und A Methode der historisch-synchronen Valenzsyntax und Valenzlexikographie (⫽ Lexicographica, Series major 25). Tübingen. ´ gel, Vilmos (1993): Ist die Dependenzgrammatik A wirklich am Ende? Valenzrealisierungsebenen, Kongruenz, Subjekt und die Grenzen des syntaktischen Valenzmodells. In: Zeitschrift für germanistische Linguistik 21, 20⫺70. ´ gel, Vilmos (1995): Valenzrealisierung, GrammaA tik und Valenz. In: Zeitschrift für germanistische Linguistik 23, 2⫺32.
Grewendorf, Günther (1989): Ergativity in German. Dordrecht/Providence.
Askedal, John Ole (1988): Sprachliche Valenz unter dem Aspekt Arbitrarität und Konventionalisierung. In: Helbig, Gerhard (Hg.) (1988): Valenz, semantische Kasus und/oder „Szenen“ (⫽ Linguistische Studien, Reihe A 180). Berlin, 22⫺36.
Helbig, Gerhard (1992): Probleme der Valenz- und Kasustheorie. Tübingen.
Dik, Simon C. (1989): The Theory of Functional Grammar. Part I. The Structure of the Clause. Dordrecht/Providence. Donhauser, Karin (1986): Der Imperativ im Deutschen. Studien zur Syntax und Semantik des deutschen Modussystems. Hamburg. Eisenberg, Peter (1994): Grundriß der deutschen Grammatik. Stuttgart/Weimar (3. Aufl.). Emons, Rudolf (1978): Valenzgrammatik für das Englische. Eine Einführung (⫽ Linguistische Arbeiten 22). Tübingen. Engel, Ulrich (1988): Deutsche Grammatik. Heidelberg. Engel, Ulrich (1994): Syntax der deutschen Gegenwartssprache. Berlin (3. Aufl.).
Fillmore, Charles J. (1971): Some Problems for Case Grammar. In: Working Papers for Linguistics 10, 245⫺265.
Happ, Heinz (1976): Grundfragen einer DependenzGrammatik des Lateinischen. Göttingen. Helbig, Gerhard (1983): Zur semantischen Subklassifizierung der Verben. In: Helbig, Gerhard (Hg.) (1983): Studien zur deutschen Syntax. Band 1. Leipzig, 36⫺46.
Helbig, Gerhard/Schenkel, Wolfgang (1973): Wörterbuch zur Valenz und Distribution deutscher Verben. Leipzig (2. Aufl.). Heringer, Hans Jürgen (1988): Lesen lehren lernen. Eine rezeptive Grammatik des Deutschen. Tübingen. Heringer, Hans Jürgen (1996): Deutsche Syntax dependentiell. Tübingen. Hyvärinen, Irma (1989): Zu finnischen und deutschen verbabhängigen Infinitiven. Teil 1. Theoretische Fundierung und Abgrenzung des Prädikats (⫽ Werkstattreihe Deutsch als Fremdsprache 25). Frankfurt am Main/Bern/New York/Paris. Järventausta, Marja (1991): Das Subjekt im Deutschen und im Finnischen. Seine Formen und semantischen Rollen (⫽ Werkstattreihe Deutsch als Fremdsprache 30). Frankfurt am Main/Bern/New York/ Paris.
794
VI. Valenz: Schwerpunkte der Forschung
Jacobs, Joachim (1994): Kontra Valenz (⫽ Fokus 12). Trier. Keenan, Eduard L. (1976): Towards a Universal Definition of „Subject“. In: Li, Charles N. (ed.) (1976): Subject and Topic. New York, 303⫺333. Korhonen, Jarmo (1977): Studien zu Dependenz, Valenz und Satzmodell. Teil I. Theorie und Praxis der Beschreibung der deutschen Gegenwartssprache. Bern/Frankfurt am Main/Las Vegas. La´szlo´, Sarolta (1988): Mikroebene. In: Mrazovic´, Pavica/Teubert, Wolfgang (Hgg.) (1988): Valenzen im Kontrast. Ulrich Engel zum 60. Geburtstag. Heidelberg, 218⫺233. Lenerz, Jürgen (1992): Zur Theorie syntaktischen Wandels: Das expletive es in der Geschichte des Deutschen. In: Abraham, Werner (Hg.) (1992): Erklärende Syntax des Deutschen. Tübingen (2. Aufl.), 99⫺136. Li, Charles N./Thompson, Sandra A. (1976): Subject and Topic: A New Typology of Language. In: Li, Charles N. (ed.) (1976): Subject and Topic. New York, 457⫺489. Pütz, Herbert (1986): Über die Syntax der Pronominalform es. Tübingen (2. Aufl.). Radford, Andrew (1988): Transformational Grammar. Cambridge. Reis, Marga (1982): Zum Subjektbegriff im Deutschen. In: Abraham, Werner (Hg.) (1982): Satzglieder im Deutschen. Tübingen, 171⫺211.
Sadzin´ski, Roman (1989): Statische und dynamische Valenz. Probleme einer kontrastiven Valenzgrammatik Deutsch-Polnisch. Hamburg. Sasse, Hans-Jürgen (1978): Subjekt und Ergativ. Zur pragmatischen Grundlage primärer grammatischer Relationen. In: Folia Linguistica XII: 3⫺4, 219⫺252. Sasse, Hans-Jürgen (1982): Subjektprominenz. In: Heinz, Sieglinde/Wandruszka, Ulrich (Hgg.) (1982): Fakten und Theorien. Festschrift für Helmut Stimm zum 65. Geburtstag. Tübingen, 267⫺286. Steinitz, Renate (1992): „Modern“: Argumentstruktur, „Traditionell“: Valenz ⫺ Versuch eines Brückenschlags. In: Linguistische Berichte 137, 33⫺44. Tesnie`re, Lucien (1980): Grundzüge der strukturalen Syntax. Herausgegeben und übersetzt von Ulrich Engel. Stuttgart. Tarvainen, Kalevi (1981): Einführung in die Dependenzgrammatik. Tübingen. Wegener, Heide (1990): Komplemente in der DG und der GB-Theorie. In: Zeitschrift für germanistische Linguistik 18, 150⫺184. Welke, Klaus M. (1988): Einführung in die Valenzund Kasustheorie. Leipzig.
Marja Järventausta, Köln (Deutschland)
56. Valency Potential and Valency Realization 1. 2. 3. 4. 5. 6.
Valency, dependency, constituency Problems in defining valency Valency potential Valency realization Conclusion Select Bibliography
1.
Valency, dependency, constituency
Lucien Tesnie`re (1959, 238) called relations among a word (especially a verb) and its complements by the term “valency”, which he borrowed from chemistry. Before him, Karl Bühler (1934, 173) used the Goethean word “Wahlverwandtschaft” [‘elective affinities’] to express this relationship: in every language, words of a certain word class open slots to be filled by words of other word classes. According to Tesnie`re (1959, 13), there are structural connections [“connexions”] between the words, i. e. dependency relations between a “re´gissant” [‘head’] and a “subordonne´” [‘dependent’]; cf. his example (1):
(1) Mon vieil ami chante cette chanson fort jolie. ‘My old friend sings this very pretty song.’ The structure of this sentence is represented by a diagram ⫺ he calls it “stemma” ⫺, rendered here as fig. 56.1 (cf. Tesnie`re 1959, 15): chante chanson
ami mon
vieil
cette
jolie fort
Fig. 56.1: Sentence stemma
While a dependent can only depend on one head, the head itself can govern several dependents. In (1), the verb chante [‘sings’] is the head, ami and chanson are its dependents;
795
56. Valency Potential and Valency Realization
ami is dependent of chante and, at the same time, head of mon and vieil; jolie is dependent of chanson and head of fort. According to Tesnie`re (1959, 238 ff.), each verb has a specific potential of combinations. “Valency” thus can be defined as the number of “actants” [‘players’, now usually called “complements”] that can be combined with a verb. This quality has to be considered as a potential: the slots attached to a verb can be filled with complements, but do not have to be in every single case. Helbig/Schenkel (19753) distinguish between slots that have to be filled with complements, cf. (2), and those that can but do not have to, cf. (3); in the first case, they speak of obligatory complements, in the latter case, of optional ones. (2)
a. Peter admires novels. b. *Peter admires.
(3)
a. Peter writes novels. b. Peter writes.
The dependency framework (cf. Tesnie`re 1959, Engel 1977; 1988 and Eroms 1981) is still considered to be prototypical of the description of valency. But there are other ways. Authors like Eisenberg (19943) employ a constituent framework, which is also used within Generative Transformational Grammar (cf. Chomsky 1965); others use the framework of Categorial Grammar (cf. Günther 1978 and Zifonun 1992). According to Baumgärtner (1970, 52) constituent grammar and dependency grammar are mutually translatable. Constituents are sequences of words resulting from progressive segmentation of sentences. Bierwisch (1970, 16) emphasizes that constituents are not characterized by segmentation alone; they have, at the same time, to be associated with syntactic categories like noun phrase (NP) or verb phrase (VP). It has been discussed whether German has a VP constituent. Haider (1983) thinks that German is a non-configurational language having a flat sentence structure without VP. I advocate the point of view taken by Grewendorf (1988, 293 ff.) that German is a configurational language and thus has a hierarchical sentence structure including VP. Cases like (4) furnish an important argument in favor of the VP assumption: here, the sequence fährt einen Porsche [‘is driving a Porsche’] must be a constituent, since it is anaphorized by es [‘it’], and it must be a VP, since the ana-
phor would have to be in the masculine form er if it is substituted for the object NP einen Porsche. (4)
a. Paul fährt einen Porsche. Es macht ihm Spaß. ‘Paul is driving a Porsche. He likes it.’ b. Paul fährt einen Porsche. Er macht ihm Spaß. ‘Paul is driving a Porsche. He likes it [in German: him].’
A Phrase Structure Rule generating all kinds of VPs runs into problems because verbs differ as to their valency (cf. Vater 1996). Thus, a general VP rule generating a verb and one or two objects would furnish ungrammatical sequences like *Paul sleeps a bed or *Paul stole Mary the bike. A rule that generates a verb and two optional NPs would fail in cases where a verb takes two obligatory object complements. Furthermore, it would also furnish ungrammatical results in all cases where the verb takes prepositional complements. The rule would be blind to the special valency of a verb and could not predict the precise number and possible forms of the complements connected with each special verb. Fanselow/Felix (19933, II, 46) solve this problem by positing a very abstract type of rule where possible complements are indicated by dots. (5) VP J … V …
2.
Problems in defining valency
The two main problems in valency analysis concern (a) the distinction between semantic and syntactic valency and (b) the distinction between complements and adjuncts (cf. Vater 1978 and Heringer 1984). Storrer (1992), who compared several valency analyses of the same verbs, discovered huge discrepancies. She thinks that valency theory has landed in a blind alley. Similar opinions are uttered by ´ gel (1993). Jacobs (1994a, Welke (1988) and A 11) holds that the main reason for the “Valenzmisere” [‘valency misery’] consists in the fact that valency was defined according to seven different criteria which are partially incompatible with each other (for criticism of ´ gel 1995, 4). his view cf. A Jacobs (1994b, 288) notes that the realization of complements follows from mechanisms of sentence grammar rather than directly mirroring valency properties of lexical
796 ´ gel (1995, 3), taking the above menentries. A tioned problems into consideration, concluded that we have to distinguish between “Valenzpotenz” [‘valency potential’] inherent in a verb entry in the lexicon and “Valenzrealisierung” [‘valency realization’] depending on the syntax of the sentence in which the verb appears, the context of the utterance and other factors. This distinction corresponds by and large to the distinction between static and dynamic valency made by Sadzin´ski (1989). In the same way as Jacobs (1994a/b), but ´ gel (1995, 3) with additional arguments, A emphasizes that the different syntactic realizations of valency cannot be derived from a verb’s valency potential in a straightforward way because other factors (like the context and the speaker’s intention) interact with the valency potential. ´ gel (1993, 40), adopting the argumentaA tion of La´szlo´ (1988), distinguishes between two levels of valency realization, which he calls the micro level and the macro level. This decision is based on the discovery by Tesnie`re (1959, 104) that the verb “a de´ja incorpore´ un prime actant” [‘has already incorporated a prime actant’]. The micro level concerns “morphological actants”, e. g. the personal affix -t in lat. (filius amatß (patrem). The macro level concerns the “syntactic actants”, i. e. those Helbig/Schenkel (19753) and their followers have dealt with. For typological and contrastive purposes, this is not sufficient since a verb’s valency may be realized in different ways in different languages. Thus, in German, verbal complements have very often to be realized by syntactic means, whereas they are realized by morphological means (verbal affixes) in ´ gel 1993 and 1995). But also Hungarian (cf. A within a language we can find different kinds of complement realizations; e. g. the subject of German imperative constructions is normally “realized” on the micro level ⫺ namely as “zero” ⫺ (e. g. komm! ‘Come!’), whereas in marginal cases it is realized syntactically (kommen Sie! ‘come!’ in the polite form). The representation of valency realization on two different levels ⫺ resembling the “multiple-tier” representation in Autosegmental Phonology ⫺ reveals the interaction of syntax and morphology in valency realization. Thus, syntactic proforms and morphological affixes turn out to be alternative means of valency realization. In the following, I will concentrate on syntactic valency realization for the sake of simplicity.
VI. Valenz: Schwerpunkte der Forschung
3.
Valency potential
´ gel (1993 and 1995), the vaAccording to A lency potential of verbs is determined in the lexicon, whereas the concrete (morphological or syntactic) valency realizations are determined by the interaction of valency potential, sentence structure and communicative factors (like the utterance producer’s intentions and his assumptions concerning the recipient’s knowledge). The question is how to determine the valency potential of a lexical entry. Since verbal valency is the most typical and best studied kind of valency, I will concentrate on this, leaving nominal and adjectival valency out of consideration. Two problems have to be tackled: (a) It has to be decided whether (logico-)semantic factors or syntactic factors determine a verb’s valency. (b) It has to be decided how many variants of a verb have to be assumed. As to the first problem, I assume (cf. Vater 1981) that the syntax rather than the semantics of a verb determines the number and kind of its complements; cf. example (6) and (7), which is taken from Höhle (1978, 24): (6)
a. Peter dined in an expensive restaurant. b. *Peter dined a voluminous meal in an expensive restaurant.
(7)
a. Dann kam es zu Gewalttätigkeiten. a⬘. ‘Then there arose rebellions.’ b. *Dann kam es von den Arbeitern zu Gewalttätigkeiten. b⬘. *‘Then there arose rebellions from the workers.’
Although the verb dine implies something to be eaten on the semantic (or pragmatic) level, this element cannot be realized on the syntactic level; this constraint has to be stated in the lexicon as a matter of the verb’s valency potential. Likewise, in the arise-construction (as well as in the German impersonal construction es kam zu), the agent cannot be verbalized, although it is necessarily implied. On the other hand, we have a subject es in (7) b, which is necessary for syntactic reasons (cf. Lenerz 1985) but which does not correspond to any element in the verb’s logico-semantic or pragmatic structure. The second problem is closely connected with the assumption of obligatory and optional complements. Thus, the German verb
797
56. Valency Potential and Valency Realization
gehen appears with a prepositional phrase (PP) denoting the (local) goal in some cases but without a PP in other cases, Obviously, gehen occurs in two variants; in the first one, the PP is optional; in the second one, it is obligatory (cf. (9) b). (8)
a. Maria a⬘. ‘Mary b. Maria b⬘. ‘Mary
geht zur Kirche. is going to church.’ geht. is going/walking.’
(9)
a. Das Paket geht nach New York. a⬘. ‘The parcel is going to New York.’ b. *Das Paket geht. b⬘. *‘The parcel is going.’
Jacobs (1993, 2) gives the following definition of “complement X of Y”: “X is a complement of Y iff one of the facts a)⫺d) is true: a) X is obligatory for Y, i. e. it fulfills a realization requirement by Y; b) X is subject to a requirement by Y as to its formal features (e. g. concerning its case); c) X is subject to a requirement by Y as to its semantic features (e. g. concerning the feature [animate]); d) X is an argument of Y, e. g. it fills a slot in the meaning of Y.” On this basis, he defines “obligatory” and “optional” [my translation; H.V.]: “X is an obligatory complement of Y iff X is a complement of Y and obligatory for Y; X is an optional complement of Y iff X is not obligatory for Y but a complement of Y (i. e. form specific or semantically specific for Y or an argument of Y).”
Since “obligatory for Y” is already included in the definition of “complement”, the definition should read: “X is an obligatory complement of Y iff X is obligatory for Y and at least one of the other determinations of ‘complement’ is valid.” It would be even better to exclude the feature “obligatory” altogether from the definition of “complement” in order to avoid circularity. Jacobs (1994b, 286) assumes that optionality depends on the assumption of an alternative valency for a lexical entry without the complement in question. Thus, write (cf. (3)) is a verb for which monovalency as well as bivalency is predicted in the lexicon. Admire (cf. (2)) does not enjoy a corresponding alternative.
4.
Valency realization
We have seen that a verb’s valency realizations depend on its valency potential, the syntactic construction containing the verb
under consideration, and other factors mentioned above. For the sake of brevity, I will concentrate on syntactic constructions which are in a diathesis relation (for other cases of valency realization cf. Vater 1996). In accordance with Schmidt (1987), I make a distinction between “genus verbi” and “diathesis“: “genus verbi” is a morphosyntactic category, “diathesis” is a notional category expressing a relation between the situation and its linguistic realisation as regards the instancy of the agent. According to Wunderlich (1993, 730), the different diatheses of a verb differ in the number of argument positions or in the ways the arguments of a verb are realized within the different phrasal frames. Rytel-Kuc (1988, 348), basing her statement on Weisgerber (1963) and Grepl/Karlı´k (1983), unites passive and impersonal constructions under the heading of “agensabgewandte Diathesen” [‘agentless diatheses’]. I prefer to call them “agent absorbing diatheses“: they do not permit the realization of an agent role; but they imply it (cf. also Heidolph et al. 1981, 541). 4.1. Personal active constructions I call “personal” all syntactic constructions containing a VP which can be used in the first, second and third person (singular or plural); cf. Polish czytam, czytasz, czyta, czytamy, czytacie, czytaja˛ [‘I, you, he/she/it is reading; we, you, they are reading’]. Impersonal connstructions are restricted to the third person neuter singular: Engl. there is; Germ. es gibt; French il y a, Span. hay, etc. In (10) through (13), we have personal active constructions containing an obligatory subject and one or two further (obligatory and/or optional) complements. The verb in (10) is monovalent, the verb in (11) is bivalent with an optional direct object, the verb in (12) is bivalent with an obligatory direct object. (13) contains a trivalent verb with an obligatory direct and an optional indirect object. (10) a. Paul schlief. a⬘. ‘Paul was sleepinig.’ b. *Paul schlief sein Bett. b⬘. *‘Paul was sleeping his bed.’ (11) a. Paul las. a⬘. ‘Paul was reading.’ b. Paul las ein Buch. b⬘. ‘Paul was reading a book.’
798 (12) a. *Paul beschrieb. a⬘. *‘Paul described.’. b. Paul beschrieb sein Abenteuer. b⬘. ‘Paul described his adventure.’ (13) a. *Paul gab. a⬘. *‘Paul gave.’ b. Paul gab den Brief. b⬘. ‘Paul gave the letter.’ c. *Paul gab mir. c⬘. *‘Paul gave me.’ d. Paul gab mir den Brief. d⬘. ‘Paul gave me the letter.’ So-called “pro drop languages” like Italian and Polish allow for an elision of the agent: It. viene ‘he is coming’; Pol. czyta ‘he is reading’. 4.2. Impersonal active constructions Impersonal constructions occur only in the third person sing.; in English and French, they usually are accompanied by a subject pronoun (it/il respectively); In English, there are also impersonal constructions with there and a non-agent subject (in the sing. or plural). In German, the subject es (‘it’) can be omitted if the first position of the sentence is filled with another constituent (es ekelt mich / mich ekelt ‘I am disgusted’). In pro drop languages, impersonal constructions usually occur without a subject. In most cases, there is no corresponding personal active construction, although in German there are cases where the same situation can be expressed by a personal or impersonal construction: ich schaudere / mich schaudert [‘I shudder’]. Rarely, we find cases with a genuine diathesis relationship between a personal and an impersonal active construction (cf. (15)). (14) a. Es regnet/schneit/dämmert. a⬘. ‘It is raining/snowing/getting dark.’ (15) a. Jemand/der Nachbar klopfte. a⬘. ‘Somebody/the neighbour knocked (at the door).’ b. Es klopfte. b⬘. *‘It knocked.’ (= ‘there was a knock at the door’). 4.3. The personal passive According to Zifonun (1992, 254), all kinds of passive constructions belong to the group of grammatical converses. They are agent absorbing: they imply an agent even if it is not expressed. Many types of passive allow for
VI. Valenz: Schwerpunkte der Forschung
an explicit agent (e. g. expressed by a prepositional phrase). Morpho-syntactically, the passive is realized in different ways: (a) in many languages, an auxiliary verb is added (in English be, in German sein or werden) and the main verb is realized as a non-finite form (usually past participle); (b) in other languages (like Latin), the passive is formed synthetically, with special endings (amamus ‘we love’, amamur ‘we are loved’). There are languages (e. g. the Scandinavian languages) which make use of both possibilities; cf. Danish det bliver sagt ⫺ der siges ‘it is said’. In all cases, there are distinctions between active and passive constructions concerning the relationships between the syntactic functions of noun phrases and their theta roles; the subject NP is dissociated of the role of agent and associated with the patient role. In German, only the prototypical passive constructed with werden and usually designating a process is characterized by all of these features. The agent role is optionally realized as a PP (cf. (16b/c)). If the subject of the active is associated with the role of “relator” (cf. Vater 1975), its realization (as a PP) seems to be obligatory, as witnessed by (17). (16) a. Maria/Jemand übersetzte das Buch. a⬘. ‘Mary/Somebody translated the book.’ b. Das Buch wurde von Maria/von jemandem übersetzt. b⬘. ‘The book was translated by Mary/ by somebody.’ c. Das Buch wurde übersetzt. c⬘. ‘The book was translated.’ (17) a. Der Dom überragt alle Gebäude in Köln. a⬘. ‘The cathedral towers over all buildings in Cologne.’ b. Alle Gebäude in Köln werden vom Dom überragt. b⬘. *‘All buildings in Cologne are towered over by the cathedral.’ c. *Alle Gebäude in Köln werden überragt. c⬘. *All buildings in Cologne are towered over. In (17) b, the werden-passive designates a state rather than a process; thus, the werdenpassive ⫺ which in this case does not have an equivalent in English ⫺ should not be equated with “processual passive” (cf. Helbig/Heinrich 1972, 9).
799
56. Valency Potential and Valency Realization Tab. 56.1.: Theta roles with trivalent verbs
agent patient recipient
active
werdenpassive
seinpassive
bekommenpassive
subject dir. obj. indir. obj.
(prep. obj.) subject indir. obj.
π subject indir. obj.
(prep. obj.) dir. obj. subject
The German “stative” passive constructed with sein does not allow for an agent expression:
Impersonal passive constructions can also be derived from bivalent verbs; usually, they do not allow for agent or theme realizations:
(18) a. Das Geschäft ist geschlossen. a⬘. ‘The shop is closed.’ b. *Das Geschäft ist vom Inhaber geschlossen. b⬘. *‘The shop is closed by its owner.’
(21) a. Es wurde gegessen/getrunken/gelesen. a⬘. *‘It was eaten/drunk/read.’ b. *Es wurde von den Gästen gegessen/ getrunken/gelesen. b⬘. *‘It was eaten/drunk/read by the guests.’ c. *Von den Gästen wurde gegessen/getrunken/gelesen. c⬘. *‘By the guests was eaten/drunk/ read.’
A third type of passive in German, constructed with bekommen [‘get’], associates the recipient role (connected with the indirect object in the active construction) with the subject NP (cf. Leirbukt 1977): (19) a. Der Mann bekam (von der Polizei) den Führerschein entzogen. a⬘. ‘The man had his driver’s license taken away (by the police).’ In German, trivalent verbs show up with different valency realizations (especially different associations of theta roles and syntactic functions) in different diatheses (Tab. 56.1.) In English, the passive is formed with the auxiliaries be, get and become, which differ in meaning and distribution from the three types of passive in German. 4.4. Impersonal passive constructions Monovalent verbs cannot form a personal passive but allow for an impersonal one; es ‘it’ is not obligatory. The topic position does not have to be filled with a nominal or prepositional constituent; the participle is an adequate filler (cf. (20) d). The English equivalents are not grammatical. (20) a. Es wurde gelaufen/gelacht. a⬘. *‘It was walked/laughed.’ (‘There was walking/laughter.’) b. Den ganzen Tag wurde gelaufen/gelacht. b⬘. *‘The whole day was walked/laughed.’ c. Im Park wurde gelaufen/gelacht. c⬘. *‘In the park was walked/laughed.’ d. Gelaufen/gelacht wurde. c⬘. *‘Walked/laughed was.’
Fixed syntagms like Karten spielen [‘to play cards’] can form an impersonal passive keeping the theme (probably to be interpreted as an accusative object); Example (22), quoted from Plank (1993, 153), does not show agreement: (22) Heute wird Karten gespielt und morgen wird Teppiche geklopft. *‘Today is played cards and tomorrow is beaten carpets.’ A translation faithful to the sense would be: ‘Today we (they, etc.) are playing cards and tomorrow we (they, etc.) are beating carpets.’ 4.5. Impersonal reflexive passive The impersonal reflexive passive is still considered to be ungrammatical (or rather: not to conform to the standard) by many people. However, Andresen (1854) and Behaghel (1924, 214 f.) quote numerous examples of this construction from all periods of German (for recent studies, cf. Plank 1993, Vater 1995 ´ gel 1997, who makes a distinction beand A tween reflexive passive and reflexive medial constructions). This construction type is parallel to the impersonal passive: (23) Es wurde sich amüsiert/gelangweilt/gestritten. *‘It was amused/bored/quarreled with each other.’
800 In everyday speech, this construction is found especially frequently in sentences intended as requests: (24) Jetzt wird sich gewaschen. *‘Now it is washed oneself.’ ‘Now you have to wash yourself/selves.’ 4.6. Middle constructions The so-called “middle constructions” can be defined according to Abraham (1987, 3 ff.), as syntactic constructions lacking a surface (agentive) subject but implying it. Usually, a further verbal complement ⫺ theme, locative or instrumental ⫺ has to be realized. Like passive constructions, they are typical agentabsorbing diatheses (cf. 25) c), although they show morpho-syntactically most often active form (including different types of reflexive constructions) and, in some exceptional cases (cf. (25) b), seem to imply a non-animate (or even abstract) cause rather than an agent. There is a small class of verbs occurring in two different kinds of active constructions: (a) with an agent subject and thematic object, (b) intransitively, with a thematic or instrumental subject (and possible further complements like goal and locative). In generative grammar, verbs occurring in the second type of construction are called “ergative” or “unaccusative”. Both terms are inadequate, but “ergative” is more inadequate. Although the relationship between these constructions should not be called a diathesis relationship ⫺ it is not formally marked ⫺ it is comparable to the active-passive relation; I will call it “detransitivization”. Detransitivized constructions allow for a personal dative in German (cf. (25) d); this dative does not refer to the agent of an action; it has rather to be interpreted as a “dativus (in)commodi”. (25) a. Der Junge zerbrach die Vase. a⬘. ‘The boy broke the vase.’ b. Die Vase zerbrach. b⬘. ‘The vase broke’. c. *Die Vase zerbrach von dem Jungen. c⬘. *‘The vase broke by the boy.’ d. Die Vase zerbrach dem Jungen. d⬘. *‘The vase broke to the boy.’ (26) a. Die Bauern verbrannten die Zweige. a⬘. ‘The farmers burnt the twigs.’ b. Die Zweige verbrannten. b⬘. ‘The twigs burnt/were burning.’
VI. Valenz: Schwerpunkte der Forschung
In German, reflexivization is a frequent alternative to detransitivization (cf. (27) b). In Polish, this is the only way to absorb the agent in these cases: Waza zbiła sie¸ ‘the vase broke itself’. (27) a. Das Mädchen öffnete die Tür. a⬘. ‘The girl opened the door.’ b. ‘Die Tür öffnete sich.’ b⬘. ‘The door opened.’ In German (as well as in French) there is a type of reflexive middle construction as in (28). Typically, this construction needs an additional adjunct in the form of an adjective or a prepositional phrase (one of the exceptional cases, where an adjunct is required rather than optional!). For a discussion of problems in the analysis of middle constructions in English, German and other Germanic languages cf. Wagner (1977), Abraham (1987), Reis (1982, 182) and Vater (1988). (28) a. Der Wein trinkt sich gut. a⬘. ‘The wine drinks (*itself) well.’ b. Der Wein läßt sich gut trinken. b⬘. *‘The wine lets itself drink well.’ With instrumental subjects of middle constructions, the verb occurs in German (as in English) in its intransitive rather than its reflexive form: (29) a. Der Bleistift schreibt (*sich) gut. a⬘. ‘The pencil writes (*itself) well.’ b. Das Messer schneidet (*sich) gut. b⬘. ‘The knife cuts (*itself) well.’ There are two more types of middle construction occurring in German and English: a construction containing a copula, a predicate adjective and an infinitive with zu/to, and a construction containing a copula, an adverbial adjective and an adjective with the suffix -bar/-ble: (30) a. Das Rätsel ist leicht zu lösen. a⬘. ‘The riddle is easy to solve.’ b. Das Rätsel ist leicht lösbar. b⬘. ‘The riddle is easily solvable.’
5.
Conclusion
The differentiation between valency potential ´ gel and valency realization proposed by A (1993; 1995) allows for a description of valency in related syntactic connstructions as e. g. those containing different diatheses of the same verb. It makes it possible to explain
56. Valency Potential and Valency Realization
the different realizations of a verb’s valency conditioned by the structural differences of the syntactic environments in which it occurs. Thus, the verb geben is realized with its agent surfacing as the subject of an active construction, whereas the theme is made the subject in the werden-passive and the recipient is the subject of a bekommen-passive. Whereas the agent complement has to be realized in an active construction (as the subject of the sentence), it is suppressed in the sein-passive and in middle constructions. At the same time, the differentiation between a fixed valency potential associated with a verb in the lexicon and the various valency realizations conditioned by the syntactic environments in which it occurs helps to solve at least part of the problems that were described as the “valency misery” by Jacobs (1994a) and others. The facts and analyses described here in relation to verbs apply to members of other word categories (like nouns and adjectives) as well.
6.
Select Bibliography
Abraham, Werner (ed.) (1978): Valence, Semantic Case and Grammatical Relations. Amsterdam. Abraham, Werner (Hg.) (1982): Satzglieder im Deutschen. Vorschläge zur syntaktischen, semantischen und pragmatischen Fundierung (= Studien zur deutschen Grammatik 15). Tübingen. Abraham, Werner (Hg.) (1985, 19922): Erklärende Syntax des Deutschen (= Studien zur deutschen Grammatik 25). Tübingen. Abraham, Werner (1987): Zur Typologie des Mediums in der Westgermania. In: Abraham, Werner/ ˚ rhammar, Nils (Hgg.) (1987): Linguistik in A Deutschland. Akten des 21. Ling. Kolloquiums, Groningen 1986 (= Linguistische Arbeiten 182). Tübingen, 3⫺23. ´ gel, Vilmos (1993): Ist die Dependenzgrammatik A wirklich am Ende? In: Zeitschrift für germanistische Linguistik 21, 20⫺70. ´ gel, Vilmos (1995): Valenzrealisierung, GrammaA tik und Valenz. In: Zeitschrift für germanistische Linguistik 23, 2⫺32. ´ gel, Vilmos (1997): Reflexiv-Passiv, das (im DeutA schen) keines ist. Überlegungen zu Reflexivität, Medialität, Passiv und Subjekt. In: Dürscheid, Christa/Ramers, Karl Heinz/Schwarz, Monika (Hgg.) (1997): Sprache im Fokus. Festschrift für Heinz Vater zum 65. Geburtstag. Tübingen, 147⫺ 187. Andresen, Karl Gustaf (1854): Passiv des Reflexivs. In: Allgemeines Nassauisches Schulblatt 48, 763⫺ 764.
801 Baumgärtner, Klaus (1970): Konstituenz und Dependenz. In: Steger, Hugo (Hg.) (1970): Vorschläge für eine strukturale Grammatik des Deutschen (= Wege der Forschung 146). Darmstadt, 52⫺77. Behaghel, Otto (1924): Deutsche Syntax. Eine geschichtliche Darstellung. Bd. II. Heidelberg. Bierwisch, Manfred (1970): Aufgaben und Form der Grammatik. In: Steger, Hugo (Hg.) (1970), 1⫺51. Bühler, Karl (1934, 19823). Sprachtheorie (= UTB 1159). Stuttgart. Chomsky, Noam (1965): Aspects of the Theory of Syntax. Cambridge, MA. Eisenberg, Peter (1986, 1994): Grundriß der deutschen Grammatik. Stuttgart (3. Auflage). Engel, Ulrich (1977, 1994): Syntax der deutschen Gegenwartssprache (= Grundlagen der Germanistik 22). Berlin (3. Auflage). Engel, Ulrich (1988): Deutsche Grammatik. Heidelberg. Eroms, Hans-Werner (1981): Valenz, Kasus und Präpositionen. Untersuchungen zur Syntax und Semantik präpositionaler Konstruktionen in der deutschen Gegenwartssprache. Heidelberg. Fanselow, Gisbert/Felix, Sascha (1987, 1993): Sprachtheorie (= UTB 1441/1442). 2 Bände. Tübingen (3. Auflage). Grepl, Miroslav/Karlı´k, Petr (1983): Grammaticke´ prostrˇedky hierarchizace se´manticke´ struktury veˇty. Brno. Grewendorf, Günther (1988): Aspekte der deutschen Syntax (= Studien zur deutschen Grammatik 33). Tübingen. Günther, Hartmut (1978): Valence in Categorial Syntax. In: Abraham, Werner (ed.) (1978), 127⫺ 156. Haider, Hubert (1983): Connectedness Effects in German. In: Groninger Arbeiten zur Germanistischen Linguistik 23, 82⫺119. Heidolph, Karl Erich et al. (1981): Grundzüge einer deutschen Grammatik. Berlin. Helbig, Gerhard/Heinrich, Gertraud (1972): Das Vorgangspassiv. Leipzig. Helbig, Gerhard/Schenkel, Wolfgang (1975): Wörterbuch zur Valenz und Distribution deutscher Verben. Leipzig (3. Auflage). Heringer, Hans Jürgen (1984): Neues von der Verbszene. In: Stickel, Gerhard (Hg.) (1984): Pragmatik in der Grammatik. Jahrbuch 1983 des Instituts für deutsche Sprache. Düsseldorf, 34⫺64. Hoffmann, Ludger (Hg.) (1992): Deutsche Syntax: Ansichten und Aussichten (= IDS-Jahrbuch 1991). Berlin/New York. Höhle, Tilman N. (1978): Lexikalistische Syntax. Die Aktiv-Passiv-Relation und andere Infinitkonstruktionen im Deutschen (= Linguistische Arbeiten 67). Tübingen.
802
VI. Valenz: Schwerpunkte der Forschung
Sadzin´ski, Roman (1989): Statische und dynamische Valenz. Probleme einer kontrastiven Valenzgrammatik Deutsch-Polnisch (= Beiträge zur Sprachwissenschaft 1). Hamburg.
Steger, Hugo (Hg.) (1970): Vorschläge für eine strukturale Grammatik des Deutschen (= Wege der Forschung 146). Darmstadt. Storrer, Angelika (1992): Verbvalenz. Theoretische und methodische Grundlagen ihrer Beschreibung in Grammatikographie und Lexikographie (= Reihe Germanistische Linguistik 126). Tübingen. Tesnie`re, Lucien (1959): Ele´ments de syntaxe structurale. Paris. Dt. Übersetzung von Ulrich Engel (1980): Grundzüge der strukturalen Syntax. Stuttgart. Vater, Heinz (1975): Towards a Generative Dependency Grammar. In: Lingua 36, 121⫺145. Vater, Heinz (1978): On the possibility of distinguishing complements and adjuncts. In: Abraham, Werner (ed.) (1978), 21⫺45. Vater, Heinz (1981): Valenz. In: Radden, Günter/ Dirven, Rene´ (eds.) (1981): Kasusgrammatik und Fremdsprachendidaktik (= Anglistik und Englischunterricht 14). Trier, 217⫺235. Vater, Heinz (1988): Mittelkonstruktionen im Englischen, Dänischen und Deutschen. In: Mrazovic´, Pavica/Teubert, Wolfgang (Hgg.) (1988), 398⫺417. Vater, Heinz (1995): Zum Reflexiv-Passiv im Deutschen. In: Popp, Heidrun (Hg.) (1995): Deutsch als Fremdsprache. Festschrift für Gerhard Helbig zum 65. Geburtstag. München, 185⫺192. Vater, Heinz (1996): Valenzpotenz und Valenzrealisierung im Deutschen. In: Jahrbuch der ungarischen Germanistik 1995, 143⫺165. Wagner, Fritz (1977): Untersuchungen zu Reflexivkonstruktionen im Deutschen (= Regensburger Beiträge zur deutschen Sprach- und Literaturwissenschaft 10). Frankfurt am Main. Weisgerber, Leo (1963): Die vier Stufen in der Erforschung der Sprachen. Düsseldorf. Welke, Klaus (1988): Einführung in die Valenz- und Kasustheorie. Leipzig. Wunderlich, Dieter (1993): Diathesen. In: Jacobs, Joachim et al. (Hg.) (1993), 730⫺747. Zifonun, Gisela (1992): Das Passiv im Deutschen: Agenten, Blockaden und (De-)Gradierungen. In: Hoffmann, Ludger (Hg.) (1992), 250⫺275.
Schmidt, Ulrich (1987): Impersonalia, Diathesen und die deutsche Satzgliedstellung. Bochum.
Heinz Vater, Köln (Deutschland)
Jacobs, Joachim (1993): The lexical basis of optional complements (⫽ Arbeiten des SFB 282, Nr. 53). Wuppertal. Jacobs, Joachim (1994a): Kontra Valenz (= Fokus 30). Trier. Jacobs, Joachim (1994b): Das lexikalische Fundament der Unterscheidung von obligatorischen und fakultativen Ergänzungen. In: Zeitschrift für germanistische Linguistik 22, 284⫺319. Jacobs, Joachim et al. (Hg.) (1993): Syntax. Ein internationales Handbuch zeitgenössischer Forschung (= Handbücher zur Sprach- und Kommunikationswissenschaft 9.1). 1. Halbband. Berlin/ New York. La´szlo´, Sarolta (1988): Mikroebene. In: Mrazovic´, Pavica/Teubert, Wolfgang (Hgg.) (1988), 218⫺233. Leirbukt, Oddleif (1977): Über passivische Fügungen der Struktur bekommen/kriegen/erhalten ⫹ Partizip II im heutigen Deutsch. In: Spra˚k og spra˚kundervisning 10, 47⫺55. Lenerz, Jürgen (1985): Zur Theorie syntaktischen Wandels: das expletive ‘es’ in der Geschichte des Deutschen. In: Abraham, Werner (Hg.) (1985), 99⫺136. Mrazovic´, Pavica/Teubert, Wolfgang (Hgg.) (1988): Valenzen im Kontrast. Ulrich Engel zum 60. Geburtstag. Heidelberg. Plank, Frans (1993): Peculiarities of Passives of Reflexives in German. In: Studies in Language 17, 135⫺167. Reis, Marga (1982): Zum Subjektbegriff im Deutschen. In: Abraham, Werner (Hg.) (1982), 171⫺ 211. Rytel-Kuc, Danuta (1988): Die täterabgewandten -no/-to-Konstruktionen im Polnischen und ihre Entsprechungen im Deutschen. In: Mrazovic´, Pavica/Teubert, Wolfgang (Hgg.) (1988), 347⫺356.
803
57. Toward a Classification of Complements
57. Toward a Classification of Complements 1. 2. 3. 4. 5. 6. 7.
The Verb ⫺ Ship or Womb? Prepositional Complements ⫺ Vietnamese Derivational Complements ⫺ Indonesian Pronominal Complements ⫺ Swahili Noun-case Complements ⫺ Koine-Greek Conclusion Select Bibliography
1.
The Verb ⫺ Ship or Womb?
The notion of complement implies that verbs are probably incomplete, lacking a part or parts, and that complements make them entire, perfect. Jespersen (1924; 1963, 88) uses the dichotomy complete : incomplete to explain the intransitivity and the transitivity of verbs. In the sentence He plays, he calls the verb complete, because it needs no complement, in He plays the piano, it is incomplete, because a complement is demanded. Lyons (1968, 345) gives an etymological definition saying that “the predicate complement is syntactically required in order to ‘complete’ the structure of the predicate (hence the term ‘complement’)”. Contemporary works continue this verb deficit theory. Some of the modern Oxford English grammar books (Swan 1995; Chalker 1996; Chalker/Weiner 1998, etc.) distinguish two ways of completing an incomplete verb, the first is to “complete” the verb to be or other linking verbs, He is a physician, (subject complement), or They make some people addicts, (object complement), the second is to “complete” an adjective, a preposition, or a full verb. In this wider sense, a complement of a verb “can include almost anything that in some way ‘completes’ the verb, including objects and adverbials.” (Chalker 1996, 50) Verb deficit theories like these have, at least, the advantage to take the verb as the starting point of a sentence and its semantic frame. Their point of view of looking at the other constituents of the sentence is to find out how the complements react to a given verb. This perspective is totally contrary to some versions of a constituent grammar of language, where the leading role of constituing a sentence is contributed to the noun complements. In Fillmore’s (1966, etc.) case grammar, for instance, the verb is “selected” by the nominal case frame of the sentence, and “verbs in the lexicon will be classified according to the
propositional environments into which they may be inserted”. (Fillmore 1966, 17). What the verb deficit theory and Fillmore have in common can be described in figurative language: Verbs are (female) ships, “manned” and navigated by (male) complements. Like a real ship is made navigable by her complement, i. e. the crew that “mans” the ship (Fowler/Thompson 1995, 271), in the sentence a whole crew of “animate participants in the activity of the associated verbs” (Fillmore 1968, 25) is needed: agents, experiencers, patients, comitatives, etc. From a comparative and valence typological point of view the ship-complement metaphor is not very clear, and I would propose a different metaphor, which I derivate from the philosophy of Lao Tzu’s philosophy on the Tao (the Way, Truth, Logos/Verbum, the “Mystic Female”): Verbs are wombs, and complements are their offsprings. In this picture the verb plays an active part: a pregnant female verb body carries and nourishes its (male?) nominal offsprings during the stage of their development before they are morphosyntactically born. To give this metaphorical birth process a more conceptual interpretation: The verb is the active part in organizing the semantic frame (“case frame” ⫺ Fillmore 1968, 25) of the sentence. The complements as the morphosyntactic exponents (Exponenten/Formantien: Hartmann 1956a, 21) of semantic roles are generated by gradually expanding procedures from the verb base. To claim the morphosyntactical status of the complements means that procedures from both word formation and word modification, and syntax are involved, ´ gel’s (1993, 128) battle cry, “Gebt following A endlich die Grenze zwischen Wortbildung und Syntax frei!” This view that contributes a primordial meaning to the verb in determining the semantic/case frame of the sentence is well known in valence theory, and has found clear expression in Chafe (1970), Cook (1978), Downing/Locke (1995), etc. Downing/Locke (1995, 110 f.) regard the components (“participants”), which express semantic roles, as being “inherent” in the verb, and they are either “actualized/expounded” on
804 the sentence level or they remain “unactualized/unexpounded”. The main function of complements is to serve as morphosyntactical exponents of semantic roles. The term “exponents” refers to the fact that morphosyntactically realized complements have expounding or interpreting functions, and that they are material representatives of semantic roles. The notion of “case” should be reserved for morphological modifications in agglutinative and inflective languages. It doesn’t seem to be clear, how many semantic roles exist (Greenbaum 1996, 71), and how they should be counted (Helbig 1982, 57 f.). The following comparative study includes the observation of different languages belonging to the Indo-European, Sino-Tibetan, Semitic, Malay, Bantu, and Austro-Asiatic language families. I am going to reduce the number of semantic roles to the following four (traditional looking) roles: ⫺ subject roles (agentive and experiencer roles), ⫺ direct object roles (affected and resultant roles), ⫺ indirect object roles (recipient and beneficiary roles), ⫺ circumstantial roles (locative and instrumental roles). The usual distinction between verb-implicit participants and verb-nonimplicit circumstants (Downing/Locke 1995, 112) is not made here, because it is rather of subordinate importance in the languages and subjects discussed here. The criteria for the selection of the semantic roles is (a) their frequency and relevant function in the languages observed, (b) their semantic comparability, in spite of largely differing morphosyntactical forms, (c) their possible contribution to the problem how to classify components. Languages can be typologically compared according to the morphosyntactic devices which help to express semantic roles. As far as I understand the functioning of languages under observation, semantic roles can either be expressed by nuclear morphological complements of the verbs (prepositions, derivations, and pronouns, somehow “attached” to the verbbase), or by extranuclear syntactical complements of the verb (noun-cases). From here we come to a fundamental, typologically based classification of complements, which includes all kinds of stative verbs (“to be near/close to, to be popular”, etc.), existential verbs (“to be present/exist”, etc.) and dynamic (Green-
VI. Valenz: Schwerpunkte der Forschung
baum 1996, 74) verbs (“to write/to go/to hear”, etc.), and excludes “copula verbs”, because both their existence and their belonging to a word class is questionable in many languages (Classical Chinese, Indonesian, Turkish, Vietnamese, etc.). The four main complement classes, I have discovered, are ⫺ ⫺ ⫺ ⫺
prepositional complements, derivational complements, pronominal complements, noun-case complements.
Before I come to an empirical identification of these four fundamental classes, a few words about language types should be said. To exemplify these classes, Vietnamese, Indonesian, Swahili, and Koine-Greek have been taken into account, since each of these languages can give a more or less good illustration of a language type representing a complement class, even though none of the four languages is an ideal type, but fulfills that role only in a more or less close “discernable approximation” (Greenberg 1973, 165), as far as central structural principles are concerned. Therefore the four complement classes and language types should neither be understood as historical stages of language development nor as referring to the idea of “higher” types, evolving out of “lower” types (Greenberg 1973, 169). Even though we can arrange the language material according to degrees of structural complexity in the way that each type keeps the relevant features of the preceding one (the derivational type also uses prepositions, the pronominal type prepositions and derivations, and the noun-case type all the preceding means), the notion of “phases” should be preferred and replace that of “stages”, in analogy to the term “phases” in physics, chemistry, etc., where it denotes certain homogeneous states of heterogeneous systems, as e. g. ice, liquid, or gaseous forms are not three stages of development, but three different phases of H2O. By avoiding both the conception of historical stages and the evaluation of “higher” or “lower” types, we can nevertheless adhere to the two following ideas, that (a) complements are typologically (and often, indeed, also historically) generated from verb bases by gradual expanding procedures, starting with prepositional means, then expanding further to the derivational level, then modelling pronominal means that are attached to the verb stem, and finally building
805
57. Toward a Classification of Complements
and launching syntactical satellites, i. e. extranuclear noun-case means; (b) these gradual expanding procedures make morphosyntactical structures more and more complex, and instead of evaluating languages according to some “lower” or “higher” degree of development, we can distinguish different degrees of structural complexity, resulting from the major class of complements used in one or the other language. Historically it might be interesting that inflective languages which have lost or functionally overloaded their case-endings (like Greek, see chapters 6 and 7) seem to shift “down” into the first, i. e. the prepositional phase. For comparative reasons I begin each class/ type chapter with a three clause sentence from the gospel according to Luke (15:25), taken from the Story of the Lost Son, which in the Revised Standard Version (2nd ed.) is, (1)
“Now his elder son was in the field;
(2)
and as he came and drew near to the house,
(3)
he heard music and dancing.” (NestleAland 1981, 212)
2.
Prepositional Complements ⫺ Vietnamese ´aˆy Khi time that ⫽ [at] that time
(1)
œo`Å to be ⫽ was
ngoa`i the outside out in
œo`Å tro veeˆ` to (re)- to return turn home ⫽ [he] returned [and]
(2)
(3)
thı` time
⫽ then
œa` con trai ca child boy elder [the] elder son Ioˆ`ng, field [the] field
gaaˆ`n to be near
I´eˆn to go to
drew near to
´eˆ ng nghe tie to hear voice/ sound [he] [the] heard sound
nha`, house [the] house
Io`Ån ca music song [of] [and] music singing [and]
œa` y nha mua´. (Kinh-Tha´nh 1975, 194) to jump to dance ⫽ dancing
In Vietnamese, an amorphous (Pasierbsky/ Singendonk 1979) S-V-O language, there are two possibilities of expressing semantic roles, ⫺ by pure positional devices (pre- and postverbal positions), ⫺ by the use of prepositional lexemes (prepositional verbs and relator nouns). Subject and direct object roles (agentive, experiencer, affected and resultant roles) in the active declarative sentence are normally expressed by positional regulations of the S-VO type, e. g. Baø n toˆi friend my ⫽ My friend
khoˆng tin not believe doesn’t believe
toˆi. me me.
Toˆi khoˆng tin baø n toˆi. I not believe friend my ⫽ I don’t believe my friend. The dichotomy transitive : intransitive, though claimed by some western oriented grammar books on Vietnamese (Nguyen 1976, 89), is questionable. Thompson (1965, 220) says “that the familiar dichotomy of English verbs between those which take objects and those which do not is absent in Vietnamese”, e. g. with verbs of motion, emotion, or with stative verbs, Toˆi I ⫽ I’m
Ii to go going
Ha`-noøˆ i Hanoi to Hanoi.
Toˆi buooˆ`n oˆng I to be sad you ⫽ I feel sorry for you ˆ Ong xa nha` You to be far house ⫽ You’re far from home. To express the indirect object and the circumstantial roles after stative, existential and dynamic verbs Vietnamese uses two kinds of prepositional lexems, relator nouns and prepositional verbs. In our example (1) we have the very common existential verb oœÅ (“to live/ dwell at, to be situated/located at/in/on”, etc.) that is expanded by two nouns, ngoa`i (“the outside, exterior”), and Ioˆ`ng (“field”). Ngoa`i belongs to a group of nominal complements which clarify the relative position given by the lexical meaning of the verb root. Other nouns with this function are sau (“the back part, rear”), treˆn (“the top or higher part”), giuuœÅa (“the middle, part between”), etc. Thompson (1965, 316) calls these comple-
806 ments “relator nouns”. As in (1), relator nouns “are very often followed by another substantive as descriptive complement, clarifying with relation to what the position is described as under, middle, outside, etc. In translation to western languages the normal colloquial result is a prepositional phrase; for this reason these words (with or without o) have been called prepositions”. (Thompson l. c.). The descriptive complement in (1) is Ioˆ`ng (“field”). In (2) we have a conglomerate of four verb roots: there is the compound trooœÅ veeˆ`, trooœÅ (“to (re)turn”) being the base verb, with veeˆ` (“to return home”) as its prepositional verb complement; then there is the stative verb gaˆn (“to be near, close”), and the prepositional verb I´eˆn (“to go to, to reach”), followed by the descriptive complement nha` (“house”), lit. “return home ⫺ be near ⫺ reach ⫺ house”. In (3) there is the verb of sensation nghe (“to hear, listen”) with the ex´eˆ ng (“voice, sound”). panded internal object tie For both the recipient and the beneficiary roles the prepositional verb cho (“to give/to act for the benefit of ”, etc.) is used, e. g. (Thompson 1965, 232) ˆ ng ´aˆy Ia˜ O ba´n nha` cho toˆi. sir that already sell house give me either means, ‘He sold me a house’ (recipient) or ‘He sold a house for me.’ (beneficiary). In the case of circumstantial (locative and instrumental) roles both positional devices and prepositional verbs can be used, e. g. veeˆ` (I´eˆn) nha` to return (to go to) house home ⫽ ro return home vie´eˆ t (baa`˘ ng) tay tra´i to write to use hand left ⫽ to write with one’s left hand A conclusive remark should be made on the word class of relator nouns and prepositional verbs, which oscillate between lexemes and function words, e. g. Meø toˆi ra choøÅ veeˆ`. mother my to go market to return out home can be translated either as ‘My mother went to the market and returned.’, or as ‘My mother came back from the market.’ (Hearly 1997, 179) To summarize the main typological characteristics of prepositional complements in Vietnamese, there is to be noted
VI. Valenz: Schwerpunkte der Forschung
⫺ the absence of clear limits between lexical units (and their word classes), word formation, and grammatical elements; ⫺ a system of prepositionally used lexemes (relator nouns and prepositional verbs), modifying the lexical meaning of the verb and establishing the semantic frame of the sentence; ⫺ a determination of the subject-object roles neither by verb morphology nor by the verb categories transitive : intransitive, but by the S-V-O positional devices.
3.
Derivational Complements ⫺ Indonesian
(1)
Sementara itu, anak meanwhile that child
yang sulung who/ firstwhich born ⫽ [In] the meantime [the] elder child berada di ladang. (prefix) to be present in/at/on field. ⫽ was in [the] field
(2)
Waktu ia time he
⫽ When he
pulang dan to go and home went home and
sudah already [was] already
dekat dengan rumah- nya, to be near with/by/to house his ⫽ near to his house, ia mendengar suara he (prefix) to listen voice/ sound ⫽ he heard [the] sound
(3)
dan taritari-
musik music [of] music
an.
(Kabar Baik 1978, 239) and dance-dance (suffix) ⫽ and “(various kinds of) (Sneddon dances” 1996, 34) Indonesian, which is a mildly agglutinative S-V-O language, uses positional and prepositional devices in order to express semantic roles. None the less it is the extensive use of verb affixes: 6 prefixes, 6 circumfixes, and one suffix (Lombardi 1977, 25; 108), that makes it a relevant linguistic type. These means not only increase the lexical stock of the language, but also serve as main exponents of semantic roles. Verb affixation is known from Indo-European and Semitic languages, where it causes changes in both the
807
57. Toward a Classification of Complements
word meaning and the semantic frame. Take, for example, the Arabic basic verb: calima (intr.: ‘to know, be informed’); derivational form II: callama (trans./causative: ‘to make s. o. know, to teach, instruct, brief, etc.’) deriv. form III: ca¯lama (applicative/attemptive: ‘to vie in learning with s. o.’); deriv. form IV: ’a clama (double-trans.: ‘to let s. o. know, to inform s. o. about s. th.’); deriv. form V: tacallama (reflexive: ‘to teach oneself, to learn, study’); deriv. form X: ’istaclama (the action is desired/asked for oneself: ‘to ask s. o. for information about s. th., to query s. o. about s. th., to gather information from s. o. about s. th.’). Haywood/Nahmad (1982, 154) claim that verb affixation makes “Arabic potentially one of the very richest of languages, able to coin new words to meet modern requirements without necessarily adopting foreign words”. But Arabic verb derivation is only one among different devices that serve as exponents for semantic roles. In addition, there is word order, the system of prepositions, a well-working case-system (nominative, accusative, genitive), and a verbal inflexion which has morphological representatives for both subject and object roles. Indonesian, on the other hand, does not use inflexion, so that derivation, in addition to positional and prepositional means, characterizes it as an approximately pure type. In our example we have ⫺ due to the colloquial style of the translation ⫺ two unexpanded verbs, pulang (‘to go home’), and dekat (‘to be near’) in (2). The other two verbs, ber-ada (‘to be present’) in (1), and mendengar (‘to listen’) in (3) have derivational prefixes, that occur very frequently, and that can change both the lexical meaning of the verb and the semantic frame of the sentence, e. g. cakap (‘to talk’) cukur (‘to trim hair’) lihat (‘to see’) dapat (‘can/be able’)
: bercakap (‘to converse with s. o.’), : bercukur (‘to shave oneself’), : melihat (‘to look at s. th.’), : mendapat (‘to get/ find’).
In (1) the prefix ber- causes a factual expansion of the verb, ‘It happened that he was …’ In (3) the prefix me(n, m, ng)- is the exponent of a direct object role: dengar (‘to listen’) becomes mendengar (‘to hear something’), Macdonald (1976, 52).
Due to the S-V-O status of the language the subject and direct object roles are normally regulated by word order, the active voice often having the me(n, m, ng)- prefix, the passive voice (for the two ways of Indonesian passive see Kwee 1993, 53; Sneddon 1996, 246 f.) being prefixed by di-, compare: ⫺ Dia menjemput saya. He met me. ⫺ Saya menjemput dia. I met him ⫺ Saya dijemput (oleh) dia. I was met (by) him. The indirect object roles are mainly organized by pre- and circumfixes, for instance me-verb-kan, beli : membelikan (‘to buy s. th. (‘to buy’) for s. o., to buy s. th. as a favor for s. o.’), sometimes with ambiguous semantic roles; menjahitkan (‘to sew’), for instance, is either causative: “the agent gets the affectee to perform the action of sewing”, or beneficiary: “the agent performs the action of sewing for someone else’s benefit” (Sneddon 1996, 83). For the expression of circumstantial roles there are both derivational and prepositional means. Pukul (‘to beat/strike’) is made the exponent of the affected role by the prefix me(n, m, ng, including a sound shift) memukul (‘to beat s. o./ s. th.’). By using the circumfix me-verb-kan the verb expresses both the direct object and the instrumental role (Krause 1978, 228), e. g. Dia memukul anjing dengan He hit (him) [the] dog with tongkat. [a] stick Dia memukulkan tongat pada He hit (him, with) [the] stick to/at anjing. [the] dog To express the locative role Indonesian has a special suffix, -i: memulis : menulisi (‘to write (‘to write s. th.’) s. th. on s. th.’) melempar : melempari (‘to throw (‘to throw s. th./ things at s. th./s. o.’) stones’) dekat : mendekati (‘to ap(‘to be near’) proach/to draw near to’)
808
VI. Valenz: Schwerpunkte der Forschung
For clause (2) of our example from Luke (15:25), “He drew near to his house”, we also have the two possibilities of the derivational and the prepositional way, (D)ia men-dekat-i rumah-nya he approached his house (D)ia dekat dengan he [came] near with/by/to rumah-nya his house To summarize the main typological characteristics of derivational complements in Indonesian, we find ⫺ the verb being a generator of exponents for non-subject (direct/indirect object, and circumstantial) roles by means of verb affixation, supported by a few prepositions; ⫺ a differentiation of subject-object roles by a cooperation of positional and derivational means; ⫺ a principal synonymy in expressing circumstantial roles by either prefixed transitive verbs with preposition or circumfixed “double transitive” verbs without preposition.
Pronominal Complements ⫺ Swahili
4.
Basi, yu-le, m(w)- ana- we and then that child/son of his ⫽ And then his elder son
(1)
m-kubwa a-likuwa- ko great/ (subject) to be placeelder (past) where ⫽ was there in shamba, field, ⫽ the field (2)
na alipoand (subject) (past) (time-when)
kuwa akija to be (subject) (continuous) to come ⫽ and when he was coming na kuikariband (infinitive) (object) to approach ia nyumba, (to) (indicative) house ⫽ and approached the house, (3)
alisik(subject) (past) to hear
ia sauti y-a (to) (indicative) voice/sound of ⫽ he heard the sound of ny-imbo na songs ⫽ songs
ma-chezo. (Agano Jipya 1980, 148) and games/dances and dances.
Swahili is an agglutinative S-V-O language of the classificatory type: the nominal subject of each sentence with its specific noun class prefix moulds the morphological structure of the attributes and of the verbal predicate by specific class-related pronominal concords (Brauner/Herms 1979, 27 f.; Maw 1985, 276 f.). In addition to the subject-related pronominal prefixes, verbs can incorporate pronominal elements for the direct or indirect object roles as well as for circumstantial roles (time and location), so that a Swahili predicative verb is a microcosmos of a whole sentence (Pasierbsky 1981, 165). The Swahili sentence is a model for the fact, that the principle of self-similarity, known from chaos theory (Gleick 1988, 115 f.), exists in language, too. The following diagram of clause (1) will illustrate this principle (Fig. 57.1). The agentive role has its lexical nominal representative on the clause level: mwana (‘child/son’), and its grammatical pronominal exponent on the verb level: a-, which has the semantic constituents ‘subject-agentive/human class/singular’. Narrative time reference is expressed by basi (‘well/and so/and then/ accordingly/in the meantime’, etc.) on the clause level, and by the past prefix -li- in verb
Basi yu-le m(w)-ana-we m-kubwa a-li- kuwa -ko shamba.
Fig. 57.1: Self-Similarity in a Swahili sentence
809
57. Toward a Classification of Complements
morphology. The locative role, whose lexical representative is shamba (‘field’), has -ko as its verbal exponent: a pronominal place suffix with a relative reference (‘the place-where/ there-where’). The leading class noun mwana also moulds the class concords of the demonstrative (-le), the possessive (-we), and the adjective (kubwa). Swahili uses prepositional and derivational means, too, but one of its typologically relevant characteristics are the pronominal exponents of semantic roles, incorporated into the verb stem. The two verb forms ku-i-karib-i-a (‘he came near to/approached’) in (2) and a-li-sik-i-a (‘he heard’) in (3) are derivational, comparable to Indonesian and Arabic, the suffix -i- (preceding the indicative mood marker -a) modifies the lexical meaning and changes the semantic frame, e. g. andika : andik-i-a (‘to write (‘to write’) to’), uliza : uliz-i-a (‘to ask on (‘to ask’) behalf of’), karibu : karib-i-a (‘to come/go (‘to be near’) near to’). Ashton (1966, 217) calls this derivational form, which is very common in Swahili, the “prepositional or applied form.”Alisikia in (3) has lost its simple base and means ‘to hear s. o./s. th./listen to.’ A verb form has often both a derivational suffix and a pronominal object prefix, as is the case in ku-i-karib-i-a, where the first -iserves as the class concord of nyumba (‘house’), and where the second homonym -imakes the verb prepositional, so that the verb form literally means ‘and when (ku-) he came near (karib ⫹ a) to (deriv. -i-) it (class -i-)’. Object prefixes are used for direct and indirect object roles. Their use is obligatory, when the verb predicate alone forms the sentence, Nilikisoma. I read it (kitabu, the book), or when the object is a person or animal Anampenda mke wake. He loves his wife, or if the inanimate object is emphazised Kitabu chako ninakipenda sana. The book of yours I love it very much. If a direct and an indirect object meaning have to be expressed at the same time, only the indirect object prefix is incorporated, e. g. Alimwonyesha njia (subject) (past) to him show way ⫽ He showed him the way.
The beneficiary role is often expressed by the applicative form of the verb and the pronominal object prefix, e. g. pika (‘to cook’), pikia (‘to cook for s. o.’) Ni- ku- pik- i- e chakula? I for cook for subjunc- food you tive ⫽ Shall I cook some food for you? (Ashton 1966, 218) Sema (‘to speak’) and some other verbs change the beneficiary meaning they have into a maleficiary one, when both an object prefix and a derivational suffix are present, when object prefix plus simple stem is used. (Ashton 1966, 219) ni - m - sem - e - a ni - m - sem - a
‘I speak on behalf of s. o.’ ‘I speak against s. o.’
To express the two circumstantial roles, the instrumental and the locative, pure applicative verb forms are often used, e. g. (Haddon 1955, 64): kisu cha kukatknife to/for (infin.) to cut ia mkate (to) (indicative) bread ⫽ a knife for cutting bread with (Instrumental) mahali pa kupigplace to/for (infin.) to pitch ia hema (to) (indicative) tent ⫽ a place for pitching a tent at (Locative) Swahili has only a few prepositions, and they have very generalized meanings; besides there is one locative postposition. Therefore the instrumental kwa (kata kwa kisu: ‘to cut with a knife’) is also used to denote the source/ means of an action, the direction towards a person, etc. (Brauner/Herms 1979, 291). The common locative preposition katika (‘in/at/ on/from/to/towards’, etc.) includes source/location/goal, depending on the lexical meaning of the verb involved. To express location there are synonymous prepositional and postpositional expressions: katika nymba/ nymbani (‘in the house’). For the specialization of locative meanings, however, Swahili uses a broad system of pronominal means, which is based on three different locative class prefixes, ku- indefinite place/distance/di-
810
VI. Valenz: Schwerpunkte der Forschung
rection, pa- definite place/closeness/position, mu- area/alongness/withinness (Ashton 1966, 126; Brauner/Herms 1979, 196), which, when the relative marker -o is added, merge into ko-, po-, mo-. The two following examples illustrate the pronominal class prefix character of the language: Tulipa(subject) (past) (object) penda pahali ha-pa. to like place this ⫽ We liked this place. Pahali ha-pa paplace this (subject) tupendeza. li(past) (object) to please ⫽ This place pleased us. To summarize the main typological characteristics of pronominal complements in Swahili, we have ⫺ a noun (subject-object-) domination by nominal class prefixes in the sentence, and by their pronominal concords in the verb, ⫺ the principle of self-similarity as known from chaos-theory, which we find between pronominal complement arrangements in the morphology of the verb and nominal lexemes in the sentence, ⫺ a differentiation of semantic roles by a cooperation of pronominal and derivational affixes.
5.
Noun-case Complements ⫺ Koine-Greek
(1)
E¯n de ho hyio´s auto´u ho he was now the son his the presby´teros en agro˘ ; elder in/on/at field
(2)
kai ho¯s ercho´menos and as he is coming/going e˘ ggisen te¯ oikı´a, he approached the house
(3)
e˘ kousen sympho¯nı´as kai choro˘ n. he heard music and dances (Nestle-Aland 1981, 212)
The original version of our example is written in Koine, the common language of the
Greeks of the postclassical period, which is an inflective S-V-O language. To express semantic roles, noun-cases are in full use: nominative, accusative, genitive, and dative, which have absorbed some of the old synthetic Indo-European cases: ablative, instrumental, locative, now expressed by either synthetic devices (mostly the dative or genitive), or by a rich prepositional use. The subject role is expressed by the nominative, which is established in our example by naming the agentive role: hyio´s (‘son’: nom. sg. masc.) and which from this nucleus has spread over the whole sentence. One way of case dispersion is to repeat the nominative in other syntactic facilities: twice we have the definite article ho (1), then there are the nominative forms of the comparative adjective presby´teros (‘the elder’) in (1), and of the present tense particle ercho´menos (‘coming/going’) in (2). Finally, the exponent of the subject role is expressed in the genitive masculine ending of the possessive pronoun auto´u (‘of his/his’). The second way of case dispersion, as far as the nominative exponent of the subject roles is concerned, consists in the obligatory use of personal verb endings: e¯n (‘he/she/ it was’, 3. sg. imperfect) in (1), e˘ ggisen (‘he approached’, 3. sg. aorist) in (2), and e˘ kousen (‘he heard’, 3. sg. aorist) in (3). As a result the agentive/experiencer role is expressed eight times in one sentence, a remarkable fact if we regard the austerity of the Vietnamese version, where it was only mentioned once. The direct object roles are expressed by the three oblique cases, mostly by the accusative (with no example here) and the genitive, which is used among other things with verbs of sensation: to hear, smell, taste, touch, etc. (exception: verb of seeing, that demands the accusative), (Robertson 1934, 507): The experienced objects of hearing in (3), sympho¯nı´a and choro´s, are in the genitive singular resp. plural. Indirect object cases are preferably expressed in the dative, e. g. tois theo´is eu´chomai. the gods (dat.) I pray ⫽ I pray to the Gods. (receiver) Solo¯n Athena´iois no´mous e´the¯ke. Solon Athenians laws he made (nom.) (dat.) (acc.) Solon made laws for the Athenians. (beneficiary). (Goodwin 1981, 247)
811
57. Toward a Classification of Complements
The dative can also be the exponent of locative and instrumental roles, for instance after the verb of motion e˘ ggisen (‘he approached’) in (2) the noun which denotes the goal: oikı´a (‘house’) is in the dative. In poetry (Homer) the pure dative could be used to express location, e. g. mı´mnei agro˘ (Odyssey 11: 188) he remains in the country whereas in Koine-Greek a preposition is used e¯n en agro˘ (1) he was in/on/at field Also in poetry the pure accusative can denote the goal, “the place or object toward which motion is directed” (Goodwin 1981, 226); and still in the classical period, the genitive without a preposition is a usual way of expressing the source (Goodwin 1981, 239). In addition, the dative can express the instrumental role, e. g. ba´llo¯
lı´thois
(Bornemann/ Risch 1973, 195) to throw with stones
Greek cases are multifunctional, alone the dative is used at least as dativus commodi/ incommodi, sympathicus, ethicus, auctoris, sociativus, modi, instrumenti, causae, respectus, differentiae, localis, temporalis (Bornemann/Risch 1973, 191 ff.). In the development from Homeric to New Testament Greek the language has worked out a highly differentiated system of verb derivations, prepositions, and adverbial prepositions (Robertson 1934, 553⫺649), a fact which demonstrates the transition from a synthetic to a more analytic type of inflectional language. To illustrate this by an example: In ancient poetry, a verb of motion could be used with a pure noun-case complement in order to express the goal or the source of the action, e. g. patro´s father’s (gen.) ⫽ I came to father’s of goal) e¯lthon I came
archa´ion old (acc.) old grave
ta´phon grave (acc.) (accusative
Pytho˘ nos e´bas. Pytho (genitive) thou didst come ⫽ Thou didst come from Pytho (Goodwin 1981, 237)
In compound verbs, the prepositional device is attached to the verb stem, and the noun can be used with the pure case, e. g. Ouly´mpoio
kate˘ lthomen (Ilias 20: 125) Olympus (gen.) we descended from ⫽ We descended from Olympus. Classical and postclassical Greek use a growing number of prepositional means to give a more differentiated picture of how the goal is approached by the action. To give only a small selection of complement meanings, expressed by (verb) ⫹ preposition ⫹ acc. noun: amphı´: about/near a place, ana´: up along/ over/through/among; dia´: through; eı´s: into/ over to; epı´: to/towards/against; kata´: down/ along/over/through/against; meta´: into the midst of; para´: to a place near; perı´: around on all sides/near; pro´s: to; hype´r: over/above/beyond; hypo´: under, etc. (Goodwin 1981, 254 f.). To summarize the main typological characteristics of noun-case complements in Koine-Greek, there is ⫺ a subject domination in the sentence by case dispersion of the nominative; ⫺ a functional overload of the oblique “pure” cases; ⫺ a differenciation of semantic roles by developing a “second” analytical case system with the help of prepositional devices (prepositions, adverbial prepositions, prefixed verbs).
6.
Conclusion
A comparative and valence typological approach which includes amorphous and agglutinative languages can avoid some of the misunderstandings about the nature of complements, that have their sources in an Indo-European way of looking at things and actions. In a view of the world that looks at the world around us predominantly in nominal terms, it is comprehensible that “things”, “objects”, “substances”, “persons”, “places”, “states of affair”, etc. are believed to be more reliable, more important, more controllable than “actions”, “processes”, “transitions”, “changes”, etc. Nouns therefore often get a higher esteem than verbs, a fact that can also be observed in the conceptual systems of our sciences. Likewise the picture of nouns dominating verbs fits into this view of the world. Fillmore’s case grammar is an example of this linguistic view, and the ship-complement
812 metaphor illustrates it. On the other hand comparative material from different languages and a generative view of an “expanding” and “combining” power of verbs, as sufficiently expounded by dependence and valence theories, open up new possibilities of looking at verb-complement relations: that complements are generated from a verb base by a phased expanding process, including word formation, word modification, and syntax. This view is illustrated by the womb-offspring metaphor of the verb-complement relationship. Even historical Indo-European material, however, can demonstrate that almost all parts of the sentence revolve around the verb: Indo-European pure cases are based on an original adverbial use of nouns around the verb (Brugmann 1925, 92); prepositions as the fundament of a second, analytical case system of Indo-European languages, are of adverbial origin (Goodwin 1981, 254); English uses seven types of “multi-word verbs” (Greenbaum 1996, 280), which occur as prepositional verbs (verb ⫹ preposition: to look at), phrasal verbs (verb ⫹ adverb: to pick up), and phrasal-prepositional verbs (verb ⫹ adverb ⫹ preposition: to come up with) and open a complex system of semantic frames, etc. The comparative study of languages with so different typological characteristics as Vietnamese, Indonesian etc. show, how flexible and productive the verb material is to design new potent exponents for semantic roles, often in competition with one another, as pure and prepositional cases, derivational and prepositional means, etc. Another misunderstanding which has to do with an overestimation of the part nouns play concerns the fact that nouns are falsely identified with the complements themselves. The primary function of the extranuclear nouns, however, is a nominative one, which means that the nouns name non-verbal entities, and by doing so they expand the lexical meaning of the verb according to the needs of making a statement, asking a question, giving an order, etc. expounding things, objects, places, persons, etc., by giving them extra names. So we have to make the following distinction: the primary function of nouns is to name persons, things, places, etc., involved in the action, i. e. they have a lexical function; the primary function of complements is to denote semantic roles, i. e. they have a semantical-syntactical function, and only in special cases, like the Indo-European case system, these functions are morphologically
VI. Valenz: Schwerpunkte der Forschung
sticked to nouns. From our Indo-European point of view we might be accustomed to understand the relation between semantic roles and morphological cases as follows: the instrumental role, for instance, is “expressed” by a noun in either a pure case (the instrumental case in Russian, the ablative case in Latin, the dative case in Greek, etc.) or a prepositional case (in English, Danish, German, Spanish, etc.). Grammars based on this conviction claim that case meanings “belong” to the noun, and that prepositions in sentences like Who has put this umbrella on the table? syntactically belong to a prepositional phrase, as the preposition “belongs” to the noun (Chalker 1996, 185 f.; Greenbaum 1996, 300 f.). Traditional grammars claiming that the verb “governs” a certain morphological case (in German: “Rektion des Verbs”; “upravlenie” in Russian) might come closer to the truth that noun-cases, indeed, depend on the verb, not on the noun, being extranuclear expansions (morphosyntactical satellites) of the verb. The third misunderstanding is the strict separation of word and sentence, of lexematic and syntactical meanings, of morphological and syntactical exponents of semantic roles. There is no either-or in languages, there exists, on the contrary, the principle of selfsimilarity between the structure of verb constituents and that of sentence constituents, even between a micro-valence of the verb base towards its morphologically attached means and a macro-valence of the verb towards the extranuclear nouns, being constituents of the sentence (Pasierbsky 1981, 162 f.). Highly agglutinative languages as Swahili are apparently ideal representatives of self-similarity between verbs and sentences. I am convinced, however, that the morphology of the verb does not just reflect the semantic frame or the morphosyntax of the sentence, but that sentences only make explicit what the verb contains in nuce.
7.
Select Bibliography
Agano Jipya (1980), (The New Testament in Swahili, Union Version). Dodoma, Nairobi. ´ gel, Vilmos (1993): Gebt endlich die Grenze A zwischen Wortbildung und Syntax frei! Aktiv und Passiv in der deutschen Nominalphrase. In: Deutsche Sprache 21. 128⫺142. ´ gel, Vilmos (2000): Valenztheorie. Tübingen. A Ashton, E. O. (1966): Swahili Grammar (Including Intonation). London.
57. Toward a Classification of Complements Barinova, A. N. (1965): Uchebnik Vı´etnamskogo Jazyka. Moscow. Beck, Marie-Laure (1996): L’indone´sien sans peine. Chennevie`res-sur-Marne Cedex. Bornemann, Eduard/Risch, Ernst (1973): Griechische Grammatik. Frankfurt/Berlin/München. Brauner, Siegmund/Herms, Irmtraud (1979): Lehrbuch des modernen Swahili. Leipzig. Brugmann, Karl (1925): Die Syntax des einfachen Satzes im Indogermanischen. Berlin/Leipzig. Bystrov, I. S./Nguyen, T. K./Stankevich, N. V. (1975): Grammatika Vı´etnamskogo Jazyka. Leningrad.
813 Hartmann, Peter (1956b): Untersuchungen zur allgemeinen Grammatik, 2: Zur Typologie des Indogermanischen. Heidelberg. Helbig, Gerhard (1982): Valenz ⫺ Satzglieder ⫺ semantische Kasus ⫺ Satzmodelle. Leipzig. Haddon, Ernest B. (1955): Swahili Lessons. Cambridge. Haywood, John A./Nahmad, H. M. (1982): A New Arabic Grammar of the Written Language. London. Healy, Dana (1997): Vietnamese. A Complete Course for Beginners. London. Jespersen, Otto (1924; 1963): The Philosophy of Grammar. London.
Chafe, Wallace (1970): Meaning and the Structure of Language. Chicago.
Johnson, Frederick (1971): A Standard Swahili ⫺ English Dictionary. Oxford.
Cook, W. A. (1978): A Case Grammar Matrix Model (and its Application to a Hemingway Text). In: Abraham, Werner (ed.): Valence, Semantic Case, and Grammatical Relations. Amsterdam.
Kabar Baik Untuk Masa Kini (1978), (New Testament, Today’s Indonesian Version). Jakarta.
Doˆ, Theˆ Dung/Leˆ, Thanh Thu´y (1994): Le vietnamien sans peine. Chennevie`res-sur-Marne Cedex. Downing, Angela/Locke, Philip (1995): A University Course in English Grammar. New York, London, Toronto, etc. Emeneau, M. B. (1951): Studies in Vietnamese (Annamese) Grammar. Berkeley, Los Angeles. Eroms, Hans-Werner (2000): Syntax der deutschen Sprache. Berlin/New York. Fillmore, Charles J. (1966): Toward a Modern Theory of Case. In: Dirven, Rene´/Radden, Günter (eds.) (1987): Fillmore’s Case Grammar. A Reader. Heidelberg, 9⫺20. Fillmore, Charles J. (1968): A Case for Case. In: Dirven, Rene´/Radden, Günter (eds.) (1987): Fillmore’s Case Grammar. A Reader. Heidelberg, 21⫺33.
Kinh-Tha´nh tieˆng Vieˆt va` tieˆng Anh (1975): (The New Testament in Vietnamese and English, Authorised Version). Cambridge. Krause, Erich-Dieter (1978): Lehrbuch der indonesischen Sprache. Leipzig. Krause, Erich-Dieter (1995): Wörterbuch Indonesisch-Deutsch. Leipzig/Berlin/München. Kwee, John B. (1993): Indonesian. A Complete Course for Beginners. London. Lombard, Denys (1977): Introduction a` l’Indone´sien. Paris. Lyons, John (1968): Introduction to Theoretical Linguistics. London/New York/Cambridge. Macdonald, R. Ross (1976): Indonesian Reference Grammar. Washington. Maw, John (1985): Twende! A Practical Swahili Course. Oxford.
Chalker, Sylvia (1996): The Little Oxford Dictionary of English Grammar. Oxford.
Miachina, Ekaterina Nikolaevna (1987): Kamusi ya Kiswahili ⫺ Kirusi. Moscow.
Chalker, Sylvia/Weiner, Edmund (1998): The Oxford Dictionary of English Grammar. Oxford/New York.
Nestle-Aland (1981): Greek-English New Testament. 26th revised ed. Stuttgart.
Fowler, H. W./Fowler, F. G./Thompson, D. (1995): The Concise Oxford Dictionary of Current English. 9th ed. Oxford.
Nguyen, Phu Phong (1976): Le syntagme verbal en vietnamien. Paris. Nguyen, Van Khon (1966): Vietnamese ⫺ English Dictionary. Saigon.
Gleick, James (1988): Chaos. Making a New Science. New York/London.
Palmer, Frank R. (1998 repr.): Grammatical roles and relations. Cambridge (Textbooks in Linguistics).
Goodwin, William W. (1981): Greek Grammar. London.
Pasierbsky, Fritz/Singendonk, Ingeborg (1979): Studium der Sprachen ⫺ Vietnamesisch (⫽ Studium Linguistik 7). Königstein/Ts.
Greenbaum, Sidney (1996): The Oxford English Grammar. Oxford. Greenberg, Joseph H. (1973): The Typological Method. In: Sebeok, Thomas A. (ed.): Current Trends in Linguistics. Vol. 11. The Hague/Paris. Hartmann, Peter (1956a): Untersuchungen zur allgemeinen Grammatik, 1: Wortart und Aussageform. Heidelberg.
Pasierbsky, Fritz (1981): Sprachtypologische Aspekte der Valenztheorie unter besonderer Berücksichtigung des Deutschen. In: Zeitschrift für Phonetik, Sprachwissenschaft und Kommunikationsforschung 34/2, 160⫺177. Racine-Issa, Odile (1998): Le swahili sans peine. Chennevie`res-sur-Marne Cedex.
814
VI. Valenz: Schwerpunkte der Forschung
Robertson, Archibald T. (1934): A Grammar of the Greek New Testament in the Light of Historical Research. Nashville. Sneddon, James Neil (1996): Indonesian. A. Comprehensive Grammar. London/New York. Swan, Michael (1995): Practical English Usage. 2nd ed. Oxford.
Thomson, A. J./Martinet, A. V. (1994): A Practical English Grammar. Oxford. Thompson, Laurence C. (1965): A Vietnamese Grammar. Seattle.
Fritz Pasierbsky, Paderborn (Germany)
58. Valency and Context Dependence 1. 2. 3. 4.
Introduction Descriptions Theory Select Bibliography
1.
Introduction
Context dependence takes a variety of forms in natural languages. Pinkal (1985) and Zimmermann (1991) give surveys of the many ways in which various linguistic expressions may depend on context. Even a syntactic argument, a complement, can be context dependent in various ways. Probably the clearest way is when it is realized as a demonstrative or personal pronoun, as in (1 a/b), or a demonstrative or definite description, as in (2 a/b). (1)
(2)
a. Look at this, Uncle Scrooge! b. Generations of McDucks searched for it.
have
a. Those steps must lead up to the secret entrance. b. No one knows of the treasure but us five.
It is clear that the case or prepositional complements depend, deictically, on an entity in the utterance situation for direct reference or, anaphorically, on an antecedent in the linguistic context for coreference. It is equally clear, however, that here, the connection between valency and context dependence is purely coincidental. The complement is context dependent in the same way as would a free adjunct of the same form in the same clause. The crucial connection between valency and context dependence can be stated in the following observation: Sometimes, a deictic or, more frequently, anaphoric complement can be deleted without a change in meaning. This is the case in (3 a/b) and in (4 a/b):
(3)
a. Scrooge had buried a hoard of nuggets in a cache between four rocks in a square on a knoll at his claim on White Agony Creek. He had forgotten it, but the pills reminded him of it. b. Scrooge had buried a hoard of nuggets in a cache between four rocks in a square on a knoll at his claim on White Agony Creek. He had forgotten, but the pills reminded him.
(4)
a. Don’t you kids know it’s dangerous to hypnotize people? You might do it to somebody with a gullible mind sometime, and that person would never recover from it! b. Don’t you kids know it’s dangerous to hypnotize people? You might do it to somebody with a gullible mind sometime, and that person would never recover!
Evidently, a missing complement can be context dependent in the same way as a personal pronoun. It can be assumed that the pronouns in (3 a) and (4 a) are, in the sense of the valency theoretical dichotomy between obligatory and optional complements, optional, and as the meaning is preserved in (3 b) and (4 b), we may conclude that a missing optional complement can be context dependent. It looks as if here, we have cases of zero anaphora. Another term we might apply is ellipsis, in the loose sense that something is missing and must be retrieved from the context. In contrast to VP ellipsis and related phenomena, however, this form of ellipsis does not require a parallel between two clauses. A notion of ellipsis that comes closer is Zimmermann’s (1991) use of the term for cases like (5 a) or (5 b), where a genitive or prepositional complement of a relational noun is omitted:
815
58. Valency and Context Dependence
(5)
a. Bevor er zum Familientreffen fuhr, rasierte sich Karl Marx. Nicht einmal die Brüder haben ihn daraufhin erkannt. b. Vor der Schwarzwaldklinik wurde ein Säugling gefunden. Die Mutter ist nach wie vor unbekannt.
It is clear that die Brüder is understood as seine Brüder, and that die Mutter is understood as seine Mutter. So here again, there is an empty complement which is interpreted anaphorically. Building only on examples like (3)⫺(5), we might form the hypothesis that an optional complement in the form of an anaphor can always be elided without a change in meaning; in other words, a missing omissible argument is invariably context dependent. This, however, is clearly wrong and in fact contrary to what has been assumed in valency theory: An omitted optional complement should lead to existential closure, as indeed it does in (6 a) and (6 b): (6)
a. Sue had not heard from Joe for months when suddenly, she received a letter (from somebody). b. Sue had not played for more than ten minutes when she was replaced (by somebody).
Although in (6 a), the inference that the letter was in fact from Joe is pragmatically plausible, it is not compelling, as in (3 b) or (4 b). Also in (6 b), the missing prepositional complement is paraphrasable by a complement with an indefinite pronoun. This is supposed to represent the regular case: An omitted omissible argument is understood as present in the indefinite sense that there is an entity of the relevant kind involved in the relation. So the fact is that there are two clearly different interpretations of a syntactically optional argument which is left unexpressed: The definite and the indefinite interpretation. And the problem is: How are we to predict one and the other interpretation? As we shall see, the solution is to not regard the definite omitted argument as a zero anaphor or a case of ellipsis but to treat the predicate as a context dependent, a presuppositional, item; in fact, the omitted argument can be considered as equally indefinite in both cases. It is tempting to try to assimilate the distinction between definite and indefinite zero complements to that between obligatory and optional complements. We might want to say
that definite zero complements are obligatory but that generally, an obligatory complement only has to be present in the context, not necessarily in the clause of the predicate. This, however, would be naive. It suffices to translate (3 b) above to German to see that an argument which is context-obligatory in one language may well correspond to one which is clause-obligatory in another. (3)
c. Dagobert hatte … vergraben. Er hatte *(es) vergessen, …
A line must be drawn anyway between syntactical valency and what might be called textual valency, thus there is no point in generalizing the notion of an obligatory complement. This is not to say that the line is sharp; especially in dialogue many necessary constituents, predicates or arguments, may be implicit in the situation; cf. Klein (1993) for a comprehensive phenomenology of ellipsis. In a broad sense, the boundary between obligatory and optional complements is known to be influenced by contextual factors; cf. Storrer (1992), who supplements the concept of syntactic necessity with a concept of communicative necessity and develops a model of situational valency. A special case of valency reduction is the ´ gel (1991) for a case of lexical ellipsis (cf. A comprehensive survey), where the referent set is restricted, often corresponding to one lexical item. As shown by Jacobs (1994), this case is neutral with respect to definiteness and cuts across the line between indefinite and definite zero arguments.
2.
Descriptions
Shopen (1973) was among the first to note that a missing argument may allow two different interpretations, using the terms definite and indefinite constituent ellipsis. For the latter case, Shopen cites (7), where the “source” role is left unexpressed: (7)
⫺ Bill received a letter today. ⫺ Who did he get it from?
He comments that the second speaker’s question does not conflict with any of the presuppositions of the initial statement and that the meaning of receive does not tell us that the ellipsed role should be uniquely identifiable. In (8), on the other hand, a corresponding question is infelicitous, as the question rejects
816
VI. Valenz: Schwerpunkte der Forschung
the presupposition of definiteness in the initial statement: (8)
⫺ When Mother told him to clean up his room, Bobby refused. ?? ⫺ What did he refuse to do?
Thomas (1979) brought a similar test for the dichotomy. (9) is an acceptable sequence, whereas (10) is not: (9)
⫺ Have you been eating onions? ⫺ I’ve been eating, but not onions.
(10)
⫺ Do you expect to pass your driving test? ?? ⫺ I expect to pass, but not my driving test.
Shopen gave a long list of predicates where definite ellipsis is found, including verbs like agree, approve, answer, continue, escape, suspect and participles like impressed and surprised. He underscored that the definiteness in the missing argument is a semantic property of the predicate. “The definiteness of the ellipsis with refuse is due to the semantic structure of that verb (there is a significant relationship … with the notion of presupposition)” (Shopen 1973, 69). This, as we shall see, is indeed a significant point. Sæbø (1984) gave many authentic examples of (in)definite zero complements in German, and made some descriptive generalizations: First, many of the predicates that require a definite interpretation of their zero complements express reactions, second, in many cases the complements are sentential or infinitival. Cases of definite ellipsis in an individual argument are rare (note, however, verbs like offer), as are cases of indefinite ellipsis in an abstract entity argument (note, however, verbs like think). (11) is one of the indefinite cases and (12) and (13) are two of the definite cases cited by Sæbø (1984): (11) In 4000 Meter Höhe tauschen sie das Pferd gegen einen Moschusochsen … Bei 5000 Meter würden sie den Ochsen liebend gerne umtauschen … fragt sich nur: gegen was? (12) Wir sind auf der Jagd nach Souvenirs aus dem Busch! Verkaufen Sie Ihre Lanze? Wir bieten 10 000 Dollar! (13) Zum Teufel mit der Perle, ich ziehe die gesunde Auster vor. Pinkal (1985) wrote that the inventory of two- or three-place verbs can be subcategor-
ized according to their semantic behavior “bei Stellenreduktion”: Deletion of a complement may cause either existential quantification, as in (14), or ellipsis, as in (15). (14) Christoph Columbus ist (an irgend etwas) gestorben. (15) Robert Koch hat (am Berliner Bakteriologen-Kongress) teilgenommen. This “elliptic ambiguity”, in Pinkal’s terms, can be observed in all valency bearing word classes; verbs, nouns, and adjectives; and according to Pinkal, the elliptic case constitutes the rule as regards adjectives; cf. two of the examples in Sæbø (1984): (16) Warum soll es immer nach dem Willen des Franzosen gehen? Es ist letzten Endes gar kein Grund vorhanden. (17) Als Carlo starb, so starb, ging ich zum Padre, sonst hätte ich mich damals schon aufgehängt. Ich wusste ganz gut, dass ich mit schuld war, obgleich er selber der Schlimmste war. There is a striking semantic stability across languages as to what arguments of what predicates have a definite interpretation when they are omitted ⫺ if omission gives a grammatical sentence in the first place. Although the boundary between obligatoriness and optionality is to some extent subject to syntactic variation (many verbs with definite ellipsis in English correspond to ones with obligatory complements in, say, German), there seems to be a semantic basis for that between definite and indefinite ellipsis. It does not seem possible to find two otherwise synonymous verbs, intra- or interlingually, where an argument of one shows definite ellipsis but the same one of the other shows indefinite ellipsis. Thus it should be possible to predict semantically, from the predicate, when an optional argument is a potential zero anaphor. When an argument is indeed a zero anaphor, this does not mean that a non-zero anaphor can invariably be substituted. First, there are, say, infinitival complements which cannot be replaced by nominal or prepositional complements; the object of the German verb sich weigern is a case in point: (18) a. Ein Arbeitsloser muss entweder in eine andere Stadt umziehen oder eine zwölfstündige Abwesenheit von zu Hause in Kauf nehmen, wenn ihm
817
58. Valency and Context Dependence
das Arbeitsamt auswärts einen Arbeitsplatz anbietet. Weigert sich der Arbeitslose, dann bekommt er kein Arbeitslosengeld mehr. b. Weigert sich der Arbeitslose (*da-P), dann … c. Weigert sich der Arbeitslose, das zu tun, dann … Second, there are predicates whose semantic arity exceeds their syntactic arity ⫺ predicates which, like the German nachdrängen as in (19), carry a covert anaphor without an overt counterpart because they do not have a syntactic argument place to provide. Still, the context dependence seems the same as if they had. (19) a. Wenn die persische Produktion für uns ausfällt, dann drängt Öl aus anderen Bezugsquellen nach. b. dann drängt Öl aus anderen Bezugsquellen (*da-P) nach. c. dann drängt Öl aus anderen Bezugsquellen (*dem) nach. This shows that the context dependence in an empty complement should not be considered as the result of deleting a pronoun. The phenomenon is more semantic than syntactic in nature. Another difference between context dependent empty complements and anaphoric pronouns concerns the conditions of resolution. These may be stricter for the former than for the latter, as exemplified by (20 a⫺c): Although, as shown by (20 a), the zero anaphor with the verb suchen can in principle be resolved and although in all three cases the antecedent seems to be available, and the overt anaphor in (20 b) is indeed successfully resolved, the zero anaphor in (20 c) is not successfully resolved. (20) a. Der Schatz bleibt verschwunden. Man hat überall gesucht. b. Hier ist ein Schatz. Man hat überall danach gesucht. c. ? Hier ist ein Schatz. Man hat überall gesucht. Evidently, the covert anaphor requires something else, or more, from the context than does the overt anaphor. On the other hand, substituting an indefinite pronoun for a basically indefinite zero argument is sometimes problematic as well, as shown by Dentler (1990, 70). In such cases, it appears that the zero argument,
though not definite, is not quite indefinite either. (6 c) and (6 d) do not seem to have the same meaning: (6)
c. Sue had not heard from months when suddenly, she a letter. d. Sue had not heard from months when suddenly, she a letter from somebody.
Joe for received Joe for received
The difference seems to be that the overt indefinite imposes a novelty condition while the covert indefinite does not; somebody must in (6 d) be interpreted as somebody other than Joe, while the zero argument referent may coincide with the Joe referent or not. Possibly, relevance considerations can lead to the identification of the indefinite referent with a familiar referent, independently of the semantic representation.
3.
Theory
As stated above, there are two clearly different interpretations of a syntactically optional argument which is left unexpressed ⫺ the definite and the indefinite interpretation ⫺ and the problem is how to predict one and the other interpretation. For a long time, it remained a mystery why some, but not all, missing arguments behave like anaphora, and it seemed necessary to mark this behavior lexically. Thus Jacobs (1994, 300) writes lexical entries which differ in the type of variable for the implicit complement. By contrast, Storrer (1992, 294 ff.) relegates the distinction from the level of the lexicon to pragmatics, arguing that any argument may be a zero indefinite if it is irrelevant for the domain of attention. The problem remains why with a verb like refuse, the second argument seems never to be irrelevant. Shopen did not elaborate on his remark on a significant relationship with the notion of presupposition, and he himself wrote the definiteness of the “activity proposed by a second party in an offer, a command or an invitation” into the lexical entry for refuse: “z = definite when ellipsed” (Shopen 1973, 69). Now clearly, it is unsatisfactory to have to indicate in every single case what appears as a function of some semantic property which the predicates have in common and which should be recoverable from the lexical entries anyhow. If it is correct that the definiteness is due to the semantic structure of the predi-
818 cate and that there is a significant connection with presupposition, then that semantic structure and, in particular, the connection with presupposition should be explored. There are two ingredients to an explanation of zero argument anaphora in presuppositional terms. Empirically, it ought to be the case that all and only the verbs that trigger zero argument anaphora also trigger presuppositions involving that argument. Theoretically, it is necessary to show that the presupposition entails the anaphoric interpretation of the zero argument. The recent reassessment of the notion of presupposition in Discourse Representation Theory (DRT) has made it possible to appreciate the connection between definite ellipsis and presupposition. This is so because in this framework, presupposition is treated as an anaphoric phenomenon. In a loose sense, this implies that a presupposition is to be verified with respect to the context and not with respect to the “world”. More to the point, verification of a presupposition does not only involve checking but also unification of ⫺ possibly covert ⫺ referents in the presupposition with referents in the context. A simple example may illustrate this: (21) a. If Arnim sees your watch, he will want a Rolex too. b. If Arnim sees your watch, he will want a Rolex. Due to the particle too, we can infer that your watch is a Rolex. To predict this inference we must treat the presupposition that somebody other than Arnim has a Rolex anaphorically, which is to say that we must anchor the discourse referents occurring in it to familiar discourse referents. Somebody other than Arnim we anchor to you and a Rolex we anchor to your watch. In effect, we accommodate the information that your watch is a Rolex. (For formal accounts, cf. van der Sandt 1992 and Sæbø 1996). The idea that an indefinite ⫺ a Rolex ⫺ can attain a definite interpretation because it is involved in a presupposition can be applied to zero argument anaphora. Now (21 a) differs from a case like (18 a) in two respects: There is a word which only serves to trigger a presupposition, and, the indefinite is not implicit, as it is copied from the assertion. We can approach the case of zero argument anaphora by considering another presupposition trigger, the adverb back, which may
VI. Valenz: Schwerpunkte der Forschung
make it possible for an otherwise obligatory directional phrase to be missing: (22) a. Mary lives in Berlin. Every Friday she goes to Dresden to visit her father. On Sunday she goes back to Berlin. b. Mary lives in Berlin. Every Friday she goes to Dresden to visit her father. On Sunday she goes back. (22 b) has the same meaning as (22 a). This can be explained if we assume that in a sentence x goes to l the adverb triggers the presupposition that x has gone from l, a presupposition which is verified in (22 a), and that even if, as in (22 b), the l referent is unspecified, it figures and must be bound to a referent introduced in the context. From here there is a very short step to a case of zero argument anaphora, (22 c), where the movement verb go and the adverb back are replaced by the presuppositional verb return. (22) c. Mary lives in Berlin. Every Friday she goes to Dresden to visit her father. On Sunday she returns. It is reasonable to assume that this verb has the presupposition of back as part of its meaning, and that this presupposition causes the definite interpretation of a missing directional complement (if a complement it is): The referent l in the presupposition x has gone from l must be bound to some referent in the context. It is indeed bound to Berlin, and this referent carries over to the missing to complement. For the formal detail of how, say, the discourse (23 a) is made to follow from the discourse (23 b) by way of the presupposition of the verb agree, cf. Sæbø (1996, 198). (23) a. John believes the President is innocent, and Mary agrees he is innocent. b. John believes the President is innocent, and Mary agrees. This analysis ensures, theoretically, that a zero argument is anaphoric if it is involved in a presupposition triggered by the predicate. It can also be stipulated that a zero argument is only anaphoric if its predicate triggers a presupposition involving it, assuming that the referent is introduced in the assertion unless it is involved in a condition in the presupposition. The empirical question is whether all and only the predicates that trigger zero argu-
819
58. Valency and Context Dependence
ment anaphora also trigger presuppositions involving that argument. The verbs agree and return are clear cases among predicates that do both. There are numerous cases that are less clear ⫺ predicates that do trigger zero argument anaphora but where a presupposition is difficult to determine, and (to a minor extent) conversely, predicates that don’t trigger zero argument anaphora but do seem to trigger a presupposition. Sæbø (1996) concludes that although close inspection may clear many counterexamples out of the way, the presuppositional account may have to be supplemented by some other principle. Particularly problematic cases are to be found among relational nouns ((24)) and deictic predicates ((25)), which depend more on the situation of utterance than on the linguistic context for the zero argument. (24) John is unhappy. An enemy has denunciated him. (25) We have to leave. Enemies are approaching. A presupposition is elusive, yet there is definite ellipsis. It may turn out that some instances of zero argument anaphora are not presuppositionally but inferentially driven, depending on relevance, coherence, or informativeness considerations. Still, the presuppositional account applies successfully to a vast majority of cases, and has decisive merits. First of course, it eliminates the need to stipulate definite ellipsis lexically. Indeed, the zero argument itself can be regarded as indefinite ⫺ the instruction to find an antecedent comes about indirectly. Second, many accompanying facts about definite ellipsis, such as the correlation with abstract entities, the similarity with truly implicit anaphora, and the dissimilarity with explicit anaphora, can be seen to follow from the presuppositional account.
4.
Select Bibliography
´ gel, Vilmos (1991): Lexikalische Ellipsen. Fragen A und Vorschläge. In: Zeitschrift für germanistische Linguistik 19, 24⫺48. Dentler, Sigrid (1990): Verb und Ellipse im heutigen Deutsch: zum “Fehlen” verbabhängiger Bestimmungen in Theorie und Praxis (= Göteborger germanistische Forschungen 31). Gothenburg. Jacobs, Joachim (1994): Das lexikalische Fundament der Unterscheidung von obligatorischen und fakultativen Ergänzungen. In: Zeitschrift für germanistische Linguistik 22, 284⫺319. Klein, Wolfgang (1993): Ellipse. In: Jacobs, Joachim et al. (eds.) (1993): Syntax. An International Handbook of Contemporary Research. Volume I (= Handbücher zur Sprach- und Kommunikationswissenschaft 9). Berlin, 763⫺798. Pinkal, Manfred (1985): Logik und Lexikon. Berlin. Sandt, Rob van der (1992): Presupposition Projection as Anaphora Resolution. In: Journal of Semantics 9, 333⫺377. Shopen, Timothy (1973): Ellipsis as Grammatical Indeterminacy. In: Foundations of Language 10, 65⫺77. Storrer, Angelika (1992): Verbvalenz. Theoretische und methodische Grundlagen ihrer Beschreibung in Grammatikographie und Lexikographie (= Reihe germanistische Linguistik 126). Tübingen. Sæbø, Kjell Johan (1984): Über fakultative Valenz. In: Deutsche Sprache 12, 97⫺109. Sæbø, Kjell Johan (1996): Anaphoric Presupposition and Zero Anaphora. In: Linguistics and Philosophy 19, 187⫺209. Thomas, Andrew (1979): Ellipsis: The Interplay of Sentence Structure and Context. In: Lingua 47, 43⫺68. Zimmermann, Thomas (1991): Kontextabhängigkeit. In: Stechow, Arnim von/Wunderlich, Dieter (eds.) (1991): Semantics. An International Handbook of Contemporary Research (= Handbücher zur Sprach- und Kommunikationswissenschaft 6). Berlin, 156⫺229.
Kjell Johan Sæbø, Oslo (Norway)
820
VI. Valenz: Schwerpunkte der Forschung
59. Die Valenz nichtverbaler Wortarten: das Substantiv 1. 2. 3. 4. 5. 6. 7.
Einführung Gibt es Substantivvalenz? Argumentsklasse, Ergänzungsklasse, Attributsklasse Die drei Beschreibungsansätze Forschung und Anwendung Ausblick Literatur in Auswahl
1.
Einführung
Die Unterschiede in den Darstellungen der Substantivvalenz sind auch innerhalb der Zunft der Valenzgrammatiker so gravierend, dass sich die Frage stellen kann, ob es diesen Gegenstandsbereich wirklich gibt. So glaubt beispielsweise Mackenzie (1997, 114): „there are good functionalist reasons to propose, contrary to the position taken by various scholars, that both ‘relational nouns’ and nominalizations should be analyzed as avalent predicates.“ Auch Eisenberg (1994) ist, wie wir weiter unten ausführen werden, ausgesprochen skeptisch, was die Substantivvalenz angeht. Andererseits verzichtet heute kaum ein anspruchsvolleres Wörterbuch darauf, die Valenz der Substantive mehr oder weniger systematisch zu notieren. Dies gilt nicht nur, aber ganz besonders für Lerner- und zweisprachige Wörterbücher. Wie die Valenz generell ist die Substantivvalenz zwischen Syntax und Lexikon angesiedelt. Valenzen sind Eigenschaften valenter Wörter (Verben, Adjektive und Substantive), und sie gehören deshalb ins Lexikon. Gleichzeitig ist die Valenz auch Teil der Syntax, denn alle adnominalen Attribute sind über ihre syntaktischen Realisierungen definiert. Die Grammatiker sind prinzipiell in erster Linie an der Regelhaftigkeit von Phänomenen interessiert, und deshalb sehen sie mit Vorliebe die Substantivvalenz als eine sekundäre Erscheinung an, die sich regelhaft transformationell aus der Verbvalenz (und teilweise auch aus der Adjektivvalenz) herleiten lässt, umso mehr, als es sich bei einem Grossteil valenter Substantive um deverbale (sowie in geringem Umfang deadjektivische) Ableitungen handelt. Demgegenüber neigen Lexikographen dazu, die Substantivvalenz zu den idiosynkratischen, nicht prognostizierbaren morphosyntaktischen und semantischen Eigenschaften valenter Substantive zu rechnen.
Dass Substantivvalenz im Deutschen eher als eigener Bereich gesehen wird als etwa im Englischen, liegt auch daran, dass das Englische mit seinen Gerundiv-Konstruktionen über eine produktive Nominalisierungskapazität verfügt, die in der Tat so regelhaft ist, dass sie in Wörterbüchern nicht systematisch behandelt wird. Überhaupt zeigt der Vergleich mit anderen Sprachen große Unterschiede bei der Substantivvalenz. In Übersetzungen kann leicht aus einer attributiven Ergänzung eine attributive Angabe werden und umgekehrt. Ob ein Attribut eine Ergänzung oder eine Angabe ist, hat im Prinzip nichts mit seiner Bedeutung zu tun. Mehr noch als die Verbvalenz ist die Substantivvalenz ein Bereich, der in der angewandten Sprachwissenschaft, im Fremdsprachenunterricht und in der Lexikographie zu Hause ist. In der reinen Grammatikforschung wird die adnominale Attribuierung einschließlich der Bestimmung von Ergänzung und Angabe heute überwiegend im Rahmen von Grammatiktheorien bearbeitet, bei denen die Begrifflichkeit der Valenzgrammatik keine Rolle spielt. So wenig wie die Verbvalenz ist die Substantivvalenz eine objektivierbare Eigenschaft von Sprache. Substantivvalenz ist ein Ansatz, der geeignet ist, einen Teil der komplexen Kookkurrenzbeziehungen zwischen Elementen von Nominalphrasen vereinfachend darzustellen und so zu generalisieren, dass die dabei verwendeten Kategorien die Bedürfnisse der angewandten Sprachwissenschaft, der Sprachpraxis also, hinreichend reflektieren. 1.1. Grundbegriffe Die Substantivvalenz ist die Lehre von den valenten Substantiven und ihren Ergänzungen. Die Mehrzahl der Substantive ist avalent; von ihnen hängen (in der Terminologie der Dependenzgrammatik) keine Ergänzungen, sondern allenfalls Angaben ab, beispielsweise attributive Adjektive oder Relativsätze, die natürlich ebenso gut auch von valenten Substantiven abhängen können. Was die valenten Substantive betrifft, so sind sie überwiegend von Verben oder Adjektiven abgeleitet, und vielfach (aber leider nicht immer) lässt sich die Valenz der Substantive aus der Valenz der Stammwörter regelmäßig herleiten.
821
59. Die Valenz nichtverbaler Wortarten: das Substantiv
Die Ergänzungen lassen sich zu Ergänzungsklassen zusammenfassen. In der Nominalphrase (NP) die Ermittlung der Polizei ist die Ergänzung der Polizei das Exemplar einer Agentivergänzung. Nicht von jedem Substantiv und auch nicht von jedem valenten Substantiv kann eine Ergänzung der Klasse Agentivergänzung abhängen. Das Substantiv Vorrat, obwohl valent (der Vorrat an Erdöl), erlaubt keine Agentivergänzung. Die Wortklasse Substantiv lässt sich subklassifizieren entsprechend der Ergänzungsklassen, die von einem Substantiv abhängen können. So gibt es eine Subklasse aller Substantive, von denen Agentivergänzungen, und eine Subklasse aller Substantive, von denen Sachergänzungen (vom Typ an Erdöl, z. B. neben Vorrat noch Mangel, Reichtum, Aufwand, Reserven u.v.a.) abhängen können. Ergänzungen sind also, anders als Angaben, subklassenspezifisch. Sie können nur von Exemplaren bestimmter Substantivsubklassen abhängen, während Angaben wie das attributive Adjektiv und der Relativsatz bei praktisch jedem Substantiv vorkommen können. Die Auffassung, dass Ergänzungen subklassenspezifisch sind, während Angaben im Prinzip bei jedem Exemplar einer Wortklasse realisiert werden können, ist nicht unumstritten (s. dazu unter 2.2). Die Attraktivität des Valenzansatzes liegt indessen aus meiner Sicht gerade darin, dass sie uns zu einer Trennung von syntaktischem und lexikalischem Wissen verhilft. Ergänzungen sind im Wörterbuch bei den Valenzträgern zu verzeichnen. Angaben werden in der Grammatik beschrieben. Ergänzungen wie Angaben werden morphosyntaktisch realisiert. Die Zahl morphosyntaktischer Realisierungen ist generell begrenzt; in der einen Sprache gibt es mehr, in einer anderen Sprache gibt es weniger Realisierungen. Substantivische Attribute im Deutschen können (sehen wir einmal von Sonderfällen wie der Apposition ab) als voran- oder nachgestellte Nominalphrasen (NPn) im Genitiv oder als nachgestellte Präpositionalphrasen (PPn) im Kasus der regierenden Präposition realisiert werden. Hier ist die Vielfalt also größer als im Englischen, wo es außer dem sächsischen Genitiv (Peter’s book) im Grunde nur PPn (meist mit der Präposition of ) gibt oder als im Französischen, wo es nur mit Präpositionen und einigen präpositional verwendeten Partizipien (wie concernant) gebildete PPn (le livre de Pierre; le rapport concernant la catastrophe nucle´aire)
gibt. Angesichts der beschränkten Realisierungsmöglichkeiten bleibt nicht aus, dass einzelne syntaktische Realisierungen (im Deutschen etwa die NP im Genitiv) funktional ambig sind. So kann eine NP im Genitiv, wie wir gesehen haben, Agentivergänzung sein (die Ermittlungen der Polizei), aber auch Genitivus possessivus, also eine Angabeklasse (die Pistole des Polizisten). Subklassenspezifik ist folglich eine Eigenschaft, die sich auf Ergänzungsklassen, nicht auf deren syntaktische Realisierung bezieht. So handelt es sich bei ihrer Frage nach seiner Ankunft und ihrer Frage, wann er ankommt, um dieselbe Ergänzungsklasse (Themaergänzung), einmal realisiert durch eine PP, einmal durch einen wSatz. Das soll nicht heißen, dass es nicht auch Ergänzungsklassen gibt, die stets syntaktisch gleich realisiert werden (z. B. die Sachergänzung, vgl. Vorrat an Erdöl).
2.
Gibt es Substantivvalenz?
2.1. Grammatiktheorie und Valenz Den beiden Paradigmen Konstituenz und Dependenz liegen gegensätzliche Perspektiven zugrunde, die sich in den jeweiligen theoretischen Positionen widerspiegeln. Wer daran interessiert ist, wie sich Sätze und Phrasen aus kleineren Einheiten aufbauen, sucht eher nach verallgemeinerbaren Regeln als nach lexikalischen Zufälligkeiten. Wer dagegen analysiert, welche Satzelemente von welchen lexikalischen Einheiten abhängen, muss diese Einheiten Stück für Stück analysieren und beschreiben, arbeitet also primär listenbasiert, auch wenn er nicht darum herumkommt, die Elemente zu syntaktisch definierten Klassen zusammenzufassen. Die Valenzgrammatik betrachtet den Satz „aus der Perspektive des Lexikons“ (Welke 1988). Jeder regelbasierte Ansatz sieht sein Ziel in Verallgemeinerung, jeder listenbasierte Ansatz im Verzeichnen von Unterschieden. Deshalb korreliert das Konstituenzparadigma mit einem Interesse an Universalgrammatik und das Dependenzparadigma mit einem Interesse an der Lexik von Einzelsprachen. Soweit es universale Grammatikstrukturen gibt, deutet man sie in der von Chomsky geprägten Tradition gern als Emanation mentaler Strukturen, wenn nicht gar eines Sprachorgans; daraus erklärt sich die Nähe dieser auf Konstituenz fokussierten Grammatiktheorien zur kognitiven Linguistik. Wer dagegen Unterschiede und Besonderheiten auf der
822 Ebene der Einzelsprachen im Blickfeld hat, entspricht damit eher den Bedürfnissen von angewandter Sprachwissenschaft, also von Sprachpraxis (einschließlich Übersetzung) und von Sprachunterricht. Schließlich bleibt festzuhalten, dass der regelbasierte Ansatz mehr an (Natur-) Gesetzen als an von Menschen gemachten Normen interessiert ist. Es geht ihm damit um den prozeduralen, nicht den aktionalen Aspekt von Sprache, also um Sprache als Algorithmus. Dieser Aspekt dominiert heute eindeutig beispielsweise die X-Bar-Theorie. Nicht nur die Grammatik gilt ihr als regelbasiert; auch das syntaktische Verhalten der Wörter wie etwa seine Valenzeigenschaften versucht man als regelhaft zu klären: „The position taken in much earlier work, that the lexicon is idiosyncratic and is acquired piece by piece, simply cannot be maintained. It fails to explain the high degree of regularity of the lexical system as well as how children come to acquire lexical information.“, schreibt Grimshaw (1990, 3) im Zusammenhang mit Nominalisierung und den Attributen abgeleiteter Substantive. Während also das Konstituenzmodell Sprache als Computerprogramm begreift, korreliert der lexikbasierte Ansatz des Valenzmodells eher mit dem Handlungsaspekt von Sprache. Denn die Syntax liefert nur das Gerüst, in dem sich die Bedeutung von Sprachzeichen entfaltet. Die Valenz lässt uns die syntagmatische Relation, in der Verben, oder in unserem Fall Substantive, zu anderen Wortgruppen stehen, semantisch sinnvoll interpretieren. Dieser Verstehensakt ist mehr als eine nur prozedurale Transformation syntaktischer Strukturen in mentale Repräsentationen; denn er schließt die aktive Erzeugung einer Vorstellung ein, die dem jeweiligen Textsegment, bestehend aus dem Valenzkern und seinen Aktanten, entspricht. Der Gegensatz zwischen Grammatikmodellen der Konstituenz und der Dependenz, zwischen der Sprache als dechiffrierbarem Kodierungssystem und dem Text, der erst in der Interpretation durch den Diskursteilnehmer seine Bedeutung manifestiert, findet sich nicht zufällig auch in dem eisernen Vorhang zwischen der analytischen Philosophie, wie sie überwiegend in der angloamerikanischen und der von ihrer Kultur geprägten Welt praktiziert wird, und der hermeneutisch ausgerichteten Philosophie, die den Rest des europäischen Kontinents bestimmt. Valenz spielt daher in der relevanten englischsprachigen Gramma-
VI. Valenz: Schwerpunkte der Forschung
tikliteratur auch kaum eine Rolle. So heißt es bei Somers (1984, 507): „In general linguistics, valency holds a rather strange position. It is regarded in East and West Germany more or less as the ‘classical’ approach to linguistic description. Yet elsewhere it is only recently that it has received attention at all.“ Heimat der Valenzgrammatik ist zunächst die deutsche und internationale Sprachgermanistik, daneben die dem europäischen Strukturalismus verpflichtete Slawistik und Romanistik, soweit diese Philologien sich nicht inzwischen auf das Fundament der angelsächsischen Konstituenzmodelle gestellt haben. Wo beide Paradigmen nebeneinander existieren, hat es an Versuchen, die Valenz in die Konstituenz zu integrieren, nicht gefehlt, sei es, indem explizit auf das Phänomen der Valenz Bezug genommen wird oder sei es, indem es sich aus einer anderen Begrifflichkeit immerhin erschließen lässt. Dies gilt auch für die Valenz des Substantivs. Eine solche Einvernahme betont meist den Derivationsaspekt (d. h. die Nominalisierung) und den syntaktischen Aspekt. Sie vernachlässigt aber so die wesentliche Leistung des Valenzkonzepts, nämlich über eine Analyse des Fügungspotentials valenter Wörter einen entscheidenden Beitrag zu ihrer Bedeutungsbeschreibung zu leisten. Wo der Ansatz der Konstituenz nicht mehr auf verallgemeinerbare Regularitäten trifft, erlahmt sein Elan. Dennoch wäre eine Darstellung der Valenz des Substantivs unvollständig, würde sie nicht auch den einschlägigen Ertrag dieser Grammatiktheorie einbeziehen. 2.2. Substantivvalenz in der Diskussion 2.2.1. Substantivvalenz bei Eisenberg 1994 Die ambivalente Haltung des Konstituenzparadigmas zur Valenz manifestiert sich gerade in der Behandlung der Substantivvalenz. Beispielhaft dafür ist Eisenberg (1994, 270⫺ 276). Die Frage, ob „Substantive Valenz haben“, ob „Genitivattribute und Präpositionalattribute in ähnlicher Weise an Substantive gebunden“ sind wie Verben und Adjektive, beantwortet er ambivalent so: „Valenz im eigentlichen Sinne liegt beim Genitivattribut nicht vor“ und: „Viele Präpositionalattribute kommen dem Verhalten valenzgebundener Einheiten aber scheinbar [sic] ziemlich nahe.“ Er begründet seine ablehnende Haltung damit, dass Substantive, anders als Verben, keine festgelegte Wertigkeit (‘Stellenzahl’) haben, dass Substantive also „ohne Ge-
59. Die Valenz nichtverbaler Wortarten: das Substantiv
nitivattribut ebenso wie mit einem oder zwei Genitivattributen auftreten“ können, beispielsweise in Karls Rosen dieser Sorte (einer eher ungewöhnlichen Fügung, vgl. etwa Haider (1992, 316): „Ein Nomen [kann] nur einen einzigen Genitiv regieren.“). „Der Valenzbegriff drängt sich beim Substantiv auf, weil viele Substantive von Verben und Adjektiven abgeleitet sind und als Ableitungen die Aktantenfunktionen der Basis teilweise behalten und auf gleiche Weise enkodieren.“ Doch die Attributbeziehung nennt Eisenberg im Gegensatz zu der „Rektionsbeziehung sehr spezieller Art“ zwischen dem Verb und seinen Ergänzungen eine „ziemlich allgemeine Rektionsbeziehung“, trotz gleichwertiger Enkodierung. Wo nun der Unterschied eigentlich liegt, bleibt dunkel. Jedenfalls ergibt sich für ihn die Schlussfolgerung: „Abgeleitete Substantive […] haben nicht Valenz im selben Sinne wie Adjektive und Verben, weil (1) die Substantive nicht syntaktisch nach der Stellenzahl subkategorisierbar sind, (2) es eine Unterscheidung zwischen obligatorischen und fakultativen Mitspielern nicht gibt und (3) die [Nominalphrase] nicht wie der Satz von den Valenzeigenschaften des Kerns strukturiert wird. Nichtabgeleitete Substantive haben a fortiori keine Valenz in diesem Sinne.“ In der inzwischen vorliegenden Neubearbeitung (Eisenberg 1999) hat sich an dieser Einschätzung nichts geändert. 2.2.2. Substantivvalenz bei Helbig Allerdings haben die Konstituenzgrammatiker kein Monopol auf Skepsis, was die Substantivvalenz angeht. Noch 1976 hat Gerhard Helbig (1976, 136 ff.) das Verhältnis „von syntaktischer und logisch-semantischer Valenz beim Substantiv zu einer zentralen Schlüsselfrage“ und die syntaktische Valenz als nichts anderes als einen „Reflex der logisch-semantischen Valenz“ erklärt, der „jedoch keineswegs mit ihr identifiziert werden“ darf. Der angenommene Primat der ‘logischsemantischen Valenz’ hat indessen zur Folge, dass „man auch bei Substantiven [wie Dach und Geld] von Valenz sprechen“ kann, angesichts von Attribuierungen wie das Dach des Hauses (‘Teil-von-Beziehung’) und das Geld des Vaters (‘Gehören-zu-Beziehung’), einer Valenz allerdings, die, anders als bei abgeleiteten Substantiven, keinen Reflex in der syntaktischen Valenz hat und folglich auch nicht mit dem bisherigen Inventarium „zur Beschreibung der syntaktischen Valenz erfasst werden kann.“ Helbigs Schlussfolgerung ist
823 daher: „Syntaktische Valenz haben nur Nominalisierungen von Verben und Adjektiven.“ Später, in Helbig (1986) und, weitgehend identisch, in Helbig (1992), wird es still um den Vorrang logisch-semantischer Valenz, und auch die Beschränkung der syntaktischen Substantivvalenz auf Nominalisierungen wird zurückgenommen. Helbig (1986, 205): „[Es ist] weder legitim, die Valenz der Substantive auf die Nominalisierungen von Verben (oder Adjektiven) zu reduzieren, noch, die Valenz der Substantive als ‘System sui generis’ von der Valenz der Verben völlig abzukoppeln bzw. zu isolieren.“ 2.2.3. Warum Substantivvalenz? Die Verbvalenz, wie sie sich vor allem in Deutschland entwickelt hat, beschreibt zuvörderst die syntaktische Wertigkeit (Zahl der abhängigen Ergänzungen, unterschieden nach obligatorischen und fakultativen Ergänzungen) von Verben und die Rektion (syntaktische Realisierung) ihrer Ergänzungen, d. h. Sprachwissen, das sich nicht aus Syntaxregeln ableiten lässt, sondern wortspezifisch ist und deshalb ins Lexikon gehört. Verstöße gegen Wertigkeit und Rektion machen Sätze ungrammatisch. Dasselbe gilt für Substantive, abgeleitete wie (zumindest aus synchronischer Sicht) unabgeleitete (mit dem Unterschied, dass hier, im Gegensatz zu Verben, Ergänzungsklassen nicht nur über ihre syntaktische Realisierung, sondern auch über die semantische Relation bzw. den jeweiligen Tiefenkasus definiert werden): ihre Absicht zu einer Untat (nicht: *ihre Absicht auf eine Untat), und sein Dank an sie (nicht: *sein Dank für sie). Zwar fehlt nach Ansicht vieler Valenzgrammatiker bei der Substantivvalenz der Typ der obligatorischen Ergänzung (vgl. aber Sandberg 1979, 5), doch wie beim Verb lassen sich auch beim Substantiv mit dem Kriterium der Subklassenspezifik fakultative Ergänzungen von attributiven Angaben (die bei jedem Substantiv stehen können) unterscheiden. Auch lässt sich nicht einsehen, wieso sich die Attributivbeziehung als Rektionsbeziehung prinzipiell von der Rektionsbeziehung beim valenten Verb unterscheiden sollte. Auch dass wir im Hinblick auf das Genitivattribut vielfache Ambiguität vorfinden, bedeutet nicht, dass Beliebigkeit herrscht. So gibt es durchaus Substantive, von denen sowohl eine Agentivergänzung als auch eine Benefaktivergänzung abhängig sein können, die beide syntaktisch durch eine NP im Genitiv, wenn auch kaum gleichzeitig, rea-
824 lisiert werden: Einladung der Engländer kommutiert mit die Engländer laden ein (Agentivergänzung) und mit die Einladung, die den Engländern ausgesprochen worden ist (Benefaktivergänzung). Es ist offensichtlich, dass sich Agentivergänzung und Benefaktivergänzung syntaktisch über Kommutation, also über transformationelle Beziehungen, als unterschiedliche Komplemente herleiten lassen. Ebenso fällt indessen ins Auge, dass sie zugleich semantisch interpretierbare Argumentklassen repräsentieren. Gibt es in der Substantivvalenz (bzw. in der Valenz generell) nicht doch ein regelhaftes Syntax-Semantik-Kontinuum? Gehört zur Substantivvalenz nicht auch die Argumentstruktur? In der Tat wird die Substantivvalenz (wie heute auch weithin die Verbvalenz) schlechterdings nirgends als rein syntaktisches Phänomen beschrieben. Gerade weil für die Substantivvalenz (anders als in der Verbvalenz) die syntaktische Realisierung oft ausgesprochen ambig ist, fehlt es nicht an Modellen, die die syntaktische Oberfläche mithilfe von Argumenten, Tiefenkasus oder Thetarollen disambiguieren. ´ gel versteht unter Valenz „die Vilmos A Gesamtheit der für strukturell normale Realisierungen der Proposition relevanten semantisch-pragmatisch-morphologischen Eigenschaften eines relationalen Sprachzeichens“ ´ gel 1993 12 f.). Auch er geht also vom Ge(A samten aus, von der semantisch-syntaktischen Einheit Proposition, die semantisch aus einem Prädikator und seinen Argumenten besteht und syntaktisch durch die Konstituenten Bezugssubstantiv und seine Attribute realisiert wird. An diesem zweistufigen Topdown-Ansatz ist aus unserer Sicht problematisch, dass er die Ebene Argument und die Ebene Ergänzung (die ja das Wesen des Valenzbegriffs ausmacht) gleichsetzt. Zwar liegt es nahe, viele Ergänzungsklassen mit entsprechenden Argumentsklassen gleichzusetzen (z. B. Agentivergänzung mit der Argumentsklasse agent); doch ist der Umkehrschluss kaum möglich: Nicht jedes Argument wird durch eine Ergänzung realisiert. Vgl. z. B.: sein Einwand ist keine überzeugende Erklärung des Rückstands und: sein Einwand ist keine überzeugende Erklärung für den Rückstand. Während die NP im Genitiv offensichtlich Ergänzung zu Erklärung ist (weil eine solche Genitiv-NP nicht von jedem Substantiv abhängen kann), spricht vieles dafür, die in diesem Kontext fast gleichbedeutende PP mit für als Angabe zu beschreiben. Denn es
VI. Valenz: Schwerpunkte der Forschung
ist der Kontext, der hier die Kommutierbarkeit bewirkt und die generelle semantische Vagheit der PP mit für konkretisiert. Solche PPn mit für sind als adnominale Attribute recht ubiquitär: Tische für das Klassenzimmer, Aktionen für den Frieden, Zeltlager für die Flüchtlinge, Kurse für makrobiotisches Leben, semantisch reichen sie von ‘Thema’ über ‘Ziel’ bis zum ‘Nutznießer’. Attributive Angaben können also auf der semantischen Ebene durchaus als Argumente eines Prädikators gelten. 2.2.4. Anwendbarkeit der Substantivvalenz Für den hier vorgestellten Ansatz der Substantivvalenz ist die Unterscheidung von Ergänzung und Angabe zentral. Die Ergänzungen sind Teil des Lexikons; sie sind daher im Wörterbuch für jedes valente Substantiv zu verzeichnen. Die Angaben können bei jedem Substantiv, sei es valent oder nicht, stehen; der Ort ihrer Beschreibung ist die Grammatik. Die Unterscheidung zwischen Ergänzung und Angabe ist zugegebenermaßen künstlich; sie ist ein theoretisches Konstrukt und nicht in der Sprache angelegt. Es gibt unbestreitbar Grenzfälle, die die strikte Trennung problematisch erscheinen lassen (vgl. dazu Teubert 1992). Aber ohne eine solche Trennung verliert die Valenztheorie ihren Kern, die Demarkation der Grenze zwischen Syntax und Lexikon, und ihre Fähigkeit, zwischen den beiden Komponenten zu vermitteln. Welche syntaktischen Ergänzungen ein Substantiv hat und in welchem semantischen Verhältnis diese Ergänzungen zur Bedeutung des Substantivs stehen, ist in nur sehr beschränktem Umfang durch Regeln von Syntax und Wortbildung prognostizierbar. Vielfach bildet sich die semantische Struktur der Argumente idiosynkratisch auf die syntaktische Struktur der Attribute ab. Wir schlagen ´ gels zweistufigen Ansatz durch deshalb vor, A die Einführung einer Zwischenebene zu erweitern. Dadurch wird das Verhältnis zwischen Syntax und Semantik und zugleich die Grenze zwischen Syntax und Lexikon beschreibbar. Diese Zwischenebene wird durch die Ergänzungsklassen gebildet. Syntaktisch werden diese Ergänzungsklassen definiert durch ihre Realisierungsmöglichkeiten. Semantisch sind die Ergänzungsklassen definiert durch ihre Entsprechungen zu den Argumentsklassen. Das Valenzmodell mit seinem System von Ergänzungsklassen arbeitet also auf mittlerer Abstraktionsebene. Weder beschreibt es vollständig die semantischen
59. Die Valenz nichtverbaler Wortarten: das Substantiv
Relationen zwischen Valenzkern und seinen Aktanten, noch prognostiziert es für den jeweiligen Valenzkern die syntaktische Relation seiner Aktanten. Es ist ein Modell, das es gestattet, die für den korrekten Gebrauch von valenten Wörtern erforderlichen Informationen systematisch aufzubereiten und darzustellen. In das Konstituenzmodell ist es nur so weit integrierbar, wie die syntaktischen Realisierungsmöglichkeiten von Ergänzungsklassen regelhaft als Eigenschaften von Wortsubklassen (in der Nominalvalenz: von Substantivklassen) beschreibbar sind (bzw., in der Terminologie von Jacobs (1992, 95 f.) als ‘sortale Eigenschaften’). Die Beschreibung von Substantivvalenz leistet einen Beitrag zum richtigen Sprachhandeln. Sie trennt nach Möglichkeit sauber zwischen den durch allgemeine Syntaxregeln zu beschreibenden allgemeinen Attribuierungsmöglichkeiten, die für alle Substantive gelten, und der besonderen, arbiträren Eigenschaft valenter Substantive, syntaktische Ergänzungen als semantisch interpretierbare Argumente an sich zu binden. Die Beschreibung von Substantivvalenz gehört in die Lexikographie.
3.
Argumentsklasse, Ergänzungsklasse, Attributsklasse
3.1. Die drei Ebenen Wie die Valenz generell berührt auch die Substantivvalenz das Verhältnis von Syntax und Semantik. Ergänzungsklassen lassen sich als Argumente in einer Proposition interpretieren, die in einer spezifischen semantischen Beziehung zum Bezugssubstantiv stehen. Unterschiedliche Argumente lassen sich aufgrund semantischer Ähnlichkeit Argumentsklassen zuordnen. So bezeichnet die Ergänzungsklasse Agentivergänzung, syntaktisch realisiert durch das Genitivattribut in die Ermittlungen der Polizei, die Argumentsklasse agent. Von Argumentsklassen sprechen wir auf der semantischen Ebene. Argumentsklassen sind Abstraktionen, die helfen, das breite Bedeutungsspektrum von Argumenten in eine überschaubare Systematik zu bringen. Auf der Ebene, wo Syntax und Semantik sich verzahnen, sprechen wir dagegen von Ergänzungsklassen, die gleichzeitig semantisch und syntaktisch definiert sind. Die Argumentklasse agent wird nur teilweise durch die Ergänzungsklasse Agentivergänzung realisiert;
825 zum anderen Teil kann sie auch durch Angabeklassen (z. B. attributive Adjektive: polizeiliche Ermittlungen oder Relativsätze Ermittlungen, die die Polizei durchgeführt hat) realisiert werden. Die Ergänzungsklassen übernehmen ihre semantische Bestimmung von der Argumentsklasse; ihre syntaktische Bestimmung erfahren sie durch die möglichen syntaktischen Realisierungen, d. h. durch die rein syntaktisch definierten Attributsklassen. So kann die Agentivergänzung außer durch ein Genitivattribut auch durch eine mit durch gebildete Präpositionalgruppe ausgedrückt werden: die Ermittlungen durch die Polizei. In Hinblick auf die Substantivvalenz unterscheiden wir also: Argumentsklasse, Ergänzungsklasse und syntaktische Realisierung bzw. Attributsklasse. Ergänzungsklassen setzen wir mit Tiefenkasus oder Kasusrollen gleich. Das heißt, dass der Begriff der Argumentsklassen weiter gefasst ist als der der Tiefenkasus oder Kasusrollen. Argumentsklassen unterscheiden nicht nach Angaben oder Ergänzungen bei der Realisierung der Argumente. Die Kasusrolle Agentivergänzung umfasst also nur eine Teilmenge der Argumentsklasse agent. Auch die Klassifikation nach Kasusrollen oder Ergänzungsklassen ist nur eine Abstraktion; Kasusrollen sind nicht in der Sprache angelegt. Wir setzen sie an, um offensichtliche Ähnlichkeiten und Analogien auf semantischer Ebene zu erfassen, und wie bei allen Analogieschlüssen gibt es Überschneidung, Widersprüchlichkeit und Ambiguität. Die vielfach übliche Unterscheidung der Argumentsklassen agent und experiencer ist beispielsweise für Genitivattribute bei Wörtern wie Furcht, Hass, Gefallen, Trauer usw. (Petras Furcht als experiencer gegenüber Petras Trauer als agent) nicht leicht zu treffen, kommt es doch auf den Kontext an, ob wir es mit unbewussten oder beabsichtigten Gefühlszuständen zu tun haben (vgl. auch Grimshaw 1990, 23 ff.). 3.2. Der Analyseweg Es wird in der Literatur kontrovers diskutiert, ob wir bei der Ermittlung der Substantivvalenz von den Argumentsklassen hin zur syntaktischen Realisierung oder umgekehrt von der syntaktischen Realisierung hin zu den Argumentsklassen fortschreiten sollen. Von Polenz (1985, 155 ff.) legt sich nicht fest, während Helbig ursprünglich vom Primat der Semantik ausgegangen ist (Helbig 1976, 136).
826 Doch dieser Ansatz lässt sich aus unserer Sicht nicht halten, gerade nicht für die Substantivvalenz. Denn hier stehen zum Ausdruck einer Proposition immer wieder unterschiedliche attributive Strukturen zur Verfügung, die teils als Ergänzungen, teils als Angaben zu werten sind. Die Attributsklassen Adjektiv und Relativsatz sind, im Gegensatz zu den Ergänzungsklassen, nicht subklassenspezifisch. Es gibt praktisch keine Substantive, die nicht durch attributive Adjektive oder Relativsätze erweitert werden können. Dagegen ist etwa die Zahl der Substantive, die durch die Ergänzungsklasse Agentivergänzung erweitert werden können, begrenzt; es handelt sich dabei um eine Subklasse der Wortklasse Substantiv. Wenn man das Valenzkonzept primär semantisch definieren möchte, d. h. bestimmten Argumentsklassen unabhängig von ihrer Realisierung Ergänzungsklassenstatus zuweist, bedeutet das, dass das Valenzkonzept seiner ureigenen Aufgabe, substantivsubklassenspezifische Attribute zu beschreiben, also solche Attribute, die eben nicht bei jedem beliebigen Substantiv stehen können, nicht mehr gerecht werden könnte. Die Substantivvalenz kann nur dann Ergänzungen von Angaben unterscheiden, wenn man von der syntaktischen Ebene ausgeht und den Attributsklassen, die subklassenspezifisch sind, bestimmte Ergänzungsklassen (⫽ Kasusrollen) zuordnet. Die Attributsklassen stellen die syntaktische Realisierung von Ergänzungsklassen (wie auch von Angabeklassen) dar. Zwischen Ergänzungsklassen und Attributsklassen besteht keine Eins-zu-eins-Beziehung. Ein Genitivattribut kann sowohl eine Agentivergänzung, die Konstruktion des Architekten, als auch das affizierte oder effizierte Objekt (im Weiteren: Objektivergänzung [die Errichtung des Hauses]) sowie eine Reihe weiterer Argumentsklassen (teils Angaben [Genitivus possessivus: Peters Garten], teils Ergänzungen [Explikativergänzung: die Theorie der Substantivvalenz]) bezeichnen. Umgekehrt kann die Agentivergänzung, wie gesagt, außer durch ein Genitivattribut auch durch eine mit durch gebildete Präpositionalgruppe ausgedrückt werden (die Prüfung durch den Professor). Daneben lässt sich die Argumentsklasse agent auch, wie oben gezeigt, durch Angaben wie attributive Adjektive oder Relativsätze ausdrücken: die polizeilichen Ermittlungen; ein Mord, den jeder begeht.
VI. Valenz: Schwerpunkte der Forschung
3.3. Attributsklassen Attributsklassen sind syntaktisch definiert. Einige haben nur eine syntagmatische Form. So wird beispielsweise die Angabeklasse Qualitativangabe grundsätzlich durch ein vorangestelltes Adjektiv (oder eine Adjektivgruppe) realisiert: die polizeiliche Ermittlung; das weite blaue Meer. Andere Attributsklassen haben mehrere syntagmatische Formen. Das gilt beispielsweise für die Attributsklasse genitivische Nominalgruppe. Es gibt systematische Gründe, warum wir sagen, dass ein nachgestelltes Genitivattribut (die Ermittlungen der Polizei) nicht die einzige syntagmatische Form ist, die die Attributsklasse genitivische Nominalgruppe (genitivische NG) annehmen kann. Die Attributsklasse genitivische NG kann ebenso realisiert werden durch ein vorangestelltes Genitivattribut (Müllers Ermittlungen) und eine PG mit von (die Ermittlungen von Fahndern). Die PG mit von ist die einzige Realisierungsmöglichkeit für determinantienlose Substantive im Plural (*die Ermittlungen Fahnder). Die genitivische NG kann ferner durch die entsprechenden Pronominalgruppen realisiert werden: seine/ihre Ermittlungen; die Ermittlungen von ihnen. Die Einheit der Attributsklasse genitivische NG wird durch die Systematik der Kommutierbarkeit gewährleistet. So kann systematisch jede Nominalgruppe im Genitiv durch die entsprechende Pronominalgruppe ersetzt werden. Die Attributsklasse genitivische NG ist die syntaktische Realisierung nicht nur der Agentivergänzung, sondern auch der Objektivergänzung (die Errichtung des Hauses, von Häusern; seine Errichtung) sowie anderer Ergänzungs- und Angabeklassen, beispielsweise des Genitivus possessivus (Peters, sein Garten; die Gärten von Kleingärtnern). Aber nicht alle Nominalgruppen im Genitiv kommutieren mit einer entsprechenden Nominalgruppe. Die NP die Theorie der Substantivvalenz (Explikativergänzung) kann nicht durch *ihre Theorie ersetzt werden. Indessen kann bei der Explikativergänzung an die Stelle des Genitivs eine PG mit von treten, wenn das Substantiv ein determinantienloser Eigenname ist: das Gebiet von Hannover (neben: das Gebiet der sächsischen Schweiz). Beide Realisierungen gehören zusammen, denn beide sind in syntaktisch gleicher Weise paraphrasierbar: die Substantivvalenz ist eine Theorie; Hannover ist ein Gebiet. Ob diese Paraphrasierbarkeit (die es für die Attributsklasse genitivische NG nicht gibt) ausreichend
59. Die Valenz nichtverbaler Wortarten: das Substantiv
ist, um beide Realisierungen (nachgestellter Genitiv und PG mit von) zu einer Attributsklasse zusammenzufassen, ist eine Frage der Opportunität. 3.4. Der Status von Arguments-, Ergänzungs- und Attributsklassen Attributsklassen sind wie Ergänzungs- oder Angabeklassen und Argumentsklassen deskriptive Konstrukte ohne ontologische Substanz. Die verwickelten Verhältnisse beim deutschen Genitivattribut, die wir (ohne einen Anspruch auf Vollständigkeit) hier angedeutet haben, sind nichts anderes als das Ergebnis ihrer Akzeptanz durch die Sprachgemeinschaft; sie beruhen auf Frequenzphänomenen, Analogiebildungen und dem schlichten Zufall, dass der Genitiv Plural bei Substantiven im Deutschen nicht eindeutig markiert ist. Ob zugleich sprachuniversale Gesetzmäßigkeiten wirken, erscheint solange belanglos, als es darum geht, die Idiosynkrasie des Genitivattributs im Deutschen zu beschreiben. Attributsklassen sind sprachspezifisch. Sie müssen für jede Einzelsprache ermittelt werden. Auch Argumentsklassen sind Konstrukte, aber es sind Konstrukte, die womöglich universale Geltung haben, da sie idealiter semantische Kategorien ausdrücken, die sich in allen Sprachen finden. Offen ist der Status der Ergänzungsklassen (und damit auch der Angabeklassen). Wir haben gesehen, dass im Deutschen manche Argumentsklassen sowohl durch Ergänzungs- als auch durch Angabeklassen realisiert werden können. Es zeigt sich immer wieder, dass, was in einer Sprache, etwa im Deutschen, eine Ergänzungsklasse ist, in einer anderen Sprache, etwa im Ungarischen, durchaus Angabecharakter hat (cf. La´szlo´ 1988). Wer Ungarisch lernen will, muss sich mit den Verhältnissen der ungarischen NP vertraut machen (etwa Szabolcsi 1994). Wer Deutsch lernt, muss die Ergänzungsklassen und Angabeklassen in der deutschen NP kennen. Vieles spricht dafür, dass es bei typologisch oder genetisch verwandten Sprachen nur geringe Unterschiede in der Definition zentraler Ergänzungsklassen geben wird. Eine Unterscheidung von Agentivund Objektivergänzungen ist sicher nicht nur für das Deutsche sinnvoll.
4.
Die drei Beschreibungsansätze
Die Literatur zur Substantivvalenz kennt drei Beschreibungsansätze. Da ist erstens die Erklärung der Substantivvalenz als Übertra-
827 gung der Verbvalenz von Verben abgeleiteter Substantive. Dieser Ansatz ist auch historisch der erste; er findet sich (in einem anderen terminologischen Gewand) im amerikanischen Strukturalismus ebenso wie in der mitteleuropäischen Tradition der eigentlichen Valenztheorie (etwa bei Engel 1994). Er ist unmittelbar einleuchtend, weil die meisten valenten Substantive von Verben oder von (valenten) Adjektiven abgeleitet sind. Die NP die Ermittlungen der Polizei in dieser Angelegenheit ergibt sich m. m. aus die Polizei ermittelt in dieser Angelegenheit. Im Deutschen und in verwandten Sprachen ist eine der Problemzonen dieses Ansatzes beispielsweise die Dativergänzung beim Verb, die beim abgeleiteten Substantiv nicht regelhaft einer Attributsklasse entspricht. Auch lässt sich nicht leicht einsehen, warum etwa Absicht, das synchron gesehen nicht in einem Ableitungsverhältnis zu absehen steht, sondern von dem im Gegenteil das semantisch entsprechende Verb beabsichtigen abgeleitet ist, kein Gegenstand der Substantivvalenz sein soll. Deshalb wurde vor allem in Frankreich, vor allem von Daniel Bresson und Gaston Gross, ein zweiter Ansatz entwickelt, der die Valenz der Substantive aus der Valenz von Stützverbkonstruktionen mit diesem Substantiv herleitet. Damit wird das Primat der verbalen Prädikation im Prinzip aufrechterhalten, ohne dass die valenten Substantive von entsprechenden Verben abgeleitet sein müssten. So lässt sich ihre Drohung an die Männer von sie spricht an die Männer eine Drohung aus herleiten, ebenso wie seine Absicht zu kommen dem Satz er fasst die Absicht zu kommen entspricht. Drittens kann man die Substantivvalenz als ein System sui generis auffassen, mit gewiss zahlreichen Analogien im Falle deverbaler oder deadjektivischer Substantive. Solange sich die Valenz der Substantive nicht regelmäßig von zugrunde liegenden Verben oder Adjektiven bestimmen lässt und solange es viele valente Substantive gibt, die nicht plausibel als Ableitungen gedeutet werden können, muss wie für die Verben auch für die valenten Substantive systematisch ihre Valenz beschrieben werden. 4.1. Der Nominalisierungsansatz Die regelhafte Übertragung der Argumentstruktur des zugrunde liegenden Verbs auf die Nominalisierung wird heute hauptsächlich in der X-Bar-Theorie postuliert. In der eigentlichen Valenztheorie gilt dieser Ansatz
828 weitgehend als widerlegt. Diese offenbare Diskrepanz hat zwei Gründe. Nominalisierung bedeutet für das Deutsche etwas anderes als für das Englische. Während das Phänomen Nominalisierung im Deutschen eindeutig in den Bereich Wortbildung gehört (mit den produktiven Ableitungsmustern auf -ung für deverbale und auf -keit für deadjektivische Substantive), fällt für das Englische mit seinen Gerundien (nominale Gerundien: Peter’s acting of Hamlet; verbale Gerundien: Peter’s acting Hamlet) die Nominalisierung in den Bereich der Morphologie. Die Morphologie indessen verlangt eine regelbasierte Beschreibung, während die Wortbildungslehre schon immer zwischen Regel- und Listenbasiertheit changiert. Der Versuch, Substantivvalenz im Deutschen als eigenständiges Phänomen zu leugnen, muss deshalb scheitern. Natürlich können auch im Deutschen Substantive noch immer ad hoc von Verben und Adjektiven abgeleitet werden. Aber diese Verben sind meistens recht jungen Datums; sie haben (neben dem Subjekt) vorzugsweise Akkusativ- und Präpositionalobjekte, und deren Valenz lässt sich relativ regelhaft übernehmen: sie war über ihn frustriert wird zu ihre Frustration über ihn; die Konzerne globalisieren die Märkte wird zu die Globalisierung der Märkte durch die Konzerne. Dass hier die Agentivergänzung nicht durch die Attributsklasse genitivische NG ausgedrückt werden kann, liegt wahrscheinlich daran, dass es sich bei Globalisierung um eine nicht zählbar gedachte Handlung handelt. Die Diskussion des Problems Genitivattribut (bzw. der mit of gebildeten PG) als Argumentsklasse agent oder object im Zusammenhang mit der Frage Singular/Plural nimmt auch im Rahmen der X-Bar-Theorie einen großen Raum ein. Im Anschluss an Grimshaw 1990 werden heute Nominalisierungen als Ereignisausdrücke von anderen Nominalisierungen unterschieden, die etwa Zustände oder konkrete Manifestationen als Ergebnisse von Ereignissen (Handlungen oder Vorgängen) bezeichnen, und nur den Ereignisausdrücken wird Argumentsstruktur, also Valenz in unserem Sinn zugesprochen, eine Valenz, die sich regelhaft aus der Valenz zugrunde liegender Verben herleitet. Ehrich (1991, 446 f.) unterscheidet zwischen Ereignissen und Tatsachen. Nach Grimshaw (1990, 45) kann man nur bei Substantiven, die ein komplexes Ereignis bezeichnen, von einer Argumentstruktur sprechen (wobei die Komplexität im Vorhandensein
VI. Valenz: Schwerpunkte der Forschung
‘externer’ wie ‘interner’ Argumente liegt), während Substantive, die ‘einfache Ereignisse’ [simple events] und Ergebnisse bezeichnen, keine Argumentstruktur haben. Dabei berücksichtigt Grimshaw neben ing-Formen durchaus auch echte Ableitungen, etwa destruction, assignment, claim, arrival. Nicht eben erleichtert wird das Verständnis ihrer Ausführungen durch die Gleichsetzung von Argumentstruktur und obligatorischen Ergänzungen. Für sie ist in The frequent expression of one’s feelings is desirable die PG of one’s feelings nicht weglassbar. Was aber mit This was a frequent expression (of her hate) on her face? Auch Sandberg (1979, 5) hat von obligatorischen Ergänzungen bei der Substantivvalenz gesprochen („Die obligatorischen Mitspieler des Basisverbs müssen dann auch als obligatorische Mitspieler zu dem reverbalisierbaren Verbalsubstantiv auftreten.“) und dabei die Nichtweglassbarkeit aus semantischen Gründen im Sinn gehabt. Es hat sich jedoch bewährt, Obligatorik bzw. Fakultativität strikt im Hinblick auf syntaktische Wohlgeformtheit zu definieren. In diesem Sinne sind Nominalergänzungen prinzipiell fakultativ. Es hat in der Valenzdiskussion an Vorschlägen nicht gefehlt, die syntaxbasierte strikte Dichotomie zwischen Ergänzungen und Angaben aufzulockern. Harald Somers (1984) schlägt etwa eine Skala von sechs Punkten vor, die von strikter Obligatorik zur unkonditionellen Weglassbarkeit führt. In diese Richtung argumentiert auch Beate Varnhorn (1986). Schon Vater (1978, 41) zieht es vor, von verschiedenen Abhängigkeitsgraden zu sprechen, und ähnlich wie Helbig unterscheidet er beim Phänomen Obligatorik Oberflächen- von Tiefenstruktur. In Hinblick auf die Anwendung der Valenzgrammatik in der Lexikographie ist die klassische Unterscheidung nach Ergänzung und Angabe unabdingbar. Ergänzungen müssen in Wörterbüchern prinzipiell verzeichnet werden, Angaben allenfalls dann, wenn sie phraseologisch relevant sind. Das starke Interesse der X-Bar-Theorie ist Indiz dafür, wie verwirrend die Frage der Realisierbarkeit von Agentiv- und Objektivergänzungen bei diesen Substantiven sind. Warum ist die Attributsklasse genitivische NG im Fall von Entdeckung ambig (die Entdeckung von Kolumbus und die Entdeckung von Amerika), von Hinrichtung eindeutig eine Objektivergänzung (die Hinrichtung des Scharfrichters), von Hinrichtungen wieder ambig (die häufigen Hinrichtungen dieses
59. Die Valenz nichtverbaler Wortarten: das Substantiv
Scharfrichters waren immer gut besucht und die allabendlichen Hinrichtungen von Ludwig XIV. waren der Publikumsmagnet), von Ermittlungen eindeutig eine Agentivergänzung (die Ermittlungen der Polizei, aber *die Ermittlungen der Täter), während sie beim Singular Ermittlung wiederum ambig ist, und bei Hass eindeutig eine Agentivergänzung (der Hass der Opfer)? Liegt hinter diesem Anschein von Regellosigkeit nicht doch eine tiefere Ordnung verborgen? In dieser Suche liegt der Reiz des Nominalisierungsansatzes. ´ gel 1993a hat zu diesem Phänomen Vilmos A attributiver Genitivergänzung einen verblüffenden Lösungsansatz beigesteuert. Für ihn ist die entscheidende Frage, ob die Nominalphrase einem Aktivsatz oder Passivsatz entspricht. Ob das Problem damit endgültig als Scheinproblem entlarvt ist, kann hier nicht erörtert werden. Gleichwohl gibt es weitere Probleme. Die Übertragung verbaler Valenz auf Nominalisierungen erklärt weder Hass auf die Täter (statt *Hass der Täter als Objektivergänzung) noch Einladung an Peter (neben dem ambigen Peters Einladung). Ein anderes Problem sind Ergänzungsklassen, die es (so) bei Verben nicht gibt, etwa die bereits erwähnte Explikativergänzung (das Problem des Fortschritts, das Risiko, sie zu lieben) oder die Stoffergänzung (eine Flasche Wernesgrüner Bieres, ein Glas Wein [ausführlich analysiert in Zifonun et al. 1997, 1979 ff.]). Schließlich bleibt als Problem bestehen, dass zu den valenten Substantiven auch zahlreiche nichtabgeleitete Substantive gehören. Letztlich ist es eine Zufälligkeit des Lexikons, dass zwar Abdankung von abdanken, nicht aber Demission von demissionieren abgeleitet ist. Der Nominalisierungsansatz hat da seine Berechtigung, wo es um die Valenz nichtlexikalisierter adhoc-Ableitungen geht. Darüber hinaus wirft er ein Licht auf Parallelen zwischen dem Bau von echten Prädikationen mit finitem Verbalkern und virtuellen Prädikationen mit einem valenten Substantiv als Kern, Parallelen, die einen Blick in phylo- und ontogenetische Sprachentwicklung zulassen, sich aber nicht in stringente syntaktische Regeln fassen lassen. 4.2. Der Stützverbgefüge-Ansatz Valenzgrammatiker sahen sich seit langem mit dem Problem konfrontiert, dass bei Funktionsverbgefügen (z. B. zur Sprache kommen, die Erlaubnis geben) weder das Funktionsverb (oft kommen, bringen, geben, machen) noch das Objekt (z. B. ans Licht, die Anregung, eine
829 Mitteilung) sinnvoll als Träger der Valenz bezeichnet werden kann. Oft finden wir zwei Alternativen nebeneinander: er macht den Anwesenden/an die Anwesenden eine Mitteilung. Im ersten Fall übernimmt das Funktionsverbgefüge die Ergänzungsklasse des Parallelverbs mitteilen, im zweiten Fall finden wir die durch die Attributsklasse PG mit an realisierte Benefaktivergänzung des Substantivs Mitteilung. Auch die oben genannten Substantive Hass und Einladung kommen als Teile von Funktionsverbgefügen vor: Hass haben (auf jmdn.), eine Einladung (an jmdn.) schicken oder aussprechen, und sie zeigen dieselben Konstruktionen auch außerhalb von Funktionsverbgefügen: seine Einladung an Petra, Petras Hass auf Jochen. Sollten wir die Valenz der Substantive deshalb vielleicht lieber aus zugrunde liegenden Funktionsverbgefügen als aus zugrunde liegenden Verben erklären? Gälte das nicht vor allem auch für die nichtabgeleiteten valenten Substantive wie Absicht (seine Absicht zu kommen neben die Absicht haben zu kommen)? In der Tat ist auffällig, dass sich fast immer, wenn sich die Valenz eines Substantivs nicht von der des Verbs ableiten lässt, es ein Funktionsverboder Stützverbgefüge gibt, das dieselben Valenzeigenschaften zeigt wie das Substantiv. Dies ist nicht nur im Deutschen, sondern besonders im Französischen (Bresson 1991) und auch im Spanischen und Katalanischen (Colominas et al. 1998) der Fall. Bei Gaston Gross (1989, 325) heißt es: „ils [die Funktionsverben] permettent de rendre compte de nominalisations, et en particulier du de´terminant du substantif pre´dicatif ainsi que de la forme de ses comple´ments et de la nature de pre´positions qui les introduisent.“ Zu nennen ist hier ferner Achim Stein (1996, 200), der glaubt: „Bei den Substantiven hat sich gezeigt, dass es nicht ausreicht, diejenigen Rollen zu beschreiben, die bei isolierter Verwendung des Substantivs syntaktisch realisierbar sind, da auch latente Argumente aus dem zugrunde liegenden Verb in Verb-SubstantivVerbindungen relevant werden können.“ Im Französischen werden Funktionsverben verbes support genannt, was im Deutschen als Stützverben übersetzt wird. In der englischsprachigen Nominalisierungsliteratur wird auch von light verbs gesprochen. Das Problem dieses Ansatzes ist die Ermittlung des relevanten Stützverbgefüges. So steht dem trendigen einen Hass haben auf jmdn. das alte Hass hegen gegen jmdn. gegenüber. Für Lob auf jmdn. findet sich kein
830 Gefüge; Lob geben/zollen/spenden/aussprechen übernehmen alle das Dativobjekt von loben. Auch zu mein Vorrat an Gemüse findet sich keine Parallele: man kann Vorräte hamstern oder liegen haben. Der NP sein Versprechen gegenüber den Kindern entspricht das Gefüge jmdm. ein Versprechen abgeben eben nicht. Ein weiteres Problem ist die Bestimmung der Stützverben, die über die üblicherweise sehr enge Definition der Funktionsverben hinausgeht, ohne dass die wesentlichen Merkmale genau definiert sind. Kann man bei Hass hegen, Lob zollen, Fax senden noch von weitgehend synsemantischen Stützverben sprechen? Erst eine groß angelegte Korpusanalyse wird erweisen, wieweit die Parallelen zwischen der Valenz von Stützverbgefügen und Substantiven wirklich gehen. 4.3. Der Sui-generis-Ansatz Die lexikographische Praxis hat sich heute weithin dem Sui-generis-Ansatz verschrieben. Wo sie die Valenz bei Verben und Adjektiven bezeichnet, bezeichnet sie auch die Ergänzungen beim Substantiv. Sie tut dies, um dem Benutzer zu helfen, von dem nicht zu erwarten ist, dass er sich diese Informationen regelhaft ableitet. Das muss nicht unbedingt und sicher nicht in dem Fall bedeuten, dass das nicht möglich wäre. Dafür, die Substantivvalenz als eigenständiges System zu beschreiben, sprechen im Wesentlichen drei theoretische Argumente. Erstens gibt es valente Substantive, die (wenigstens synchronisch) nicht als abgeleitet gelten können: Vorrat, Attacke, Hunger, Vater, Flasche, Debatte, Ehe. Zweitens gibt es bei den Ergänzungen abgeleiteter Substantive oft nicht prognostizierbare Ausnahmen von der allgemeinen Tendenz ihrer syntaktischen Realisierung. Deverbale Akkusativobjekte werden beispielsweise nicht immer durch genitivische NGn realisiert: der Hass auf Peter, die Achtung vor Julia, die Einladung an Maria. Wie wir oben gesehen haben, sind die Verhältnisse bei der syntaktischen Realisierung der Agentiv- und Objektivergänzung bei Substantiven, die von transitiven Verben abgeleitet sind, äußerst verwickelt. Keine NG im Genitiv als Agentivergänzung gibt es bei Ermordung, keine NG im Genitiv als Objektivergänzung gibt es bei Angriff. Deshalb sagt auch Knobloch (1984, III): „Man sieht, dass es auch [bei der Rückführung auf einen Verbalsatz] nicht ganz ohne Hinzufügungen abgeht, weil die attributive Valenz der Nominalisierungen niemals der prädikativen der ‘zu-
VI. Valenz: Schwerpunkte der Forschung
grunde liegenden’ Verben entspricht. Das verhindert schon der kategoriale Unterschied der Wortarten.“ Drittens gibt es Ergänzungsklassen, die nur bei Substantiven, nicht aber bei Verben oder Adjektiven vorkommen: die Stoffergänzung (eine Flasche Merseburger Bieres, ein Glas Wein), die Personenergänzung (Peters Vater, ihre Nachbarin), die Benennungsergänzung (die Regierung Brandt, das Wort Askese). Die Substantivvalenz als eigenständiges System zu beschreiben, bedeutet nicht, die Augen vor den offensichtlichen Analogien und Entsprechungen zur Valenz der Verben und Adjektive zu verschließen. Besonders aus didaktischer Sicht scheint es angeraten, die Valenz der Verben und die der entsprechenden Nomina und Adjektive im Zusammenhang darzustellen, damit der Lerner nicht unreflektiert die Valenzverhältnisse des einen auf das andere überträgt (Kubczak/Schuhmacher 1998, 285).
5.
Forschung und Anwendung
5.1. Projekte zur Substantivvalenz Über das Projekt Kontrastive Lexikographie ⫺ Nominalsyntax Deutsch-Französisch, das von 1991 bis 1994 vom Institut für Deutsche Sprache und der Universität von Aix-en-Provence durchgeführt wurde, berichten Bresson/Kubczak (1998). Ziel des Projektes war die Erarbeitung eines Modells für ein zweisprachiges syntagmatisches Wörterbuch deutscher und französischer valenter Substantive. Grundlage war ein Analysemodell, nach dem die Substantive (in der Regel Nominalisierungen) über ihre Einbettung in einfache Sätze als nominale Kerne von Stützverbkonstruktionen (constructions a` verbe support) analysiert werden. Zumindest für das Deutsche brachte dieses Verfahren nur zum Teil die gewünschten Ergebnisse. Kubczak/Costatino (1998, 19) schränken ein, dass es nicht immer möglich war, „die Form und Anzahl der Argumente innerhalb der Nominalgruppe über das Modell der Weglassung des Stützverbs zu ermitteln.“ Für das Deutsche wurde in dem Projekt strikt korpusbezogen gearbeitet. Das zeigt sich darin, dass die Wortartikel Komponenten enthalten, die über eine Beschreibung der Substantivvalenz im klassischen Sinn hinausgehen. Das ist zunächst (für das Stichwort Folge) die umfassende Darstellung der ‘festen Syntagmen’ (z. B. in bunter Folge, mit der
59. Die Valenz nichtverbaler Wortarten: das Substantiv
Folge, dass …; nicht ohne Folgen bleiben, etwas Folge leisten), ferner eine Auflistung der häufigeren Adjektive und Verben, die mit Folge vorkommen (einschließlich einer Differenzierung nach Singular und Plural), eine Zusammenstellung von ‘situativen Äußerungen, Sprichwörtern u. ä.’, sowie schließlich eine Liste der im Korpus gefundenen Wortbildungen (z. B. folgenlos, demzufolge, Folgelasten, Technologiefolgen). In Ermangelung eines deutsch-französischen Parallelkorpus musste für das Französische mit eigens angefertigten Übersetzungen der deutschen Korpusbelege gearbeitet werden. Angesichts der unzureichenden Projektförderung konnte ein Wörterbuch im eigentlichen Sinn nicht erarbeitet werden. Entstanden ist eine detaillierte Anweisung zur Anfertigung von bilingualen Wortartikeln sowie ein knappes Dutzend voll ausgeführter Wortartikel, von denen jeder zwischen 10 und 20 Druckseiten umfasst. An diesem Umfang zeigt sich, dass im Sprachvergleich die Verhältnisse keineswegs so parallel sind wie gelegentlich postuliert. Je nach Kontext entsprechen dem Valenzträger in der Zielsprache ganz unterschiedliche Übersetzungsäquivalente. Gerade im Sprachkontrast zeigt sich die Dominanz von Phraseologismen gegenüber der freien Kombinierbarkeit lexikalischer Elemente. Während das Projekt „Nominalsyntax Deutsch-Französisch“ noch lief, begann Pe´ter Bassola mit den Vorarbeiten zu einem deutsch-ungarischen Valenzwörterbuch, von dem ein erster Teil mit ca. 50 Einträgen im Jahr 2003 erschienen ist. Bassola baut bei seiner Konzeption sowohl auf den bereits vorhandenen zweisprachigen Verbvalenzwörterbüchern als auch auf den Grundlagen des deutsch-französischen Projekts auf. Eine gründliche Darstellung des gewählten Ansatzes findet sich in Bassola/La´szlo´ (1996). Angesichts der hohen Zahl geplanter Wortartikel war die Ausführlichkeit der Darstellung, wie sie im deutsch-französischen Projekt angestrebt war, von vornherein ausgeschlossen. Deshalb ist auch das Projekt weniger korpusbasiert als korpusorientiert. Die Hypothesen der Mitarbeiter werden an einem Teil der Korpora des Instituts für Deutsche Sprache validiert. Gerade die Kontrastierung zweier typologisch recht verschiedener Sprachen zeigte die dem Valenzansatz inhärenten Probleme besonders deutlich. Was im Deutschen beispielsweise eine Agentivergänzung ist (der Bericht des Präsidenten), wird im Ungarischen
831 gern durch eine Qualitativangabe, also durch ein attributives Adjektiv, ausgedrückt: az elnöki jelente´s [der präsidentielle Bericht]; ähnlich wird aus der Themaergänzung in der Bericht über das neue Wirtschaftsjahr im Ungarischen eine attributive Partizipialkonstruktion, also wiederum eine Angabe: az elmu´lt gazdasa´gi e´vro˝l szo´lo´ jelente´s. Sarolta La´szlo´ (1998) zeigt die Grenzen des Valenzansatzes, die im Sprachvergleich besonders da sichtbar werden, wo typologische Unterschiede vorliegen. Zu erwähnen ist ebefalls das 1993 begonnene Projekt The Odense Valency Dictionary, das in seiner ursprünglichen Konzeption auch Substantive (und Adjektive) einbezieht. Im Vordergrund stehen Nominalisierungen, und im von Schøsler/Van Durme 1996 vorgelegten konzeptionellen Entwurf wird auf das ungelöste Verhältnis von regelhafter Vererbung der Valenzeigenschaften und der Substantivvalenz als System sui generis hingewiesen. Eine ausführliche Diskussion unterschiedlicher Vorstellungen zur Substantivvalenz findet sich in der von Van Durme 1997 herausgegebenen Sammlung von Seminarbeiträgen mit dem Titel The Valency of Nouns. Zwischenzeitlich ist das Projekt ins Stocken geraten. Daneben sind noch einige bescheidenere Projekte zu nennen, die dem klassischen Ansatz der Substantivvalenz verpflichtet sind. Zu nennen ist hier beispielsweise Elise von Randow (1986) mit ihrer Untersuchung zur Substantivvalenz im Englischen und Laila Zamzam (1987), die die Substantivgruppen im Arabischen und Deutschen vergleicht. Für das Französische ist noch immer Gross/Vive`s 1986 wichtig. Angesichts der großen Rolle, die das Konstituenzparadigma und insbesondere die XBar-Theorie in der heutigen Sprachwissenschaft spielen, nimmt es nicht Wunder, dass viele neuere Arbeiten zur Substantivvalenz bestimmter Sprachen die Kookkurrenz von Substantiven und ihren Attributen auf diesem Hintergrund beschreiben. Grundlegend für den X-Bar-Ansatz ist Grimshaw (1992) geworden. Das Italienische ist Gegenstand von Zucchi (1993). Ihm geht es vor allem um das Verhältnis von Proposition und Ereignis. Für das Ungarische steht die Untersuchung von Anna Szabolcsi (1994), die die Parallelität von NP und Satzstrukturen untersucht und zu dem Ergebnis kommt, dass der Argumentrahmen komplexer Ereignis-Nominale mit dem der zugrundeliegenden Verben über-
832 einstimmt. Tal Siloni (1997) untersucht für das Hebräische die Unterschiede zwischen normalen NP und syntaktischen Nominalisierungen, wobei er für die Ereignis-Nominale einen lexikalischen Ansatz verfolgt und auch bei nominalisierten Propositionen Asymmetrien im Vergleich zu den entsprechenden Satzstrukturen feststellt. 5.2. Substantivvalenz und Wörterbücher Das erste Wörterbuch der Substantivvalenz war das semasiologisch angelegte ‘Wörterbuch zur Valenz und Distribution der Substantive’ von Sommerfeldt/Schreiber (1977). Dieses Wörterbuch stellt in mancher Hinsicht einen Kompromiss dar, der versucht, zwischen dem Ansatz von Gerhard Helbig, wie er ihn für die Verbvalenz entwickelt hatte, und den Vorstellungen von Karl-Ernst Sommerfeldt und Herbert Schreiber zu vermitteln. Helbig (1976) übt deutliche Kritik an einer Vorlage, die offensichtlich für die endgültige Veröffentlichung erneut überarbeitet wurde. Das zeigt sich beispielsweise daran, dass im Vorwort des Wörterbuches etwa Wortartikel angesprochen werden, die im Wörterbuchteil fehlen (z. B. Lehrer). Andererseits finden sich immer noch, wie Bassola (1999) in seiner Analyse der drei Substantivvalenzwörterbücher dieser beiden Autoren ausgeführt hat, immerhin 11% unabgeleitete Substantive, denen Helbig Valenz im eigentlichen Sinn noch abgesprochen hatte. Wenngleich die Aktanten nach herkömmlicher Art semantisch subkategorisiert werden, ist der Ansatz (trotz verbaler Zugeständnisse) offensichtlich primär syntaktisch (und folgt dabei dem Verbvalenzlexikon von Helbig/Schenkel 1969): Zunächst wird die Anzahl der Aktanten, ihre syntaktische Realisierung und ihre Kombinierbarkeit, und erst dann die semantische Kategorisierung der Aktanten vorgenommen. In ihrem 1996 erschienenen onomasiologischen ‘Wörterbuch der Valenz etymologisch verwandter Wörter’ beschränken sich Sommerfeldt und Schreiber logischerweise auf Verben, Adjektive und die von ihnen abgeleiteten Substantive. In den Einträgen wird zunächst das Szenario für Verb bzw. Adjektiv und abgeleitetem Substantiv gemeinsam entwickelt, dann in semantisch wie syntaktisch relevante Komponenten zerlegt und schließlich werden die Realisierungen der Ergänzungsklassen angegeben. Weitere ‘echte’ Substantivvalenzwörterbücher gibt es derzeit nicht (vgl. aber 5.1). Doch
VI. Valenz: Schwerpunkte der Forschung
ist für das Spanische besonders Slagar (1997) hervorzuheben. Sein ‘Pequen˜o Diccionario de Construcciones Preposicionales’ ist vollständig korpusbasiert und verzeichnet neben Verben und Adjektiven auch Substantive, z. B. conformidad con: au´n declarando su conformidad con la universalidad; c.entre: una conformidad entre la cabeza y el esto´mago. Für jeden Beleg ist die Quelle verzeichnet. Der Verzicht auf Formalismen macht dieses Wörterbuch erfreulich benutzerfreundlich. Mustergültig und benutzerfreundlich verzeichnet auch ‘Le Nouveau Petit Robert’ in der Ausgabe von 1993 die Valenz der Substantive. Für das Englische ist das handliche ‘BBI Dictionary of English Word Combinations’ 1997 in revidierter Auflage erschienen. Diesem Wörterbuch gelingt es, Valenzbeziehungen, sei es bei Verben oder Substantiven, transparent, knapp und unter Verzicht auf den theoretischen Hintergrund darzustellen. 6. Ausblick Die meisten vorliegenden Valenzbeschreibungen, und das gilt auch für die Substantivvalenz, beruhen auf der Sprachkompetenz, der Introspektion und dem Sachverstand der Autoren. Soweit Korpora herangezogen wurden, dienten sie, von Ausnahmen abgesehen, der Belegung der Realisierungsmöglichkeiten. Dies hat für Valenzwörterbücher und andere Wörterbücher, in denen Valenz verzeichnet ist, zur Folge, dass die Darstellungen zum einen nicht immer den wirklichen Sprachgebrauch abbilden, sondern auch Kombinationen, die zwar systematisch möglich, aber gemeinhin nicht realisiert sind, und dass sie andererseits Kombinationen nicht berücksichtigen, die zwar vorkommen und relevant sind, aber dem System nach sich nicht als Eintrag qualifizieren. So ist beispielsweise eine voll ausgebaute NP wie der Unterschied der Interessen zwischen Amerikanern und Russen in der Weltraumfahrt als Konstruktion möglich, aber nirgends belegt. Dagegen ist eine NP wie ein gemeinsamer Auftrag für uns alle zwar recht häufig belegt und eine nicht unübliche Variante zu ein gemeinsamer Auftrag an uns alle, wird aber vielleicht deshalb nicht verzeichnet, weil für uns alle den Status einer Angabe, nicht den einer Ergänzung hat. Das ist zwar prinzipientreu, aber unbefriedigend. Unbefriedigend ist auch, dass Valenzbeschreibungen oft da, wo Varianten möglich sind, nichts darüber sagen, wann welche bevorzugt wird. Warum heißt es üblicherweise Auskünfte über weitere Zugverbindungen und
833
59. Die Valenz nichtverbaler Wortarten: das Substantiv
nicht zu weiteren Zugverbindungen, aber Auskünfte zum Arbeitsrecht und nicht über das Arbeitsrecht? Schließlich gibt uns die Valenzbeschreibung keine Auskunft über semantische Kohäsion, also darüber, ob Valenzträger und Ergänzung eine Kollokation bilden. Warum heißt es signifikant häufig Anfang des Jahres/des Monats/der Woche, aber Beginn des Jahrhunderts/der Spielzeit/der Wetteraufzeichnungen? Die Valenzbeschreibung berücksichtigt auch nicht, dass es oft immer wieder dieselben Wörter sind, durch die eine Ergänzungsklasse bei einem bestimmten Valenzträger realisiert wird. So ist Globalisierung der Weltwirtschaft und Globalisierung der Märkte sehr viel häufiger als Globalisierung der Probleme; es sind, wenigstens in Zeitungskorpora nach 1995, nur eine Handvoll Substantive, die in über 90% der Fälle als Genitivattribut zu Globalisierung vorkommen. Aus syntaktischer Sicht sind diese Befunde unerheblich. Sie sagen uns aber etwas über das Kookkurrenzverhalten von Wörtern, das sowohl idiosynkratischer als auch determinierter ist, als es sich Valenzbeschreibungen gemeinhin entnehmen lässt. Daher wäre es jetzt, wo die Korpuslinguistik die erforderlichen Verfahren bereitgestellt hat, wünschenswert, Valenzbeschreibungen durch eine kollokative Komponente zu ergänzen. Denn die eigentlichen Einheiten, mit denen die Sprachpraxis zu tun hat, sind mehr, als man bisher berücksichtigt hat, eben jene Kollokationen, die syntagmatisch fest definiert sind, beispielsweise durch eine Valenzbeziehung, und zwischen deren Elementen eine besondere semantische Kohäsion besteht, die ihnen den Charakter einer semantischen Einheit verleiht. Der kollokative Charakter zeigt sich besonders in der Übersetzung. Ob das Substantiv Aufgabe als task, business, function, mission, responsibility, work, duty oder assignment übersetzt wird, hängt in erster Linie von der lexikalischen Füllung der Ergänzungen und nicht von der Ergänzungsklasse ab. So ist: keine leichte Aufgabe des Präsidenten: not an easy mission for the president; nicht die Aufgabe eines Schriftstellers, unterwürfig zu sein: not the duty of a writer to be submissive; ihre Aufgabe, kranke Tiere zu behandeln: her responsibility to treat sick animals usw. Kontrastive Valenzbeschreibungen werden erst dann wirklich brauchbar, wenn sie eine kollokative Komponente enthalten. Denn übersetzt werden nicht dekontextualisierte Einzel-
wörter, sondern komplexere Einheiten, nämlich Wörter in ihren jeweiligen Kontexten. Die semantischen Kookkurrenzbeziehungen zwischen Einzelwörtern, zwischen valenten Substantiven und ihren Ergänzungen, entziehen sich einer systematischen, regelbasierten Beschreibung, wie sie das Ziel des universalgrammatischen Ansatzes ist. Sie lassen sich nur mit den statistischen Verfahren der Korpuslinguistik analysieren. So gesehen findet das Valenzmodell, das linguistische Konstrukt der Substantivvalenz, eine zusätzliche Rechtfertigung, wenn es sich mit einer korpuslinguistischen Analyse verbindet. Denn dann zeigen Valenzbeschreibungen nicht nur die Vielfalt syntagmatischer Bildungsmöglichkeiten, sondern auch das konkrete lexikalische Repertoire, das wir der Kontingenz der Sprachpraxis verdanken. Es kann deshalb sein, dass sich längerfristig nicht mehr Konstituenzmodell und Valenzmodell als Paradigmen gegenüberstehen, sondern dass das Valenzmodell künftig als Bindeglied zwischen regelbasierter Universalgrammatik einerseits und statistikbasierter Korpuslinguistik andererseits seinen Platz findet. Für die Substantivvalenz wäre dies kein Schaden, sondern ein Gewinn.
7.
Literatur in Auswahl
´ gel, Vilmos (1993): Valenzrealisierung, Finites A Substantiv und Dependenz in der deutschen Nominalphrase (= Kölner linguistische Arbeiten ⫺ Germanistik 29). Hürth-Efferen. ´ gel, Vilmos (1993a): Aktiv und Passiv in der deutA schen Nominalphrase. In: Deutsche Sprache 21, 128⫺141. Bassola, Peter/La´szlo´ Sarolta (1996): Konzeption eines Substantivvalenzlexikons Deutsch ⫺ Ungarisch. In: Wiegand, Herbert E. (Hg.): Studien zur zweisprachigen Lexikographie mit Deutsch III. (⫽ Germanistische Linguistik 134⫺135). New York, 1⫺34. Bassola, Peter (1999): Wörterbuch zur Substantivvalenz aus heutiger Sicht. In: Bassola, Peter/Oberwagner, Christian/Schniedess, Guido (Hgg.): Schnittstelle Deutsch ⫺ Linguistische Studien aus Szeged. Festschrift für Pavica Mrasovic. (⫽ Acta Germanica Szegediensis Bd. 8). Szeged, 31⫺47. Bassola, Peter (Hg.) (2003): Deutsch ⫺ Ungarisches Wörterbuch zur Substantivvalenz. Szeged. Benson, Morton/Benson, Evelyn/Ilson, Robert (eds.) (1997): The BBI Dictionary of English Word Combinations. Amsterdam. Bresson, Daniel (1991): Erstellung eines syntaktischen Wörterbuchs der prädikativen Nomina im Deutschen. In: COMPLEX 1, Budapest, 25⫺34.
834 Bresson, Daniel/Kubczak, Jacqueline (Hgg.) (1998): Abstrakte Nomina: Vorarbeiten zu ihrer Erfassung in einem zweisprachigen syntagmatischen Wörterbuch. Tübingen. Colominas, Carmen/McNally, Louise/Badia, Toni (1998): Lexical Selection in Light Verb Constructions. Barcelona. Van Durme, Karen (ed.) (1997): The Valency of Nouns (= Odense Working Papers in Language and Communication 15). Odense. Ehrich, Veronika (1991): Nominalisierungen. In: von Stechow, Arnim/Wunderlich, Dieter (Hgg.) (1991): Semantik: Ein internationales Handbuch der zeitgenössischen Forschung (= HSK 6). Berlin/New York, 441⫺458. Eisenberg, Peter (1994): Grundriß der deutschen Grammatik. Stuttgart/Weimar. Eisenberg, Peter (1999): Grundriss der deutschen Grammatik. Stuttgart/Weimar. Eisenberg, Peter (1999): Grundriss der deutschen Grammatik. Band 2: Der Satz. Stuttgart/Weimar. Engel, Ulrich (1994): Syntax der deutschen Gegenwartssprache. Berlin. Grimshaw, Jane (1992): Argument Structure (= Linguistic Inquiry Monographs 18). Cambridge Mass./London. Gross, Gaston (1989): Les constructions converses du franc¸ais. Genf. Gross, Gaston/Vive`s, Robert (1986): Les constructions nominales et l’e´laboration d’un lexique-grammaire. In: Langue franc¸aise 69, 5⫺27. Haider, Hubert (1992): Die Struktur der Nominalphrase ⫺ Lexikalische und funktionale Strukturen. In: Hoffmann, Ludger (Hg.) (1992): Deutsche Syntax: Ansichten und Aussichten (= Institut für deutsche Sprache, Jahrbuch 1991). Berlin/New York, 304⫺333. Helbig, Gerhard (1976): Zur Valenz verschiedener Wortklassen. In: Deutsch als Fremdsprache 13, 131⫺146. Helbig, Gerhard (1986): Zu umstrittenen Fragen der substantivischen Valenz. In: Deutsch als Fremdsprache 23, 200⫺207. Helbig, Gerhard (1992): Probleme der Valenz- und Kasustheorie. Tübingen. Helbig, Gerhard/Schenkel, Wolfgang (1969): Wörterbuch der Valenz und Distribution deutscher Verben. Leipzig. Jacobs, Joachim (1992): Syntax und Valenz. In: Hoffmann, Ludger (Hg.) (1992): Deutsche Syntax: Ansichten und Aussichten (= Institut für Deutsche Sprache, Jahrbuch 1991). Berlin/New York, 94⫺ 127. Knobloch, Clemens (1984): Zur Behandlung des Attributs in den „Grundzügen einer deutschen Grammatik“. In: Osnabrücker Beiträge zur Sprachtheorie 27. Osnabrück, 101⫺118.
VI. Valenz: Schwerpunkte der Forschung Kubczak, Jacqueline/Costatino, Sylvie (1998): Exemplarische Untersuchungen für ein syntagmatisches Wörterbuch Deutsch-Französisch/Französisch-Deutsch. In: Bresson, Daniel/Kubczak, Jacqueline (Hgg.) (1998): Abstrakte Nomina: Vorarbeiten zu ihrer Erfassung in einem zweisprachigen syntagmatischen Wörterbuch. Tübingen, 11⫺120. Kubczak, Jacqueline/Schumacher, Helmut (1998): Verbvalenz-Nominalvalenz. In: Bresson, Daniel/ Kubczak, Jacqueline (Hgg.) (1998): Abstrakte Nomina: Vorarbeiten zu ihrer Erfassung in einem zweisprachigen syntagmatischen Wörterbuch. Tübingen, 273⫺286. La´szlo´, Sarolta (1998): Zur Grenze zwischen Grammatik und Lexik im Bereich der Substantivvalenz. In: Bassola, Pe´ter (Hg.) (1998): Beiträge zur Nominalphrasensyntax (= Acta Germanica 6). Szeged, 129⫺142. Mackenzie, J. Lachlan (1997): Nouns Are Avalent ⫺ And Nominalizations Too. In: Van Durme, Karen (ed.) (1997): The Valency of Nouns (= Odense Working Papers in Language and Communication 15). Odense, 89⫺118. von Polenz, Peter (1985): Deutsche Satzsemantik: Grundbegriffe des Zwischen-den-Zeilen-Lesens. Berlin/New York. von Randow, Elise (1986): Valente Substantive des Englischen (= Tübinger Beiträge zur Linguistik 294). Tübingen. Rey-Debove, Josette/Rey, Alain (eds.) (1993): Le Nouveau Petit Robert. Paris. Sandberg, Bengt (1979): Zur Repräsentation, Besetzung und Funktion einiger zentraler Leerstellen bei Substantiven (= Acta Universitatis Gothoburgensis. Göteborger germanistische Forschungen 18). Göteborg. Schøsler, Lene/Van Durme, Karen (eds.) (1996): The Odense Valency Dictionary: An Introduction (= Odense Working Papers in Language and Communication 13). Odense. Siloni, Tal (1997): Noun Phrases and Nominalizations. The Syntax of DPs (= Studies in Natural Language and Linguistic Theory 40). Dordrecht/ Boston/London. Slager, Emile (1997): Pequen˜o diccionario de construcciones preposicionales. Madrid. Somers, Harold (1984): On the Validity of the Complement-Adjunct Distinction in Valency Grammar. In: Linguistics 22, 507⫺530. Sommerfeldt, Karl-Ernst/Schreiber, Herbert (1977): Wörterbuch zur Valenz und Distribution der Substantive. Leipzig. Sommerfeldt, Karl-Ernst/Schreiber, Herbert (1996): Wörterbuch der Valenz etymologisch verwandter Wörter: Verben, Adjektive, Substantive. Tübingen. Stein, Achim (1996): Zur Valenz komplexer Prädikate am Beispiel deutscher und französischer VerbSubstantiv-Verbindungen. In: Gre´ciano, Gertrud/
835
60. The Valency of Non-Verbal Word Classes: the Adjective Schumacher, Helmut (Hgg.) (1996): Lucien Tesnie`re ⫺ Syntaxe structurale et ope´rations mentales. Akten des deutsch-französischen Kolloquiums anläßlich der 100. Wiederkehr seines Geburtstages, Strasbourg 1993 (= Linguistische Arbeiten 348). Tübingen, 191⫺202. Szabolcsi, Anna (1994): The Noun Phrase. In: Syntax and Semantics 27, 179⫺274. Teubert, Wolfgang (1992): Zur Behandlung von Präpositionalattributen im Wörterbuch. In: Cahiers d’E´tudes Germaniques 23, 119⫺135. Varnhorn, Beate (1986): Nochmals: Ergänzungen und Angaben. In: Deutsche Sprache 14, 1⫺11. Vater, Heinz (1978): On the possibility of distinguishing between complements and adjuncts. In: Abraham, Werner (ed.) (1978): Valence, Semantic, Case and Grammatical Relations. Amsterdam.
Welke, Klaus (1988): Einführung in die Valenz- und Kasustheorie. Leipzig. Zamzam, Laila (1987): Die Substantivgruppen im Deutschen und Arabischen unter besonderer Berücksichtigung des Präpositionalattributs (= Diss.). Erlangen-Nürnberg. Zifonun, Gisela/Hoffmann, Ludger/Strecker, Bruno (1997): Grammatik der deutschen Sprache (= Schriften des Instituts für deutsche Sprache 7.1⫺ 7.3). Berlin/New York. Zucchi, Alessandro (1993): The Language of Propositions and Events. Issues in the Syntax and the Semantics of Nominalization (= Studies in Linguistics and Philosophy 51). Dordrecht/Boston/London.
Wolfgang Teubert, Birmingham (United Kingdom)
60. The Valency of Non-Verbal Word Classes: the Adjective 1. 2. 3.
Introductory remarks Syntactic valency Select Bibliography
1.
Introductory remarks
1.1. General remarks Verbal valency has always taken the center stage to other word classes, and this is not surprising. In most languages, sentences without verbs (including copula or existential verbs) are incomplete, while sentences without adjectives are common enough and acceptable. The status of stepchildren for adjectives is common as well in the general field of syntax as in the specialized field of valency theory. The idea that verbs and adjectives can be treated in the same manner under the valency theoretical approach goes back to Tesnie`re (1959/1980). Tesnie`re (1980, 77) distinguishes predicative and relative adjectives. The further subclassification suggests semantic criteria. His treatment of attributive adjectives (1980, 128⫺132) as falling into centripetal (attributive adjective precedes its noun) and centrifugal patterns (attributive adjective succedes its noun) may be one of the most famous sections of his book. He then goes on to show that centripetal languages distinguish attributive and predicative adjectives by word order: an adjective that succedes a noun is its predicate (1980, 133 f.). Tesnie`re generally distinguishes between languages
that do not have to use copulae, or existential verbs (which Tesnie`re calls “verbe substantif” according to the traditional French grammar) and that build “pure predicative” or nominal sentences, and languages that do use verbal elements and whose predicative constructions he regards as verbal sentences (1980, 137). He suggests that in nominal sentences the predicative adjective has the same structural role as a verb, and therefore must be considered as the governor of the noun (1980, 134), calling those adjectives “adjective-verbs” (1980, 135). In languages with verbal predicative sentences, Tesnie`re (1980, 136) stresses that copulae or existential verbs are not always necessary, in particular in some types of questions and exclamations that are often accompanied by word order change. However, obligatory verbal elements only structurally function as verbs, while the semantic function is carried by the predicative noun (a noun or an adjective in predicative position); both elements combine and function as a main verb (1980, 137). Tesnie`re’s treatment of these verbal predicative sentences is based on his theory of formative translation. He claims that the existential verb (the “verbe substantif”) functions as a translative which transfers a predicative adjective into the structure {existential verb ⫹ predicative adjective} which is then to be considered as one unit (1980, 325). Since this nucleus contains two elements it is a dissociated nucleus with the structural function car-
836 ried by the existential verb, and the semantic function carried by the predicative adjective (1980, 325). Thus, Tesnie`re suggests the reduction of the verbal predicative structure to a pure predicative or nominal pattern. In order to prevent problems in the stemmatological depiction, he introduces two kinds of stemma: the developed stemma that shows all relevant connections, and the abbreviated stemma (1980, 138). Although Tesnie`re’s theory of formative translation is significantly less well known and accepted than his theories of dependency and valency, this idea has influenced valency research to a very large degree, alas not overtly. Almost every source on valency research that deals with the analysis of Tesnie`re’s verbal predicative sentences, uses his concept of a dissociated nucleus, but also almost as often does not reveal its origin. Most valency research on adjectives has been done on German, English and Japanese adjectives, in particular by Sommerfeldt (1977), Schreiber/Sommerfeldt/ Starke (1991), Lee (1994), and Sommerfeldt/ Schreiber (1996) on German; Herbst (1983) on English; and Nishio (1972), the Information Processing Agency (1990), and Hida/ Asada (1991) on Japanese (for Hungarian and Italian cf. Fa´bia´n 1996). For this reason, English, German, and Japanese will be chiefly employed in this chapter. 1.2. Typological remarks Adjectives pose different problems than verbs do, in particular because unlike verbs adjectives are less easily identified as such, at least crosslinguistically. While according to the prototypical approach verbs are words that refer to actions, processes, changes of state etc., adjectives can be regarded as those words that semantically refer to states, properties, dispositions, features etc. of persons, animals, objects, locations etc. Most Indoeuropean languages such as English, German, French etc. have to include their adjectives into a large group of nominal lexemes, and thus oppose adjectives to nouns (which are called substantives in that case), because in those languages adjectives share structurally crucial features with substantives. This class of adjectives can be called “nominal adjectives (nA)”. Among those most important, are morphosyntactic properties: nAs only occur in adnominal (attributive) and adverbal (predicative) position (but some are restricted to either position, cf. Helbig/Buscha 1974, 276⫺282 for German). English and Japanese
VI. Valenz: Schwerpunkte der Forschung
distinguish predicative and adverbial function by affixing: In English -ly or periphrastic constructions are used for adverbial nAs while predicative and attributive nAs stay unmarked. Japanese nAs take the clitics =na in attribute, =ni in adverbial and =da (a derived existential clitic verb) in predicative function. In German, however, any adverbal nA stays unmarked, while attributive nAs are marked by number, gender, and/or case features, collapsed in one affix. Japanese, and some other languages typologically similar to Japanese such as Korean, however, use a further class of adjectives that are closer to verbs. These can be called “verbal adjectives (vA)”. The relevant difference between nAs and vAs is that nAs can never occur in finite position, and in predicative function they need a copula or an existential verb as a governor. VAs can take finite position and do not require verbal governors. Thus, there is a crucial difference between vAs and nAs where valency theory is concerned: vAs ⫺ such as those in Japanese ⫺ can constitute the syntactic head of a sentence. NAs as in English and German can never do so. This requires predicative vAs to govern the subject. The problem for nAs is how the subject can be treated as a valency complement. Designation of meanings may be a problem in languages where adjectives form an open class (as termed by Croft 1990, 140) that can easily be infiltrated by other word classes such as nouns or verbs. English is a language where adjectives form an open class. Japanese verbal adjectives on the other hand, form a closed class, since they are entirely defined by strict grammatical criteria. Comparing languages with closed and open adjective classes, Dixon (1977, 56) suggests that if a language has adjectives, it usually includes words referring to basic adjectival concepts such as dimension, age, colour, and value in that class. And if a language includes nonbasic adjectival concepts in that class, it will include basic concepts in the same class. Therefore, adjectives carry almost always the same meanings in a variety of languages. The semantic subclass of an adjective is in particular important in the case of nAs, since they cannot govern their subject complements, but rather select them (cf. 2.1.1). Semantics is stricter in predicative than in attributive function, because the predicative functions as ascriptive. However, attributives may also function as associatives (cf. Ferris 1993, 23 f.). However, it is the predicative
60. The Valency of Non-Verbal Word Classes: the Adjective
function that matters most for adjectival valency, and then adjectives must carry ascriptive function. Ascriptive function requires both the complement and the adjective to concur on specific semantic features.
2.
Syntactic valency
At the level of syntactic valency, it is important how many and what kind of complements can be governed in what way. Both nAs and vAs feature a subject problem: nAs cannot govern subjects, vAs are able to govern more than one element that could be the subject. These problems are prominent for all adjectives. 2.1. Nominal adjectives In English and German, nAs cannot govern a subject from their predicative positions, but the subject is generally included in the valency information. This is a contradiction, because if subject government is impossible, complementhood is, too, as dependency is a strict requirement for complementhood, if one follows Engel/Schumacher (1976, 15) that valency is a special form of a government potential. Most explanations on why subjects are included into the group of complements center on two arguments: most linguists agree on the fact that if adjectives function as expressions of states or features, the subject almost always refers to the object that is in that state or that has that feature. In order to back this intuitively appropriate insight at a formal level, most authors also prefer to view existential verb and predicative adjective as a predicative complex structure, which is basically Tesnie`re’s idea of a formative translation process. Motsch (1968, 22) introduces the concept of a “predicative” as a nominal or adjectival part of a predicate. This was taken up by Helbig/Buscha (1974, 478 f.) and Helbig/Buscha (1976, 208) who define a predicative as a non-finite and nonverbal part of a complex predicate. Both subject and predicative are regarded as dependents of the existential verb. In Eisenberg (1976, 105), the copula is viewed as semantically neutral and only structurally relevant. In the most important, explicitly valency-oriented contributions this approach is not changed, cf. Götze (1979, 78), Schreiber/ Sommerfeldt/Starke (1991, 6) who explicitly refer to Heidolph/Flämig/Motsch (1984), and Sommerfeldt/Schreiber (1996). However, En-
837
gel (1982) criticizes the fact that this approach has to pay with a bloated lexicon, since the majority of nouns and adjectives can appear in predicative position, and thus, have to be included into the lexicon. Furthermore, the even more difficult problem, how to regard valency and valency reduction in non-finite constructions has not been clarified to satisfaction. Technically, the subject problem is the central problem of adjectival (and nominal) valency. Groß (1999) discusses this problem in general and suggests a dependency-based approach that utilizes binding theoretical concepts. Gallmann (1990, 38 f.) can be read in the same manner, although his approach is GB-based. 2.1.1. The subject problem of nominal adjectives NAs share their incapacity of governing subjects with predicative nouns (the predicative nouns, ger. Prädikatsnomina). Predicative nAs and nouns do not have a direct access to the subject, because they themselves and the subjects are dependents of another element. The only structural relation that allows for a dependent to reach up to a governor and down again to another dependent is binding. Binding relations are specific forms of agreement relations, but not accompanied by dependency. In German and English, subjects cooccur with specifically inflected verbs, and whether there are any substantives or adjectives in predicative position depends on the syntactic valency potential of the verbs. Even if existential verbs and predicative positions are grouped together into a predicate unit (such as a dissociated nucleus) assumingly governing the subject, the capability of the occurrence of a subject hinges only on one feature: whether the verb’s flexeme carries the grammatical feature [⫹FIN]. Thus, subjects cannot occur with verbs if the verbs are not inflected or if their flexeme does not carry the required feature. It shows that in sentences with predicative nouns, these nouns must to a certain degree agree with the subjects, and very often they also agree with the verbal element. Genus agreement between two nouns is a binding relation. Since adjectives do not have any genus, and since in German and English predicative nAs stay unmarked, the only candidates for binding properties can be internal features of the nAs to which the subject must correspond. Adjectives like German ehrlich or English honest, select substantives with the semantic features
838
VI. Valenz: Schwerpunkte der Forschung
[⫹HUM(an)] or [⫹ACT(ion)]. It may be assumed that adjectives only select those semantic features that they themselves have. I. e. if the adjective ehrlich selects a substantive with the feature [⫹HUM], it allows only those substantives (such as the proper name Robert) that agree on this feature. Substantives that do not agree but are forcefully inserted (something that rarely happens in natural speech), cause the sentence to become inacceptable: (1)
Robert ist ehrlich.
(2)* Diese Tasche ist ehrlich. Thus, e. g. colour adjectives select for substantives that agree with them on the feature [⫹CON(crete)], but disallow substantives that disagree: (3)
Diese Tasche ist blau.
(4)* Diese Theorie ist blau. Psychological adjectives, again, select substantives that agree on the feature [⫹ANI(mate)]: (5)
Dieser Hund ist gehorsam.
(6)* Dieses Buch ist gehorsam. In order to include subjects into the class of complements, the concept of binding relations between semantic features of subject and nA is the most practical. Thus, subjects can be considered as complements, and within the valency theoretical framework they are then regarded as “E(rgänzung) 0”, or “first complement”. The vast majority of non-derived nAs are monovalent, i. e. they have only one complement, namely the subject. Some German psycho-physiological perception adjectives take a dative complement as either first or second complement, if the subject is already allocated to an expletive or proper noun subject. The latter happens often, if the adjective is graduated.
Nominal adjectives in Japanese can be recognized by their clitic particles. According to Rickmeyer (1995, 339) they appear with =na (or depending on subclassification also =no or both) in adnominal position, with =ni in adverbal position, and with the verbal clitics =da or the polite equivalent =des.u in predicative position. Since in predicative position the existential element is affixed to the nA, it forms one word. Thus there is no problem of subject government. 2.1.2. Bivalency For all other complements valency government depends on several criteria: Is the case system overt or not? Is adjacency necessary or not? Are the adjectives lexical or derived? In English, substantives are not subjected to case markings anymore, -s-genitive excluded. Dative and accusative are indistinguishable in English, and since adjacency is required for a second non-prepositional complement, and since English adjectives are nAs, and thus need an existential verb if they are in predicative position, English adjectives cannot assign dative or accusative case to their complements. German has a more overt case system than English, and still a difference between dative and accusative case, and therefore it can be expected that case assignment is used for adjectival valencies. Depending on their subclassification, German nouns may be assigned overt case markers, such as DAT SG Haus.e, DAT PL Berg.en. Loan words, mostly of Latin origin, take the overall case marker -en as in des/dem/den Student.en as opposed to der Student. Direct objects are not subjected to adjacency, and therefore they appear as an adjective’s complement: (10) Ich bin ihn los.
(7)
Mir ist kalt.
Therefore, as second complements, German and English adjectives share with German PPs (11, 12), infinitives (13, 14), and complementized sentences (15, 16). Examples taken from Lee (1994, 32⫺33) and English ones from Herbst (1983, 34):
(8)
Die Suppe ist mir zu kalt.
(11) Er ist an dem Mädchen interessiert.
(7) is derived by word order: Since a German main clause sentence needs the preverbal position filled, the expletive es can be used as a structural subject, but if the dative is moved into this position, the structural subject can be omitted. However, it need not be omitted: (9)
Mir ist es kalt.
(12) He is good at mathematics. (13) Er ist fähig, sich so zu verhalten. (14) It is bad to smoke. (15) Er ist würdig, dass er ausgezeichnet wird. (16) She was certain that he had booked the ferry.
839
60. The Valency of Non-Verbal Word Classes: the Adjective
Other than English, German adjectives distinguish between dative and accusative: (17) DAT: Ich bin diesem Mann fremd. (18) ACC: Ich bin alle Sorgen los. Genitive case, however, can be assigned by English adjectives, provided it is the prepositional genitive and not the Saxon genitive. (19) Er ist des Diebstahls schuldig. He is guilty of the crime. Unlike English, however, German has no gerund forms, and thus tends to build infinitive or even sentential constructions instead: (20) She is careful crossing the road. Sie ist vorsichtig, wenn sie die Straße überquert. Japanese nominal adjectives mainly assign the case markers =ni(dat) and =to(symmetry) to their second complements. (21) Kare=wa tanin=ni shinsetsu=des.u. ‘He is friendly to other people.’ he=EXF other people=DAT friendly =ESV⫹PRES (22) A=wa B=to taitoˆ=da. ‘A is equal to B.’ Some nominal adjectives can assign both dative and symmetry as alternative valencies: (23) A-sen=wa B-sen=ni/to heikoˆ=da. ‘Line A is parallel to line B.’ Psychological adjectives can assign both =ga(nom) and =o(acc), however alternatively. Nominative is more common at the highest level of the sentence, while embeddings favour accusative. They also distinguish between a subjective and an objective mood. The latter mood is marked by evidential suffixes, the former stays unmarked. In subjective mood, a subject is not necessary, so the nominative is free to be assigned to the second complement. Sentence (24) is adapted from Hida/Asada (1991, 66): (24) Anna onna=no kao=o mi.ru=no=ga iya=da. that woman=GEN face=ACC see ⫹PRES=NOminaliZation=NOM dislike=ESV ‘I am sick of seeing that woman’s face.’ Sentence (25) is the title of a famous Japanese comedy movie (same title, 1988). (25) Kimi=wa boku=o suki=ni nar.u!
‘You(¥) will yet like me(µ)!’ you[intimate]=EXF I[⫹m]=ACC like=ADV become⫹PRES In (24) the nA is the head of the sentence, the nA in (25) is not, and (24) is in subjective mood, and (25) is not. 2.1.3. Polyvalency Polyvalent adjectives (adjectives with more than two complements, subject included) assign either a mixture of PPs, infinitive and complementized constructions as in English, vary with case markings, or use case only as German adjectives do. (26) is taken from Herbst (1983, 35), (27) has been adapted from Lee (1994, 37): (26) It was brave of her to go out in the life boat. ‘Es war mutig von ihr, im Rettungsboot hinauszufahren.’ (27) Er ist ihr einen Monatslohn schuldig. ‘He owes her a month’s pay.’ (28) Sie ist ihm für die Zahlung des Monatslohns dankbar. ‘She is grateful to him for being payed her month’s pay.’ In German, some polyvalent adjectives even cause reflexives, that are bound by the subject, to occur: (29) Ich bin mirREFL-DAT dessenGEN gewiss. ‘I am sure about it.’ 2.2. Verbal adjectives In languages with vAs such as Japanese, the problem of multiple subjects may arise: in predicative position more than one element, possibly the subject, can be governed. For any categorial valency or deep case approach that causes trouble, because it is difficult to assign subjecthood. For the valency description of Japanese verbs, Rickmeyer (1977) proposes a relational approach: rather than to assign deep cases to complements the governor is considered to establish a valency relation between complements. Groß (1996b) extends this idea to Japanese vAs and distinguishes three types of lexical valency relations: simplex, conjoined, and complex. The multiple subject problem is avoided by the concept of structural valency relations that allows case shift from genitive to nominative if certain relations hold between reference constituents, cf. Groß (1996a).
840 2.2.1. The subject problem of verbal adjectives In the sentence (30) kare=wa hitomi=no iro=ga ao.i. he=EXF iris=GEN colour=NOM blue⫹PRES lit.: ‘He has blue eye-colour.’ the first two nouns, kare and hitomi, can surface with nominative or they can stay in adnominal position with genitive. The last noun, iro, if surfaced, must be marked with nominative, or it can be deleted. Regardless of the vA governor, if the first and the second noun are in a partitive or possessive relation, and if the second-last and the last noun are in a qualitative relation, (30) can be instantiated in five other ways: structural relation 1A: kare and hitomi stay, and iro is surfaced. SR Q: kare stays, hitomi and iro are surfaced. SR 3A: all nouns are surfaced. SR 1P: kare stays, hitomi is surfaced, and iro is deleted. SR P: kare and hitomi are surfaced, and iro is deleted. (30) exhibits SR 2A. Since every noun surfaces with every other noun, and since the only noun always surfaced can be deleted, it is practically impossible to determine the subject of (30). Since also every possible permutation can be honorified, subject honorification as proposed by Shibatani (1985) gives no clues. However, this concept of structural valency relations introduces an explanation that does not hinge on the term subject. Since one desire of valency theory is economy in lexicon design, the phenomenon of multiple subjects can be moved from the area of lexical valency into a structural domain that works exclusively with rules. Since about 75 % of all basic Japanese vAs instantiate structural relations, the concept of structural valency is very valuable for practical applications. 2.2.2. Bivalency Second complements (C2) of Japanese adjectives are relata of a semantic relationship with C1 that is expressed by case. Japanese has an overt case system, where clitic case particles such as =ga (nom) or =ni (dat) are attached to nouns. If a Japanese adjective is monovalent, it is marked with nominative. Bivalent constructions render the first linear element (mostly the subject) with the exclusive focus marker =wa. All bivalent relations are simplex and they include “direction”, “extension”, “fictive”, “locative”, “source”,
VI. Valenz: Schwerpunkte der Forschung
“symmetry”, “action”, “verbal”, “essive”, and “perception”. The majority of the simplex relations assign dative to the second complement: “direction”, “extension”, “fictive”, “locative”, “action”, and “perception”. The “source” relation alternates dative with ablative =kara. The relation “symmetry” assigns alternately nominative or symmetric =to to C2, or undergoes valency reduction (cf. 2.3.2.). The “verbal” relation alternates nominative and accusative =o, and the “essive” relation is used exclusively by the negative adjective na.i which assigns essive =de to C2. 2.2.3. Polyvalency Polyvalent valencies are either conjoined or complex relations. In most conjoined relations a structural valency “bivalency” is conjoined with a lexical-simplex relation. All local relations such as “direction”, “source”, and “locative” plus the “extension” relation can form conjoined relations with the structural bivalency relation. Since C3 is always an argument of the bivalency relation, and thus assigned structural case, it must be marked with nominative. The verbal-fictive relation has C3 as an argument of both simplex relations “verbal” and “fictive”, that both mark their C2 with nominative. Accusative (as case for C2 in the “verbal” relation) is suppressed by obligatory nominative from the “fictive” valency. The next examples are taken from Groß (2002, 40). (31) watashi=wa joshu=ni kare=ga hoshi.i. I =exf assistant =dat he =nom want⫹pres ‘I want him as my assistant.’ In complex relations simplex ones are embedded as arguments in other simplex relations. One example is the complex “verbal-fictive” valency (cf. (32)) where a “fictive” relation is embedded as the second argument of a “verbal” relation. C2 in (32) is actually C2 in the “fictive” valency, but has reversed word order with C3 which is C1 in the “fictive” valency (cf. (31)). (32) watashi=wa zehi sono hito=o joshu=ni hoshi.i. I =EXF really that person =ACC assistant =DAT want ⫹PRES. ‘I really want that person as my assistant.’
60. The Valency of Non-Verbal Word Classes: the Adjective
2.3. Adjectives with special valencies Some nAs and vAs have special valencies. Nouns and verbs can often be transformed into adjectives by derivation. Most typically, this leads to a systematic valency reduction. Other cases are caused by semantics: in particular the symmetric valency can for logical reasons be depicted either as bivalent or as a monovalent structure with a plural subject. In the latter case, English and German often demand reciprocal or reflexive expressions. 2.3.1. Derived adjectives Denominal adjectives like Ger. männ.lich do not pose a lot of problems for valency theory because most nouns are monovalent. Deverbal adjectives such as Ger. wohn.haft, however, decrease their valencies, because like lexical nAs they only select their subjects but cannot govern them anymore. This valency reduction is therefore structurally caused by the morphological derivation process. Since all German participles, present tense and past tense, behave like adjectives (present participles occur almost always in adnominal position, past participles also very often in adverbal position), the class of deverbal adjectives is relatively large. In particular Eisenberg (1976, 92 f.) has dealt with the problem of deciding on the adjectivity and verbality of participles. In Japanese (for Japanese morphology see Rickmeyer 1995), denominal adjectives are far rarer than in German or English, because they can only be formed by the vA suffixes -ppo.i ‘a tendency to’ and -gamasi.i ‘an appearance like’, the nA suffix -teki and negation prefixes which cause change of word class to nA. Interference with valency potentials is not really a problem in these cases. However, deverbal adjectives are very common. The voluntative vA suffix -ta.i causes valency change, because it belongs to the class of psychological adjectives (see (24) and (25)). The evidential nA suffix -soo (and the verbal suffix -gar.u) can reverse the case change. Some lexical vAs are used to graduate the verb: V⫹yas. u.i ‘easy to V’ and V⫹niku.i ‘difficult to V’. There is an obligatory detransitive valency reduction. If, however, the validity of the predicate is not general but limited to the former subject, the structure is expressed by the extension relation (cf. 2.2.2).
841
2.3.2. Symmetric adjectives, reciprocal and reflexive construction Very few Japanese adjectives mark symmetric valencies, i. e. a semantical relation where the relata (i. e. the complements) can be substituted against each other. Most, but not all, Japanese symmetric adjectives can undergo reciprocity. Reciprocity combines both complements into one plural complement. In German and English, reciprocal constructions occur if the relation between the complements is mutual, i. e. symmetric. In German, there is a smaller distinction between reciprocals and reflexives than in English, and in colloquial German reciprocals are almost always substituted by reflexives. 2.3.3. Comparison Comparative expansions may cause problems as to whether phrases that occur only if the adjective is in comparative mood, are complements or adjuncts. It should be noted, though, that comparison is impossible for a whole subclass of e. g. German adjectives, as ⫺ among many others ⫺ Helbig/Buscha (1974, 276 ff.) point out. It is certainly true that the occurrence of the comparative phrases is caused by the comparative suffix -er in both German and English (cf. Rusiecki 1985 on English adjectives). This suffix obligatorily demands a phrase headed by the subjunctions als and than. Varnhorn (1993, 81) concludingly suggests that comparative phrases are complements, and that they are dependents of the respective suffix. While the former suggestion is true, it is so not because of the second suggestion. Comparative phrases are complements, because there is a relationship “>(x, y)” with “>” as ‘to a greater extent’, that is solely instantiated by the suffix. Therefore, comparative elements are regulative and obligatory complements. In Japanese, however, there are no comparative suffixes attached to the adjective. Verbal adjectives mark a comparative phrase also by the comparative case marker =yori but they are themselves not subjected to morphology. The Japanese comparative is converse to the English and German suffix -er, thus the relator should be symbolized as “<” yielding “<(x, y)”. 2.3.4. Functional expressions Like other word classes, adjectives build idiomatic constructions or functional expressions in which the original dependency and valency
842
VI. Valenz: Schwerpunkte der Forschung
relations petrify to a significant extent and where one or more complements can semantically fuse with the predicate. Japanese has relatively few adjectives, but a lot of them can fuse with nouns such as ki ‘spirit’ and nouns for body parts to form new suprasegmental idiomatic lexemes (see Groß 1996b, 100). Others combine with nouns or verbs into structures that basically convey grammatical functions such as e. g. the periphrastic volitional construction V⫹Te hoshi.i ‘to want someone to do V’. There is a difference whether the cooccurring expression is an actual complement of the adjective or a different kind of dependent word. The former are called functional expressions with internal valency, the latter functional expressions with external valency (see Groß 1996b, 102). The volitional expression above has external valency.
3.
Select Bibliography
Croft, William (1990): Typology and universals (= Cambridge Textbooks in Linguistics). Cambridge. Dixon, Robert M. W. (1977): Where have all the adjectives gone? In: Studies in Language 1, 19⫺80. Eichinger, Ludwig M. (1982): Syntaktische Transposition and semantische Derivation (= Linguistische Arbeiten 113). Tübingen. Eisenberg, Peter (1976): Oberflächenstruktur und logische Struktur: Untersuchungen zur Syntax und Semantik des deutschen Prädikatadjektivs (= Linguistische Arbeiten 36). Tübingen. Engel, Ulrich (1982): Syntax der deutschen Gegenwartssprache (= Grundlagen der Germanistik 22). Berlin. Fa´bia´n, Zsuzsanna (1996): Olasyz-Magyar Melle´kne´vi, Vonzatszo´ta´r (Government-Lexicon of Italian-Hungarian Adjectives). Budapest. Ferris, Connor (1993): The Meaning of Syntax: A Study in the adjectives of English. London/New York. Gallmann, Peter (1990): Kategoriell komplexe Wortformen (= Reihe Germanistische Linguistik 108). Tübingen. Götze, Lutz (1979): Valenzstrukturen deutscher Verben und Adjektive (= Heutiges Deutsch: Linguistische und didaktische Beiträge für den deutschen Sprachunterricht: Reihe III: Linguistisch-didaktische Untersuchungen des Goethe-Instituts). München. Groß, Thomas M. (1996a): Strukturelle Valenz in adjektivalen Sätzen. In: Bochumer Jahrbuch für Ostasienforschung 20, 195⫺210. Groß, Thomas M. (1996b): Zur Valenzbeschreibung japanischer Adjektive. In: Akten des 10. Japanologentags. München, 90⫺107.
Groß, Thomas M. (1999): Aspekte und Probleme in der kontrastiven Valenzbeschreibung deutscher und japanischer Adjektive. In: Nitta, Hauro/Minoru, Shigeto/Wienold, Götz (Hgg.): Kontrastive Studien zur Beschreibung des Japanischen und des Deutschen. München, 115⫺132. Groß, Thomas M. (2002): Kleines Handbuch japanischer Adjektive. München. Heidolph, Karl E./Flämig, Walter/Motsch, Wolfgang (1984): Grundzüge einer deutschen Grammatik. Berlin. Helbig, Gerd/Buscha, Joachim (1974): Deutsche Grammatik: Ein Handbuch für den Ausländerunterricht. Leipzig. Helbig, Gerd/Buscha, Joachim (1976): Kurze deutsche Grammatik für Ausländer. Leipzig. Herbst, Thomas (1983): Untersuchungen zur Valenz englischer Adjektive und ihrer Nominalisierungen. Tübingen. Hida, Yoshifumi/Asada, Hideko (1991): Gendai Keiyoˆshi Yoˆhoˆ Jiten (Wordbook on the usage of contemporary adjectives). Toˆkyoˆ. Information Processing Agency (1990): Keisankiyoˆ Nihongo Kihon Keiyoˆshi Jisho (Basic Japanese adjective wordbook for processing). Toˆkyoˆ. Lee, Sun-Muk (1994): Untersuchungen zur Valenz der Adjektive in der deutschen Gegenwartssprache. Frankfurt/Berlin. Motsch, Wolfgang (1968): Syntax des deutschen Adjektivs (= Studia Grammatica III). Berlin. Nishio, Toraya (1972): Keiyoˆshi no Imi, Yoˆhoˆ no Kijutsuteki Kenkyuˆ (Descriptive research on meaning and usage of adjectives). Toˆkyoˆ. Rickmeyer, Jens (1977): Kleines japanisches Valenzlexikon. Hamburg. Rickmeyer, Jens (1995): Japanische Morphosyntax. Heidelberg. Rusieki, Jan (1985): Adjectives and Comparison in English. London/New York. Schreiber, Herbert/Sommerfeldt, Karl-Ernst/Starke, Günter (1991): Deutsche Adjektive. Wortfelder für den Sprachunterricht. Berlin. Shibatani, Masayoshi (1985): Shugo purototaipuron (Subject prototype theory). In: Nihongogaku 4/ 10, 4⫺16. Sommerfeldt, Karl-Ernst/Schreiber, Herbert (1996): Wörterbuch der Valenz etymologisch verwandter Wörter. Tübingen. Tesnie`re, Lucien (1980): Grundzüge der strukturalen Syntax. Hg. und üs. von Ulrich Engel. Stuttgart. Varnhorn, Beate (1993): Adjektive und Komparation (= Studien zur deutschen Grammatik 45). Tübingen.
Thomas Michael Groß, Toyohashi (Japan)
843
61. Probleme der Valenz in der Phraseologie
61. Probleme der Valenz in der Phraseologie 1. 2.
4.
Einleitung Valenz als formaler Beschreibungsansatz für Phraseme Valenz als inhaltlicher Beschreibungsansatz für Phraseme Literatur in Auswahl
1.
Einleitung
3.
Ähnlich der Wortbildung hat sich die Phraseologie (Phras) den Valenzbegriff zu eigen gemacht; er betrifft die morphosyntaktische und pragmasemantische Ebene ihrer synchronen und diachronen Dimension. Trotz der Verschiedenartigkeit beider Bereiche sind Valenz als strukturelles und Phras als lexikalisches Phänomen ganz natürlich einander begegnet, wenn ihre Überschneidung bisher auch nur wenig untersucht ist. Es war die Mehrgliedrigkeit der Phraseme (PHRAS), die vor zwanzig Jahren zur Valenz führte und es war die Festgeprägtheit der Valenz, die auf die Phras verwies. Zwei konverse Pendel schlagen fortan im Eintakt, wobei dem Strukturalismus und den Tiefenkasus auf Seiten der Valenz, sowie der Kognitionssemantik und konzeptuellen Metaphorik auf Seiten der Phras entscheidende Impulse zu verdanken sind. Beidseitig können Lexikographie, Textologie sowie Didaktik der Alltags- und Fachsprachen als weitere einschlägige, wechselseitige und auslösende Momente betrachtet werden. An die Problematik ist man im Laufe der Jahrzehnte typologisch, einzelsprachlich und historisch, sowie übereinzelsprachlich vergleichend und universal herangegangen, auch aus der Perspektive der allgemeinen Linguistik, und es überrascht nicht, dass gerade Valenzexperten unabsichtlich, unvorhergesehen aber vorhersehbar zu Fachleuten der Phrasforschung geworden sind. Evolution und Zufall. Die Themenstellung setzt die Existenz von Valenzproblemen ⫺ es handelt sich um interessante Fragestellungen unterschiedlichster Art ⫺ zuerst phrasemintern und dann phrasemextern und das Vorverständnis dafür voraus. Die phraseologische (phras) Valenzthematik läßt sich mit der zusammen- oder getrenntorthographierten Mehrgliedrigkeit begründen; sie äußert sich in den Weichen, die der Festgeprägtheit durch usuelle und okkasionelle Variabilität gesetzt sind; sie entfaltet im Text die Szenenbildungspotenz von Satel-
liten und Kern. Der folgende Beitrag darf sich daher auf die Lösungsversuche formaler (2.) und inhaltlicher (3.) Natur konzentrieren, die vorwiegend von Germanisten des In- und Auslandes angeboten worden sind. Die Aktualität des Themas liegt heute in den Konsequenzen der distributionellen Vernetzung und der kognitiven Vertextung auf das System, im Sinne einer Linguistik als radikale ´ gel 1995). Konstruktion (A
2.
Valenz als formaler Beschreibungsansatz für Phraseme
Arbeiten sowohl zur Ein- und Ausgrenzung von (nicht)phras Komponenten, zur Bestimmung des phras Kerns, als auch zur phras Mikrostruktur ein- und zweisprachiger Wörterbücher stoßen auf Fragen, die sich im Sprachgebrauch rückwirkend auf das Sprachsystem über Valenz gut beantworten lassen. Der skandinavischen Germanistik und ihrer langjährigen institutionell geförderten Zusammenarbeit mit Mannheim, Berlin und Leipzig ist eine ganz wesentliche Aufarbeitung in dieser Richtung zu verdanken. Von Schumacher (1976) bis Korhonen (1995, 1996) reihen sich umfassende Ein- und Überblicke, die zu erkennen geben, dass Korpussammlungen erst brauchbar werden, wenn sie mit morphologischen, distributionellen und lexikalischen Informationen nach Valenzprinzipien gestaltet sind; dass Wörterbücher erst benutzbar werden, wenn ihre lemmatischen Nennformen mit spezifischen mikrostrukturellen ebenfalls nach Valenz konzipierten Verwendungshinweisen versehen sind. Valenzbeschreibungen bewegten sich von der Morphologie über die Syntax zur Semantik und Pragmatik. Die ersten Distributionsanalysen der 60er Jahre waren morphologisch, beschränkten sich auf Oberflächenkasus bzw. Satzgliedzugehörigkeit und übten sich an allen nicht-verbalen Satzkonstituenten, wodurch das phras Sprachzeichen in Frage gestellt wurde: zur Neige gehen, zur Verfügung stehen (Dativobjekt-Umstandsergänzung); in Verlegenheit bringen (Akkusativobjekt-Raumergänzung). Es kam zur undifferenzierten Vereinnahmung heterogener Teile, bestehend aus Valenzträger- und Valenzgliederfragmenten und führte zur Gleichbehandlung von festen und freien Syntagmen, was
844 bei Funktionsverbgefügen (FVG) als deren Auflösung empfunden wurde. Erst den syntaktischen Distributionsanalysen der 70er Jahre gelang es, anhand von Operationstests, besonders der Pronominalisierung und Permutation, ein für festgeprägte Elemente adäquates Verfahren zu finden, externe und interne Valenz zu trennen und bei Isomorphie bzw. Homonymie von Direktiv- und Lokativverben, syntaktische Ergänzungen von lexikalischen Funktionsnomina zu trennen: in die/zur Hand nehmen vs in Angriff nehmen, so nehmen vs. *so nehmen; unter/auf dem Tisch stehen vs. in Frage stehen, dort stehen vs. *dort stehen. FVG wurden zum bevorzugten Untersuchungsgegenstand: in Aufregung bringen, zur Sprache/zum Abschluss kommen, in Zusammenhang stehen mit, wobei den entsprechenden Nominalkomponenten der syntaktische Satzgliedstatus immer mehr aberkannt wurde zugunsten einer lexikalischen Verbzugehörigkeit (Heringer 1973). Leirbukts (1976) innovative Trennungsproben beschleunigten die Entwicklung von Satzmodellen zu Phraseolexem- wenn nicht Wortbildungsmodellen; Günther/Pape (1976) haben die Tests auf Anaphorisierung, Artikelfähigkeit und Numerusvariabilität konzentriert, auf weitere Konsequenzen geprüft und als Grobklassifizierung für den Gesamtbereich verwendet. Aus aktueller phras Perspektive zeugt die erste Gruppe ohne Plural- und Artikelvariation mit Klein- und Zusammenschreibung: infrage stellen, inbetrieb nehmen von den festgeprägtesten Wendungen auf dem Weg zur Derivation: Infragestellung, Inbetriebnahme. Neben zahlreichen Übergangsformen paart sich in den freiesten Wendungen Attribuierung mit Artikelfähigkeit, was interessante ko(n)textuelle Bedeutungsmodifikationen möglich macht: in unüberwindbare Schwierigkeiten versetzen. Wesentlich erscheint den Autoren der Musterwert dieser Kombinatorik, die in Neubildungen ständig produktiv ist: in Vergessenheit geraten, in Verwahrung nehmen, zur Verwirklichung gelangen. Ihre Stilfunktionen: Lückenfüllung im Verbalsystem, Informationsbereicherung, Sprachökonomie erklären ihre Frequenz im öffentlichen Sprachgebrauch und in den Fachsprachen. Aber bereits Helbig/Buscha (1972) erklären Elemente der internen Valenz zu Verbzusätzen, d. h. zum lexikalisch-idiomatischen Teil des Valenzträgers selbst. Es sind die Vorboten der Argumenthebung, die sich in der
VI. Valenz: Schwerpunkte der Forschung
Nachfolge zur Inkorporierung gestaltet und unvermeidlich zu semantischen Distributionsanalysen aufruft. Helbig/Schenkel (1973) versehen die lexikalisch-idiomatischen Nominalzusätze mit dem Merkmal /⫹abstrakt/ und nehmen der Verbalkomponente ihre Valenz, womit der Weg zu fluktuierenden Valenzträgern frei und gewiesen ist. Dabei kommt es zu Kompromisslösungen, wenn Sternkopf (1988) bei Beibehaltung der Dreiwertigkeit des Verbs waschen aus dem phras gebundenen Substantiv Kopf die Basiskomponente macht: jdm. den Kopf waschen. Eine allmähliche Differenzierung der PHRASkomponenten nach ihrer Wertigkeit, d. h. nach Valenzträger- und Valenzgliedabhängigkeit bietet angemessene Erklärungen für Übergangsformen zwischen phraseminternen und -externen Elementen, die zusätzlich aufschlussreich sind zur Erfassung anaphorischer und kataphorischer Vertextung: aus jds. Schatten treten, aus seinem Schatten treten, aus dem Schatten von X treten, aus dem Schatten seines X treten. Besonders wertvoll ist die bekannte Unterscheidung zwischen obligatorischen und fakultativen Valenzgliedern, weil sie, angewendet auf Phras, die kontextsensitiven Gebrauchsformen zu beschreiben und zu erklären vermag, die in Wörterbüchern nur unzulänglich erfasst sind, und weil sie zeigt, dass der Umfang des PHRAS den idiomatischen Kern überschreitet und dass letzterer nur den obligaten Valenzträger stellt, der nach fakultativen Valenzgliedern verlangt: sich (über etw./darüber, dass) im klaren sein; grünes Licht geben, (jdm.) grünes Licht geben (für); (jdm.) grünes Licht geben (etw. zu tun/, dass er … tun kann/darf …). Besonders FVG und Verbidiome werden nach Valenz in Kern (Valenzträger) und Peripherie (Valenzglieder) strukturiert und zu Generationsmodellen promoviert, wobei, nach inzwischen verbreiteter Erfahrung im Gebrauch und im System, Verben und vielfältige Verbzusätze als Valenzträger fungieren und sich Valenzglieder nicht auf Ergänzungen beschränken, sondern Angaben (mit offenen Armen empfangen) sowie ganze Textfragmente miteinbeziehen können. Burger findet zu diesem Problem einen Konsens. Nachdem das frühe Handbuch (Burger/Buhofer/Sialm 1982, 210) phras Leerstellen kaum berührt, subtiler Weise jedoch deren Mobilität über begriffsund handlungssemantische Kontextsensivität erklärt, plädiert die jüngste Einführung (Burger 1998, 21; 26; 40; 98) für eine sinnvolle komparative Berücksichtigung der internen
61. Probleme der Valenz in der Phraseologie
und externen Valenz, weil die Unterschiede zwischen phras und nichtphras Gebrauch auf die Idiombedeutung verweisen: jdm. einen Bären aufbinden = jdm. eine Lügengeschichte erzählen; an jdm. einen Narren gefressen haben vs. etw. gefressen haben. Oberflächenkasus kann aber auch unterschiedliche PHRAS(bedeutungen) markieren: jd./etw. liegt jdm. (schwer) im Magen: ‘jdn. nicht leiden können’/ ‘Angst haben vor’. Das Standardwerk von Wotjak (1992, 5; 12) ist eine Modellierung der verbalen Phraseolexeme anhand einer valenzzentrierten komplexen Mehrebenenbeschreibung. Die Aktantenreduktion der phrasemexternen Valenz in der Rede gilt als das Typische des PHRASgebrauchs. Eine auf Mehrwortlexeme angewendete Valenz entwickelt eine graduierte Wertigkeit, die ihre Kreise zieht und eine Vielzahl und Vielfalt von Elementen in ihren Bann reißt. PHRASvalenz ist ein Multiplikationsfaktor, den Wörterbücher in ihren Mikrostrukturen morphosyntaktisch zu erfassen haben. Die Güte phraseographischer Werke besonders für den Fremdsprachler wird vielseits ganz entschieden nach Valenzkriterien beurteilt. Vorwiegend skandinavische Arbeiten begründen interlinguale Konvergenzen und Divergenzen auf intralingualem Valenzverhalten. Piitulainen (1996) vergleicht die äußere Valenz von Verbidiomen, häufig ein- und zweiwertig, mit vielfältigen finnischen Entsprechungen für die deutschen Dativergänzungen der Pertinenz bzw. (in)commodi: jdm. wird schwarz vor den Augen, jdm. vergeht das Lachen, jdm. platzt der Kragen. Als logisch-semantisches Strukturierungsprinzip bewährt sich Valenz für mehrere Wortklassen. In Anlehnung an das Verb wurde über dessen Nominalisierung der Substantivbereich begangen, ausgehend von der Modifikation der externen Valenzen, bis zu den lexikalischen Fügungen (Schumacher 1977). Angesichts der seither immer deutlicher gewordenen Tendenz der Gegenwartssprache zum Nominalstil widmen sich jüngste Arbeiten zu Kollokatoren und Kollokaten den Phraseotermini einzelner Fachbereiche (Gre´ciano 1996, 1998). Sommerfeldt/Schreiber (1977) haben ganz entschieden die Bewusstwerdung der Valenz und Distribution von Substantiven gefördert. Wenn die Semantik auch eine karge Merkmalanalyse blieb /⫹/⫺ anim, ⫹ hum, ⫹abstr/, so stützten sich die Autoren auf Behaghels Substantivklassifikation in absolute (Lebewesen, Sa-
845 chen, Naturerscheinungen, Allgemeinbegriffe) sowie relative (Teilbegriffe: Anfang, Stärke, Trauer) und besonders Relationsbegriffe: Vater, Besitz, Ähnlichkeit, Überbringer, Liebe). Substantive als Valenzträger sind Täter-, Beziehungs-, Tätigkeits-, Vorgangs-, Zustands- und Eigenschaftsbezeichnungen. Wichtiger als die Zahl der Valenzglieder, die sich nach den zugrundeliegenden Begriffen richtet, ist ihr Abhängigkeitsgrad (bis zu 3 Stufen der Valenzhierarchie) und ihre Form (Genitiv-, Präpositional-, Verbgruppen), weil sie die Struktur der Substantivgruppe bestimmen, die zu kennen Voraussetzung des kompetenten Sprechers der Gegenwart in Alltag, Presse und Fachbereichen ist. Bresson/Kubczak (1998) bieten eine aufschlussreiche Bilanz über eine inzwischen autonome und vielfältige Nominalvalenz, die ansetzt auch zur lexikalischen Kombinatorik. In der Phrasforschung erkennen bereits frühe Arbeiten zur Gemeinsprache NominalPHRAS als morphosyntaktische Klasse: Tag und Nacht, öffentliche Meinung, Gebot der Zeit, führende Rolle der Partei der Arbeiterklasse. Fleischer (1982) erfasst sie deskriptiv vorwiegend nach Wortklassen (Wortpaar, adjektivisches Adjektiv ⫹ Substantiv, Substantiv ⫹ attributives Substantiv im Genitiv). Die selten unikale aber häufig onymische Natur der Substantivbasis findet Erwähnung; ihr (nicht/voll/teil)idiomatischer Charakter steht zur Diskussion. Eine hohe Frequenz von NominalPHRAS/Nominationsstereotypen/Phraseotermini bestimmt die Fachsprache. Bereits bei Rothkegel (1973) ist die terminologische Natur dieser Syntagmen deutlich zu erkennen: Weißes Haus, geschlossene Gesellschaft, Rotes Meer, Henkel trocken, Brief und Siegel, perpetuum mobile, Gemeinschaft der Heiligen, Tag der offenen Tür, Kleid von der Stange. Nachdem Terminologen (Arntz/Picht 1992) den Ausschlag gaben zur Zusammenarbeit mit Phraseologen im Bereich phras Termini/terminologischer Phraseme, widmet sich die jüngste Phraseologieforschung den Substantivkollokationen, wobei sich die Valenz als interessanter struktureller Erklärungsansatz zeigt für die Kombinatorik des Kollokators und die Potenz für jene des Kollokats und die Brücke schlägt zur Bedeutungsinteraktion der Konstituenten. Die Fachsprachen der Medizin, des Rechts, der Wirtschaft und des Sports entfalten sich als äußerst phras, wobei der Verbal- und Nominalsyntax dieser Einheiten besondere semantische Funktionen zuzuerkennen sind.
846
3.
VI. Valenz: Schwerpunkte der Forschung
Valenz als inhaltlicher Erklärungsansatz für Phraseme
Die fruchtbarste Begegnung von Valenz und Phras ereignet sich auf dem Gebiet der Semantik, wo sie zur Lösung der komplexen, weil dualen Figuriertheit beiträgt. In den frühesten Ansätzen auf feste Merkmalkombinate beschränkt, mit einer allmächtigen restriktiven Selektion abgetan, aber nicht erklärt, entfalten sich Mehrwortlexeme als idealer Untersuchungsgegenstand für aktuelle Modelle der Semantik und Pragmatik. Mehrere sowohl system- als auch textorientierte Arbeiten sind und werden in dieser Richtung unternommen. Bereits Torzova (1983) zeigt, dass bei Nicht-Trennung zwischen interner und externer Valenz quantitative Unterschiede als semantische Indikatoren fungieren: bei 68 % der verbalen PHRASformative liegt die Valenz unter der ihrer Homonyme. Aus der Perspektive der Bedeutung ergibt sich die sehr deutliche Tendenz, den Begriff der Valenz zu differenzieren, ihn intensional und extensional zu bereichern, ihn als Erklärung anzupassen an außersprachliche, besonders sach- und situationsbedingte Verbindlichkeiten, die die Wiederverwendung von Wortgruppenlexemen bestimmen. Die Festgeprägtheit bzw. Stabilität reicht hier über die Distribution hinaus bis in die diesen Sprachzeichen inhärente Wirklichkeit. Es ereignet sich eine referentielle Verankerung, die zu Übergängen zwischen interner und externer Valenz und somit zur Aufhebung von deren Trennung führt. In der empirischen Auseinandersetzung mit Text- und Diskursmaterial zeichnet sich eine Verschiebung der Pole ab, die zu einem neuen Kräfteverhältnis führt und eine hierarchische Iteration von Abhängigkeiten zu erkennen gibt: die jeweiligen Begriffe bzw. Themen und Situationen als Valenzträger, die ihnen entsprechenden PHRAS als Valenzglieder, mit ihrerseits Verben und Substantiven als Valenzfunktoren/kollokatoren, Substantiven, Adverbien und Adjektiven und deren Substituten als Valenzargumente/-kollokate. Die Sachverhaltsgebundenheit phras Einheiten wird in deren Konstituenten augenfällig. In dieser Richtung bleibt Wotjaks Mikrostrukturanalyse (1992, 42) auch weiterhin verheißungsvoll; Kasusrahmen bestimmen die Stelligkeit und Distribution der Argumente. Propositionalsemantik verbündet mit Rollensemantik ergründen und begründen die Polylexikalität, Fixiertheit und Figuriert-
heit dieser Zeichen: PHRASformative als logische Argumente und Tiefenkasus. Die Begriffsabhängigkeit der PHRAS wird in Wotjaks (1992, 14; 33) systemorientierter Arbeit anhand der semantischen Makrostruktur besonders deutlich, die Feldoberbegriffe u. a. der psychischen, physiologischen Zustände, des Besitzwechsels, der Mitteilung. Es sind die differenzierten und stratifizierten Abhängigkeiten, die zu diesem modular-integrativen Beschreibungsmodell führen. Parallel dazu aber unabhängig davon gehen mehrere Korpusanalysen auf das Phänomen ein. Kognitive Semantik zu den überraschend häufig lexikalisierten Metaphern der Alltagssprache gibt für Valenzglieder bzw. Kollokate der Verbal- und NominalPHRAS die Herkunftsbereiche und Rollen der heuristischen Bilder zu erkennen; die Valenzträger bzw. Kollokate und Funktoren stehen für den Begriff. Baldauf (1997) bietet ein besonders ergiebiges Korpusmaterial, das für die Interferenz von Phras und Valenz weitere interessante Aufschlüsse erlaubt (Gre´ciano 1998). Valenzträger als Funktoren und Kollokatoren machen Abstrakta zu Objekten, Pflanzen und Menschen: Maßnahmen ergreifen, wucherndes Denken, die Partei aus der Taufe heben; Valenzglieder als Argumente und Kollokate machen Raum zu Zeit: an der Schwelle des 20. Jahrhunderts; bewerten Abstrakta anhand von Licht: glänzender Sieg, düstere Gedanken, veranschaulichen und verkörpern Begriffe unserer Gesellschaft: Fundament der Koalition, Eckstein von Maastricht, das Dach der NATO/EU, das Haus Europa. Die Literatur macht sich die Phras der Alltagssprache zu eigen, besonders das Theater: in Raimunds Volks- und Brechts Lehrstücken zieht die jeweilige Thematik bzw. Ideologie ihre phras Kreise: die Unterwürfigkeit des kleinen Mannes: sich in den Staub/zu jds. Füßen werfen, die Geldgier: gut/schlecht bei Kassa sein, sein Schäfchen ins Trockene bringen, Alltagsverhalten aus der Sicht der Mathematik: einen Bogen machen um vs. einen Kreis schreiben, schnurgerade zukommen auf/die kürzeste Strecke zwischen zwei Punkten wählen (Gre´ciano 1990, 1994). Die Fachsprache der Medizin arbeitet für Nominationen und Definitionen mit phras Versatzstücken, die im Herzrhythmusbereich um bis zu 78 % gemeinsprachliche Kollokatoren und mit bis zu 50 % gemein- bzw. fachsprachlichen Kollokaten gebildet sind (Gre´ciano 1996). Substantivkollokatoren benennen das pathologische Geschehen: Erregung,
61. Probleme der Valenz in der Phraseologie
Störung, Stillstand, Extrasystole; ihre Valenz fixiert in den Kollokaten determinierende, lokalisierende, beschreibende und bewertende Erklärungen oft über Geschehensträger: Rechtsverspätung, Kammerflimmern, linksanteriorer Faszikel, elektrische Kammeraktion, vorzeitige Erregung, steile Achse. Das Amtsblatt der Europäischen Institutionen wurde auf seinen PHRASgebrauch hin geprüft, in den Rechtsvorschriften (Reihe L), in den Mitteilungen und Bekanntmachungen (Reihe C) (Gre´ciano 1998). Schablonenhafte Formen und Strukturen prägen Satzungen und Verordnungen. Die Nomination der Rechtsakte ist eine sekundäre; als solche steht sie als Titel und Eintrag ins Sachregister: Verordnung des Rates vom 28. November 1994 zur Errichtung eines Übersetzungszentrums für die Einrichtungen der Europäischen Union. Phras schafft Europarealität. Der Kollokator fixiert das Geschehen: Verordnung; die Kollokate in ihren bereits von Sommerfeldt/Schreiber (1977) archivierten Formen die teilhabenden Instanzen: Agens, Zeit, affiziertes und effiziertes Objekt, Finativ, Benefaktiv, Ort. Valenzanalysen entpuppen sich als wertvolles Raster für die syntaktischen und semantischen Rollen des Europaverordnungsbereichs. Phras Merkmale scheinen für diesen Bereich vorherbestimmt; Mehrgliedrigkeit ist ein Echo auf die Komplexität dieses Sachverhalts; Festgeprägtheit auf die Wortlautgebundenheit von Rechtsgültigkeit und Vollzugskraft. Sie rechtfertigen die Formelhaftigkeit von Normen. Performative Formeln ritualisieren die Organisation des Rechtstextes und Phras ist die Garantie für dessen Verbindlichkeit. Wie valenzstrukturiert der Sachverhalt über Bildkomponenten die Begriffsbedeutung der Idiome prägt, wurde für mehrere Textsorten gezeigt, besonders der Ökologie, der Informatik und der Wirtschaft (Jahr 1997, Rothkegel 1997 und Delplanque 1995): Hinsterben der Wälder, Bekämpfung des Waldsterbens, drastische Herabsetzung der Emission; Text ausschneiden/einfügen/einblenden/ausblenden/nach oben/unten verschieben; die privaten Haushalte sparen/konsumieren; der Staat erhebt Steuern; die Preise steigen/ sinken. Die Präferenzen bestimmter Begriffe für gewisse Bildfelder in gewissen Abhängigkeitsstrukturen sind zu erkennen: in der Computerphras zum Lebensraum Büro: Ordner anlegen; Papierkorb entleeren (Rothkegel 1997); im Sport zum Leitthema Erfolg: Wind in den Segeln haben; eine Medaillenchance ha-
847 ben; sein Schiffchen zu steuern wissen; jdn. nicht zum Zuge kommen lassen (Drillon 1997). Eine pragmatische Ausrichtung der Valenzdefinition erlaubt es, nicht nur individuelle Gebrauchsformen usueller PHRAS über Weglassung fakultativer und freier Glieder und Perspektivierung zu erklären, sondern auch die traditionellerweise weniger beachteten situationsgebundenen PHRAS/e´noce´s lie´s (Fonagy 1997, Martins-Baltar 1995)/linked constructions (Gebruers 1994) in die Phrasforschung miteinzubeziehen. Bei Kommunikativen Formeln besteht eine so enge Bindung des PHRAS, u.zw. eines ganz bestimmten, in bestimmter Form und Funktion, an den äußeren Umstand, dass diese oft bereichs-, bzw. kulturspezifisch bedingte situationelle Solidarität keine Alternative gestattet. Gerade diese Feststellung veranlasst Hausmann (1997) zur These, alles in der Fremdsprache sei idiomatisch. Es sind die Umgangs-, Konversations-, Höflichkeits-, Briefund Routineformeln des Alltags, „gebrauchsfertig für bestimmte Situationen zur Verfügung stehende Formeln“ (Wotjak 1992, 8). Es handelt sich aber auch um die performativen Äußerungen des technischen, wissenschaftlichen und verwaltenden Diskurses der Muttersprachen, so dass eine pragmatische Valenz für die besonders von der Kommunikations- und Terminologieforschung gewünschte und geförderte spezielle Phras hilfreich geworden ist. In diesem Bereich sind es die Situationen des Alltags, die als Valenzträger fungieren; sie werden durch Routineformeln geregelt als ihre Valenzglieder. Mit der Situationsadäquatheit des PHRASgebrauchs beginnt laut Coulmas (1981) die Pragmatik der Idiomatik. Alltagssituationen ⫺ Kommen und Gehen, Kontakt und Gespräch, Feier und Trauer ⫺ werden zum Redeanlass, und Gebrauchsfloskeln erfüllen ihre Kommunikationsfunktion: Grüß Gott! Schönen guten Morgen! Darf ich Sie bekanntmachen mit? Alles Liebe und Gute! Mein aufrichtigstes Beileid! Dürfte ich Sie um Rat/Beistand/Hilfe bitten? Aufrichtigen/Herzlichen Dank! Bitte um Verzeihung! Die situationelle Festgeprägtheit dieser Formeln betrifft auch ihre Sequenzierung: A. Darf ich vorstellen? B. Sehr erfreut! C. Ganz meinerseits. Sie untersagt Wiederholung: A. Alles Gute! B. Danke gleichfalls! *A. Danke gleichfalls! Gesprächsanalysen geben deutlich die PHRAS-auslösenden Valenzsituationen zu erkennen:
848
VI. Valenz: Schwerpunkte der Forschung
⫺ Einleitung: weißt Du was? Nein/Ja, was denn? Aller Anfang ist schwer; jetzt fangen wir neu an; damit hat es folgende Bewandtnis; ⫺ Schluss: alles in allem; kurz und gut; Ich komme nunmehr zum Schluss meiner Ausführungen; um auf … zurückzukommen; ist vorbei; ist passiert; Pech gehabt. Ende gut, alles gut; das Ende vom Lied. ⫺ Orientierungsstrategie: was meinst Du dazu? Wir wollen erst gar nicht darüber reden; wenn ich so sagen darf; lass’ mich mal nachdenken/ausreden. ⫺ Metakommunikation: wie gesagt; wollen wir mal sagen; Was Sie sagen, ist alles schön und gut, aber …; um auf Deine Frage zurückzukommen; Was soll das heißen/bedeuten; Können Sie mir folgen? Der langen Rede kurzer Sinn. ⫺ Illokution: ich muss Dir leider mitteilen/sagen; das ist doch allerhand; das ist doch nicht zu fassen; das fehlt gerade noch; und ob! uind wie! Hauptsache, ist; ob Du glaubst oder nicht; Meiner Meinung nach. Auf Grundlage von Texten und Rede weitet sich die an Einzelsätzen erworbene Erkenntnis zur Valenz. Festgeprägte Valenz ist eine relative, komplexe und reziproke Abhängigkeit zwischen Wortklassen, ihren Bild- und Begriffsbedeutungen und den Äußerungssituationen. PHRAS passen gut für Konstruk´ gel 1995), denn Ko- und tionsmodelle (A Kontext zeigen nicht nur die Angemessenheit einer Phrasemtheorie, sondern sie erzeugen sie. Linguistik als Symbiose von Sprach-, Text- und Weltwissen ist der adäquate Rahmen für die Erklärung von Phras über die Valenz; erfreulicherweise bringt sie als Korpusarbeit mehr Lösungen als Probleme, was die lexikographische Umsetzung vielversprechend macht.
4.
Literatur in Auswahl
´ gel, Vilmos (1995): Konstruktion oder RekonA struktion? Überlegungen zum Gegenstand einer radikal konstruktivistischen Linguistik und Gram´ gel, Vilmos/Brdar-Szabo´, Rita (Hgg.) matik. In: A (1995): Grammatik und deutsche Grammatiken. Tübingen, 3⫺22. Arntz, Reiner/Picht, Heribert (1992): Einführung in die Terminologiearbeit. Hildesheim. Baldauf, Christa (1997): Metapher und Kognition. Grundlagen einer neuen Theorie der Alltagsmetapher. Frankfurt/Berlin/Bern/New York/Paris/Wien. Bresson, Daniel/Kubczak, Jacqueline (Hgg.) (1998): Abstrakte Nomen. Vorarbeiten zu ihrer Erfassung in
einem zweisprachigen syntagmatischen Wörterbuch. Tübingen. Burger, Harald (1998): Phraseologie: Eine Einführung am Beispiel des Deutschen. Berlin. Burger, Harald/Buhofer, Annely/Sialm, Ambros (1982): Handbuch der Phraseologie. Berlin. Coulmas, Florian (1981): Routine im Gespräch. Zur pragmatischen Fundierung der Idiomatik. Wiesbaden. Delplanque, Carine (1995): Phrase´ologie et terminologie du discours e´conomique allemand. Lille. Drillon, Marie-Laurence (1997): Phraseme des Erfolgs: ein molekularer Beschreibungsansatz. In: Gre´ciano, Gertrud/Rothkegel, Annely (Hgg.) (1997), 61⫺80. Fleischer, Wolfgang (1982): Phraseologie der deutschen Gegenwartssprache. Leipzig. Fonagy, Ivan (1997): Figement et changement se´mantique. In: Martins-Baltar, Michel (ed.) (1997), 131⫺164. Gebruers, Rudi (1994): Tournures: where valency and idiomaticity meet. In: International Journal of Lexicography. Vol. 7, 158⫺176. Gre´ciano, Gertrud (1972): Les applications de la grammaire de de´pendance a` l’allemand. The`se Paris-Sorbonne. Gre´ciano, Gertrud (1982): La se´mantique des expressions idiomatiques. Paris. Gre´ciano, Gertrud (1990): Remotivierung ist textsortenspezifisch. In: Palm, Christine (1990): EUROPHRAS 90. Akten der internationalen Tagung zur germanistischen Phraseologieforschung. Uppsala, 91⫺100. Gre´ciano, Gertrud (1994): Phraseologische Text(in)kohärenz. In: Cahiers d’e´tudes germaniques 27, 93⫺103. Gre´ciano, Gertrud (1996): Herzrhythmusphraseologie aus der Sicht der kontrastiven Textologie. In: Lexicology 2.96, 155–175. Gre´ciano, Gertrud (1998): Europaphraseologie im Vergleich. In: Eismann, Wolfgang (Hg.) (1998): EUROPHRAS 95. Europäische Phraseologie im Vergleich: Gemeinsames Erbe und kulturelle Vielfalt. Bochum, 247⫺262. Gre´ciano, Gertrud/Rothkegel, Annely (Hgg.) (1997): Phraseme in Kontext und Kontrast. Bochum. Günther, Heide/Pape, Sabine (1976): Funktionsverbgefüge als Problem der Beschreibung komplexer Verben in der Valenztheorie. In: Schumacher, Helmut (Hg.) (1996), 92⫺129. Hausmann, Franz Josef (1997): Tout est idiomatique dans les langues. In: Martins-Baltar, Michel (ed.) (1997), 277⫺290. Helbig, Gerhard/Buscha, Joachim (1972): Deutsche Grammatik. Ein Handbuch für den Ausländerunterricht. Leipzig.
61. Probleme der Valenz in der Phraseologie Helbig, Gerhard/Schenkel, Wolfgang (19732): Wörterbuch zur Valenz und Distribution deutscher Verben. Leipzig. Heringer, Hans Jürgen (19732): Theorie der deutschen Syntax. München. Jahr, Silke (1997): Sachaspekt und Mehrwortigkeit im Textvergleich. In: Gre´ciano, Gertrud/Rothkegel, Annely (Hgg.) (1997), 129⫺146. Korhonen, Jarmo (1995): Studien zur Phraseologie des Deutschen und des Finnischen. Bochum. Korhonen, Jarmo (Hg.) (1996): Studien zur Phraseologie des Deutschen und des Finnischen II. Bochum. Leirbukt, Oddleif (1976): Vorschläge für eine operationelle Untersuchung als Vorarbeit für die Unterscheidung zwischen Verbzusatz und Satzglied im Bereich der adjektivischen Elemente. In: Schumacher, Helmut (Hg.) (1976), 75⫺91. Martins-Baltar, Michel (1995): Enonce´s de motif usuels: figures de phrase et proce`s de de´raison. In: Martins-Baltar, Michel (ed.) (1995): La locution en discours. Paris, 87⫺118. Piitulainen, Marja-Leena (1996): Zur (äußeren) Valenz der deutschen und finnischen Verbidiome. In: Korhonen, Jarmo (Hg.) (1996), 157⫺244.
849 Rothkegel, Annely (1973): Feste Syntagmen. Grundlagen, Strukturbeschreibung. Automatische Analyse. Tübingen. Rothkegel, Annely (1997): Mehrwortlexeme in der Softwaredokumentation. In: Gre´ciano, Gertrud/ Rothkegel, Annely (Hgg.) (1997), 177⫺190. Schumacher, Helmut (Hg.) (1976): Untersuchungen zur Verbvalenz. Tübingen. Schumacher, Helmut (1977): Zur Valenz von Nominalisierungen und ihre Erfassung im Wörterbuch. In: Schumacher, Helmut (Hg.) (1977): Linguistik. Beschreibung der Gegenwartssprachen. Kongreßbericht III der GAL. Trier. Sommerfeldt, Karl Ernst/Schreiber, Herbert (1977): Wörterbuch zur Valenz und Distribution der Substantive. Leipzig. Sternkopf, Jochen (1988): Valenz und Phraseologie. In: Kelling, I. (Hg.): Germanistisches Jahrbuch DDR-CSSR. Prag, 328⫺337. Torzova, Marina V. (1983): Zur Valenz der Phraseologismen. In: Deutsch als Fremdsprache 20, 283⫺ 287. Wotjak, Barbara (1992): Verbale Phraseolexeme in System und Text. Tübingen.
Gertrud Gre´ciano, Strasbourg (Frankreich)